우리는 AI 기술을 인간처럼 그리고 인간을 넘어서도록 연구한다. 주목할 2가지 방법이 있다. 망각을 해결하는 방법과 정확성을 향상하는 방법이다.
현재 AI는 새롭게 학습하거나 빈번하게 미세조정을 하면 기존 지식이 일부 사라진다. 해법은 늘 그렇듯 인간의 뇌에서 착안한다. 지금은 훈련 시 한꺼번에 처리한다. 이 방식을 두뇌처럼 시간 개념의 도입으로 개선한다. 모델을 여러 층으로 분류한다. 층별로 정보를 다양한 시간대에 저장하고 동시에 학습한다. 구글의 중첩 학습 아이디어다. 결코 가볍게 보이지 않는다. 깊이 있게 통찰할 필요가 있다. 미세조정 이슈는 미국 일리노이대학교 어바나-샴페인(UIUC) 연구팀에서 모델의 특정 계층만 선택해 재학습하는 아이디어를 제시했다. 충분히 고찰할 가치가 있다.
오늘날 AI는 '다음에 나올 단어'를 예측하는 확률모델이다. 그래서 대화를 잘한다. 그러나 정확한 업무에는 성과가 저조하다. 타개할 묘수는 '다음에 취할 행동'을 예측하도록 구조를 변경하는 것이다. 신경망에 업무 규칙을 결합하는 방안이다. 여기에 외부 환경과 인터랙션으로 자기 개선하는 에이전트를 탑재하면 품질은 더욱더 좋아진다. LLM(대형언어모델)의 결정을 월드모델이 시뮬레이션으로 검증하여 LLM이 현실 세계에 맞도록 답변을 보강한다. 구글의 시마2(SIMA 2) 아이디어다. AI의 정확성을 극한까지 밀어붙이는 양상이다. 추세에 발 빠르게 올라타야 한다.
우리는 그동안 오픈소스 모델에 의존했다. 최근 전 세계도 다르지 않다. 중국 오픈소스 모델인 딥시크나 큐윈의 점유율이 압도적이다. 그러나 올해 9월에 한국을 대표하는 K-AI(독자 AI 파운데이션 모델) 프로젝트가 발족하면서 분위기는 급반전되었다. 한국어로 사고하고 말하는, 우리가 완전히 통제할 수 있는 모델을 대면할 수 있게 되었다. 때마침 올해 11월에 앨런 AI 연구소(Ai2)에서 ‘올모(Olmo) 3’를 완전 오픈소스로 공개했다.
우리의 이상을 실현하는 데 적합한 실험 대상이다. 추론에 특성화되어 있고 긴 문서 분석, 중장기 에이전트, 코드 생성 등 유익한 장점도 많다. 모델 출력의 출처인 원본 데이터를 추적할 수 있는 도구도 참조할 수 있다. 이제 이러한 기반 위에 수출 견인용 산업특화 AI로 해자를 구축할 일만 남았다. 다만 프로젝트 기간이 마음에 걸린다. 타이밍을 놓칠까 봐 두렵다. 구글 등은 우주데이터센터까지 언급하고 있다. 입술이 바짝바짝 탄다. 길은 하나뿐이다. 그들만의 리그를 무한정으로 무작정 쫓지 않는 것. 내년에 우리 방식대로 승부수를 띄울 것. 우리만의 지혜로 최적화된 인프라·가치사슬과 모델 구축에 성공할 것.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지



![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



