신진우 한국과학기술원(KAIST) 인공지능(AI) 대학원 석좌교수는 9일 서울 중구 더 플라자 호텔에서 아주경제신문 주최로 열린 제12회 '착한 성장, 좋은 일자리 글로벌포럼(GGGF)'에서 이같이 강조했다. 이날 '딥러닝의 역사와 동향'에 관한 주제로 강연을 펼친 신 교수는 머신러닝, 딥러닝 알고리즘 등을 연구하는 세계적 석학이다.
신 교수는 "딥러닝을 통계, 수학, 컴퓨터 과학이라고 여기는 학자들도 있지만, 딥러닝은 방정식을 풀거나, 논문을 읽고 답하는 등의 단순 인지를 넘어 고차원적인 인지 학습에 대한 연구로 나아가고 있다"고 강조했다.
◆현실로 들어온 인공지능
신 교수는 이날 딥러닝이 비전(영상), 언어인지능력, 강화학습 등의 분야에서 획기적인 발전을 이뤘다고 강조했다. 우선 영상 분야에서는 '게임체인저'(어떤 결과나 흐름의 판도를 뒤바꿀 만한 중요한 사건)로 여겨지는 '2012년 이미지넷' 대회를 언급했다. 이미지넷은 무려 1000개가 넘는 카테고리로 분류된 100만개의 이미지를 인식해 그 정확도를 겨루는 시각지능 대회다.
2012년 대회 이전까지는 기계의 이미지 인식률이 75%를 넘지 못했다. 하지만 2012년 캐나다 토론토대학의 알렉스 크리제브스키 교수 연구팀은 딥러닝을 사용해 이 대회에서 15%의 에러율로 1위를 차지한다. 딥러닝을 사용하지 않은 2위 팀은 26%의 에러율을 보였다. 신 교수는 "이 사건이 일어난 뒤 영상 분야의 기술 트렌드는 딥러닝으로 바뀌었다"고 말했다.
◆인간의 언어능력 모방…강화학습 결정체 '알파고'
신 교수는 인간의 언어인지능력 분야에 대한 딥러닝 기술도 설명했다. 신 교수는 "언어의 경우 영상과 가장 다른 점은 데이터가 시퀀스(Sequence) 데이터라는 점"이라며, 시퀀스 데이터를 잘 처리하기 위한 딥러닝 모델로 LSTM(Long Short-Term Memory), 워드2벡(Word2Vec), 어텐션 메커니즘(Attention Mechanism) 등을 소개했다.
그러면서 2017년 구글이 내놓은 딥러닝 아키텍처 '트랜스포머'와 최근 전 세계에서 화제가 된 'GPT-3'(Generation Pre-traination Transformer) 등을 주목했다. GPT-3는 세계에서 가장 규모가 큰 언어처리 모델로 1750억개의 파라미터를 자랑한다.
기존 AI가 간단한 질문에 답하거나 내장한 대답을 끌어내는 수준이었다면, GPT-3는 사람처럼 말을 알아듣고 대화의 문맥을 파악한다. 신 교수는 GPT-3를 학습시키는 데 약 50억원이 소요됐다고 봤다.
신 교수는 '강화학습'(Reinforcement learning) 분야에서는 추억의 '벽돌게임'을 예로 들었다. 벽돌게임은 바닥에 좌우로 움직이는 장치를 신속하게 이동하면서 공을 튕겨 상단에 위치한 벽돌을 깨는 게임이다.
기계에 룰을 알려주지 않고, 어떤 액션을 취할 경우 점수가 올라간다는 점만 학습시킨다. 초반에는 기계가 겨우 움직이지만, 400판 정도 게임을 반복하면 사람만큼 수준 높은 게임을 하게 된다. 600판이 넘어가면 공을 구석으로 몰아 벽돌을 깨는 등 기계 스스로 가장 효율적인 방법을 찾는다. 이런 기술을 한층 더 강화한 것이 2016년 이세돌과 알파고의 경쟁이다. 알파고는 바둑기사 이세돌 9단을 꺾으며 강화학습의 가능성을 증명했다.
신 교수는 "삼성, LG 등 수많은 기업과 머신러닝, 딥러닝 분야에서 다양한 공동 연구를 진행하고 있다"며 "아직까지는 한계가 있는 분야가 많지만, 앞으로의 가능성은 무궁무진하다"고 강조했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지