
김 교수는 인공지능(AI) 모델을 경량화하고, 경량화한 모델을 효율적으로 연산하는 반도체 가속기를 개발해 다양한 환경에서 저전력으로 활용 가능한 AI 기반기술을 제시한 공로로 선정됐다.
최근 대규모 언어모델(LLM) 확산으로 전력 사용이 급증하자 인공지능(AI) 모델의 효율을 높이기 위한 경량화 연구가 속도를 내고 있다.
김 교수는 소프트웨어 기반 모델 압축 기술과 하드웨어 기반 반도체 가속기를 통합해 경량화한 모델을 효율적으로 지원하는 전용 반도체 가속기를 개발했다. 가변적인 비트 정밀도를 갖는 AI 경량화 모델을 하나의 가속기 회로로 지원하는 제시했다. 또 면적과 전력 부담이 적은 정수형 연간기를 사용해도 동일한 수준의 정확도를 달성할 수 있다는 점도 핵심 성과다.
김 교수는 "앞으로 소비전력을 최소화할 수 있는 저전력 회로 설계 연구에 매진해 AI 지속 가능한 발전에 기여하고 싶다"며 "이번 연구성과가 전력 소모가 중요한 모바일 환경에서도 AI 연산을 가능하게 하는 핵심 원천 기술로 활용될 것으로 기대한다"고 말했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지