이 행사는 최근 급성장하고 있는 초거대언어모델(LLM)의 안전성, 신뢰성, 보안 강화 방법을 모색하기 위해 기획됐다. 과학기술정보통신부가 주최하고 한국정보통신기술협회(TTA)와 초거대 AI추진협의회가 주관하며, 내달 11~12일 양일간 개최된다.
11일에는 실제 서비스되고 있는 LLM에 참가자들이 모의로 공격을 해 모델의 안전성을 검증하는 ‘생성형 AI 레드팀 챌린지’ 대회가 열린다. 전공과 상관없이 AI 윤리, 안전에 관심이 있는 국민 누구나 사전 신청을 통해 참여할 수 있다. 우수 참가자들에게는 총 1700만원 규모의 상금이 제공된다.
12일에는 ‘안전한 AI 개발’을 주제로 국내외 AI 기술 리더들이 모여 발표와 의견 교류를 나눈다. 북미 AI 스타트업 ‘코히어’의 공동 창업자인 에이단 고메즈, AI 윤리·안전 포럼 ‘프런티어 모델 포럼’의 대표이사 크리스 메세롤을 비롯한 다양한 인사들이 참석한다.
하정우 네이버 퓨처 AI 센터장은 연사로 참여한다. 이 자리서 안전한 AI 개발을 위한 네이버의 노력을 소개할 예정이다. 하 센터장은 “하이퍼클로바X의 안전성을 검증 및 강화하는 것은 물론, 여러 선행 연구와 서비스 운영 경험을 통해 쌓아온 네이버의 AI 안전성 기술 역량을 공유할 것”이라고 말했다.
김유원 네이버클라우드 대표도 행사 주관 기관인 초거대 AI추진협의회 회장사 대표로서 축사를 진행한다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지