
24일 한국과학기술원(KAIST)에 따르면 신승원 전기·전자공학부 교수, 이기민 김재철 AI 대학원 교수 공동연구팀이 실제 환경에서 LLM이 사이버 공격에 악용될 가능성을 실험적으로 규명했다.
현재 오픈AI, 구글AI 등 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다.
연구팀의 실험 결과 이 방어 기법을 쉽게 우회에 악의적인 사이버 공격을 수행할 수 있음이 확인됐다. 특히 기존 공격자들이 시간과 노력이 많이 필요한 공격을 수행했던 것과 달리, LLM 에이전트는 이를 평균 5~20초 내 30~60원 수준의 비용으로 개인정보 탈취가 가능했다. LLM 에이전트는 목표 대상의 개인정보를 최대 95.9% 정확도로 수집했다. 저명한 교수를 사칭한 허위 게시글 생성 실험에서는 최대 93.9% 게시글이 진짜로 인식됐다.
제 1 저자인 김한나 연구원은 "LLM에게 주어지는 능력이 많아질수록 사이버 공격의 위협이 기하급수적으로 커진다는 것이 확인됐다"며 "LLM 에이전트 능력을 고려한 확장 가능한 보안 장치가 필요하다"고 말했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지