카이스트 "챗GPT, 개인정보 수집ㆍ피싱에 악용될 수 있어"

기자정보, 기사등록일
나선혜 기자
입력 2025-02-24 11:08
    도구모음
  • 글자크기 설정
  • 상용 LLM, 사이버공격 이용 막고 있지만 쉽게 우회 가능해

  • 챗GPT 비롯한 LLM 에이전트 목표 대상 개인 정보 95.5% 정확도로 수집

사진카이스트
(윗줄 왼쪽부터) KAIST 전기및전자공학부 박사 나승호, KAIST 김재철AI대학원 교수 이기민 (아랫줄 왼쪽부터) KAIST 전기및전자공학부 박사과정 김한나, KAIST 전기및전자공학부 교수 신승원, KAIST 전기및전자공학부 박사과정 송민규 [사진=카이스트]
챗GPT와 같은 거대 언어 모델(LLM) 에이전트가 개인정보 수집과 피싱 공격 등에 활용될 수 있음이 입증됐다.

24일 한국과학기술원(KAIST)에 따르면 신승원 전기·전자공학부 교수, 이기민 김재철 AI 대학원 교수 공동연구팀이 실제 환경에서 LLM이 사이버 공격에 악용될 가능성을 실험적으로 규명했다. 

현재 오픈AI, 구글AI 등 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다. 

연구팀의 실험 결과 이 방어 기법을 쉽게 우회에 악의적인 사이버 공격을 수행할 수 있음이 확인됐다. 특히 기존 공격자들이 시간과 노력이 많이 필요한 공격을 수행했던 것과 달리, LLM 에이전트는 이를 평균 5~20초 내 30~60원 수준의 비용으로 개인정보 탈취가 가능했다. LLM 에이전트는 목표 대상의 개인정보를 최대 95.9% 정확도로 수집했다. 저명한 교수를 사칭한 허위 게시글 생성 실험에서는 최대 93.9% 게시글이 진짜로 인식됐다. 

피해자 이메일 주소만 이용해 피해자에게 최적화한 정교한 피싱 이메일도 생성할 수 있었다. KAIST에 따르면 실험 참가자들이 이 피싱 이메일 내 링크 클릭 확률은 46.67%까지 증가하는 것으로 나타났다.

제 1 저자인 김한나 연구원은 "LLM에게 주어지는 능력이 많아질수록 사이버 공격의 위협이 기하급수적으로 커진다는 것이 확인됐다"며 "LLM 에이전트 능력을 고려한 확장 가능한 보안 장치가 필요하다"고 말했다. 

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기