"AI 딥페이크 공격 보다 고도화…기존 PAD 기술 외 다양한 기술 활용해야"

기자정보, 기사등록일
윤선훈 기자
입력 2024-02-05 09:03
    도구모음
  • AI 기사요약
  • * AI기술로 자동 요약된 내용입니다. 전체 맥락과 내용을 이해하기 위해서는 기사 본문 전체를 보시길 권장합니다

    오는 2026년에는 인공지능(AI) 딥페이크 공격으로 인해 기업의 30%가 신원 확인 혹은 인증 솔루션을 더 이상 단독으로 신뢰할 수 없게 될 전망이다.

    오늘날 얼굴 생체 인식을 이용한 신원 확인과 인증 프로세스는 사용자의 진위 여부 평가를 위해 PAD(Presentation attack detection) 기술을 활용하고 있다.

    칸 애널리스트는 "PAD 메커니즘을 정의하고 평가하는 현재의 기준과 테스트 프로세스는 최신 AI 생성 딥페이크를 이용한 디지털 인젝션 공격을 구분해내지 못한다"고 지적했다.

  • 글자크기 설정
  • 가트너 분석…"2026년까지 기업의 30%, 신원 확인·인증 솔루션 단독으로 신뢰하기 어려워"

사진가트너
[사진=가트너]
오는 2026년에는 인공지능(AI) 딥페이크 공격으로 인해 기업의 30%가 신원 확인 혹은 인증 솔루션을 더 이상 단독으로 신뢰할 수 없게 될 전망이다.

5일 가트너는 이 같이 예측했다. 아키프 칸 가트너 VP 애널리스트는 "지난 10년 동안 AI 분야는 수많은 변곡점을 거치면서 합성 이미지 생성이 기능해졌는데, 이렇게 인공적으로 생성된 실존 인물의 얼굴 이미지는 '딥페이크'로 잘 알려져 있다"며 "악의적인 공격자가 생체 인증을 약화시키거나 비효율적으로 만드는 데 사용될 수 있다"고 말했다. 그는 그러면서 "결과적으로 조직은 인증 대상자의 얼굴이 실제 사람인지 딥페이크인지 구분할 수 없기 때문에 신원 확인과 인증 솔루션의 신뢰도에 의문을 제기하기 시작할 것"이라고 덧붙였다.

오늘날 얼굴 생체 인식을 이용한 신원 확인과 인증 프로세스는 사용자의 진위 여부 평가를 위해 PAD(Presentation attack detection) 기술을 활용하고 있다. 칸 애널리스트는 "PAD 메커니즘을 정의하고 평가하는 현재의 기준과 테스트 프로세스는 최신 AI 생성 딥페이크를 이용한 디지털 인젝션 공격을 구분해내지 못한다"고 지적했다.

가트너에 따르면 2023년에는 인젝션 공격이 200%나 증가한 것으로 나타났다. 이러한 공격을 막아내기 위해서는 PAD, IAD(Injection attack detection)와 이미지 검사 기술을 함께 사용해야 한다는 것이 가트너의 제언이다.

칸 애널리스트는 "기업들은 공급업체들 중 이미지 검사와 결합된 IAD를 사용해 최신 딥페이크 기반 위협을 완화하는 데 특별히 투자해 온 업체와 협력, 최소한의 제어 기준을 정의하기 시작해야 할 것"이라고 강조했다. 이러한 전략을 정의하고 기준을 설정한 후에는 디바이스 식별, 행동 분석과 같은 추가적인 리스크·인식 신호를 포함시켜 신원 확인 프로세스의 공격 탐지 확률을 높여야 한다.

특히 ID·액세스 관리를 담당하는 보안·위험 관리 리더들은 실제 사람의 존재 여부를 증명할 수 있는 기술을 도입하고 계정 탈취를 방지하는 추가적인 단계를 구축하는 등 AI 기반 딥페이크 공격 위험을 완화할 수 있는 조치를 취해야 한다는 것이 가트너의 제언이다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기