日, 'AI 무기 지침' 첫 발표… 고위험 무기 개발 제한

  • 인간의 AI 무기 통제 여부 심사

나카타니 겐 일본 방위상 사진연합뉴스
나카타니 겐 일본 방위상 [사진=연합뉴스]
일본 방위성이 인공지능(AI)을 활용한 무기의 연구·개발과 관련된 지침을 처음 책정해 발표했다고 아사히신문과 요미우리신문 등이 7일 보도했다.

방위성은 전날 발표한 지침에서 인간이 관여하지 않아도 AI가 자율적으로 목표물을 정해 교전하는 '치명적 자율무기(LAWS)'는 연구·개발을 허용하지 않기로 하고, AI 무기 개발 시 인간 책임을 명확히 한다고 규정했다.

AI 탑재 무기 연구·개발 심사는 세 단계로 진행된다. 우선 AI 무기를 '고위험'과 '저위험'으로 나눈다. 고위험은 AI가 대상을 특정해 바로 공격할 수 있는 무기, 저위험은 공격 시 인간 판단이 개입되는 무기가 해당한다.

고위험 무기로 분류되면 국제법·국내법을 준수하는지, LAWS로 볼 수 있는지 등 법률 관련 심사를 한다. LAWS로 판단되면 연구·개발을 허용하지 않는다. 이어 인간의 AI 무기 통제 여부와 안전성 등 기술 관련 심사를 실시한다.

나카타니 겐 방위상은 지침에 대해 "AI 활용에 따른 위험을 줄이면서 혜택을 최대화할 수 있는 내용"이라고 말했다.

아사히는 "AI 무기는 잘못된 판단을 할 우려가 있어서 국제적으로 개발 규제 방식이 논의되고 있다"며 "이번 지침은 AI 위험성 관리의 기준을 보여준 것으로, 일본 내에서 무기 개발 시 AI 활용을 촉진하려는 의도도 있다"고 전했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기