미국의 인공지능(AI)를 활용한 이란 공습으로 인해 글로벌 AI 업계에서도 ‘위험관리’에 대한 기업의 태도가 극명하게 갈리고 있다. AI의 개발 속도가 지나치게 빠르다는 인식 아래, 사회적 영향을 연구하는가 기업이 있는가 하면 오히려 AI의 전쟁 등 활용에 속도를 내는 기업도 있다.
12일 앤스로픽은 ‘앤스로픽 연구소’를 공식 출범했다고 밝혔다. 공동창업자 잭 클락이 이끄는 이 조직은 프론티어 레드팀, 사회적 영향 연구팀, 경제 연구팀을 통합·확장한 전담 기관이다.
AI가 초래할 일자리 대량 실업, 경제 구조 변화, 새로운 위협, 재귀적 자기개선, 법치 문제를 연구하고 연구 결과를 외부에 투명하게 공유하는 것이 핵심 목표다.
창립 멤버로는 예일 로스쿨 매트 보트비닉(AI·법치), 버지니아대 안톤 코리넥(경제 변화 연구), 전 오픈AI 조에 히치그 등이 합류했다. 동시에 공공정책팀을 대폭 확대하고 올해 봄 워싱턴DC 첫 사무소를 열어 모델 안전·투명성·수출 통제 등 글로벌 규제에 적극 개입하겠다고 밝혔다.
오픈AI는 지난달 11일 ‘미션 얼라인먼트 팀’을 해체하면서 정반대의 길을 걷고 있다. 2024년 9월 신설된 이 팀은 AGI(인공일반지능)가 인류 전체에 이익이 되도록 내부·외부 소통을 담당했으나, 팀원들은 다른 부서로 분산 배치됐다. 앞선 2023년에는 ‘슈퍼얼라인먼트 팀’과 ‘준비성 팀’을 해체한 바 있다.
최근 펜타곤과 분류 네트워크 공급 계약을 체결하면서 군사용 AI 허용 범위를 넓힌 점도 엔트로픽과 정 반대다. 회사 내부서는 “안전 문화가 제품 속도와 수익에 밀리고 있다”는 비판이 쏟아지고 있다.
퓨처 오프 라이프 인스티튜트(FLI)가 발표한 ‘2025 AI 안전 인덱스’에 따르면, 8개 프론티어 AI 기업 중 최고 점수는 앤스로픽 C+다. 오픈AI와 구글 딥마인드가 C~C+로 뒤를 잇고, 메타·xAI·중국 기업은 대부분 D 또는 F 수준이다. 구글 딥마인드는 내부 안전 거버넌스가 가장 체계적이라는 평가를 받는다.
메타는 라마 시리즈를 오픈소스로 공개하며 “개방이 안전을 가져온다”고 주장했으나, 오픈웨이트 모델 특성상 악용 위험이 높아 FLI로부터 D 판정을 받았다. 이에 마크 저커버그 메타 CEO는 최근 “슈퍼지능 시대에는 모든 모델을 오픈소스화하지 않겠다”며 입장을 선회한 바 있다.
xAI는 안전 투자가 최소 수준이다. 최근 안전 프레임워크를 발표했으나 “부정확성 50% 미만이면 배포 가능”이라는 기준으로 업계 비판을 받았고, 그록이 성적·폭력 콘텐츠 생성에 악용되면서 정부 기관에서도 사용 우려가 제기되고 있다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지



![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



