중국의 인공지능(AI) 스타트업 딥시크의 AI가 '추론 AI' 모델 일부 성능 테스트에서 챗GPT를 앞서는 결과가 나와 주목된다. 딥시크는 챗GPT 보다 저렴한 그래픽처리장치(GPU)로 대형언어모델(LLM) 훈련을 마쳐 미국의 수출 규제가 무력화 될 것이라는 분석도 제기되고 있다.
뉴욕타임스(NYT)는 23일(현지시간) 저성능 GPU를 사용해 교육시킨 딥시크의 챗봇 '딥시크 V3'가 일부 성능 평가에서 오픈AI와 구글의 챗봇을 넘어섰다고 밝혔다.
딥시크의 기술 보고서에 따르면 딥시크 V3 개발에 투입된 비용은 557만6천달러(약 78억8천만원)에 그친다. 엔비디아의 'H800 GPU'를 시간당 2달러에 2개월 동안 빌린 비용으로 계산됐다. H800은 미국의 고성능 칩 수출 규제로 엔비디아가 H100의 사양을 낮춰 출시한 칩이다.
딥시크는 미국 수학경시대회 AIME 2024 벤치마크 테스트에서 추론 AI 모델이 79.8%를 얻어 오픈 AI의 추론 모델의 79.2%보다 앞섰다고 밝혔다. 코딩 부문 라이브벤치 평가에선 딥시크의 AI가 65.9%의 정확도를 기록해 챗GPT(63.4%) 대비 높았다.
메타의 최신 AI 라마(Llama)3는 최신 칩셋 'H100'으로 훈련시켰다. 딥시크보다 비용이 10배 들었다.
AI 전문가들은 중국 기업이 엔비디아의 최신 칩을 사용할 수 없어 경쟁에서 뒤쳐질 것으로 예상했지만 결과는 달랐다. 칩 사용량도 크게 줄였다. 챗GPT, 구글 등은 1만6000개 이상의 칩을 사용했지만 딥시크는 2000여개의 칩을 사용했다.
파이낸셜타임스(FT) 역시 딥시크의 새 기술을 소개하며 "미국의 수출규제가 의도치 않게 혁신을 촉진해 딥시크의 AI 모델 개발비용이 저렴해졌다"고 보도했다.
미국 경제 전문지 포브스와 영국 주간지 이코노미스트 등도 딥시크를 집중적으로 분석했다. 포브스는 벤치마크 평가를 과대평가해선 안 되지만 딥시크가 최신 칩 대신 혁신을 통해 성과를 거뒀다는 점에서 주목할 만하다고 강조했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지