저사양 GPU로 챗GPT 앞선 中 AI 스타트업 딥시크

기자정보, 기사등록일
권가림 기자
입력 2025-01-24 20:05
    도구모음
  • 글자크기 설정
  • 수출규제로 한단계 성능 낮은 GPU로 대형언어모델 훈련

  • 추론·코딩 벤치마크 테스트서 챗GPT AI 앞서

중국의 AI기업 딥시크의 홈페이지 화면 사진딥시크 홈페이지 캡쳐
중국의 AI기업 딥시크의 홈페이지 화면 [사진=딥시크 홈페이지 캡쳐]

중국의 인공지능(AI) 스타트업 딥시크의 AI가 '추론 AI' 모델 일부 성능 테스트에서 챗GPT를 앞서는 결과가 나와 주목된다. 딥시크는 챗GPT 보다 저렴한 그래픽처리장치(GPU)로 대형언어모델(LLM) 훈련을 마쳐 미국의 수출 규제가 무력화 될 것이라는 분석도 제기되고 있다. 

뉴욕타임스(NYT)는 23일(현지시간) 저성능 GPU를 사용해 교육시킨 딥시크의 챗봇 '딥시크 V3'가 일부 성능 평가에서 오픈AI와 구글의 챗봇을 넘어섰다고 밝혔다. 

딥시크의 기술 보고서에 따르면 딥시크 V3 개발에 투입된 비용은 557만6천달러(약 78억8천만원)에 그친다. 엔비디아의 'H800 GPU'를 시간당 2달러에 2개월 동안 빌린 비용으로 계산됐다. H800은 미국의 고성능 칩 수출 규제로 엔비디아가 H100의 사양을 낮춰 출시한 칩이다.

딥시크는 미국 수학경시대회 AIME 2024 벤치마크 테스트에서 추론 AI 모델이 79.8%를 얻어 오픈 AI의 추론 모델의 79.2%보다 앞섰다고 밝혔다. 코딩 부문 라이브벤치 평가에선 딥시크의 AI가 65.9%의 정확도를 기록해 챗GPT(63.4%) 대비 높았다.

메타의 최신 AI 라마(Llama)3는 최신 칩셋 'H100'으로 훈련시켰다. 딥시크보다 비용이 10배 들었다. 

AI 전문가들은 중국 기업이 엔비디아의 최신 칩을 사용할 수 없어 경쟁에서 뒤쳐질 것으로 예상했지만 결과는 달랐다. 칩 사용량도 크게 줄였다. 챗GPT, 구글 등은 1만6000개 이상의 칩을 사용했지만 딥시크는 2000여개의 칩을 사용했다. 

파이낸셜타임스(FT) 역시 딥시크의 새 기술을 소개하며 "미국의 수출규제가 의도치 않게 혁신을 촉진해 딥시크의 AI 모델 개발비용이 저렴해졌다"고 보도했다.

미국 경제 전문지 포브스와 영국 주간지 이코노미스트 등도 딥시크를 집중적으로 분석했다. 포브스는 벤치마크 평가를 과대평가해선 안 되지만 딥시크가 최신 칩 대신 혁신을 통해 성과를 거뒀다는 점에서 주목할 만하다고 강조했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기