30일 업계에 따르면 알리바바는 '큐원(Qwen) 2.5 맥스'를 지난 29일(현지시간) 선보였다. 알리바바는 큐원 2.5 맥스가 20조개 이상의 토큰으로 사전 학습을 했다며 "GPT4o, 딥시크 V3, 라마 3.1보다 거의 모든 면에서 성능이 뛰어나다"고 언급했다. 특히 같은 오픈소스인 딥시크·라마의 성능을 앞섰다는 점이 중요하다고 강조했다.
틱톡 모회사인 바이트댄스는 지난 22일 기존 모델을 강화한 '더우바오(Doubao) 1.5 프로' 모델을 내놓았다. 바이트댄스 역시 자사 언어모델이 딥시크를 비롯해 오픈AI·구글·앤스로픽 등 최신 언어모델보다 전반적인 성능이 앞선다고 강조했다. 또 학습 비용을 낮추면서도 성능 유지에 성공했다고 밝혔다. GPT4o 등보다 적은 개발비로 이들을 앞서는 성능을 구현했다는 딥시크와 같은 장점이다.
중국 스타트업 '문샷AI' 역시 지난 20일 최신 오픈소스 추론 모델 '키미 K1.5'를 선보였다. 문샷AI는 자사 모델 성능이 GPT4o와 클로드 3.5 소네트, 딥시크 R1보다 낫다고 주장했다. 특히 텍스트 기반의 딥시크 R1과 달리 이미지 처리가 가능하다는 점도 짚었다.
알리바바 '큐원 2.5 맥스'와 바이트댄스 '더우바오 1.5 프로' 역시 MoE 아키텍처를 도입했고, 사람이 선별한 AI 데이터를 학습하는 '지도학습(SFT)'은 물론 강화학습 과정에서도 보다 개선된 방식을 접목해 가격 대비 성능을 높이는 데 주력했다. 양사는 구체적 개발비를 공개하지는 않았지만 나란히 자사 언어모델이 뛰어난 비용 효율성을 보여준다는 점을 강조했다.
업계에서는 중국 AI의 사용료가 낮은 데다 대다수가 오픈소스 기반인 만큼 앞으로 AI 연구개발 과정에서 다소 뒤처진 국가들을 중심으로 중국의 AI를 활용할 가능성이 높다고 보고 있다. 그간 오픈소스 진영에서는 메타가 '라마' 시리즈를 빠른 속도로 출시하면서 큰 영향력을 발휘했지만 앞으로 딥시크 등 중국 AI가 더욱 저렴한 비용을 무기로 위협적인 경쟁자로 떠오를 수 있다는 것이다.
한편 중국의 '가격 공세'에 미국도 대응에 나섰다. 샘 올트먼 오픈AI 대표는 자신의 X(구 트위터)에 올해 출시 예정인 최신 추론 모델 'GPT4 o3'의 경량화 버전인 'o3 미니'를 무료 이용자들도 쓸 수 있게 할 예정이라고 밝혔다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지