2일(현지시간) 구글에 따르면 젬마4는 아파치 2.0 라이선스(상업적 이용과 수정, 배포를 허용하는 공개 소프트웨어 이용 규칙)를 적용한 개방형 모델이다. 기업이 자체 서비스와 기기에 적용하기 쉽도록 설계됐다. 외부 프로그램이나 도구를 불러 실행하는 기능인 함수 호출, 데이터를 일정한 형식으로 정리해 내보내는 제이슨(JSON) 출력, 시스템 지시문 등 AI 에이전트 구현에 필요한 기능도 기본 탑재했다.
모델은 E2B, E4B, 31B 덴스, 26B A4B(MoE·혼합전문가) 등 4종으로 구성됐다. E2B와 E4B는 모바일·엣지(기기 인근 처리 방식) 기기용으로, 31B 덴스와 26B A4B는 워크스테이션(고성능 작업용 컴퓨터)과 서버급 추론용으로 제시됐다.
26B A4B는 전체 260억개 매개변수 규모지만 실제 작동 때는 약 38억개만 선택해 사용하는 구조다. 필요한 부분만 골라 쓰는 방식으로 계산량을 줄이면서 속도와 효율을 높였다는 게 구글 설명이다.
젬마4의 핵심은 현장 탑재성이다. 소형 모델은 128K, 대형 모델은 256K 컨텍스트(한 번에 읽고 기억할 수 있는 정보량)를 지원한다. 텍스트와 이미지는 물론 영상 이해도 가능하다. E2B와 E4B는 오디오 입력도 지원한다. 140개 이상 언어를 학습한 점도 특징이다. 엔비디아는 RTX(고성능 그래픽처리장치 제품군)와 젯슨(로봇·산업기기용 AI 컴퓨팅 플랫폼) 등 자사 하드웨어에 맞춘 로컬·엣지 AI 활용 모델로 젬마4를 소개했다.
구글이 제미나이와 별도로 젬마를 확장하는 배경은 분명하다. AI 경쟁 축이 챗봇(대화형 AI) 중심에서 에이전트‧로봇‧산업용 엣지 AI‧기기 내장형 AI로 옮겨가고 있어서다. 이런 시장에서는 인터넷 연결 없이 작동하고 비용과 지연을 줄이면서, 개발자가 목적에 맞게 미세조정할 수 있는 개방형 모델 수요가 커질 수밖에 없다. 젬마로 개발 생태계를 넓히고, 상위 폐쇄형 모델인 제미나이 수요까지 함께 끌어올리겠다는 전략으로 해석된다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지



![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



