네이버, AI로 영상 생태계 혁신…XR 시대 본격 연다

  • 비전 스테이지, 가상 공간 속 콘텐츠 촬영 및 송출 가능

  • "AI, 영상의 스토리와 맥락을 이해해 사용자 이해 도와"

오한기 리얼타임 엔진 스튜디오 리더가 16일 네이버 사옥 내 비전 스튜디오에서 가상 배경을 등지고 설명하고 있다 사진백서현 기자
오한기 리얼타임 엔진 스튜디오 리더가 16일 네이버 사옥 내 '비전 스튜디오'에서 가상 배경을 등지고 설명하고 있다. [사진=백서현 기자]

네이버가 인공지능(AI)을 기반으로 한 영상 콘텐츠 기술을 대거 공개하며, 확장현실(XR) 시대를 선도하겠다는 청사진을 내놨다. 

16일 성남 분당의 네이버 사옥에서 열린 테크 포럼에서는 AI가 제작, 편집, 송출까지 아우르는 새로운 영상 미디어 기술들이 대거 소개됐다.

행사에서 가장 주목받은 공간은 '비전 스테이지'였다. 네이버 1784 지하 1층에 위치한 이 공간은 네이버가 예능, K-POP, 라이브커머스 등 다양한 콘텐츠를 제작하는 전용 스튜디오다. 리얼타임 엔진을 기반으로 실시간 배경 전환과 아바타 연출이 가능하며, 가상 공간 속에서 콘텐츠를 실시간으로 촬영·송출할 수 있다. 

오한기 리얼타임 엔진 스튜디오 리더는 무대에 올라 "카메라 앞에서 연출한 동작이 곧바로 엔진으로 전송된다"며 "기존 영화나 드라마 제작 기술을 라이브에 적용한 것이 핵심"이라고 설명했다.

 
네이버 1784 지하1층에 마련된 '비전 스테이지' 스튜디오 [사진=백서현 기자]
네이버 1784 지하1층에 마련된 '비전 스테이지' 스튜디오 [사진=백서현 기자]

특히 치지직 같은 네이버의 실시간 방송 플랫폼에서는 버추얼 스트리머들이 원하는 무대를 자유롭게 설정할 수 있다. 스트리머가 가수를 준비 중이라면 AI가 가상 무대를 생성해 퍼포먼스 영상을 촬영하는 것도 가능하다. 이런 배경과 무대는 대부분 생성형 AI로 만들어지며, 제작 시간과 비용을 줄이면서도 창작자의 상상력을 극대화한다.

AI는 영상 이해와 편집 영역에도 적극 활용된다. 김성호 이머시브 미디어 플랫폼 리더는 하반기 공개될 네이버의 'MUAi(Media Understanding AI)' 플랫폼을 소개하며 "AI가 영상의 내용과 분위기, 장소, 감정 등을 이해해 사용자가 더 깊이 있게 영상을 파악할 수 있도록 돕는다"고 설명했다. 

예를 들어 치지직에서 제공하는 긴 영상의 경우, MUAi가 주요 장면을 추려내어 하이라이트만 모은 클립으로 제공해주는 기능이 적용된다. 사용자는 긴 영상을 끝까지 보지 않아도 핵심 내용을 빠르게 파악할 수 있게 된다.

이와 함께, 블로그에 작성된 긴 글을 AI가 읽고 자동으로 영상을 생성해주는 '오토 클립AI' 기술도 곧 선보인다. 배경음악과 화면 전환 효과까지 자동으로 구성해 창작자가 손쉽게 숏폼 콘텐츠를 제작할 수 있도록 지원하는 기술이다. 

네이버는 이를 통해 기존 텍스트 중심의 블로그나 카페 이용자들도 영상 제작자로 진입할 수 있도록 유도하고 있다.

실시간 방송 플랫폼 '프리즘 라이브 스튜디오'도 소개됐다. 프리즘 라이브 스튜디오에서는 하루 평균 13만 건 이상의 라이브 방송이 이뤄지고 있으며, 글로벌 사용자 비율은 90%에 달한다.

한편, 네이버는 하반기 안드로이드 기반 XR 콘텐츠 플랫폼도 선보인다. 케이팝, 치지직 게임 콘텐츠 등을 VR 기기에서 감상할 수 있는 형태로 제공할 예정이며, 이를 통해 온·오프라인의 경계를 허무는 몰입형 미디어 경험을 구현하겠다는 목표다.

김성호 리더는 "AI와 XR 기술의 융합은 미디어 산업 전반의 제작 방식과 소비 패턴을 바꾸게 될 것"이라며 "네이버는 단순 플랫폼을 넘어 새로운 영상 생태계를 선도하는 기술 기업이 되고자 한다"고 강조했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기