[파이낸셜뉴스] 엔씨소프트가 뛰어난 한국어 성능을 자랑하는 중소형 오픈소스 VLM 모델 ‘바르코(VARCO)-비전(VISION)’과 한국어 멀티모달 벤치마크 5종을 4일 공개했다.
VLM은 자연어와 이미지를 함께 활용해 입력 값을 넣을 수 있는 언어모델이다. 최근 모달리티 확장 연구에 관심이 높아지며 VLM이 주목을 받고 있다. 현재 오픈소스로 공개된 대부분의 VLM은 영어와 중국어 기반이며 한국어 지원 모델은 소수에 불과해 국내 기업들은 GPT 혹은 클로드(Claude) 같은 빅테크 기업의 API에 의존하고 있다.
엔씨가 공개한 오픈소스 VLM 모델 VARCO-VISION은 한글, 영어 프롬프트와 함께 이미지 입력 값을 이해할 수 있는 중소형 모델이다. LLM과 유사한 수준의 언어 능력을 보유하고 있어 애플리케이션에서 LLM과 VLM 두개의 모델을 운용하지 않고 VARCO-VISION 단일 모델 만으로 이미지-텍스트 작업과 텍스트 전용 작업을 모두 처리할 수 있을 전망이다.
특히 VARCO-VISION은 한국어 부문에서 동종 크기 모델 중 최고 성능을 보였다. VARCO-VISION을 활용하면 AI 서비스 개발 기업은 이미지 인식 및 질의응답, 이미지 설명, 글자인식(OCR), 사물 위치 검출(그라운딩) 기능을 활용한 각종 멀티모달 AI 서비스를 개발할 수 있다는 것이 엔씨 설명이다.
이를 통해 콘텐츠 제작 기업은 이미지 상세 설명을 자동 생성해 콘텐츠 제작 시간을 아끼거나, 이미지 내 텍스트 인식을 통해 보다 많은 자료를 빠르게 수집하는 등 기획 업무에 도움을 받을 수 있다. 멀티모달 AI모델은 엔씨가 개발 중인 ‘바르코 스튜디오’에도 적용될 예정이다.
엔씨는 이날 한국어 AI 모델 연구 발전에 기여하기 위한 벤치마크 5종도 공개했다.
일반적으로 언어모델의 성능을 평가하기 위해서는 수행능력 판별의 기준점이 되는 벤치마크가 필요하다. 반면 한국어의 경우 멀티모달 벤치마크가 거의 없어 올바른 성능 평가가 어려운 상황이었다.
NC 리서치 이연수 본부장은 “앞으로 VLM의 접목 분야를 오디오, 비디오까지 확대하고 콘텐츠 제작 지원 기능을 강화하는 등 다양한 산업에서 활용할 수 있도록 성능을 끌어 올릴 것”이라고 말했다.
yjjoe@fnnews.com 조윤주 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지