[파이낸셜뉴스] 엔씨소프트의 인공지능(AI) 자회사 NC AI가 온디바이스 환경에서 구동 가능한 초경량 멀티모달 AI 모델 ‘바르코 비전 2.0 1.7B’를 오픈소스로 공개했다고 30일 밝혔다. 이 모델은 1.7B(17억) 파라미터의 작은 크기에도 불구하고 기존 경량 모델들을 뛰어넘는 수준의 성능을 보여주며 개인 디바이스에서도 '온디바이스 AI'로 고성능 멀티모달 모델로 활용할 수 있다. NC AI의 바르코 비전 2.0은 이미지와 텍스트를 함께 이해해 질문에 답할 수 있는 차세대 인공지능 모델로 여러 장의 이미지를 동시에 분석할 수 있어 복잡한 문서나 표·차트 등도 효과적으로 처리할 수 있는 비전언어모델(VLM)이다. 바르코 비전 2.0 1.7B는 텍스트 처리, 한국어 성능에서 글로벌 톱 오픈소스 멀티모달 모델인 InternVL3 2B, Ovis2 2B 등을 압도하며 동급 최고 모델임을 입증했다. 영문 텍스트 처리 MT-Bench와 한국어 K-SEED, K-LLaVABench는 물론 광학문자 판독 CORD, ICDAR 등 다양한 벤치마크에서 글로벌 모델들의 성능을 훌쩍 넘었다. 아울러 바르코 비전 2.0 1.7B는 여러 주요 벤치마크에서 2배 가까이 더 큰 규모의 국내 모델들과 비슷하거나 뛰어난 성능을 기록했다. 또한 시각적 맥락에서의 수학적 추론 능력을 평가하는 MathVista 벤치마크와 멀티모달 AI의 종합적인 시각언어 기능을 평가하는 MM-Vet에서도 윗 체급의 모델들 사이에서 2위를 기록했다. NC AI 측은 모델의 크기가 성능을 결정하는 절대적 요소가 아니라는 것을 보여주며 기술력을 증명했다고 설명했다. 1.7B 파라미터의 경량 모델은 스마트폰이나 PC 등 개인 기기에서도 원활하게 동작할 수 있도록 최적화됐다. 이는 기존 멀티모달 AI가 대부분 클라우드 환경에서만 활용 가능했던 한계를 뛰어넘어 개인 기기에서도 고성능 멀티모달 AI를 직접 활용할 수 있게 한다. 온디바이스 AI의 핵심 장점은 개인정보 보호와 실시간 처리 능력에 있다. 사용자의 데이터가 외부 서버로 전송되지 않아 프라이버시가 완벽하게 보호되며, 네트워크 연결 없이도 즉시 AI 기능을 사용할 수 있다. 앞서 NC AI는 지난 16일 공개된 중형 모델 '바르코 비전 2.0 14B'을 공개한바 있다. 14B 모델은 공개 후 열흘 만에 1만 회 가까운 다운로드를 기록하며 국내외 개발자들의 높은 관심을 끌었다. 한편, NC AI는 현재 정부가 추진하는 '독자 AI 파운데이션 모델 프로젝트'에 도전하고 있다. 이번 멀티모달 모델 개발 역량과 함께 패션, 게임, 미디어 등 다양한 산업군에서의 버티컬 AI 서비스 운영 경험을 바탕으로 전 국민의 AI 접근성을 높이고 국가 AI 경쟁력 강화에 기여한다는 계획이다. 이연수 NC AI 대표는 "NC AI가 보여준 경량 고성능 모델 개발 능력을 통해 다양한 국내 산업군의 경쟁력을 크게 높일 것"이라며 "바르코 비전 2.0 1.7B는 AI 기술의 자립과 민주화를 위한 중요한 이정표로 앞으로도 더 많은 사람들이 쉽게 접근할 수 있는 고성능 AI 모델 개발에 최선을 다하겠다"고 밝혔다. wongood@fnnews.com 주원규 기자
2025-07-30 10:09:01[파이낸셜뉴스] SK텔레콤은 자사 거대언어모델(LLM) '에이닷 엑스(A.X)'를 기반으로 한 시각-언어모델(VLM1) 및 LLM 학습을 위한 범용 문서 해석 기술을 오픈소스 커뮤니티 허깅페이스에 공개했다고 29일 밝혔다. SK텔레콤이 선보인 모델은 ‘A.X 인코더(Encoder)’와 ‘A.X 4.0 비전 랭귀지 라이트(VL Light)' 2종이다. 인코더는 자연어처리 기술에서 입력된 문장을 문맥으로 변환하고 이를 바탕으로 다양한 자연어 처리 작업을 수행하도록 돕는다. 문장의 모든 단어들의 상호 관계를 파악, 전체 의미와 맥락을 이해하는 역할을 한다. A.X인코더는 긴 문서도 빠르고 효율적으로 처리 가능해 대규모 LLM 학습에 적합하다. A.X 인코더는 1억 4900만개(149M)의 매개변수를 바탕으로 작동한다. 자연어 이해 성능지표 평균 85.47점을 달성해 글로벌 최고수준(SOTA)급 성능을 확인했다. A.X 인코더는 1만 6384개의 토큰까지 처리가 가능해 기존 모델들보다 최대 3배의 추론속도와 2배의 학습속도를 구현할 수 있다. A.X 4.0 VL 라이트는 대규모 멀티모달 한국어 데이터셋이 학습된 시각-언어모델(VLM)이다. 한국어와 관련된 시각정보 및 언어 이해 뿐 아니라 표·그래프 이해, 제조 도면 이해와 같은 기업용 애플리케이션에서 탁월한 성능을 제공한다. A.X 4.0 VL 라이트는 한국어 시각 벤치마크에서 평균 79.4점을 기록하며 더 큰 모델인 Qwen2.5-VL32B(73.4점)보다도 더 우수한 성능을 나타냈다. 또 한국어 텍스트 벤치마크에서는 평균 60.2점을 찍는 등 경량모델임에도 국내 모델 중 최상위권 수준이었다. 한국어 문화 및 맥락적 이해를 평가하기 위해 설계된 멀티모달 벤치마크인 K-Viscuit에서 80.2점을 기록했다. 복잡한 문서 구조와 차트·표를 이해하는데 중점을 둔 KoBizDoc 벤치마크에서는 89.8점을 달성했다. 각각 Qwen2.5-VL32B 모델보다 뛰어나거나(72.3점) 비슷한(88.8점) 수준이다. SK텔레콤은 프롬 스크래치(모델의 맨 처음 단계부터 모두 직접 구축) 방식의 LLM 개발을 꾸준히 이어가는 한편, 향후 발표할 A.X 4.0 추론형 모델 등 지속적으로 개발중인 LLM의 활용도와 성능을 높여갈 계획이다. mkchang@fnnews.com 장민권 기자
2025-07-29 10:03:42[파이낸셜뉴스] 카카오는 오픈소스 커뮤니티 허깅케이스에 국내 공개 모델 중 최고 성능의 경량 멀티모달 언어모델과 함께 국내 최초로 전문가 혼합 모델(MoE)을 오픈소스로 공개했다고 24일 밝혔다. 이미지 정보 이해 및 지시 이행 능력을 갖춘 경량 △멀티모달 언어모델 ‘카나나-1.5-v-3b’와 MoE(Mixture of Experts) 언어모델 ‘카나나-1.5-15.7b-a3b’이다. ‘카나나-1.5-v-3b’는 텍스트 뿐만 아니라 이미지 정보도 다루는 멀티모달 언어모델이다. 카카오 측은 ‘카나나-1.5-v-3b’이 경량 모델임에도 이미지로 표현된 한국어와 영어 문서 이해 능력이 글로벌 멀티모달 언어모델 GPT-4o와 견줄 수 있을 정도로 뛰어나다고 설명했다. 한국어 벤치마크에서 유사 사이즈의 국내외 공개 모델과 비교한 결과 최고 점수를 기록했고, 다양한 영어 벤치마크에서 해외 오픈소스 공개모델과 비교했을 때도 유사한 수준의 성능을 보였다. MoE 모델인 ‘카나나-1.5-15.7b-a3b’은 특정 작업에 최적화된 일부 전문가 모델만 활성화되는 방식으로 효율적인 컴퓨팅 자원 활용과 비용 절감이 강점이다. 활성화되는 파라미터가 3B에 불과하지만 성능은 ‘카나나-1.5-8B’와 동등하거나 뛰어난 수준이다. 카카오의 MoE 모델은 고성능 AI 인프라를 저비용으로 구축하고자 하는 기업이나 연구 개발자들에게 도움을 제공할 수 있다. 특히 추론 과정에서 제한된 파라미터만 사용하는 구조적 특성 덕분에 저비용, 고효율 서비스 구현에 유리해 활용도가 높다. 김병학 카카오 카나나 성과리더는 “이번 오픈소스 공개는 비용 효율성과 성능이라는 유의미한 기술 개발의 성과를 거둔 것으로, 단순한 모델 아키텍처의 진보를 넘어 서비스 적용과 기술 자립이라는 두 가지 측면의 목표에 부합하는 결과물”이라고 말했다. wongood@fnnews.com 주원규 기자
2025-07-24 09:42:38[파이낸셜뉴스] 인공지능(AI) 비전(Vision) 데이터 플랫폼 전문기업 에이모의 오승택 대표가 최근 미래 성장 동력 확보를 위해 헬스케어 전문 기업인 알파녹스에 전략적 투자를 단행하기로 했다. 24일 금융감독원 전자공시시스템에 따르면 에이모의 오 대표와 최대주주 강용철씨는 최근 각각 20억원, 30억원 규모로 알파녹스가 발행 예정인 전환사채(CB)에 참여한 것으로 확인됐다. 알파녹스는 에이모의 핵심 기술인 ‘에이모 코어(AIMMO Core)’를 활용한 자율주행 관련 제품 및 서비스 개발, 3D 데이터 라벨링을 포함한 AI 기반 사업 전개 등을 추진하기 위해 관련 내용을 사업 목적에 추가하는 임시 주주총회를 개최할 예정이다. 두 회사는 전략적 제휴를 통해 기존 헬스케어 분야를 넘어 AI와 데이터 기술이 결합된 미래 산업으로 협력 범위를 확대하며, 기술적 시너지 창출과 신시장 개척에 속도를 낼 전망이다. 이미 자율주행 분야에서 독보적인 기술력을 인정받은 에이모는 생성형 기반 데이터 가공이 가능한 핵심 플랫폼 에이모 코어를 중심으로 멀티모달(Multimodal) 시장 확장을 미래 성장 비전으로 제시하고 본격적인 투자에 나설 계획이다. 멀티모달은 텍스트, 이미지, 음성 데이터를 동시에 처리하고 이해할 수 있는 AI 기술로, 생성형 AI 시장에서 주목받는 핵심 분야다. 에이모는 알파녹스와의 전략적 제휴로 멀티모달 시장 진출 기반을 강화하고 우수한 전문 인력을 대규모로 투입해 오는 2026년 초 글로벌 시장에 해당 서비스를 정식 론칭할 계획이다. 에이모는 지난 2024년 'CES'에서 AI 개발 전 과정인 데이터 수집 및 정제, 가공, 생성 등을 통합 지원하는 플랫폼 에이모 코어를 공식 출시한 이후 약 42조원 규모의 글로벌 비전 AI 및 자율주행 시장에 집중해 왔다. 에이모 코어는 AI 개발의 모든 과정을 포괄하며 99.9%의 정확도를 기반으로 고품질 데이터셋을 제공해 개발 시간과 비용을 크게 절감한다. 특히 카메라, 레이더, 라이다 등 이종 센서 데이터를 통합 분석하는 센서퓨전 기술로 고정밀 비전 AI 데이터를 구현하며 글로벌 주문자상표부착생산(OEM) 기업들과 다년 계약을 체결하는 등 가시적인 성과를 거두고 있다. 현재 에이모는 BMW와의 5개년 장기 프로젝트 및 15년 유효 벤더 라이선스를 기반으로 독일에서 첨단 운전자 보조 시스템(ADAS) 개발용 데이터 구축 사업을 진행 중이며 볼보, 미쓰비시, 테슬라의 1차벤더를 목표로 하는 아브로보틱스와도 협업을 확대하고 있다. dschoi@fnnews.com 최두선 기자
2025-06-24 09:55:20[파이낸셜뉴스] 인공지능(AI)에게 한 유형의 데이터만 가르쳐서, 다른 유형의 데이터 학습을 촉진 시킬 수 있는 학습 방식이 개발됐다. 서로 다른 유형의 데이터 학습에서 꼭 필요하다고 여겨지던 데이터 정렬 작업 없이도 학습이 가능해져 데이터셋 구축 비용 등을 절감할 수 있을 것이라는 기대다. 울산과학기술원(UNIST) 인공지능대학원 윤성환 교수팀은 데이터 정렬과 매칭 없이 하나의 데이터 유형만으로 다른 유형의 모델 학습을 촉진 시킬 수 있는 AI 멀티모달 학습 기술을 개발했다고 7일 밝혔다. 멀티모달 학습은 오디오, 이미지, 텍스트와 같이 서로 다른 데이터 모달리티를 결합해 통합적으로 이해하고 처리하는 학습법이다. 멀티 모달 학습을 위해서는 다양한 모달리티 데이터를 정렬하고 이에 대해 쌍을 이루는 라벨링 과정이 필요해 많은 시간과 비용이 소모된다. 또 명확히 짝지어진 데이터가 부족하면 성능이 저하되기까지 했다. 연구팀이 제안한 학습법은 짝지어지지 않은 데이터로도 멀티 모달 학습이 가능하다. 음성과 인간 표정을 함께 분석해 감정을 이해하는 AI 비서나, CT 영상과 진료 기록을 의사처럼 결합해 진단하는 의료AI 구축에 들어가는 비용과 시간을 절감할 수 있다. 연구팀은 텍스트 모델이 이미지 모델 학습을 돕거나, 오디오 모델이 언어 모델 성능을 높이는 등의 실험을 진행했고, 기존보다 높은 정확도를 기록하며 모달리티 간 학습 촉진 효과를 확인했다. 특히, 오디오와 이미지처럼 직접적인 연관성이 적은 조합에서도 AI의 성능 향상이 나타났다. 윤성환 교수는 “정렬된 데이터셋 확보가 어려운 의료, 자율주행, 스마트 AI 비서 등 다양한 분야에서 활용 가능성이 높다”고 말했다. 이번 연구결과는 세계 인공지능 3대 학회인 ICLR(International Conference on Learning Representations) 2025에 채택됐다. ICLR 2025는 지난 4월 24일부터 28일까지 싱가포르에서 개최됐으며, 1만1672편의 논문 중에서 3646편이 채택됐다. jiany@fnnews.com 연지안 기자
2025-05-07 14:58:11[파이낸셜뉴스] 카카오가 통합 멀티모달 언어모델 '카나나(Kanana)-o'와 오디오 언어모델 '카나나-a' 성능 및 개발 후기를 테크 블로그를 통해 공개했다고 1일 밝혔다. 카나나-o는 국내 최초로 텍스트, 음성, 이미지 등 다양한 형태의 정보를 동시에 이해하고 처리할 수 있는 인공지능(AI) 모델이다. 이용자는 텍스트·음성·이미지 중 어떠한 조합으로 질문을 입력하더라도 카나나-o를 통해 처리할 수 있고, 상황에 맞는 텍스트나 자연스러운 음성 입력에도 응답을 생성해낼 수 있다. 카카오는 서로 다른 모델을 합치는 모델 병합 기술을 기반으로 이미지 처리에 특화된 카나나-v와 오디오 이해·생성에 특화된 카나나-a 모델을 통합해 단기간 내에 효율적으로 카나나-o를 개발했다. 특히 대규모 한국어 데이터셋을 활용해 한국어의 특수한 발화 구조와 억양, 어미변화 등을 정밀하게 반영했다. 이에 따라 카나나-o는 제주도, 경상도 등 지역 방언을 인식하고 이를 표준어로 변환해 자연스러운 음성을 생성할 수 있다. 카카오에 따르면 카나나-o는 한국어 및 영어 벤치마크(성능 검증)에서 글로벌 최고 AI 모델과 유사한 수준을 기록했고 한국어 벤치마크에서는 높은 우위를 보였다. 감정 인식 능력에서는 한국어와 영어 모두에서 큰 우위를 기록하며, 감정까지 이해하고 소통할 수 있는 AI 모델의 가능성을 입증했다. 카카오는 향후 카나나-o를 통해 △다중 턴(Multi-turn) 대화 처리 △양방향 데이터 동시 송수신 기술(Full-duplex) 대응 능력 강화 △부적절한 응답 방지를 위한 안전성 확보 등을 목표로 연구 개발을 지속해 갈 계획이다. 김병학 카카오 카나나 성과 리더는 "독자적인 멀티모달 기술을 바탕으로 자사의 인공지능 기술 경쟁력을 강화하는 한편, 지속적 연구 결과 공유를 통해 국내 AI 생태계 발전에 꾸준히 기여할 계획"이라고 말했다. wongood@fnnews.com 주원규 기자
2025-05-01 12:42:05와이즈넛과 씨이랩이 지난 8일 공동 인공지능(AI) 사업 협력을 위한 업무협약(MOU)를 체결했다고 9일 밝혔다. 이번 협약은 와이즈넛의 검색증강생성(RAG) 솔루션과 씨이랩이 보유한 AI 인프라 플랫폼 기술을 토대로 멀티모달 AI 서비스를 확장하는 것을 골자로 한다. 와이즈넛은 자연어처리기술을 기반으로 AI 검색 및 챗봇 사업을 추진하며 지난해 조달청 디지털서비스몰 판매 1위를 기록하는 등 시장을 선도하고 있는 인공지능 소프트웨어(SW) 기업이다. 최근 대형언어모델(LLM)의 할루시네이션(환각)을 최소화하는 RAG 기술을 바탕으로, RAG 솔루션인 와이즈 아이랙(WISE iRAG)을 출시하며 AI 에이전트 사업으로 시장을 확대해 나가고 있다. 씨이랩은 엔비디아의 소프트웨어 파트너사로 그래픽처리장치(GPU) 활용률을 극대화하는 '아스트라고(Astrago)' 솔루션으로 국내 AI GPU 시장에서 독보적인 입지를 구축하고 있다. 양사는 이번 업무협약을 통해 와이즈넛의 RAG 플랫폼 기반 멀티모달 데이터 처리 기술과 씨이랩의 GPU 오케스트레이션 솔루션을 접목한다. 이를 통해 AI 인프라 비용을 절감하고 공공과 민간 부문의 AI 에이전트 사업을 확장해 나갈 계획이다. 이우영 씨이랩 대표는 "GPU 오케스트레이션 기술과 와이즈넛의 RAG 기술을 결합해 고객의 AI 도입 비용을 획기적으로 낮출 수 있을 것"이라며 "양사의 협력을 통해 국내 AI 시장의 새로운 패러다임을 제시할 수 있을 것으로 기대한다"고 말했다. 강용성 와이즈넛 대표는 "국내 5500여 고객사를 통해 검증된 와이즈넛의 AI기술력과 씨이랩의 GPU 솔루션의 결합은 국내 생성형 AI 산업 생태계에 새로운 구심점 역할을 수행할 것으로 기대한다”고 강조했다. solidkjy@fnnews.com 구자윤 기자
2025-01-09 08:35:38[파이낸셜뉴스] 네이버의 대화형 인공지능(AI) 에이전트 클로바X가 오는 27일 서비스 업데이트를 통해 시각 정보 처리 능력을 새롭게 추가한다. 또 네이버는 지난 20일 ‘클로바’ 공식 사이트의 기술 블로그를 통해 생성형 AI 기반의 음성 합성 기술도 공개하며, 기반 모델인 하이퍼클로바X를 텍스트 뿐 아니라 이미지, 음성도 동시에 처리할 수 있는 ‘멀티모달’ AI로 고도화하며 생성형 AI 기술 경쟁력을 갖추겠다는 목표다. 22일 네이버에 따르면 오는 27일 클로바X의 이미지 이해 기능 업데이트로, 이용자들은 클로바X 대화창에 업로드한 이미지에서 추출된 정보와 입력한 질의를 바탕으로 AI와 대화할 수 있다. 클로바X는 사진 속 현상을 묘사하거나 상황을 추론하는 등 다양한 지시를 수행할 수 있다. 예를 들어 이미지나 그림 형식으로 되어 있는 표, 그래프를 클로바X가 이해하고 분석하는 것이 가능하다. 기존의 클로바X가 논리적 글쓰기, 코드 작성, 번역 등의 작업에 활발히 사용된 것에서 더 나아가 이미지 이해 능력을 기반으로 개인의 생산성 향상 도구로서 활용 범위가 더 넓어질 전망이다. 특히 네이버의 자체 거대언어모델(LLM) 하이퍼클로바X가 결합해 더 정확하고 신뢰성 있는 서비스를 제공한다. 네이버에 따르면, 실제 대한민국 초·중·고등학교 검정고시 총 1480개 문항을 AI 모델에 이미지 형태로 입력하고 문제를 풀게 한 결과 클로바X는 약 84%의 정답률을 기록하며 오픈AI의 GPT-4o(78%)보다 높은 정답률을 보였다. 네이버는 기술 블로그를 통해 하이퍼클로바X 기반 음성 AI 기술도 공개했다. 기존의 음성 인식, 음성 합성 기술보다 한층 발전한 모델로 LLM의 특징인 뛰어난 문맥 이해 및 지시문 해석 능력을 활용해 언어 구조 및 발음 정확도 개선은 물론 감정 표현까지 더한 자연스러운 대화가 가능하다. AI 음성 기록 ‘클로바노트’, AI 안부전화 ‘클로바 케어콜’, AI 음성 합성 ‘클로바더빙’ 등 다양한 음성 AI 서비스를 운영해온 네이버는 음성 멀티모달 LLM 기술로 더 편리한 서비스를 제공한다는 계획이다. 성낙호 네이버클라우드 하이퍼스케일 AI 기술 총괄은 “거대 언어 모델로 출발한 하이퍼클로바X는 이미지 이해 능력을 더한 거대 시각 언어 모델(Large Vision Language Model), 나아가 음성 멀티모달 언어 모델로 발전하고 있다”며 “하이퍼클로바X의 발전된 능력은 대화형 AI 에이전트 클로바X를 비롯한 여러 네이버 서비스에 도입해 새로운 사용자 가치를 창출하고, 기업용 AI 솔루션으로도 제공하며 하이퍼클로바X 생태계를 더욱 확장해나갈 것”이라고 말했다. 아울러 네이버는 하이퍼클로바X를 멀티모달 LLM으로 고도화하고 서비스에 적용하는 과정에서도 ‘AI 안전성’을 적극적으로 실천할 예정이다. 지난 6월 공개한 네이버의 AI 안전성 실천 체계 ‘네이버 ASF’로 AI 시스템의 잠재적 위험을 평가하고, 특히 음성 AI 기술은 보다 안전한 서비스 제공을 위해 다각도로 검토를 이어갈 방침이다. soup@fnnews.com 임수빈 기자
2024-08-22 08:24:44[파이낸셜뉴스] 인공지능(AI) 전문기업 와이즈넛은 지난달 29일 '2024 산업지능화컨퍼런스에 참여해 제조업에 적용될 수 있는 생성형AI 기술을 제안했다고 3일 밝혔다. 김정민 와이즈넛 글로벌전략사업본부장(이사)은 '제조업의 생성형AI 적용 방안'을 주제로 발표를 진행했다. 김 이사는 현재 제조업 현장 내 AI 도입을 위해 필요한 구조화된 양질의 데이터가 부족하고, 전체 데이터의 90%가 다크데이터로써 활용되지 않고 버려지는 시장 현황을 짚었다. 그러면서 와이즈넛은 경쟁력의 핵심이 될 것으로 예상되는 다크데이터를 활용하는 기술을 지속적으로 연구해 오고 있다고 설명했다. 생성형AI 모델에 멀티모달 검색증강생성(RAG) 기술을 접목하는 등 기술 연구에 박차를 가하고 있다는 설명이다. 이를 통해 공급망 관리, 제조, 고객서비스 등 전체 제조 분야의 가치사슬에서 해당 기술이 활용될 수 있다고 김 이사는 강조했다. 멀티모달 RAG는 텍스트, 이미지, 영상, 음성 등 이종 데이터 간 관계성을 추론해 텍스트 등 다양한 포맷으로 생성을 지원할 수 있는 기술을 가리킨다. 이외에도 김 본부장은 제조 현장의 AX(인공지능 전환) 사례도 소개했다. 김 이사는 "앞으로도 와이즈넛은 지난 24년 간 쌓아 온 AI 기술력과 자체 RAG 기술을 기반으로 제조 분야의 전 과정에 요구되는 휴먼노하우를 디지털화하고, 이를 생성형AI에 적용해 제조현장의 생산성 극대화를 도모할 수 있도록 적극 노력해 나갈 것"이라고 밝혔다. jhyuk@fnnews.com 김준혁 기자
2024-04-03 14:17:06[파이낸셜뉴스] 하나증권은 19일 크라우드웍스에 대해 멀티모달 AI시대에 LLM(거대언어모델)개발 수주 증가에 따른 AI데이터 수요 증대 등으로 올해 외형 성장이 기대된다고 진단했다. 다만 투자의견과 목표주가는 제시하지 않았다. 조정현 연구원은 "크라우드웍스의 4분기 실적은 매출액 61억원, 영업적자 1.4억원을 기록했는데, 2023년 연간 실적은 매출액 239억원(+101.6%, YoY), 영업적자 15억원(적지, YoY)으로 전년 대비 적자폭이 대폭 축소됐다“라며 ”외형 성장의 주요 요인은 LLM 모델 개발 수주 증가에 따른 AI 데이터 수요 증대 및 AI 교육 플랫폼 성장에 기인한다“라고 밝혔다. 그러면서 2024년에도 데이터 부문과 맞춤형 LLM 사업의 동반 성장이 예상된다“라며 ”오픈AI가 보여준 ‘달리-3’(text-to-image) 및 ‘소라’(text-to-video)와 같은 멀티모달 AI의 등장으로 파운데이션 모델 학습에 필요한 데이터 수요는 급증할 것으로 판단되며, 고품질 텍스트 데이터는 물론 이미지·음성·비디오 데이터에서도 수요가 본격화될 것으로 예상된다“라고 부연했다. 하나증권은 올해 동사와 같은 생성형 AI 학습에 필수적인 데이터 가공 플랫폼과 기술력을 갖춘 업체들의 구조적 성장이 기대된다고 분석했다. 이에 데이터 부문 매출은 22년 58억원23년 132억원24년F 261억원으로 고성장이 지속될 전망이라고 봤다. 동 사의 경우 올해 기업들의 생성형 AI 도입이 본격화되는 시점으로, 신규 사업인 맞춤형 LLM서비스 또한 순항 중에 있다는 설명이다. 조 연구원은 “현재 금융권 고객사를 중심으로 약 60건의 생성형 AI 도입 PoC 및 프로젝트를 진행 중인 가운데, LLM 데이터셋 구축과 동시에 거대언어모델 개발 프로젝트 레퍼런스를 보유한 동사의 선점 효과가 기대된다”라고 언급했다. 여기에 크라우드웍스의 자회사인 닥터웍스가 의료전문 LLM 솔루션 글로벌 출시를 앞 둬 호재가 기대된다고 예상했다. 실제 크라우드웍스의 자회사인 닥터웍스는 국내 유일 의료 전문 LLM 솔루션 업체다. 2020년 11월 국내 최초 의료 크라우드소싱 플랫폼을 출시하며, 약 1200명의 전문의가 26개 분과의 고품질 의료 데이터를 직접 수집 및 가공하고 있다. 닥터웍스는 텍스트·이미지·생체신호·음성 등 전 의료 데이터 부문을 아우르는 멀티모달 데이터를 확보했으며, 현재 약 260만건의 의료 데이터 가공 레퍼런스를 보유하고 있다. 조 연구원은 “이를 통해 동사는 LLM 기반 의료 AI 솔루션 ‘닥터웹’을 개발 완료, 올해 국내 제품 출시 및 북미 시장 진출을 본격화할 전망”이라며 “최근 구글, 오픈AI 등 글로벌 업체들의 멀티모달 AI가 의료 산업에 적용되고 있는 만큼, 자회사 닥터웍스의 행보에도 주목이 필요하다”라고 전했다. 한편 하나증권은 크라우드웍스의 2024년 실적과 관련, 매출액 367억원(+53.0%, YoY), 영업이익 73억원(흑전, YoY)으로 실적 턴어라운드를 전망했다. 조 연구원은 “올해 실적 성장은 텍스트·이미지·영상·음성 등 멀티모달 AI 데이터 수요증대 및 신규 사업인 맞춤형 LLM 서비스 매출 가시화에 기인한다”라며 “또한 동사는 네이버 클라우드와 마이크로소프트 Azure 클라우드 파트너사(MSP)로 2025년부터는 클라우드 서비스 진출을 통해 외형 성장세는 더욱 가파라질 것으로 예상한다”라고 덧붙였다. kakim@fnnews.com 김경아 기자
2024-02-19 09:02:56