코난테크놀로지가 과학기술정보통신부가 추진하는 K-클라우드 기술개발 사업의 일환인 이종 인공지능(AI)반도체 기반의 분산 추론 및 모델 최적화 기술 개발 과제에 선정됐다고 29일 밝혔다. 과제명은 ‘이종 AI반도체용 분산 추론 및 모델 최적화 기술 개발’(과제 번호 : RS-2025-02305453)이다. 총 사업비 104억원 규모로 진행되며 오는 2029년 12월까지 수행된다. 주관연구개발기관은 한국전자통신연구원(ETRI)이며 공동 연구 컨소시엄에는 리벨리온, 서울대학교, 한국과학기술원이 포함됐다. 최근 대규모언어모델(LLM) 기반 서비스 수요는 급증하고 있으나 높은 추론 비용이 제약으로 작용하고 있다. 이를 해소하기 위해 신경망처리장치(NPU)와 지능형메모리반도체(PIM) 등 다양한 AI반도체를 활용한 최적화 기술과 분산 소프트웨어 개발의 중요성이 커지고 있다. 이렇듯 다양한 종류의 AI반도체를 연동한 환경에서 효율적인 분산 추론 및 모델 최적화 기술을 확보하는 것이 과제의 목표다. 이를 통해 이종 AI반도체 환경에서 AI 모델을 유연하게 실행할 수 있는 서비스 프레임워크, 다양한 AI 가속기 기반 자원을 통합 관리하는 스케줄링 시스템, 그리고 실제 사용자 단말에서 구동 가능한 LLM-검색증강생성(RAG) 기반 통합 실증 서비스 등이 개발될 예정이다. 이 중 코난테크놀로지는 이종 AI반도체 환경에서의 LLM-RAG 분산 추론 통합 실증 서비스를 맡아 수행할 계획이다. AI 소프트웨어 분야의 기술력과 LLM·RAG 개발 경험을 기반으로, 다양한 반도체 환경에서도 안정적인 AI 서비스 구동이 가능한 기술적 기반을 확보하고, 고성능 분산 추론 구조의 실증 사례를 통해 국내 AI 기술의 자립성과 경쟁력 제고에 기여할 것으로 기대된다. 과제 연구개발 책임자인 오창민 코난테크놀로지 언어음성연구소 상무는 “국내 AI 인프라의 기술 자립을 위한 핵심 과제에 참여하게 돼 의미가 크다”며 “이종 AI반도체 기반 추론 환경에서 고도화된 실증 서비스를 현실화하고 차세대 AI 인프라 상용화에 기여하겠다”고 말했다. solidkjy@fnnews.com 구자윤 기자
2025-04-29 09:15:30"사람은 완벽하지 않고 저마다 인지능력도 달라 의사결정의 불확실성이 크다. 이 때 거대언어모델(LLM) 에이전트는 인간의 사고과정을 분석해 어떤 리스크를 우려하는 지 파악하고, 목표 설정을 돕는 등 의사결정 전반에 걸쳐 도움을 줄 수 있다." 파이낸셜뉴스가 23일 서울 여의도 페어몬트 앰버서더에서 개최한 '2025 FIND·26회 서울국제금융포럼'에서 조지 찬 라우 아세안+3 거시경제조사기구(AMRO) 수석 이코노미스트는 '언어 모델:경제 및 금융 분야 활용'을 주제로 한 강연에서 이 같이 말했다. 라우 이코노미스트는 LLM 에이전트가 경제 상황을 분석하는데 탁월한 능력을 갖춘 것으로 판단했다. 수많은 데이터를 통해 인간의 추론능력을 모방할 수 있는 만큼 시장이 변할 때마다 사람들에게 맞춤형 인사이트를 제공할 수 있다는 것이다. 라우 이코노미스트는 세 가지의 LLM 에이전트를 소개했다. '제로샷 LLM'의 경우 텍스트뿐만 아니라 숫자, 음성, 영상까지 처리하는 멀티모델 처리능력이 특징이다. 그는 "해당 LLM 에이전트를 활용해 미국 내 50개 회사의 컨퍼런스 콜을 토대로 국내총생산(GDP), 실업률 등 거시경제를 분석한 결과와 글로벌 석학들이 참여한 대규모 설문조사의 미래 전망이 거의 일치했다"며 "AI를 활용하는 것이 일일이 설문조사를 하지 않아 비용을 줄일 수 있고, 섹터별·기업별로 어떤 퍼포먼스를 보여줄 지도 상세하게 알 수 있어 더 효율적"이라고 설명했다. 시장분석을 위해서는 '이종 LLM'이 효과적이라는 설명이다. 제로샷 모델을 확장한 이종 LLM은 경제지표를 정확하게 예측하는 것은 물론 각 시장참가자들이 현 상황을 어떻게 파악하는 지도 측정할 수 있다. 라우 이코노미스트는 "특정 집단의 시각을 보조할 수 있다면 경제 판단의 무작위성을 보완할 수 있다"고 짚었다. 마지막으로 에이전트 기반의 LLM 모델은 세 가지 모델 중에서 가장 신뢰도가 높다. 다른 모델의 경우 특정 경제상황을 분석할 때 개별 수치를 따로 입력하게 된다. 문제는 실물경제가 각 경제주체들의 상호작용으로 오차가 발생한다는 점이다. 이 모델은 LLM 모델을 가상 그룹별로 따로 적용한 뒤 각 영향을 고려한 새로운 도출을 도출하기 때문에 정교함이 탁월하다는 판단이다. 특별취재팀 박소현 팀장 예병정 서혜진 김태일 이승연 김동찬 박문수 이주미 김예지 김찬미 최아영 이동혁 기자
2025-04-23 18:31:10KT가 국내 인공지능(AI) 스타트업과 손잡고 개발한 거대언어모델(LLM) 플랫폼을 태국에 구축한다. KT는 이번 프로젝트로 자체 국내 개발한 AI플랫폼을 해외에 구축하고 운영까지 하는 성과를 내게 됐다. 운영을 위한 그래픽처리장치(GPU) 시설도 태국 현지에 구축해 서비스와 하드웨어 운영 경험까지 쌓을 수 있을 것으로 보인다. ■태국 자스민 그룹에 태국어 LLM 구축KT는 태국 '자스민' 그룹의 정보기술(IT) 전문 기업 '자스민 테크놀로지 솔루션(JTS)'과 추진한 태국어 거대언어모델(LLM) 플랫폼 구축 프로젝트를 성공적으로 마무리했다고 15일 밝혔다. KT는 지난해 3월 JTS와 태국어 LLM 플랫폼 개발 프로젝트를 위한 계약을 체결하고 1년여간 프로젝트를 수행해왔다. 이번 프로젝트는 개발과 운영까지 담당하는 원스톱 프로젝트다. LLM 운영 관리 환경 'LLM 옵스'와 인공지능(AI) 서비스 인프라 '그래픽처리장치(GPU) 팜'을 구축하고 '태국어 전용 'LLM 모델'까지 개발한다.해외에 종합 AI 인프라를 구축해 생성형 AI 서비스의 개발과 운영, 확장 환경을 마련한 것은 국내 기업 중 KT그룹이 처음이다. LLM 옵스는 다양한 LLM 모델의 학습·배포·운영 전 과정을 관리할 수 있는 환경이다. KT는 이를 고객사 맞춤형으로 구축한다. JTS는 복잡한 생성형 AI 운영 환경을 보다 효율적·안정적으로 운용할 수 있게 됐다. ■GPU팜도 태국 현지 조성 KT는 클라우드 자회사 KT 클라우드와 함께 GPU 자원 관리를 위한 GPU 팜도 태국 현지에 조성했다. 여기에 기반해 JTS는 태국 기업과 기관에 GPU 구독 서비스(GPUaaS)를 공급하고 본격적으로 태국 내 AI 생태계 확장을 촉진할 계획이다. KT는 자체 모델 개발 경험과 노하우를 토대로 국내 LLM 전문 기업 업스테이지와 태국어 전용 LLM을 공동 개발했다. 이 모델은 태국어, 영어, 한국어 등을 지원한다. 태국의 방대한 고유 데이터를 학습해 태국 정치, 역사, 문화 관련 질문에도 정확하게 응대할 수 있다. KT는 △AI 플랫폼 고도화 △GPU 인프라 확장 및 유지 보수 △AI 기반 신규 서비스 발굴 등 다양한 분야에서 지속적인 협력을 이어 나갈 계획이다. 또 양사는 태국 인공지능 전환(AX) 시장을 겨냥한 AI 서비스를 단계적으로 선보일 계획이다. KT는 이번 프로젝트로 성공적인 글로벌 AX 사업 레퍼런스를 확보했다. 이를 통해 한층 고도화된 AI 사업 역량을 확보하고 동남아 시장 뿐 아니라 중동, 유럽 등 다른 글로벌 시장까지 AX 사업 영역을 본격적으로 확대해 나갈 방침이다. 이진형 KT 전략컨설팅부문 AI사업전략담당(상무)은 "이번 프로젝트에서 얻은 경험과 노하우를 포함해 KT는 마이크로소프트, 팔란티어와의 전략적 제휴를 기반으로 AI, 클라우드의 서비스형 상품 라인업도 다각화해 나갈 계획"이라고 말했다. mkchang@fnnews.com 장민권 기자
2025-04-15 18:15:59[파이낸셜뉴스] KT가 국내 인공지능(AI) 스타트업과 손잡고 개발한 거대언어모델(LLM) 플랫폼을 태국에 구축한다. KT는 이번 프로젝트로 자체 국내 개발한 AI플랫폼을 해외에 구축하고 운영까지 하는 성과를 내게 됐다. 운영을 위한 그래픽처리장치(GPU) 시설도 태국 현지에 구축해 서비스와 하드웨어 운영 경험까지 쌓을 수 있을 것으로 보인다. ■태국 자스민 그룹에 태국어 LLM 구축 KT는 태국 ‘자스민’ 그룹의 정보기술(IT) 전문 기업 ‘자스민 테크놀로지 솔루션(JTS)'과 추진한 태국어 거대언어모델(LLM) 플랫폼 구축 프로젝트를 성공적으로 마무리했다고 15일 밝혔다. KT는 지난해 3월 JTS와 태국어 LLM 플랫폼 개발 프로젝트를 위한 계약을 체결하고 1년여간 프로젝트를 수행해왔다. 이번 프로젝트는 개발과 운영까지 담당하는 원스톱 프로젝트다. LLM 운영 관리 환경 ‘LLM 옵스’와 인공지능(AI) 서비스 인프라 ‘그래픽처리장치(GPU) 팜’을 구축하고 ‘태국어 전용 ‘LLM 모델’까지 개발한다.해외에 종합 AI 인프라를 구축해 생성형 AI 서비스의 개발과 운영, 확장 환경을 마련한 것은 국내 기업 중 KT그룹이 처음이다. LLM 옵스는 다양한 LLM 모델의 학습·배포·운영 전 과정을 관리할 수 있는 환경이다. KT는 이를 고객사 맞춤형으로 구축한다. JTS는 복잡한 생성형 AI 운영 환경을 보다 효율적·안정적으로 운용할 수 있게 됐다. ■GPU팜도 태국 현지 조성 KT는 클라우드 자회사 KT 클라우드와 함께 GPU 자원 관리를 위한 GPU 팜도 태국 현지에 조성했다. 여기에 기반해 JTS는 태국 기업과 기관에 GPU 구독 서비스(GPUaaS)를 공급하고 본격적으로 태국 내 AI 생태계 확장을 촉진할 계획이다. KT는 자체 모델 개발 경험과 노하우를 토대로 국내 LLM 전문 기업 업스테이지와 태국어 전용 LLM을 공동 개발했다. 이 모델은 태국어, 영어, 한국어 등을 지원한다. 태국의 방대한 고유 데이터를 학습해 태국 정치, 역사, 문화 관련 질문에도 정확하게 응대할 수 있다. KT는 △AI 플랫폼 고도화 △GPU 인프라 확장 및 유지 보수 △AI 기반 신규 서비스 발굴 등 다양한 분야에서 지속적인 협력을 이어 나갈 계획이다. 또 양사는 태국 인공지능 전환(AX) 시장을 겨냥한 AI 서비스를 단계적으로 선보일 계획이다. KT는 이번 프로젝트로 성공적인 글로벌 AX 사업 레퍼런스를 확보했다. 이를 통해 한층 고도화된 AI 사업 역량을 확보하고 동남아 시장 뿐 아니라 중동, 유럽 등 다른 글로벌 시장까지 AX 사업 영역을 본격적으로 확대해 나갈 방침이다. 이진형 KT 전략컨설팅부문 AI사업전략담당(상무)은 "이번 프로젝트에서 얻은 경험과 노하우를 포함해 KT는 마이크로소프트, 팔란티어와의 전략적 제휴를 기반으로 AI, 클라우드의 서비스형 상품 라인업도 다각화해 나갈 계획"이라고 말했다. mkchang@fnnews.com 장민권 기자
2025-04-15 09:19:49코난테크놀로지가 이달 추론모드가 통합된 코난 대규모언어모델(LLM) 신규모델 ‘ENT(엔터프라이즈)-11’을 내놓는다고 26일 밝혔다. 벤치마크에서는 딥시크를 제쳤다는 것이 회사 측 설명이다. 신규 모델은 일반 모드와 추론 모드를 하나의 엔진에 통합한 점이 가장 큰 특징이다. 단일 모델로서 일반 질의 응답뿐만 아니라 복잡한 추론을 요구하는 작업에도 최적의 답변을 제공할 수 있도록 전환 대응한다. 일반용 모델과 추론용 모델을 별도로 제공하는 타사 모델에 비해 더 낮은 그래픽처리장치(GPU) 비용으로도 고성능 AI 서비스가 가능하다는 점에서 차별화된다. 한국어 최적화 구조를 갖춘 것도 강점이다. 퀜, 라마, 젬마, 딥시크 등의 모델 대비 한국어 토큰이 사전 학습 단계에서 더 많이 포함돼 한국어 기반 질의에 대한 처리 정확도와 응답 속도 면에서 월등히 앞선다. 이는 출시 전 진행된 자체 벤치마크에서도 검증됐다. ‘ENT-11’모델의 매개변수는 32B 규모로, 671B인 대형 모델 딥시크 R1 대비 약 5% 수준에 해당한다. 그럼에도 멀티턴 대화 및 지시를 따르는 능력을 측정하는 ‘MT-Bench’ 평가의 △작문 △역할극 △추론 △수학 △코딩 △정보 추출 △STEM(과학·기술·공학·수학) △인문학 8개 항목에서 딥시크 R1과 대등한 점수를 기록했다. 코딩 성능은 크게 앞섰다. ‘ENT-11’모델과 매개변수가 32B로 동일한 딥시크 R1모델에 비해서는 평균 4.75%p 성능이 높았다고 회사는 전했다. 아울러 코난테크놀로지는 MT-Bench를 직접 번역 및 검수, 교정하여 평정 결과의 정확성을 증대하고 오차를 감소시킨 ‘Konan MT-Bench’를 자체 구축해 신규 모델의 성능을 거듭 평가했다. 그 결과 ‘ENT-11’ 모델은 동일 크기의 딥시크 R1 대비 평균 5.38%p 높은 성능을 기록했다. 특히 복잡한 추론과 수학 분야에서 모두 앞섰다. ‘ENT-11’ 모델의 일반 모드 성능 또한 이전 모델인 ‘ENT-10’ 대비 4.5%p 향상됐다. 모델 성능 향상은 컨텍스트 처리 능력에서도 확인된다. 기존 ENT-10 모델이 최대 16K 컨텍스트를 지원했다면 ENT-11 은 최대 128K 토큰의 긴 컨텍스트까지 확장됐다. 한글 토큰 기준으로 A4 용지 128장 분량, 영어 토큰으로는 320장 분량에 달한다. 김영섬 코난테크놀로지 대표이사는 “LLM 모델이 늘어남에 따라 그 평가 방식도 다변화되는 가운데, 특정 평가지표에만 과도하게 피팅돼 일부 평가에서만 성능이 좋게 나타나는 모델에 대해서는 변별력이 필요하다"며 “딥시크 R1대비 20배나 작은 모델이지만 더 나은 추론 성능을 입증한 만큼 고품질의 한국어 데이터와 개발 인프라를 강점으로 앞으로도 코난테크놀로지가 만든 LLM 기술이 국내 생성형 AI 성능의 바로미터가 될 수 있도록 매진하겠다”고 말했다. solidkjy@fnnews.com 구자윤 기자
2025-03-26 08:57:21"LLM(거대언어모델)은 이미 많이 나와 있으니 우리가 나아가야 할 건 사람을 양성하고 연구하는 데 도움을 줘야 한다는 점이다. 미국은 인재를 발굴·양성하고 재교육하는 데 힘을 주고 있다." 황승진 스탠퍼드대 명예교수는 이정헌·주호영·정동영·최형두·이해민 의원이 18일 국회의원회관에서 주최한 '인공지능(AI) 대전환 속 대한민국의 길, 세계는 어떻게 준비하는가' 토론회에서 발제자로 나서 이같이 말했다. 이날 행사에는 주최 측을 비롯해 이학영 국회 부의장과 김현·박민규·양문석·이훈기·조정식·천하람·최민희·황정아 의원, 강도헌 과기정통부 2차관, 장경미 한국지능정보사회진흥원(NIA) 부원장 등이 참석한 가운데 홍기범 숙명여대 교수 사회로 진행됐다. 먼저 황 교수는 "LLM 등장은 인류 역사상 충격적인 사건"이라고 운을 뗀 뒤 "토토이즈 AI 국가별 지표에 따르면 미국을 100으로 보면 한국은 27 정도, 중국은 54 정도로 한국의 2배인데 이게 딥시크나 마누스가 나오기 전 지표"라고 밝혔다. 그는 "우리는 1차 방어선이 뚫린 것을 인정하고 제2의 방어선을 만들어야 한다. AI를 비즈니스 조직 변화에 어떻게 이용하느냐가 관건"이라며 분야별 LLM, 국가별 LLM의 활용을 제안했다. 아울러 AI 인재 양성이 중요하다는 것이 황 교수의 생각이다. 그는 "많은 사람들이 AI 때문에 내 직업을 잃지 않을까 하는데, 사람들은 걱정하지 말고 재교육을 통해 (AI 시대를) 준비해야 한다"고 강조했다. 이어 이우근 칭화대 집적회로학원 교수는 '한중 반도체 산업 역학과 반격차 전략의 필요성'을 주제로 발표했다. 이 교수는 "기술 초격차가 궁극적 목표가 될 수 있지만 전략으로는 애매하다"며 "중국 반도체 산업은 처음부터 초격차 기술보다 국산화를 우선으로 했다"고 말했다. 이 교수는 삼성전자가 최초의 폴더블폰을 내놨음에도 중국 스마트폰 시장에서 고전하는 사례를 들면서 반격차 전략도 고려해야 한다고 조언했다. 그는 "같은 공정일 때는 좀 더 싼 공정이 필요하기에 현지 투자, 전문인력과 특허가 많이 필요하다"며 "정부의 전자설계자동화(EDA) 지원, 대기업의 파운드리 지원, 대학의 회로 지식재산권(IP) 지원 등으로 팹리스 창업 생태계를 위한 삼각지원도 절실하다"고 덧붙였다. 한편 이날 패널토론은 이성엽 고려대 기술법정책센터장이 좌장으로 나선 가운데 송경희 성균관대 교수, 김경만 과기정통부 인공지능기반정책관, 라이너 붸슬리 주한EU대표부 디지털 연구 담당관, 셰인 카힐 메타 입법·정책 개발 총괄 등이 참여했다. solidkjy@fnnews.com 구자윤 기자
2025-03-18 17:43:40SK쉴더스가 AI 보안 위협에 선제적으로 대응하기 위해 ‘LLM(거대언어모델) 애플리케이션 취약점 진단 가이드’를 발간했다. LLM 기반 애플리케이션은 자연어 처리와 생성에 특화된 대규모 언어 모델을 활용하며, 금융, 제조, 헬스케어 등 다양한 산업에서 사용되고 있다. 대표적인 예로 오픈AI의 챗GPT와 구글의 제미나이가 있으며, 이러한 애플리케이션들은 기존 IT 시스템과는 다른 보안 위협에 노출될 가능성이 높아 철저한 보안 대책이 요구된다. SK쉴더스는 2025년 주요 보안 위협 중 하나로 AI 기반 해킹 증가를 지목했다. 특히, 소규모 언어 모델(sLLM)을 겨냥한 해킹과 LLM의 구조적 취약점을 악용한 데이터 조작 및 유출 공격이 심화될 것으로 전망했다. 이에 따라 이번 가이드는 ‘OWASP Top 10 for LLM Applications 2025’의 주요 항목을 포함하고 있으며, LLM 통합, 에이전트, 모델 등 세 가지 핵심 영역의 보안 이슈를 다루고 있다. 보고서에서는 대표적인 보안 위협으로 프롬프트 인젝션, API 매개 변수 변조, RAG(검색증강생성) 데이터 오염 등을 꼽았다. 프롬프트 인젝션은 사용자의 입력값을 악의적으로 조작해 시스템이 의도하지 않은 응답을 출력하도록 유도하는 공격으로, 민감한 정보 유출 등의 문제를 야기할 수 있다. API 매개 변수 변조는 시스템 간 통신에 사용되는 요청값을 변경해 권한을 초과하는 동작을 실행하도록 하는 위협이다. 또한, RAG 데이터 오염은 외부 데이터를 조작해 검색된 정보의 신뢰도를 떨어뜨리는 방식으로 보안 문제를 발생시킬 수 있다. 이번 가이드에서는 이러한 보안 위협을 방지하기 위해 사용자와 시스템 명령어(프롬프트)를 분리하고, 데이터 흐름 점검 및 검증 절차를 강화할 것을 강조했다. 또한, LLM의 코드 실행 여부에 따라 샌드박스를 활용해 악성코드 실행을 방지하고, RAG를 활용할 때는 권한 없는 데이터 접근을 차단하기 위해 그룹별 권한 관리 체계를 구축해야 한다고 제안했다. SK쉴더스는 국내 사이버보안 1위 기업으로서 AI 특화 모의해킹 서비스, SBOM(소프트웨어 명세서), ML-BOM(머신러닝 명세서) 관리 등 DevSecOps 구축 컨설팅을 제공하며, 기업들이 AI 애플리케이션의 잠재적 취약점을 조기에 발견하고 안전한 운영 환경을 구축할 수 있도록 지원하고 있다. 김병무 SK쉴더스 사이버보안부문장(부사장)은 "AI 기술은 편리함을 제공하지만 보안 취약점이 악용될 경우 심각한 해킹 사고가 발생할 수 있다"며 "이번 가이드는 기업과 기관이 직면할 수 있는 AI 보안 문제를 사전에 예방하고 신뢰할 수 있는 AI 시스템을 구축하는 데 실질적인 도움을 줄 것"이라고 밝혔다. ‘LLM 애플리케이션 취약점 진단 가이드’는 SK쉴더스 공식 웹사이트의 정보보안 라이브러리 메뉴에서 무료로 다운로드할 수 있다.
2025-03-18 17:23:45[파이낸셜뉴스] K-OTC 상장 인공지능(AI) 플랫폼 전문기업 와이즈에이아이가 급변하는 거대언어모델(LLM) 시장에 대응하기 위해 전담 태스크포스(TF)팀을 구성했다고 21일 알렸다. 신설된 TF팀은 범용 LLM 시장 확대에 발맞춰 이에 대응 가능한 엔진 연동 및 신규 AI 서비스 개발에 주력할 계획이다. 와이즈에이아이는 이미 TF팀의 첫 번째 과제로 딥시크(DeepSeek)와의 엔진 연동 및 이에 기반한 신규 AI 서비스 개발을 선정하고 전략 수립을 본격화했다. 챗GPT 출시 초기 자사 AI 서비스와의 연동을 신속하게 마무리한 경험이 있는 만큼, 딥시크 역시 빠른 시일 내 연동이 가능하다는 게 회사 측의 설명이다. 특히 와이즈에이아이는 딥시크 연동이 자체 AI 서비스 운영 비용을 크게 절감하는 효과를 가져올 것으로 기대하고 있다. LLM의 고도화 및 다양화에 따라 LLM 토큰 비용이 지속적으로 하락하는 가운데, TF팀을 통해 LLM 선택을 다변화함으로써 수익성 개선을 더욱 극대화할 방침이다. 와이즈에이아이 관계자는 “AI 시장의 변화로 범용 LLM을 활용하는 기업들에게 더욱 유리한 환경이 조성되고 있다” “TF팀을 중심으로 딥시크 등 신규 LLM과의 엔진 연동을 지속 확대하는 한편, 이를 자사 특화 AI 서비스와 결합해 시너지 효과를 극대화할 계획”이라고 설명했다. 그는 이어 “절감된 비용을 에이유(AiU), 덴트온(DentOn) 등 주요 AI 서비스의 성능 개선과 제품 경쟁력 강화를 위한 재투자에 활용할 방침”이라며 “이를 통해 고객들에게 최상의 AI 솔루션을 제공하겠다”고 덧붙였다. 한편, 최근 미국의 AI 스타트업 ‘xAI’도 자체 개발한 최신 AI 모델 ‘그록3’를 발표하며 범용 LLM 시장 공략에 나섰다. xAI는 일론 머스크 테슬라 최고경영자(CEO)가 설립한 기업으로, xAI 측은 그록3가 구글 제미나이 2.0 프로, 딥시크 V3, 앤스로픽 클로드 3.5 소네트, 오픈AI GTP-4o 보다 우수하고 밝혔다. kakim@fnnews.com 김경아 기자
2025-02-21 08:31:23[파이낸셜뉴스] 정부가 국가AI위원회 3차 회의를 통해 토종 차세대 인공지능 모델(AI) 개발을 전격 발표하면서 증권가에서도 수혜 종목 찾기에 분주하다. 국가AI컴퓨팅센터 인프라 확충 계기로 독자적 인공지능 모델 경쟁력 확보 본격 추진한다는 구상이다. 20일 최상목 대통령 권한대행 부총리 겸 기획재정부 장관은 이날 제3차 국가인공지능(AI)위원회 회의를 주재하며 “글로벌 에이아이(AI) 환경이 급변하면서 위기감이 고조되고 있지만, 우리에게는 새로운 기회로, 인공지능 3대 강국 도약을 위해 민관이 힘을 모아 국가 인공지능 역량 강화를 빠르게 추진해야 할 중대한 시점”이라며 “정부는 빠른 시일내 세계 최고수준의 인공지능모델을 개발할 수 있도록 집중 지원하고, 핵심인재 양성과 해외 우수인재 유치를 강화하겠다”고 밝혔다. 실제 정부는 인공지능 컴퓨팅 자원 및 데이터 등 인프라를 확충하고, 전면적으로 인공지능을 산업화하는 등 국가적인 ‘인공지능 전환’을 가속화한다는 목표다. 먼저, ‘인공지능(AI)국가대표 정예팀’을 선발하여 세계 최고 수준의 대형언어모델(LLM·엘엘엠) 개발을 목표로 데이터·지피유(GPU·그래픽처리장치) 등 연구자원을 집중 지원하는 ‘월드 베스트 엘엘엠 프로젝트’를 추진한다. 또 미래 경쟁력 확보를 위해 1조원 규모의 범용 인공지능(AGI) 핵심원천기술 확보에도 도전한다. 이에 따라 내년 상반기 GPU 1만8000장 확보, 2027년까지 AI유니콘 5개 육성과 중기 AI활용 50% 목표 등을 제시하고 있다. 이에 자체 생성형 AI모델을 보유한 딥노이드가 향후 'AI 유니콘'이 될 수 있을 것이란 기대감이 나온다. 이는 토종 거대 언어 모델이 개발되면 중국의 딥시크처럼 AI모델의 소스를 활용해 자체 모델의 성능을 높일 수 있기 때문이다. 특히 이같은 모델의 활용은 기존 모델을 이미 보유하고 인력과 서버 등 인프라를 갖춰야 가능한데 의료AI분야에서는 아직까지 자체 생성형AI 모델을 보유한 업체가 없다. 딥노이드 관계자는 “이미 자체 생성형AI 모델을 보유하고 서비스까지 준비하고 있는 당 사는 기술 차이를 높이면서 진입장벽을 더 굳건히 쌓을 수 있을 것으로 기대한다”라고 언급했다. kakim@fnnews.com 김경아 기자
2025-02-20 12:52:18"보편적 인공지능(AI) 가치의 실현과 디지털 전환, AI 혁신의 새로운 시대를 열어가는 데 일조하고 싶다." 이태영 BC카드 AI본부 AX(AI Transformation)팀장(사진)은 17일 보안규제로 신기술 도입이 늦은 금융권에서 AI 기반 혁신사례를 만들어내고 싶다며 이같이 말했다. '벤처 1세대'인 이 팀장은 지난 2010년 BC카드에 합류했다. 이후 결제거래 중계시스템 개발 및 운영, 차세대 프로젝트 등을 거쳤다. 지금은 사내 신기술 도입을 주도하는 역할을 하고 있다. 이 팀장이 카드업계에서 알려지기 시작한 것은 한국 금융에 최적화된 AI를 만드는 'K금융 특화 AI' 프로젝트부터다. 이 팀장은 "일반적인 자연어처리(NLP) AI 모델은 금융의 복잡한 규정과 전문용어를 충분히 이해하지 못하는 경우가 많고, 보안과 규제상의 이유로 민감한 데이터를 직접 활용하는 것도 어렵다"며 "금융업 특성상 AI가 도입됐을 때 업무 효율화와 서비스 혁신 가능성이 매우 크기 때문에 이에 적합한 모델을 자체적으로 개발할 필요가 있었다"고 설명했다. 6개월이 걸려 완성된 K금융 특화 AI의 거대언어모델(LLM)과 2만여개의 금융지식 학습 데이터는 무상으로 공개됐다. 이 팀장은 "K금융 특화 AI의 가장 큰 장점은 한국 금융 규정·약관, 상담 시나리오 등 금융에 특화돼 실제 현업에서 높은 정확도를 발휘한다는 점"이라며 "프로그램을 무료로 배포하면 다른 금융사나 연구자가 쉽게 활용해 볼 수 있고, 성능개선과 다양한 현업 적용사례가 나올 것"이라고 강조했다. 실제 BC카드는 국내 금융권에서는 유일하게 세계 최대 AI오픈소스 플랫폼 '허깅페이스(Hugging Face)'에 총 10개의 LLM을 공개하고 있다. AI 전문가인 이 팀장은 한국 AI의 현주소에 대해 "AI 응용분야는 상당히 높은 수준에 도달해 있다. 금융권에서는 신용평가, 부정거래 탐지, 고객맞춤형 서비스 제공 등에서 AI가 적극적으로 활용되고 있다"면서도 "LLM 분야에서는 아직 뚜렷한 성과가 나오지 않고 있다"고 진단했다. 그러면서 한국 AI산업이 성과를 내기 위해 △국내 AI 연구 및 지원 체계의 다변화 △기업 간 협업과 오픈소스 공유 문화 활성화 △유연한 조직구조와 빠른 의사결정 과정을 통해 신속하게 AI 기술 도입 △데이터 접근성과 활용성 등이 필요하다고 짚었다. 이 팀장은 BC카드 내에서 '모아이(MoAI·가칭)' 프로젝트를 진행 중이다. 그는 "모아이 프로젝트는 모두의 AI를 의미한다. 실제 사원처럼 활동할 수 있는 AI 직원을 도입해 전사적인 업무 지원체계를 구축하려는 혁신적인 시도"라며 "핵심은 AI 에이전트에게 정식 사번을 부여하고 사내메신저, 이메일, 정보기술(IT) 개발환경 등 다양한 핵심 시스템에서 실제 직원처럼 상호작용하게 함으로써 문서 작성, 데이터 조회, 보고서 초안 작성, 이메일 정리 등 여러 업무를 지원하는 데 있다"고 전했다. 이어 "AI 기술을 단순히 연구개발(R&D) 수준에서 활용하는 것이 아니라 전사적 업무혁신과 새로운 사업모델로 연결하는 것이 주요 목표"라며 "앞으로도 이 방향성을 유지하며 전 금융권 AI 도입을 가속화해 나가는 데 일조할 계획"이라고 말했다. coddy@fnnews.com 예병정 기자
2025-02-17 19:22:11