[파이낸셜뉴스] 카카오가 자체 AI 모델을 기반으로 기술력 검증과 생태계 확장에 나선다. 카카오는 자체 개발 언어모델 카나나(Kanana)의 연구 성과를 담은 테크니컬 리포트를 아카이브(ArXiv)에 공개했다. 이와 더불어 언어모델 라인업 중 국내 AI 생태계 활성화를 위해 ‘카나나 Nano 2.1B’ 모델을 오픈소스로 깃허브(GitHub)에 배포했다. 테크니컬 리포트는 매개변수와 학습 방법, 학습 데이터 등 세부 사항을 담아낸 AI 논문이다. 카카오는 이번 리포트에 다양한 사이즈에 이르는 카나나 언어모델 전체의 프리-트레이닝(Pre-training)부터 포스트-트레이닝(Post-training)까지 전 과정을 자세히 담았다. 카나나 모델의 구조, 학습 전략, 그리고 글로벌 벤치마크에서의 성과도 확인할 수 있다. 카카오의 초거대 언어모델 ‘카나나 플래그'(Kanana Flag)는 지난해 말 학습을 완료했다. 카카오는 작년 10월 개발자 컨퍼런스 ‘if(kakaoAI)2024’에서 공개한 ‘카나나 언어모델’의 전체 라인업을 모두 구축하게 됐다. ‘카나나 플래그'는 글로벌 최고 수준의 한국어·영어 성능을 달성한 모델이다. 한국어 성능을 평가하는 ‘LogicKor’, ‘KMMLU’ 벤치마크에서 타 모델을 압도하는 처리 능력을 입증했다. 영어 성능을 평가하는 ‘MT-bench’, ‘MMLU’ 벤치마크에서는 경쟁 모델과 유사한 성과를 기록했다. 또 학습 자원 최적화를 통해 유사 사이즈의 모델 대비 50% 이상 비용을 절감하며, SOTA(State-of-the-Art) 수준의 효율성과 성능을 동시에 구현해냈다. 카카오는 대규모 언어모델의 학습 효율을 극대화하고자 다양한 혁신적 학습 기법을 적용했고, 이를 통해 경량 모델 ‘카나나 나노 2.1B’부터 초거대 모델 ‘카나나 플래그 32.5B’까지 다양한 사이즈의 고성능 모델을 효율적으로 개발, 글로벌 유사 크기 모델 대비 절반 이하의 학습 비용을 실현했다고 강조했다. 카카오는 향후 카나나 모델에 강화 학습과 연속 학습 기반의 최신 기술을 접목해 추론, 수학,코딩 능력을 강화하고, 정렬(Alignment) 기술을 고도화해 사용자 요청의 수행 정확도를 높일 계획이다. 이를 통해 음성, 이미지, 영상 등 다양한 형태로 소통 가능하도록 지속적 모델 고도화를 이어가며, 일상에 실질적인 가치를 더하는 기술로 자리잡을 수 있도록 기술 경쟁력을 강화해 갈 예정이다. 카카오는 이번 테크니컬 리포트와 함께 자체 개발 경량 모델 ‘카나나 Nano 2.1B’를 깃허브에 오픈소스로 공개했다. ‘카나나 나노 2.1B’의 베이스 모델과 인스트럭트 모델, 임베딩 모델이 오픈소스 커뮤니티인 깃허브를 통해 제공된다. 카카오에 따르면 ‘카나나 나노 2.1B’는 연구자와 개발자가 활용하기 적절한 크기의 모델이자 온디바이스 환경에서도 활용 가능한 고성능의 경량 모델로, 비교적 작은 규모임에도 유사한 크기의 글로벌 모델에 견줄 만한 성능을 자랑한다. 지난달 카카오 공식 테크블로그를 통해 공개한 바와 같이, 한국어와 영어 처리 능력에서 뛰어난 결과를 보여준다. 카카오는 이번 오픈소스 공개를 통해 AI 기술의 접근성을 높이고자 하며, 연구자와 개발자들이 해당 모델을 토대로 다양한 응용을 시도할 수 있도록 모델의 업데이트를 지속 지원할 계획이다. 카카오 김병학 카나나 성과리더는 “모델 최적화와 경량화 기술을 바탕으로 라마, 젬마 등 글로벌 AI 모델과 견줄 수 있는 고성능의 자체 언어모델 라인업을 효율적으로 확보하게 됐으며, 이번 오픈소스 공개를 통해 국내 AI 생태계 활성화에 기여할 수 있을 것으로 기대한다”며, “앞으로도 효율과 성능 중심의 실용적이고 안전한 AI 모델을 개발해가며, 지속적 기술 혁신을 통해 AI 경쟁력을 강화해 갈 계획”이라고 말했다. yjjoe@fnnews.com 조윤주 기자
2025-02-27 10:33:12【파이낸셜뉴스 나주=황태종 기자】발·송전설비 정비 전문 회사인 한전KPS가 인공지능(AI) 거대언어모델(LLM.Large language model)을 새로운 감사 기법으로 도입하는 등 감사업무 혁신에 박차를 가하고 있다. 8일 한전KPS에 따르면 지난 5일 본사 회의실에서 ICT, 감사 관련 부서 담당자들로 구성된 차세대 AI감사 추진반 킥오프 미팅을 갖고 본격적인 활동에 돌입했다. 추진반은 디지털 플랫폼 정부 시대를 맞아 선진화된 지능형 감사를 구현하고자 OpenAI의 'ChatGPT'와 메타의 'LLaMa' 등으로 대표되는 거대언어모델의 감사업무 도입을 추진한다. 이날 킥오프 회의에서는 현재 운용하고 있는 감사업무 단순 안내 챗봇 수준을 뛰어넘어 인공신경망(Neural Network)을 통해 패턴을 학습하고 새로운 결과를 생성하는 거대언어모델(LLM)을 감사 기법에 접목하기 위한 잠재적 도전 과제와 구체적 해결 방안을 논의했다. 특히 AI를 활용할 경우 감사 과정에서 발생할 수 있는 데이터 보안 문제나 기술적인 이슈 등에 대한 심도 있는 토론이 오갔다. 추진반장인 이정주 감사실장은 "차세대 AI 기술이 감사업무에 가져올 혁신적인 변화에 기대가 높다"면서 "앞으로 공공 감사 분야에 범용할 수 있는 윤리적 AI 성숙도 모델(Ethical AI maturity model)을 제시하도록 적극적으로 지원하겠다"라고 말했다. 앞서 한전KPS는 그동안 AI를 적극적으로 활용해 감사업무의 효율성을 높여왔다. 우선 지난해 9월 완료한 'e-감사시스템' 고도화 사업을 통해 비정형화된 감사자료를 데이터베이스화하고 사내 계약, 회계 등 데이터와 국가법령정보센터 법률정보를 'RPA(Robotic Process Automation)'로 연결하는 등 빅데이터 체계를 구축하고 업무 전반을 디지털로 전환 운영하고 있다. 또 공기업 최초로 구축한 비대면 감사시스템인 '랜線 Audit'에 이어 차세대 AI 감사 시스템 구축 3단계 사업을 추진하고 있다. 1단계 사업에서 △광학적 문자인식(Optical character recognition)을 통한 개인정보 비식별화 변환 프로그램 △데이터 기반 감사시스템을 활용한 보고서 양식 자동 생성 △AI기반 특이사항 감지를 통한 상시 모니터링 △자연언어모델(Natural language Processing)을 이용한 과거 징계양정 및 법률정보를 추천하는 '유사 사례 추천' 검색 시스템 등을 도입했다. 한전KPS는 향후 AI 감사 시스템 구축을 위한 단계적 사업 추진을 통해 감사업무 혁신에 박차를 가할 예정이다. 이성규 상임감사는 "초거대 AI 시대로 전환하는 흐름에 맞춰 감사 분야에서도 공공 및 민간 분야가 서로 힘을 합치는 줄탁동시(崒啄同時)가 필요하다"면서 "선진화된 기술을 수용하고 내부적 역량을 동원해 차세대 AI 감사 추진반을 적극 지원하겠다"라고 말했다. hwangtae@fnnews.com 황태종 기자
2024-07-08 12:36:08자체 거대언어모델(LLM) 개발에 집중하던 인공지능(AI) 개발사들이 전략을 바꾸고 있다. 매개변수(파라미터)가 훨씬 적은 소형 거대언어모델(sLLM) 출시하고 AI 기반의 실제 서비스를 출시하는 데 집중하고 있다. 국내 주요 플랫폼사들도 이 같은 흐름에 맞춰 경량화 LLM을 내놓는가 하면, 비용 문제를 해결하기 위해 글로벌 빅테크와 손잡고 생태계를 확장하는 데 힘쓰고 있다. ■산업별 특화모델에 적합28일 업계에 따르면 주요 AI 모델 개발사들은 sLLM을 잇따라 선보이고 있다. 마이크로소프트(MS)는 소형언어모델 '파이-3 미니'를 출시한다. 파이-3 미니의 파라미터는 38억(3.8B)개로, 향후 출시될 매개변수 '파이-3 스몰(7B)'이나 '파이-3 미디엄(14B)'보다도 규모가 작다. 구글도 지난 2월 간단한 챗봇이나 언어 관련 작업에 유용한 파라미터 젬마 2B와 7B를 출시했다. 메타는 라마3를 출시하면서 파라미터 70B 모델과 함께 챗봇과 코딩 지원에 사용되는 소형 모델(8B)도 선보인 바 있다. 파라미터는 AI 모델이 얼마나 많은 복잡한 명령어를 이해할 수 있는 지를 나타낸다. 통상 파라미터가 1000억개 이하인 모델이 sLLM로 분류된다. 파라미터 개수가 많을수록 성능이 좋다고 평가받지만, 최근 기술 발달로 sLLM도 LLM 못지 않은 성능을 내며 비용도 절약할 수 있다는 점에서 많은 기업들이 주목하고 있다. 산업 특화 모델을 만들기도 적합하고 연산 작업이 적어 스마트폰과 같은 개인용 기기에서도 작동해 수요가 많을 것으로 전망된다. 업계 관계자는 "범용인공지능(AGI)를 목표로 하는 게 아니라면 sLLM에 주목할 수밖에 없다. LLM을 구축하고 구동하려면 비용이 너무 많이 들기 때문"이라며 "AI B2B(기업간거래) 시장에서는 특히 '최소 비용, 최고 성능'을 내는 게 중요하기 때문에 경량화 모델 출시가 많아질 것"이라고 설명했다. ■비용 부담에 sLLM 출시국내 기업들도 sLLM를 개발해 왔다. AI 스타트업인 업스테이지는 자체 sLLM '솔라 미니'를 아마존웹서비스(AWS)를 통해 출시한 바 있다. 솔트룩스는 AI 파운데이션 모델 '루시아GPT'를 발표했는데, 루시아GPT의 파라미터 수는 70억~500억 개까지 다양하다. 네이버는 LLM 개발에 주력하되, 비용 절감을 위해 쓰임에 따라 다양한 모델을 출시하고 있다. AI 개발 도구 '클로바 스튜디오'에 자체 초거대 AI 모델인 '하이퍼클로바X'의 경량화 버전 격인 '대시(HCX-DASH)'를 선보였다. HCX-DASH는 문장 생성이나 요약과 같은 비교적 단순한 업무부터 보고서를 작성하거나 맞춤형 챗봇을 구현하는 데 적합한 모델이다. 특히 고객사는 클로바 스튜디오에서 기존 대비 5분의 1 가격으로 신규 모델을 이용할 수 있다. 향후 네이버는 더 복잡한 작업에 맞는 모델도 출시, 하이퍼클로바X 라인업을 구축할 예정이다. 아울러 인텔의 AI 가속기 칩인 '가우디'를 기반으로 AI칩 소프트웨어 생태계를 다양화하고 있다. LLM 모델 운영 시 엔비디아 그래픽처리장치(GPU) 비용에 대한 부담도 커지는 만큼 다양한 대안을 찾기 위해서다. 네이버는 삼성전자와도 AI 추론 칩 '마하1'을 개발 중이다. soup@fnnews.com 임수빈 기자
2024-04-28 18:30:34SK텔레콤이 독일의 글로벌 통신사인 도이치텔레콤과 손잡고 전 세계 통신사들이 쉽고 빠르게 생성형 인공지능(AI) 모델을 개발할 수 있는 '통신사향 AI 거대언어모델(LLM)' 공동 개발에 나선다. 양사는 이 AI LLM을 내년 1·4분기 안에 공개할 예정이다. 22일 SKT에 따르면 양사는 지난 20일 서울 종로구 SK서린빌딩에서 이같은 내용의 협약을 체결했다. SKT 유영상 사장과 정석근 글로벌·AI 테크 사업부장, 도이치텔레콤의 팀 회트게스 회장과 클라우디아 네맛 수석 부회장 등 주요 임원진이 협약식에 참석해 공동개발의향서(LOI)에 서명하고 통신사향 글로벌 생성형 AI 사업에 적극 협력키로 했다. 이번 협약식은 지난 7월 서울 워커힐에서 도이치텔레콤을 비롯 e&, 싱텔 등 글로벌 최대 통신사들이 한 자리에 모여 양해각서(MOU)를 체결한 '글로벌 텔코 AI 얼라이언스'의 첫 번째 결과물이다. 통신사 동맹의 글로벌 AI 사업을 위한 실질적 발판을 마련했다는 점에서 의미가 크다고 SKT측은 설명했다. 양사는 앤트로픽, 메타 등 AI 업체들과 협업해 독일어, 영어, 한국어 등 통신사 특화 다국어 LLM을 공동 개발할 방침이다. 통신사향 LLM은 범용 LLM보다 통신 서비스 관련 영역에 대한 이해도가 높고 이용자 의도도 잘 이해할 수 있어 AI 콜센터와 같은 대 고객 서비스 등에 적합하다는 평가다. 이를 기반으로 유럽, 아시아, 중동 등 전세계 통신사들이 각국 환경에 맞춰 유연하게 AI 에이전트와 같은 생성형 AI 서비스를 개발할 수 있도록 지원한다는 것이 개발 취지다. 통신사들은 통신사 특화형 LLM으로 거대 플랫폼 개발 비용과 시간을 절감할 수 있으며, AI 혁신을 통해 전통적인 통신사업의 패러다임 전환과 함께 새로운 사업 기회와 성장 동력을 확보할 수 있다. 양사는 또 통신사들이 생성형 AI 서비스를 만드는데 활용할 수 있는 AI 플랫폼 기술도 공동 개발해 개발기간과 비용을 단축할 예정이다. 이번 협력을 통해 양사는 최근 생성형 AI를 중심으로 폭증하고 있는 이통사들의 AI 수요에 선제적으로 대응하는 한편, 특정 산업이나 도메인에 최적화 된 생성형 AI의 성공적 도입을 통해 글로벌 AI 생태계의 확장을 촉진할 것을 기대하고 있다. 한편 SKT가 지난 16~20일 스위스 제네바에서 열린 국제전기통신연합 전기통신표준화 부문(ITU-T) SG(Study Group, 연구반) 11에서 제안한 AI통합 패키지 'AI 풀스택의 구조와 연동 규격'이 ITU-T 국제 표준으로 최종 승인됐다. 이번에 승인된 표준은 2021년 12월 SKT가 ITU-T에 제출한 AI 통합 패키지(AI 풀스택)의 필수 기술 구성요소 및 구조와 연동 방식을 규격화한 것으로, SKT 주도로 진행된 AI 기반 연구결과가 이번에 ITU-T 국제 회원국의 회람을 거쳐 국제 표준으로 인정받게 된 것이다. solidkjy@fnnews.com 구자윤 기자
2023-10-22 18:05:30국내 최대 포털인 네이버를 비롯해 국내 기업들이 한국형 거대언어모델(LLM) 인공지능(AI)을 속속 공개하고 있는 가운데 전문가들은 '한국형 특화' 모델의 가능성을 보여줬다며 기대감을 나타냈다. 다만 기업간거래(B2B) 등을 통한 수익모델을 과제로 꼽았다. 파이낸셜뉴스는 국내 기업들이 잇따라 내놓고 있는 초거대 AI와 관련해 △국내 초거대 AI의 장점 △수익모델 △데이터 저작권 등 주요 의제에 대한 지상좌담회를 진행했다. 좌담회에는 김명주 서울여대 바른AI연구센터장(교수), 김주호 한국과학기술원(KAIST) 교수, 이성엽 고려대 기술법정책센터장(교수), 전창배 국제인공지능&윤리협회 이사장(가나다순)이 함께 했다. ―국내 기업들이 출시·개발 중인 초거대 AI의 강점은? ▲김명주=네이버 초거대 AI '하이퍼클로바X'를 직접 써보니 한국 사투리나 고려·삼국시대 기록과 같은 역사·문화 분야에 대한 결과를 잘 알려줘서 챗GPT보다 성능이 나았다. ▲김주호=네이버는 한국형 AI가 왜 필요한지 잘 보여줬다. LG는 계열사가 다양하고 배터리·화학·전자 등 전문영역들이 있어 계열사에서 쓸 수 있는 특화 AI로 포지션을 잘 잡았다. ▲이성엽='하이퍼클로바X'는 한국 특유의 문화나 한국어 관련해선 장점이 있다. 네이버의 학습대상 자체가 블로그나 카페 등 다른 외산 모델이 접근하기 어려운 데이터이기에 그렇다. ▲전창배=국내 기업 LLM은 한국어 데이터를 가장 많이 학습한 것이 장점으로, 질문을 한국어로 했을 때 결과가 바로 나오기에 사용자 만족도와 답변 품질이 더 높다. ―초거대 AI 수익모델, 아직 모호한데. ▲김명주=B2C(기업·소비자간 거래)보다 기업이나 산업군별 특화 서비스를 제공하는 것이 낫다. 기업 입장에선 AI 도입으로 인건비를 많이 줄일 수 있어야만 합리적이라고 느낄 것이다. ▲김주호=기업들이 AI 가능성은 인정하지만 돈을 내고 쓸 가치가 있는지, 믿을 만한 결과를 주는지 물음표가 있다. 원천적 기술이 필요하고 전문영역에서 기술 역량을 더 키워야 한다. ▲이성엽=B2C보다는 B2B(기업간거래)에서 기업들이 필요한 것을 제휴로 해서 모델화하는 건 가능할 거다. 애플 iOS, 구글 안드로이드처럼 수익을 공유하는 모델로 갈 수 있을 거다. ▲전창배=챗GPT처럼 개선된 AI 모델을 유료화할 수 있고 API를 제공해서 기업들이 활용할 수 있도록 하는 수익모델도 나오고 있다. 검색 엔진처럼 광고가 붙을 가능성도 있다. ―국내 기업들 입장에서 비용 절감이 관건인데. ▲김명주=AI 개발사 입장에서는 돈이나 엔지니어, 데이터가 필요해서 비용이 계속 들어갈 수밖에 없다. B2B 사업을 통해 수익을 내도 투자한 것 이상 수익이 나와야 하는데 쉽지 않다. ▲김주호=작은 회사들은 자체 모델 개발하기엔 역량과 자원이 부족하다. 소수의 직접 모델을 만드는 네이버, LG 등을 제외하면 대부분의 회사들이 이들의 서비스를 쓰는 고객이 될 것이다. ▲이성엽=도메인별로 각 기업에 특화된 AI 서비스를 별도로 구축하면 시스템통합(SI) 서비스 같은 형태가 된다. 이 경우 기업 내에서만 사용할 수 있어 보안 이슈는 물론 비용도 줄어든다. ▲전창배=빅테크 기업들이 개발·공개한 클라우드 형태의 API를 쓰면 비용을 절감할 수 있다. 특정 분야에 특화된 소형 LLM 운용 프로그램을 서비스해서 수익화하는 방식이 현실적이다. ―AI 학습을 위해 공짜로 활용하는 뉴스 등 콘텐츠에 사용료를 내야 한다는 주장이 있는데. ▲김명주=뉴스가 AI 학습대상이 되고 있는데 저작권이 있는 데이터로 여겨야 한다. 문제는 건건마다 저작권을 행사하면 기술 발전이 더딜 수 있어 1년 단위로 보상체계를 만들어야 한다. ▲김주호=관련 사안들이 쟁점이 되기 시작하는 시기다. 저작권 콘텐츠를 무분별하게 긁어서 학습 데이터로 쓰는 건 문제가 있다. 다양한 논의를 통해 기준이 만들어져야 하는 상황이다. ▲이성엽=뉴스 콘텐츠에 저작권이 있는 만큼 당사자 간 합의를 통해 적절한 대가를 지불하는 게 맞다. 다만 국가 차원 가이드라인을 정하면 AI 스타트업들은 비용 문제로 사업을 못 한다. ▲전창배=관련 법이 조만간 만들어져 생성형 AI 기업들이 뉴스 등 저작권 데이터를 돈 주고 사야 하는 때가 올 거다. 콘텐츠 기업들이 정당한 대가를 받는 사회가 될 것으로 예상한다. solidkjy@fnnews.com 구자윤 김준혁 임수빈 기자
2023-08-31 18:15:24SK텔레콤이 미국 생성형 인공지능(AI) 기업 '앤트로픽'에 1억달러(약 1300억원) 투자를 통해 글로벌 AI 주도권 확보에 나선다. 13일 SKT에 따르면 지난 5월 앤트로픽에 대한 시리즈C 투자에 이어 이번에 1억달러를 투자하고 AI 사업 협력 강화를 위한 파트너십을 체결했다. 양사는 향후 글로벌 텔코향 다국어 거대언어모델(LLM) 공동 개발 및 AI 플랫폼 구축 등에 힘을 모을 계획이다. 지난달 출범한 '글로벌 텔코 AI 얼라이언스'와 더불어 이번 협력은 SKT가 추진하는 글로벌 AI 경쟁력 강화에 힘을 더할 전망이다. SKT는 전략적 투자자로서 이번 투자를 통해 양사간 강력한 파트너십을 구축함과 동시에 이를 기반으로 SKT-앤트로픽-글로벌 텔코 AI 얼라이언스간 지속 가능한 사업 시너지를 기대하고 있다. SKT와 앤트로픽은 거대언어모델(LLM) 공동 개발 및 AI 플랫폼 구축 등에 있어 사업 협력을 도모한다. 양사는 한국어, 영어, 독일어, 일본어, 아랍어, 스페인어 등을 포함한 글로벌 통신사향 다국어 LLM 을 함께 개발할 계획이다. SKT는 이미 자체 개발·보유한 LLM 성능을 더욱 강화하는 한편 앤트로픽과 함께 새로운 다국어 LLM 모델을 확장함으로써 시너지를 발휘하겠다는 구상이다. 특히 앤트로픽은 기본적인 LLM을 목적에 따라 미세 조정하고 최적화하는 툴을 SKT에 공급할 예정이다. 이를 위해 GPT-3 개발자이자 앤트로픽 공동 창업자인 재러드 카플란이 LLM 전체 기술 방향 및 개발 로드맵을 담당한다. 양사가 공동 개발한 LLM은 앤트로픽 클로드 모델과 더불어 SKT를 통해 국내 기업 등에 제공될 예정이다. SKT는 앤트로픽의 공식 프리미어 파트너사로서 고객 유치 및 사업 확장에 나서게 된다. 아울러 양사는 SKT 중심으로 결성된 '글로벌 텔코 AI 얼라이언스'의 AI 서비스 개발을 위해 다국어 LLM 기반 AI 플랫폼 개발에도 힘을 모은다. 이를 바탕으로 도이치텔레콤(독일어), e&(아랍어), 싱텔(영어) 등 각 기업은 각자 요구사항 및 현지 특색을 반영해 엔드 유저들을 위한 AI 서비스를 속도 있게 개발할 수 있게 된다. 유영상 SKT 사장은 "세계 최고 수준의 AI 테크 기업인 앤트로픽에 대한 전략적 투자를 계기로 협력을 본격화할 것"이라며 "SKT가 보유한 한국어 AI 기술과 앤트로픽의 글로벌 AI 역량을 결합, 글로벌 통신사들과 더불어 AI 생태계를 주도해 나갈 계획"이라고 말했다. solidkjy@fnnews.com 구자윤 기자
2023-08-13 18:18:58국내 인공지능(AI) 스타트업 업스테이지가 개발한 AI 모델이 글로벌 AI 플랫폼인 허깅페이스에서 운영하는 오픈 거대언어모델(LLM) 리더보드에서 2위를 차지했다. 19일 업스테이지에 따르면 허깅페이스는 다양한 언어와 산업에 대한 LLM을 제공하는 글로벌 AI 플랫폼이다. 오픈(Open)AI의 챗GPT, 구글의 바드 등 초거대AI 모델들과 비견되는 300여개의 AI 모델들이 허깅페이스의 오픈 LLM 리더보드에서 경쟁하고 있다. 매일 수 십 개의 AI 모델들이 업데이트되고 있으며, 리더보드는 모델의 추론과 상식 능력 뿐만 아니라 언어 이해 종합 능력과 환각현상(할루시네이션) 방지 등 생성AI 평가에 꼭 필요한 4가지 지표의 평가 점수 평균으로 최종 순위를 결정한다. 업스테이지는 이달 초 자체 구축한 모델을 허깅페이스의 리더보드에 제출해 성능을 평가 받았다. 그 결과 업스테이지의 모델은 메타의 '라마2' 모델에 이어 평균 64.7점으로 2위를 차지했다. 특히 업스테이지의 모델은 생성AI의 가장 큰 문제점 중 하나인 환각현상 방지 지표에서는 56.5점을 기록해 '라마2' 모델의 52.8점의 평가를 뛰어넘는 결과를 기록했다. 특히 비교적 작은 사이즈인 300억 개 매개변수(30B) 모델 규모에서 1위를 차지했다는 점이 주목 받는다. 65B(650억)이하의 작은 규모 LLM은 1조를 넘는 매개변수를 가진 것으로 알려진 빅테크의 초거대AI와 달리 가벼운 규모로 비용 절감효과가 크고 내부 서버에 설치 및 운영이 가능하다. 이에 개별 기업이 활용할 프라이빗 AI 등 활용성이 높을 것으로 점쳐진다. 이번 업스테이지가 완성한 AI 모델을 통해 기업과 기관들은 정보유출에 대한 부담 없이 생성AI를 자체적으로 구축하고 활용할 수 있을 전망이다. 아울러 업스테이지는 추가적으로 국내 다양한 산업의 기업들의 요구에 부응하기 위해 한국어 데이터를 추가 학습시킬 예정이다. 김성훈 업스테이지의 대표는 "업스테이지의 AI 기술력이 치열한 경쟁을 벌이고 있는 생성AI 글로벌 톱 플랫폼의 평가에서도 세계 최고의 성과를 거둬 무척 기쁘다"며 "이번에 입증된 업스테이지의 기술력을 바탕으로 국내 기업은 물론 전세계 모든 기업들이 AI를 편리하게 사용할 수 있도록 노력할 것"이라고 전했다. 임수빈 기자
2023-07-19 17:58:42인공지능(AI) 소프트웨어 전문기업 코난테크놀로지가 파라미터 131억개로 자체개발 초거대언어모델(LLM) '코난 LLM' 출시에 속도를 내고있다. 19일 코난테크놀로지에 따르면 지난 17일 기준 전체 학습 토큰 4920억개, 한국어 토큰 2840억개로 학습을 마쳤다. 총 파라미터(매개변수)는 131억개에 달한다. 13.1B 파운데이션 모델은 파인튜닝을 거쳐 내달 정식 출시된다. 내달 1일 학습을 시작해 오는 10월 중 마무리할 코난 LLM 파운데이션 모델의 파라미터는 400억개다. 전체 토큰 6000억개, 한국어 토큰은 4000억개로 준비 중이다. 코난 LLM은 온프레미스 제공으로 생성형 AI의 보안과 기밀유출 우려를 방지하고 B2B, B2G향 초거대 인공지능(AI)을 표방하는 점이 특징이다. B2C 기반 챗GPT의 경우 질의시 기업의 중요 기밀이 외부로 유출되는 것이 허들로 작용한다. 코난 LLM은 이런 점을 해소하고, 해당 기업이나 기관에 최적화된 지도학습 및 강화학습을 거쳐 문서초안 생성, 문서 요약, 질의, 응대 등에 사용시 뛰어난 성능을 제공할 계획이다. 특정 기업의 API나 오픈소스 기반이 아닌 B2B, B2G 특화로 자체 개발된 생성형 언어 모델은 코난 LLM이 처음으로 출시했다. 합리적인 비용으로 고객 부담을 낮추는데도 신경 썼다. 통상 생성형 AI 학습비용은 토큰 개수보다 파라미터 개수에 더 크게 비례함에 따라 모델 파라미터의 사이즈는 줄이면서 성능을 유지하는 것이 B2B, B2G 제품에서 중요하다. 코난 LLM은 기업 수요에 따라 13.1B와 40B 파라미터 모델 중 해당 기관에 최적화된 사양을 선택하고 강화학습을 거쳐 비용은 합리적으로, 성능은 고도화한다는 전략이다. 김영섬 코난테크놀로지 대표이사는 "자체개발 초거대 언어모델 확보를 위해 24여년간의 기술력을 쏟아 부었다”며 “기업과 기관에 최적화된 모델로 시장 요구에 부응하고 온프레미스 형태로 보안을 강화시켜 생성형 AI 생태계 구축을 이끌겠다”고 말했다. solidkjy@fnnews.com 구자윤 기자
2023-07-19 15:14:06코난테크놀로지가 초거대언어모델 자체개발에 박차를 가한다고 16일 밝혔다. 엔비디아 최신 그래픽처리장치(GPU) 장비 입고로 국내를 넘어 글로벌 빅테크와 겨룰 수 있는 AI 기술 경쟁력을 갖출 것으로 기대를 모은다. 정부는 인공지능(AI) 일상화를 발표했고 챗GPT에 대한 민간의 관심 역시 커지는 상황이다. 이에 따라 코난테크놀로지는 생성형 AI 시장에 선도적으로 대응하기 위해 코난 초거대언어모델(LLM) 개발에 힘을 쏟고 있으며 올해 3·4분기 중 개발을 완료해 발표하는 것을 목표로 하고 있다. 이를 위해 지난 2월 국내에서 가장 먼저 NVIDIA의 H100 장비 8대를 발주했다. 대량 데이터와 파라미터 기반 LLM 학습에는 고성능 GPU 서버가 필요하기 때문이며 4달여간의 기다림 끝에 이번주 입고됐다. 입고 또한 국내 최초라는 것이 회사 측 설명이다. 이로써 코난 GPT를 개발하는데 걸리는 시간을 크게 단축해 개발 우위에 설 수 있을 것으로 보인다. H100 입고 전에는 미국 클라우드 업체 H100 인스턴스를 대량으로 리스해 사용해왔다. 내달 중 13B 파운데이션 모델을 갖추고 H100 입고를 계기로 3·4분기 중 20B 파운데이션 모델을 확보하는 것이 코난LLM 개발 타임라인이다. 통상 AI 산업의 핵심 요소는 장비, 인력, 데이터다. 코난테크놀로지는 지난해 120명에서 올해 157명으로 개발인력을 지속적으로 증원 중이다. 확충된 AI 연구 개발인력을 통해 급변하는 기술들에 대응할 태세를 마련했고 2007년부터 운영한 PulseK AI 분석 서비스를 통해 축적된 약 205억건의 고품질의 한국어 데이터를 갖추고 있다. 특히나 초거대언어모델 구축에 가장 중요한 대량의 한국어 데이터를 보유하고 있다는 점에서 의미를 가진다. 아울러 이번 H100 입고까지 더해져 인공지능 선두 기업으로서의 행보를 증명했다. 이로써 코난테크놀로지는 코난 GPT와 코난 챗GPT(가제)를 필두로 한 LLM 개발에도 박차를 가할 수 있게 됐다. 특히 코난테크놀로지 LLM은 기존 챗GPT와 하이퍼클로바 API에 의존하는 다른 회사와 크게 차별화된다. 코난 GPT의 경우 전체 학습 토큰은 1조개 이상, 이 중 한국어 토큰은 5000억개 이상이다. 한국어 토큰의 경우 국내 빅테크와 겨뤄도 비교우위에 서는 수준이기 때문이다. 김영섬 코난테크놀로지 대표이사는 "차별화 된 환경에서 자체개발 초거대 AI언어모델을 출시해 회사 기밀이나 개인정보 보안 등이 중요한 B2G, B2B시장에 성공적으로 진출하겠다"고 포부를 전했다. solidkjy@fnnews.com 구자윤 기자
2023-06-16 11:45:09한글과컴퓨터의 인공지능(AI) 제품에 LG AI연구원의 대규모 언어모델 '엑사원(EXAONE)'을 AI 엔진으로 활용될 것으로 보인다. 한컴 측은 엑사원을 활용하는 AI 제품이 나올 경우 더욱 신뢰도 높은 AI 서비스를 제공할 수 있을 것으로 기대하고 있다. 한컴은 LG AI연구원과 AI 사업 협력을 위한 전략적 파트너십을 체결했다고 12일 밝혔다. 이번 협약을 통해 양사는 AI 기술 및 서비스 분야에서 긴밀한 협력 관계를 구축하고, 각 사의 핵심 역량을 결합해 시너지를 극대화할 방침이다. 김연수 한컴 대표는 "앞으로 LG AI연구원과 협력하며 AI 기술 강화 및 서비스 영역 확장에 박차를 가할 것"이라며, "각 사의 강점을 적극 활용해 공공과 민간 분야의 디지털 전환을 가속하고, 국내 AI 생태계 발전에도 기여하겠다"고 말했다. 이번 협력은 한컴의 시장 내 입지와 경쟁력을 LG AI연구원의 첨단 AI 기술과 결합한 사례로 주목받고 있다. 한컴은 30년 이상 축적한 문서 설루션 기술력과 폐쇄망 환경에서의 안정적인 AI 서비스 제공 역량을 입증해 왔다. 김만기 기자
2024-12-12 18:48:34