[파이낸셜뉴스]
미국 인공지능(AI) 업체 오픈AI가 14일(현지시간) 자사의 챗GPT 이전 모델인 GPT-3.5 개량형, GPT-4를 공개했다. GPT-4는 문자 외에 이미지로도 질문을 입력할 수 있어 미묘한 질문에 더 정확한 답이 가능해졌다고 오픈AI는 주장했다. 로이터연합
미국 인공지능(AI) 스타트업 오픈AI가 지난해 공개돼 돌풍을 불러 일으켰던 GPT-3.5 개량형인 GPT-4를 14일(이하 현지시간) 공개했다.
오픈AI는 GPT-4가 미 대학입학수학능력평가인 SAT, 변호사시험 등 일부 학문·전문분야 기준에서 '인간 수준의 실력'을 보여주고 있다고 주장했다.
오픈AI가 촉발한 이른바 생성형 AI 경쟁이 심화될 전망이다.
마이크로소프트(MS)가 자시 검색엔진 빙에 챗GPT를 기반으로 한 AI를 장착하기로 한 뒤 구글이 바드를, 소프트웨어 업체 세일즈포스가 아인슈타인GPT를 공개하는 등 업체간 AI 개발 경쟁이 치열해지고 있다.
파이낸셜타임스(FT), CNBC 등 외신에 따르면 오픈AI는 이날 자사의 GPT-4가 인간 수준의 성과를 나타냈다고 주장했다.
오픈AI는 개량형 챗GPT인 GPT-4가 다중모드 기능을 갖고 있다면서 텍스트와 이미지 형태 모두 입력이 가능하다고 밝혔다. 문장으로 질문하지 않고, 그림을 넣어도 이에 대한 답을 내놓는다는 것이다.
GPT-4는 챗GPT 플랫폼에서 20달러를 내면 접속할 수 있다.
오픈AI는 GPT-4가 언어 배우기 애플리케이션인 듀오링고 등에 장착됐고, 모간스탠리 산하의 자산운용사도 이를 시험운용하고 있다고 밝혔다.
오픈AI에 따르면 듀오링고는 현재 GPT-4를 활용해 대화 챗봇을 구축하고 있고, 학원 업체 칸아카데미는 온라인 과외교사 프로그램을 만들고 있다. 모간스탠리 자산운용은 이를 활용해 내부 챗봇을 만들어 시험운용 중이다. 직원들에게 정보도 제공하고, 정보를 취합하는 역할도 한다.
오픈AI가 이날 강조한 다중모드 기능은 더 정교한 답변을 가능케 해준다.
이미지와 문자 모두를 입력할 수 있게 됨에 따라 설명이 이전보다 더 정교해지고, 사진을 기반으로 한 질문에도 답할 수 있게 됐다.
오픈AI는 이 기능이 시각장애인에게 도움이 될 것으로 기대했다.
덴마크 스타트업 비마이아이즈(내 눈이 되어라)와 협력해 GPT-4 기반의 가상 자원봉사자를 만들고 있다는 것이다.
이 가상 자원봉사자는 앞이 아예 보이지 않는 맹인이나 부분적으로만 앞을 볼 수 있는 시각장애인들을 대상으로 길 안내, 도움을 줄 수 있다.
비마이아이즈는 시각장애인들을 인간 자원봉사자들과 연결시키는 업체다.
오픈AI에 따르면 GPT-4는 현재 가장 선진화된 시스템이다.
이전 모델인 GPT-3.5에 비해 신뢰성이 더 높아졌고, GPT-3.5에 비해 뉘앙스가 담긴 질문을 훨씬 잘 다룰 수 있게 됐다고 오픈AI는 주장하고 있다.
다만 GPT-4 역시 이전 모델처럼 여전히 제약이 있다고 오픈AI는 밝혔다.
개선된 능력에도 불구하고 여전히 완전히 신뢰하기에는 부족하고, 문장 능력도 제한적이다. 또 과거의 경험으로부터 배우지도 못한다고 오픈AI는 설명했다.
오픈AI는 GPT-4를 통해 얻은 답은 신중하게 다뤄야 한다면서 맹신을 경계했다.
dympna@fnnews.com 송경재 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지