챗GPT 제안으로 만난 석학
도밍고스 워싱턴주립대 명예교수
"고차원 인지작업은 AI에게 쉽고
감각·운동적 업무는 인간이 유리
기술 발전 더딜수록 AI 위험해져
통제보단 사용법·필요성 알려야"
<편집자주>
인공지능(AI) 바둑 프로그램 '알파고'가 세계적인 프로바둑 기사 이세돌에게 압도적 승리를 거둔 지난 2016년 이후 AI에 대한 관심이 급증했다. 2022년에는 '챗(Chat)GPT'라는 생성형 AI의 등장으로 AI 활용은 일상화가 됐다. 올해는 AI가 노벨과학상을 사실상 휩쓸었다. 이처럼 우리는 AI가 불러온 대전환의 시대에 살고 있다. 파이낸셜뉴스의 기획 취재의 시작점은 여기였다. AI가 인간을 대체하고 있는 시대에 인간이 생각하는 '미래 직업'이 아닌 AI가 스스로가 생각하는 '미래 직업'이 궁금했다. 따라서 기획 기사는 AI에 의뢰해 기획안을 만들었다. AI가 지시한 취재 방식에 따라 추천한 지역을 찾았고 요구한 인터뷰를 진행했다. 기사 작성만 기자가 직접했다. 이번 인터뷰는 AI가 기획 기사로 제시한 두번째 번째 인물이다. AI는 미국 시애틀을 방문 과정에서 세계적인 컴퓨터 과학 석학 페드로 도밍고스 워싱턴 주립대 명예교수를 만나 AI 미래에 대해 이야기를 들어보기를 제안했다.
지난 8월 26일 시애틀 벨뷰에 위치한 페드로 도밍고스 교수의 자택에서 도밍고스 교수가 본지와 인터뷰하고 있다. 사진= 주원규 기자
【파이낸셜뉴스 시애틀(미국)=주원규 이진혁 기자】 "인공지능(AI)에 대한 어설픈 규제는 재앙을 불러온다."
챗(Chat)GPT의 제안에 따라 본지가 지난 8월 27일 미국 시애틀 벨뷰에서 만난 페드로 도밍고스 워싱턴주립대 명예교수는 이같이 밝혔다. 데이터과학 분야의 최고 영예인 SIGKDD 혁신상을 2년 연속 수상한 세계적 컴퓨터과학 석학인 도밍고스 교수는 현재 유럽 등에서는 AI에 대한 강한 규제가 이뤄지고 있다면서 이런 규제는 AI가 가진 위험성이 과대평가된 결과라고 진단했다. 그러면서 가까운 미래에는 AI를 능숙히 활용하는 사람 또는 국가와 규제 등으로 그렇지 못한 사람 또는 국가 간 격차가 벌어질 것이라고 봤다. 다음은 AI기술과 직업의 변화를 주제로 한 도밍고스 교수와의 일문일답.
―AI가 일자리와 직업에 미칠 가장 큰 변화는.
▲모라벡 패러독스(Morabacks's Paradox)라는 말이 있다. 인간에게 어려운 고차원 인지작업은 AI에 쉬운 반면 인간에게 쉬운 감각적·운동적 작업은 AI에 어렵다. 단순노동 직업 등이 AI의 발전으로 영향을 받을 것이다. 실제로는 학위가 필요한 그런 직업들이 자동화되고 있다. 가장 전문적이고 대체하기 어려울 것으로 예상되던 법률가나 의사도 대체될 수 있다. 창의성 역시 대체 가능하다.
―화이트칼라 노동자가 AI로 대체되고 있는 상황을 평가한다면.
▲AI가 사람을 '완전히' 대체할 수는 없다. AI가 더 잘할 수도 있고, 못하는 것도 있을 수 있다. 이에 맞춰 시스템이 개편될 것이라는 생각이 든다. AI 사용은 우리에게 이익이 된다. 우리가 못하는 일을 대체하고 그 시간에 더 잘하는 일에 집중해야 한다. 미래는 AI를 직업과 직무에 사용하는 사람들 손에 달려 있다. 다시 말해 미래는 사람과 AI가 대결하는 구도가 아니라 AI를 능숙히 다루는 사람과 그렇지 못한 사람의 구도가 될 것이다.
―이런 상황에서 정부의 역할은.
▲정부가 하지 말아야 할 일은 AI 기술산업에 너무 많은 규제를 만드는 것이다. 재앙을 불러올 수 있다. 유럽은 강한 규제로 AI 산업 성장이 가로막히면서 미국과 격차가 커질 것으로 예상된다. 인터넷 도입 시기를 생각해 보면 된다. 당시 미국의 경우 주별로 별도의 규제가 만들어지고 있었다. 모든 주에서 각기 다른 규제가 적용되니 복잡하기만 한 상황이었다. 이에 미국은 연방정부 차원에서 통합된 하나의 규제를 만들어 일괄 적용했다. 이후 인터넷은 빠르게 발전할 수 있었다. AI도 인터넷과 동일한 방식으로 접근해야 한다는 생각이다. 아울러 일반 시민을 대상으로 AI 사용법과 필요성을 적극 알리고 교육하는 부분도 중요하다. 정부가 AI를 직접 써보고 장단점을 파악한 뒤 어떤 부분을 규제해야 하는지, 어떤 부분을 신뢰할 수 있는지 판단하는 것이 필요하다.
―AI가 인터넷처럼 누구에게나 평등하게 주어질 것으로 보나.
▲오픈소스와 클로즈소스를 둘 다 활용하는 것이 필요하다. 혹자는 오픈소스를 제한해야 한다고 말한다. 악용 가능성이 있기 때문이다. 누군가는 'AI가 위험하다, 어떻게 사용될지 모른다'고 말하지만 소프트웨어는 오픈소스에서 오류를 찾고 수정하는 과정에서 기술이 발전한다. 다만 여전히 악용될 가능성도 있기 때문에 안전장치가 필요하다. 더불어 AI가 잘못 작용하는 것보다 안전장치를 잘못된 사람이 가지고 있는 것이 더 큰 문제다. 사람들이 생각하는 것처럼 AI가 악한 마음을 품고 범죄를 일으키는 것은 사실 불가능한 일이다. 가장 위험한 AI는 멍청한 AI다. 에러가 많고 사실을 구분하지 못한다. 기술 발전이 더디면 AI가 더 위험해질 가능성이 있기 때문에 기술 발전 속도를 빠르게 해야 한다. AI를 완전히 컨트롤하려 드는 것은 멍청한 AI를 만드는 길이다.
―지금 한국의 독자들이 AI 기술을 어떻게 받아들여야 하나.
▲AI를 사용하는 법을 배우는 것이 가장 중요하다. 박사학위를 가지고 있는 것이 아니더라도 배워서 자신의 직무와 업무에 어떻게 사용할지 배워야 한다. 많은 이들이 지금은 어떻게 직업에 녹여내고 있는지를 모르기 때문에 중요한 기회의 시점이다. 이런 상황에 적응하지 못한다면 직업을 잃을 수도 있고, 밀려날 수도 있다.
비즈니스와 의학을 예로 들자면, AI를 발명하는 사람들이 비즈니스와 의학에 접목하는 것보다 지금 업계에 있는 사람들이 비즈니스와 의학에서 어떻게 AI를 활용할지 배워야 한다. 그래야 시대를 따라가고 기회를 잡을 수 있다. 특히 시니어급 직무를 가진 사람들은 AI를 접목하는 분야에서 이득을 가져다줄 것이다.
wongood@fnnews.com 주원규 이진혁 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지