AI 석학들의 대담
사람과 인공지능의 강점 달라
비자 발급 등 이해관계 따른 결정
AI가 결코 인간 대체할 수 없어
AI 활용 위한 규칙·제도 만들어야
파이낸셜뉴스와 대한전자공학회(IEIE)는 21일 서울 여의도 콘래드호텔에서 인간과 인공지능(AI)의 조화로운 삶을 모색하기 위한 AI World 2021 포럼을 개최했다. 참석자들이 사전 녹화로 진행한 토비 월시 호주 뉴사우스웨일스대학교 교수와 서승우 서울대학교 전기정보공학부 교수의 화상 대담을 경청하고 있다. 사진=박범준 기자
대한민국 AI 전문가 한자리에 파이낸셜뉴스와 대한전자공학회(IEIE)가 21일 서울 여의도 콘래드호텔에서 AI World 2021 포럼을 개최했다. 인간과 인공지능(AI)의 조화로운 공존 지혜를 찾기 위해 'AI와 같이 살 준비됐습니까'를 주제로 열린 AI World 2021의 참석자들이 기념촬영을 하고 있다. 왼쪽 아래부터 시계 반대방향으로 이구순 파이낸셜뉴스 부국장, 손지윤 네이버 정책총괄이사, 송경희 과학기술정보통신부 인공지능기반정책관, 전선익 파이낸셜뉴스 대표, 조경식 과학기술정보통신부 제2차관, 공준진 대한전자공학회 회장, 김정태 오드컨셉 대표, 김용민 파이낸셜뉴스 편집국장, 김주민 LG전자 인공지능연구소장, 정재성 로앤컴퍼니 부대표, 김종윤 스캐터랩 대표, 이동규 카카오모빌리티 부사장, 서승우 서울대 전기정보공학부 교수. 사진=박범준 기자
"인공지능(AI)과 인간의 능력과 강점에는 차이가 있다. AI는 인간보다 더 유용하거나 더 경제적일 때 의미가 생긴다. 인간과 AI가 공존하기 위해서는 AI를 더 잘 활용할 수 있는 규칙과 제도가 필요하다."
AI 기술의 필요성, AI의 인간영역 침범, AI를 둘러싼 윤리 문제 등에 대해 전문가들의 심도 있는 진단과 조언이 나왔다.
■"인간과 AI의 강점은 따로 있다"
토비 월시 호주 뉴사우스웨일스대학교 교수와 서승우 서울대 전기정보공학부 교수는 21일 파이낸셜뉴스와 대한전자공학회가 공동으로 서울 여의도 콘래드호텔에서 개최한 AI World 2021에서 'AI와 인간의 조화로운 공존을 위한 방향'을 주제로 한 대담을 통해 "인간과 AI는 각각 강점에 차이가 있으며, AI의 발전과 공존은 인간에게 더 나은 가치를 제공하는 방향으로 규율해 가야 한다"고 강조했다.
월시 교수는 "20년 전만 해도 스마트폰 애플리케이션(앱)을 개발하거나 소셜미디어 인플루언서를 해서 먹고 살 수 있으리라고는 누구도 생각하지 않았다"며 "사람들은 AI가 사람이 하던 많은 일을 대체하고 직업이 사라질 것이라는 두려움을 갖고 있지만 치즈, 커피, 그림, 옷 등 인간이 직접 만든 것에 대한 가치는 높아질 것이고 그 시장은 지속적으로 유지될 것"이라고 설명했다.
특히 이해관계를 바탕으로 중요한 결정을 해야하는 일에서만큼은 AI가 인간을 대체할 수 없을 것이라고 내다봤다. 그는 "비자를 발급하고 이민신청서류를 검토하거나 사람을 체포하는 일 등은 결과가 엄청난 파장을 불러오기 때문에 반드시 사람이 해야 한다"며 "오직 사람만이 세상에 대한 상식을 갖고 있으며, 기계가 인간보다 나은 결정을 할 수 있는 분야는 따로 있다"고 강조했다.
AI와 인간의 강점이 분명히 구분된다는 게 그의 생각이다. 월시 교수는 "인간은 지루하고 반복적인 일을 하기 위해 태어난 게 아니기 때문에 AI가 현재 인간이 하는 지루하고 반복적인 일을 대신해주는 것은 좋은 일"이라며 "앞으로 인간을 위한 새로운 일자리가 많이 창출될 텐데, 관련한 교육을 받을 수 있도록 하는 게 당면과제라 할 수 있다"고 말했다.
월시 교수는 AI는 인간 삶의 경제성을 향상시키는 방향으로 발전할 것이라는 예측도 내놨다. 그가 예로 든 것은 자전거 수리공이다. 월시 교수는 "자전거 수리는 부품 표준화도 돼 있지 않고 매우 섬세한 작업을 필요로 하며, 로봇으로 대체하기 위해서는 많은 돈이 들 수밖에 없어 수익창출을 고려했을 때 누구도 자전거 수리 로봇을 만들지 않을 것"이라며 "실제 주변의 자전거 수리공에게 물어봤더니 자전거 수리 자체로 수익을 얻는 게 아니라, 수리를 위해 찾아온 고객이 다음 자전거를 살 때 본인 매장을 이용하도록 하기 위한 것이란 얘기도 들었다"고 말했다.
■"AI 기술기업 책임감 가져야"
월시 교수와 서 교수는 AI 기반 자율주행차의 '트롤리 딜레마'를 예로 들며 "자율적 판단과 윤리적 규범은 사람의 몫이지, AI나 기계의 몫이 아니다"라고 공감대를 나타냈다. 트롤리 딜레마는 자율주행차가 고통사고 상황에 처했을 때 차 밖의 보행자를 보호하도록 설계해야 하는지, 차 안의 운전자를 보호하도록 설계해야 하는지를 둘러싼 오래된 논쟁이다.
월시 교수는 "AI와 자율주행차를 비판하는 사람들은 AI가 윤리적인 판단을 할 수 있는지 장담할 수 없다고 주장하지만, 인간 역시 항상 윤리적인 결정과 행동을 하는지는 의문"이라고 의문을 제기하면서 "상황에 대한 판단과 결정은 사람의 몫이지 AI에게 그것까지 줘서는 안된다"며 "AI가 사회적 규범을 배제한 채 기술적으로만 발전하도록 추구해서는 안된다"고 입을 모았다.
서 교수는 "모 글로벌 자동차회사는 라이다 없이 카메라로만 사물을 인식하는 자율주행차를 내놨는데, 이는 어두운 곳에서 운전자의 손을 뒤로 묶어 놓는 것과 같은 상황"이라며 "내 자율주행차가 센서도 없이 어두운 곳에서 제한된 정보만 가지고 돌아다니는 걸 원치 않는다"고 말했다.
월시 교수도 이에 동의하며 "센서와 카메라는 시야를 지각하는 범위가 다르기 때문에 자율주행차에는 레이다, 라이다, 초음파센서 등 다양한 종류의 센서를 기본적으로 장착해야 한다"며 "그런 차가 도로를 달려서는 안된다"고 말했다.
서 교수가 "프로그래밍을 통해 인간이 AI를 자유자재로 다룰 수 있다는 의견들이 있다"고 하자 월시 교수는 "리비아에서 내전 중에 무인드론이 사용됐던 것처럼 기술이 사람을 해치고 군사력에 사용되고 있어 자율무기에 대한 규제를 다양한 사람들과 함께 요구하려고 한다"며 "기계의 행동은 예측 불가능하며 인간 세상에 규칙, 규정, 제도가 있듯이 AI를 위한 규칙, 규정, 제도를 제대로 구축해야 바람직한 방향으로 나아갈 수 있다"고 마무리했다.
ronia@fnnews.com 이설영 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지