"생성형 인공지능(AI)의 등장은 무언가를 창조해 내는 능력이 우리(인간)만의 능력이 아니며, AI가 기대 이상으로 놀라운 창의성을 가지게 됐다는 걸 의미한다." 생성형 AI의 발전으로 인간의 영역으로 여겨지던 '창의성'이 위협받고 있다. 최근 AI는 사용자가 텍스트를 제시하면 스스로 그림을 그리고 영상을 만들면서 '창작'과 '예술'의 영역을 넘나들고 있다. ■'AI 시대' 대한민국에 위기이자 기회 국내 대표 뇌과학자인 정재승 카이스트 뇌인지과학과 교수는 1일 파이낸셜뉴스와 인터뷰에서 "AI의 창의성은 데이터를 결합하고 수많은 가능성을 탐색하는 능력에 기반하고 있는데, 이는 인간이 따라가기 힘들 정도로 탁월하다"고 말했다. 다만 "평균적인 인간 수준과 비교하면 놀랍지만, 아직은 탁월한 창의성에 도달하지는 못했다고 보여진다"며 "인간의 창의성은 개인적 경험이 만들어내는 뇌의 개성적 연결이 원천인 만큼 인간과 인공지능의 창의성은 서로 다른 방식으로 발전할 것으로 기대된다"고 설명했다. 정 교수는 알쓸신잡 등 방송으로 이름을 알린 국내 대표 뇌과학자이자 스타 교수다. 오는 5일 서울 송파구 롯데월드타워 롯데시네마에서 열리는 'AI월드 2024'에서 '인간과 AI의 공존'을 주제로 파올로 베난티 프란치스코 교황 AI윤리부문 고문과 대담을 나눈다. 그는 뇌인지과학자 입장에서 바라보는 '사람의 뇌'와 'AI'의 공통점과 차이점을 '지능의 목적'으로 설명했다. 정 교수는 "인간은 자연 생태계에서 '생존'하고 유전자를 '복제'하는 것이 가장 중요했기 때문에 다른 인간들과의 대규모 협력을 통한 맥락 이해와 섬세한 소통을 위해 뇌가 발달해 왔다"며 "반면 인공지능은 수학천재들이 문제해결을 위해 개발해온 터라 수학적으로 잘 정의된 문제들을 능숙하게 풀어내고 데이터들의 수학적 특성들을 놀랍도록 잘 포착한다"고 설명했다. 이어 "대단한 건 AI의 수학적 알고리즘과 엄청난 계산 능력을 인간의 인지적 영역에 적용해 마치 의식과 감정을 가진 존재처럼 행동하게 만들었다는 점에서 현대 AI 연구자들에게 경의를 표한다"고 덧붙였다. AI 발전은 놀랍지만 '인간을 뛰어넘는 AI'가 2030년 전후로 개발될 수 있다는 전망에는 우려감을 나타냈다. 'AI 시대'는 획일화된 교육으로 산업화 시대를 만들어온 대한민국의 가장 큰 위기라고 진단했다. 정 교수는 "컨설팅 비즈니스는 아이디어 승부가 되고, 수많은 바이오·제약 실험들은 인공지능 시뮬레이션으로 대체될 것"이라며 "인공지능이 하지 못하는 역할을 수행할 인재들에게는 새로운 기회들이 열리지만, 평범한 역할을 수행해온 사람들에게는 큰 위기가 될 수 있다"고 지적했다. 그럼에도 AI의 발전이 대한민국의 기회가 될 수 있다고도 주장했다. 그는 "AI 산업은 더 많은 투자와 더 많은 데이터, 더 유능한 인재를 확보할수록 유리한 자본경쟁에 돌입한 만큼 경쟁에 뛰어들 수 있는 기업은 얼마 없다"며 "적은 데이터로 탁월한 지적 능력을 보여주는 '인간 뇌를 닮은 AI' 분야는 아직 발전의 여지가 많아 우리가 뛰어들면 승산이 있다"고 전했다. 이와 같은 측면에서 인간의 뇌를 닮은 AI 발전을 위한 뇌인지과학과의 시너지도 강조했다. 그는 "대규모 빅데이터 기반의 AI는 엄청난 양의 에너지 사용, 머신러닝의 개인 사생활 침해, 개인정보 보호 등에 취약점이 있다"며 "뇌인지과학은 인간의 뇌가 어떻게 적은 데이터만으로 놀라운 지적 능력에 도달했는지 인공지능이 학습하도록 하는 실마리를 제공할 것"이라고 설명했다. ■AI 거품론? 이미 비즈니스 지형도 크게 변화 저출생·초고령화로 야기된 노동생산인구 감소 등 사회적 문제 해결에도 AI가 도움이 될 수 있다고 주장했다. 그는 "AI로 노동생산성을 높이는 데 기여할 수 있다"며 "다만 생산성을 늘리더라도 '소비' 시장이 작으면 경제성장이 이뤄지지 못하는 만큼 글로벌 마켓으로의 진출은 꼭 필요하다"고 당부했다. AI의 발전에 따른 '윤리' 논란은 필연적이라는 의견도 덧붙였다. AI 수술 전략 실패로 인한 의료사고 책임, 다수를 구하기 위해 소수를 희생하는 판단을 고민하는 '트롤리 딜레마' 등 AI 발전과 더불어 윤리 문제도 보다 구체화되고 있다. 정 교수는 "현대 인공지능은 스스로 의사결정하는 과정을 내포하고 있어 AI 윤리 문제는 향후 10년 내에 우리 사회에 중요한 화두로 떠오를 것"이라며 "AI 시대의 새로운 기술 환경은 우리에게 새로운 윤리관, 가치관 확립을 요구할 것"이라고 말했다. 생성형 AI를 법률 분야에 적용하는 '리걸테크'에 대해서는 신중함을 내비쳤다. 최근 강력범죄 양형이 예상보다 낮다는 이유로 법원 판결에 대한 불만이 높아지며 'AI 판사' 도입 여론도 높아지고 있다. 그는 "AI가 구체적 사건의 유무죄를 판단하진 못하더라도 수많은 유사 판례를 찾아준다거나 양형기준을 마련하는 데는 도움을 줄 것"이라면서도 "다만 기존 데이터(판례)를 바탕으로 한 접근은 변화된 가치관을 반영하지 못하고 구시대적 편향에 영향을 받을 수 있는 만큼 판사를 인공지능으로 대체하기보다는 인공지능 비서를 판사 곁에 두는 시스템으로 변화할 것으로 보인다"고 전망했다. 최근 일각에서 제기하는 'AI 거품론'에 대해서는 강하게 반박했다. 2016년에도 '알파고'가 이세돌과 바둑 대결에서 승리하며 AI 열풍을 불러일으켰지만, 챗GPT가 발표된 2022년 전까지 한동안 암흑기를 겪기도 했다. 그는 "챗GPT와 달리 AI 이미지 생성기인 '미드저니' 같은 범용 인공지능 서비스는 구글의 검색엔진처럼 누구나 보편적으로 사용할 수 있어서 우리의 라이프스타일을 바꾸고 있다"며 "앞으로 우리의 삶은 인공지능으로 검색하는 것을 넘어서, AI에 의지해 의사결정을 하는 '의존'으로 이어지리라 생각한다"고 말했다. 이어 "이미 AI는 비즈니스의 지형도를 크게 바꿔 놓은 만큼 반짝 인기로 끝날 것이라 생각하지 않는다"고 강조했다. 이러한 측면에서 '인간과 AI의 공존'도 가능하다고 판단했다. 특히 제조사가 다른 AI 간 협업이나 사람들만의 협업보다 인간과 AI가 '원 팀'을 이룰 때 가장 좋은 성과를 만들어낼 수 있다고 전망했다. 정 교수는 "AI는 우리의 일자리를 대체할 존재만이 아니라 우리의 협업 파트너가 될 것"이라며 "AI를 팀 메이트로 여기고, 인간과 역할 분담을 정의해 시너지를 낼 수 있는 협력을 고민해야 할 때"라고 강조했다. hoya0222@fnnews.com 김동호 기자
2024-09-01 18:28:02"인공지능(AI)과 인간의 능력과 강점에는 차이가 있다. AI는 인간보다 더 유용하거나 더 경제적일 때 의미가 생긴다. 인간과 AI가 공존하기 위해서는 AI를 더 잘 활용할 수 있는 규칙과 제도가 필요하다." AI 기술의 필요성, AI의 인간영역 침범, AI를 둘러싼 윤리 문제 등에 대해 전문가들의 심도 있는 진단과 조언이 나왔다. ■"인간과 AI의 강점은 따로 있다" 토비 월시 호주 뉴사우스웨일스대학교 교수와 서승우 서울대 전기정보공학부 교수는 21일 파이낸셜뉴스와 대한전자공학회가 공동으로 서울 여의도 콘래드호텔에서 개최한 AI World 2021에서 'AI와 인간의 조화로운 공존을 위한 방향'을 주제로 한 대담을 통해 "인간과 AI는 각각 강점에 차이가 있으며, AI의 발전과 공존은 인간에게 더 나은 가치를 제공하는 방향으로 규율해 가야 한다"고 강조했다. 월시 교수는 "20년 전만 해도 스마트폰 애플리케이션(앱)을 개발하거나 소셜미디어 인플루언서를 해서 먹고 살 수 있으리라고는 누구도 생각하지 않았다"며 "사람들은 AI가 사람이 하던 많은 일을 대체하고 직업이 사라질 것이라는 두려움을 갖고 있지만 치즈, 커피, 그림, 옷 등 인간이 직접 만든 것에 대한 가치는 높아질 것이고 그 시장은 지속적으로 유지될 것"이라고 설명했다. 특히 이해관계를 바탕으로 중요한 결정을 해야하는 일에서만큼은 AI가 인간을 대체할 수 없을 것이라고 내다봤다. 그는 "비자를 발급하고 이민신청서류를 검토하거나 사람을 체포하는 일 등은 결과가 엄청난 파장을 불러오기 때문에 반드시 사람이 해야 한다"며 "오직 사람만이 세상에 대한 상식을 갖고 있으며, 기계가 인간보다 나은 결정을 할 수 있는 분야는 따로 있다"고 강조했다. AI와 인간의 강점이 분명히 구분된다는 게 그의 생각이다. 월시 교수는 "인간은 지루하고 반복적인 일을 하기 위해 태어난 게 아니기 때문에 AI가 현재 인간이 하는 지루하고 반복적인 일을 대신해주는 것은 좋은 일"이라며 "앞으로 인간을 위한 새로운 일자리가 많이 창출될 텐데, 관련한 교육을 받을 수 있도록 하는 게 당면과제라 할 수 있다"고 말했다. 월시 교수는 AI는 인간 삶의 경제성을 향상시키는 방향으로 발전할 것이라는 예측도 내놨다. 그가 예로 든 것은 자전거 수리공이다. 월시 교수는 "자전거 수리는 부품 표준화도 돼 있지 않고 매우 섬세한 작업을 필요로 하며, 로봇으로 대체하기 위해서는 많은 돈이 들 수밖에 없어 수익창출을 고려했을 때 누구도 자전거 수리 로봇을 만들지 않을 것"이라며 "실제 주변의 자전거 수리공에게 물어봤더니 자전거 수리 자체로 수익을 얻는 게 아니라, 수리를 위해 찾아온 고객이 다음 자전거를 살 때 본인 매장을 이용하도록 하기 위한 것이란 얘기도 들었다"고 말했다. ■"AI 기술기업 책임감 가져야" 월시 교수와 서 교수는 AI 기반 자율주행차의 '트롤리 딜레마'를 예로 들며 "자율적 판단과 윤리적 규범은 사람의 몫이지, AI나 기계의 몫이 아니다"라고 공감대를 나타냈다. 트롤리 딜레마는 자율주행차가 고통사고 상황에 처했을 때 차 밖의 보행자를 보호하도록 설계해야 하는지, 차 안의 운전자를 보호하도록 설계해야 하는지를 둘러싼 오래된 논쟁이다. 월시 교수는 "AI와 자율주행차를 비판하는 사람들은 AI가 윤리적인 판단을 할 수 있는지 장담할 수 없다고 주장하지만, 인간 역시 항상 윤리적인 결정과 행동을 하는지는 의문"이라고 의문을 제기하면서 "상황에 대한 판단과 결정은 사람의 몫이지 AI에게 그것까지 줘서는 안된다"며 "AI가 사회적 규범을 배제한 채 기술적으로만 발전하도록 추구해서는 안된다"고 입을 모았다. 서 교수는 "모 글로벌 자동차회사는 라이다 없이 카메라로만 사물을 인식하는 자율주행차를 내놨는데, 이는 어두운 곳에서 운전자의 손을 뒤로 묶어 놓는 것과 같은 상황"이라며 "내 자율주행차가 센서도 없이 어두운 곳에서 제한된 정보만 가지고 돌아다니는 걸 원치 않는다"고 말했다. 월시 교수도 이에 동의하며 "센서와 카메라는 시야를 지각하는 범위가 다르기 때문에 자율주행차에는 레이다, 라이다, 초음파센서 등 다양한 종류의 센서를 기본적으로 장착해야 한다"며 "그런 차가 도로를 달려서는 안된다"고 말했다.서 교수가 "프로그래밍을 통해 인간이 AI를 자유자재로 다룰 수 있다는 의견들이 있다"고 하자 월시 교수는 "리비아에서 내전 중에 무인드론이 사용됐던 것처럼 기술이 사람을 해치고 군사력에 사용되고 있어 자율무기에 대한 규제를 다양한 사람들과 함께 요구하려고 한다"며 "기계의 행동은 예측 불가능하며 인간 세상에 규칙, 규정, 제도가 있듯이 AI를 위한 규칙, 규정, 제도를 제대로 구축해야 바람직한 방향으로 나아갈 수 있다"고 마무리했다. ronia@fnnews.com 이설영 기자
2021-10-21 18:06:21[파이낸셜뉴스] "인공지능(AI)과 인간의 능력과 강점에는 차이가 있다. AI는 인간보다 더 유용하거나, 더 경제적일 때 의미가 생긴다. 인간과 AI가 공존하기 위해서는 AI를 더 잘 활용할 수 있는 규칙과 제도가 필요하다." AI 기술의 필요성, AI의 인간영역 침범, AI를 둘러싼 윤리 문제 등에 대해 전문가들의 심도있는 진단과 조언이 나왔다. "인간과 AI의 강점은 따로 있다" 토비 월시(Toby Walsh) 호주 뉴사우스웨일즈대학교 교수와 서승우 서울대 전기정보공학부 교수는 21일 파이낸셜뉴스와 대한전자공학회가 공동으로 서울 여의도 콘래드호텔에서 개최한 'AI World 2021'에서 'AI와 인간의 조화로운 공존을 위한 방향'을 주제로 한 대담을 통해 "인간과 AI는 각각 강점에 차이가 있으며, AI의 발전과 공존은 인간에게 더 나은 가치를 제공하는 방향으로 규율해 가야 한다"고 강조했다. 월시 교수는 "20년 전만해도 스마트폰 애플리케이션(앱)을 개발하거나 소셜미디어 인플루언서를 해서 먹고 살 수 있으리라라고는 누구도 생각하지 않았다"며 "사람들은 AI가 사람이 하던 많은 일을 대체하고 직업이 사라질 것이라는 두려움을 갖고 있지만, 치즈, 커피, 그림, 옷 등 인간이 직접 만든 것에 대한 가치는 높아질 것이고 그 시장은 지속적으로 유지될 것"이라고 설명했다. 특히 이해관계를 바탕으로 중요한 결정을 해야하는 일에서 만큼은 AI가 인간을 대체할 수 없을 것이라고 내다봤다. 그는 "비자를 발급하고, 이민신청서류를 검토하거나, 사람을 체포하는 일 등은 결과가 엄청난 파장을 불러오기 때문에 반드시 사람이 해야 한다"며 "오직 사람만이 세상에 대한 상식을 갖고 있으며, 기계가 인간보다 나은 결정을 할 수 있는 분야는 따로있다"고 강조했다. AI와 인간의 강점이 분명히 구분된다는 게 그의 생각이다. 월시 교수는 "인간은 지루하고 반복적인 일을 하기 위해 태어난게 아니기 때문에 AI가 현재 인간이 하는 지루하고 반복적인 일을 대신 해주는 것은 좋은 일"이라며 "앞으로 인간을 위한 새로운 일자리가 많이 창출될텐데, 관련한 교육을 받을 수 있도록 하는게 당면 과제라 할 수 있다"고 말했다. 월시 교수는 AI는 인간 삶의 경제성을 향상시키는 방향으로 발전할 것이라는 예측도 내놨다. 기존의 서비스를 더 저렴하게 이용할 수 있을 때 AI의 효용가치가 생긴다는 얘기다. 그가 예로 든 것은 자전거 수리공이다. 월시 교수는 "자전거 수리는 부품 표준화도 돼 있지 않고 매우 섬세한 작업을 필요로 하며, 로봇으로 대체하기 위해서는 많은 돈이 들 수 밖에 없어 수익창출을 고려했을 때 누구도 자전거 수리 로봇을 만들지 않을 것"이라며 "실제 주변의 자전거 수리공에게 물어봤더니 자전거 수리 자체로 수익을 얻는 게 아니라, 수리를 위해 찾아온 고객이 다음 자전거를 살 때 본인 매장을 이용하도록 하기 위한 것이란 얘기도 들었다"고 말했다. "AI 기술기업 책임감 가져야" 월시 교수와 서 교수는 AI기반 자율주행차의 '트롤리 딜레마'를 예로 들며 "자율적 판단과 윤리적 규범은 사람의 몫이지, AI나 기계의 몫이 아니다"고 공감대를 나타냈다. 트롤리 딜레마는 자율주행차가 고통사고 상황에 처했을 때 차 밖의 보행자를 보호하도록 설계해야 하는지, 차 안의 운전자를 보호하도록 설계해야 하는지를 둘러싼 오래된 논쟁이다. 월시 교수는 "AI와 자율주행차를 비판다는 사람들은 AI가 윤리적인 판단을 할 수 있는 지 장담할 수 없다고 주장하지만, 인간 역시 항상 윤리적인 결정과 행동을 하는 지는 의문"이라고 의문을 제기하며면서 "상황에 대한 판단과 결정은 사람의 몫이지 AI에게 그것까지 줘서는 안된다"며 "AI가 사회적 규범을 배제한 채 기술적으로만 발전하도록 추구해서는 안된다"고 입을 모았다. 서승우 교수는 "모 글로벌 자동차회사는 라이다 없이 카메라로만 사물을 인식하는 자율주행차를 내놨는데, 이는 어두운 곳에서 운전자의 손을 뒤로 묶어 놓는 것과 같은 상황"이라며 "내 자율주행차가 센서도 없이 어두운 곳에서 제한된 정보만 가지고 돌아 다니는 걸 원치 않는다"고 말했다. 월시 교수도 이에 동의하며 "센서와 카메라는 시야를 지각하는 범위가 다르기 때문에 자율주행차에는 레이더, 라이다, 초음파센서 등 다양한 종류의 센서를 기본적으로 장착해야 한다"며 "그런 차가 도로를 달려서는 안된다"고 말했다. 그러면서 "이것의 근본 문제는 AI에 있는 것이 아니라 인간이 AI에게 어느 정도의 자율성을 줄 지 판단하는 것에 있다"고 강조했다. 그런 측면에서 AI에 대한 규제를 논의해야 한다는 것이다. 서 교수가 "프로그래밍을 통해 인간이 AI를 자유자재로 다룰 수 있다는 의견들이 있다"고 하자 월시 교수는 "리비아에서 내전 중에 무인드론이 사용됐던 것처럼 기술이 사람을 해치고 군사력에 사용되고 있어 자율무기에 대한 규제를 다양한 사람들과 함께 요구하려고 한다"며 "기계의 행동은 예측 불가능하며 인간 세상에 규칙, 규정, 제도가 있듯이 AI를 위한 규칙, 규정, 제도를 제대로 구축해야 바람직한 방향으로 나아갈 수 있다"고 마무리했다. ronia@fnnews.com 이설영 기자
2021-10-21 14:04:42인공지능(AI) 기술이 최근 빠른 속도로 확산되고 있다. AI가 내장된 지능형로봇은 인간의 삶의 질을 높이는 데 기여하겠지만, 일론 머스크와 인공지능의 대가 오렌 에치오니 박사 등의 주장처럼 잘못 사용하면 살상무기가 될 수 있기 때문에 안전조치가 필요하다. 일찍이 로봇의 위험성을 인지한 아이작 아시모프는 1942년 집필한 '아이 로봇'에서 로봇윤리 3원칙이라는 이름으로 로봇을 제어할 지침을 공표했다. '로봇은 사람에게 해를 끼쳐서는 안 되며, 위험에 처한 인간을 모른 척해서도 안 된다(1원칙), 로봇은 1원칙에 위배되지 않는 한, 인간의 명령에 복종해야 한다(2원칙), 로봇은 1, 2 원칙에 어긋나지 않으면 스스로를 보호해야 한다(3원칙)'는 내용이다. 아주 간단명료한 원칙이지만 적용하기에 현실이 그리 호락호락하지 않다. 최근 자율주행자동차(Automated Vehicle·AV)라는 최첨단 이동로봇의 상용화를 앞두고 AV에 적용할 로봇원칙이 필요하다는 주장이 제기되고 있다. 논란의 시작은 트롤리 딜레마(Trolley dilemma) 상황에서 비롯되었다. 언덕을 내려가는 AV의 브레이크가 고장이 나서 갈림길에서 5명의 성인과 1명의 어린이 중 한쪽을 희생시키거나 또는 중앙분리대를 충돌해 자신의 생명을 희생시켜야 하는 3가지 선택 상황에 처했을 때의 딜레마다. AV를 설계할 때 어떤 경우라도 탑승자의 희생이 최소화되도록 의무론(Deontology)을 선택했다면 판매에는 도움이 되겠지만, 인명사고가 발생했기 때문에 AI를 설계한 사람이나 회사는 법적인 책임과 금전적 보상책임을 피할 수 없게 된다. 한편 AV가 최대 다수의 최대 행복을 지향하는 공리주의(Utilitarianism)적 선택을 하도록 프로그래밍됐을 경우에는 5명의 성인과 1명의 어린이 그리고 차량 탑승자의 가치를 순식간에 계산해서 손해가 가장 적은 피해 대상을 선택해야 하지만 현실적으로 계산이 가능하지도 않고 차량 탑승자가 죽을 수도 있는 차를 살 구매자도 거의 없으리라 예상된다. 위의 사례는 윤리적 판단이 필요한 상황으로, 인간운전자는 어떤 선택을 하든 그에 따른 법적 책임을 지면 된다. 하지만 지능형로봇은 법적 책임의 주체가 될 수 없기 때문에 피해를 최소화하도록 인간이 만든 윤리원칙에 따라 제작돼야 한다. 최근 미국, 유럽연합(EU), 미국 전기전자학회(IEEE) 및 한국로봇학회 등에서 발표되고 있는 로봇윤리원칙을 보면 지능형로봇은 성별, 연령, 장애 여부, 인종, 국적 등을 이유로 인간을 차별해서는 안 된다는 규정이 있다. 이 원칙을 위 사례에 적용하면 성인 5명과 운전자를 구하기 위해 어린이 1명을 선택해도 곤란하고, 어린이를 구하기 위해 성인이나 탑승자를 선택할 수도 없다. 어떤 선택도 인간에게 해가 되는 곤란한 상황에 대비해 윤리원칙은 또한 로봇의 설계자, 제작자, 이용자, 관리자 등을 대상으로 사전에 이런 상황이 발생하지 않도록 예방조치를 철저히 하도록 규정하고 있다. 예를 들면 브레이크 고장 시 스스로 속도를 줄여 안전한 곳으로 이동하도록 로봇을 설계하도록 한 것이다. 기술 발전으로 로봇이 인간처럼 윤리적 판단을 해야 하는 경우가 점점 늘어날 것으로 예상된다. 로봇윤리원칙은 인간의 명령이기 때문에 로봇은 이를 위반할 수 없다. 하지만 인간들은 윤리원칙을 위반하더라도 처벌되지 않으면 양심을 속이고 어기는 경우가 종종 있다. 특이점 시대가 오면 인간보다 더 뛰어난 로봇이 등장한다고 한다. 이들이 인간처럼 윤리원칙을 멋대로 무시하게 되면 스티븐 호킹 교수가 우려했듯이 인류의 종말은 피할 수 없다.황기연 홍익대 도시공학과 교수·전 한국교통연구원장
2019-09-24 17:21:53파이낸셜뉴스와 과학기술정보통신부 공동 주최로 27일 서울 소공로 웨스틴조선호텔에서 열린 '제10회 퓨처 ICT포럼'에서는 국내외 정보통신기술 관계자들과 정관계 인사들이 모여 인공지능과 자율주행차, AI, 모빌리티 등 ICT 관련 이슈에 대해 다양한 의견을 나눴다. ○…유영민 과학기술정보통신부 장관은 지난 25~26일 싱가포르서 개최된 아시아태평양 전기통신협의체 ICT 장관회의에 이어 27일 파이낸셜뉴스 ICT 포럼장에 오기 직전에도 국무회의에 참석하며 살인적 스케줄 소화. 유영민 장관이 "오늘 포럼 강연을 들을 시간이 없을 것 같아 죄송하다"라고 말하자 정김경숙 구글코리아 전무가 "유튜브로 시청하면 된다"라고 권유해 눈길. 유 장관은 모빌리티 이슈에 대해서는 "(변화를)피할 수 없지만 기존 사업자들 배려하며 같이 가야 한다"라며 "시간을 갖고 같이 고민해야 한다"고 신중한 입장. ○…제롬 글렌 밀레니엄 프로젝트 회장, AI 자율주행차 설명하며 '트롤리 딜레마' 언급. 트롤리 딜레마란 옳은 것을 가늠하기 어려운 도덕적인 물음표를 말하는 것으로 '누구를 죽일 것인가'에 대한 고민을 뜻한다고. 그는 "트롤리 딜레마 같은 윤리 문제를 AI 자동차가 해결해야만 하는 상황"이라며 "한쪽엔 한 남자와 다른 한 쪽엔 아이가 있다. '그때 자동차가 어느 방향을 선택할 것인가'가 난제"라고 우려. ○…앤 라빈 우버 아태 대외정책 시니어 디렉터는 "한국은 우버하기 참 어려운 나라지만 여전히 혁신적인 곳이라고 생각한다"고 평가. ○…이상헌 한글과컴퓨터그룹 부회장은 최근 출시한 음성인식 기술을 활용한 통역기를 홍보해 눈길. 이용하는데 불편함이 없는 소형 단말기로 오프라인에서도 영어, 중국어, 일본어 통역이 가능하며 온라인으로 연결되면 베트남, 인도네시아, 태국어 등 동남아시아 언어까지 지원. 이에 동남아에 진출해 공격적인 행보를 보이고 있는 김종윤 야놀자 대표는 "저희에게 꼭 필요한 상품이다"라고 화답. ○…이날 행사장엔 ICT 업계 특성상 개성있는 옷차림의 참가자들 두드러져. 강연자로 나선 한선호 한국 IBM Data&AI 서비스 상무는 라운드티에 청바지 차림으로 무대 올라. 청중들도 체크 무늬 셔츠부터 멜빵 청바지, 화려한 색의 원피스까지 다양. 특별취재팀
2019-06-27 13:44:15국회 산업통상자원위원회 소속 더불어민주당 박정 의원은 2일 국회 의원회관 제2세미나실에서 인공지능윤리를 주제로 전문가 및 관계부처 공무원 등이 참석한 가운데 국회입법조사처(처장 이내영)과 공동으로 정책 토론회를 개최했다. 이날 토론회는 4차산업혁명이라는 흐름에 따른 기술·시장 변화와 인공지능이 가져올 위험과 우려에 대해 선제적으로 대응하기 위해 기획됐다. 인공지능이 산업과 서비스 등 다양한 분야에 사용되고 있고 오남용 및 문제점 등이 예상되지만 규제적 관점보다는, 기술발전이나 활용이라는 관점에서 진행됐다. 입법조사처 김유향 팀장 사회로 진행된 토론회에서 공동발표한 정필운 교수와 고인석 교수는 '인공지능윤리 가이드라인'을 제안하면서 "인공지능기술 발전을 위한 노력과 별개도 역기능에 대한 국가·사회적 대응이 필요하다"며 "인공지능의 기술수준을 기술도입기를 지나 발전기로 진입한 단계로 파악하고, 법적 강제력이 없는 가이드라인 형식을 통한 규율이 필요하다"고 주장했다. 입법조사처 이내영 처장은 "인공지능 활용과정에서의 역기능에 대응하는 규제방안 모색은 시작되어야 한다"며 "자생적 기술발전을 위한 단계적 규제방안의 모색이 필요하다"고 말했다. 장병완 산업통상자원위원장은 축사를 통해 "인공지능으로 발생한 사고에 대한 책임 등 트롤리 딜레마에 대한 윤리적 결정은 중요한 문제"라며 "인공지능윤리 논의를 통해 사회적 합의를 이끌어낼 수 있을 것"이라 말했다. 토론회를 주최한 박정 의원은 "인공지능은 세계 각국이 주도권을 잡고자하는 4차산업혁명의 핵심엔진이라며, 문재인 정부의 핵심공약인 4차산업혁명위원회의 성공적인 안착과 일자리 창출을 위해 적극 대응해야 한다"고 강조했다. 이어 "특히 인공지능이나 빅데이터 환경에 적합한 법제 정비, 정책 개발에 지속적인 관심과 역량을 집중하겠다"고 덧붙였다. haeneni@fnnews.com 정인홍 기자
2017-06-02 15:47:39