인공지능(AI) 기술이 최근 빠른 속도로 확산되고 있다. AI가 내장된 지능형로봇은 인간의 삶의 질을 높이는 데 기여하겠지만, 일론 머스크와 인공지능의 대가 오렌 에치오니 박사 등의 주장처럼 잘못 사용하면 살상무기가 될 수 있기 때문에 안전조치가 필요하다. 일찍이 로봇의 위험성을 인지한 아이작 아시모프는 1942년 집필한 '아이 로봇'에서 로봇윤리 3원칙이라는 이름으로 로봇을 제어할 지침을 공표했다. '로봇은 사람에게 해를 끼쳐서는 안 되며, 위험에 처한 인간을 모른 척해서도 안 된다(1원칙), 로봇은 1원칙에 위배되지 않는 한, 인간의 명령에 복종해야 한다(2원칙), 로봇은 1, 2 원칙에 어긋나지 않으면 스스로를 보호해야 한다(3원칙)'는 내용이다. 아주 간단명료한 원칙이지만 적용하기에 현실이 그리 호락호락하지 않다.
최근 자율주행자동차(Automated Vehicle·AV)라는 최첨단 이동로봇의 상용화를 앞두고 AV에 적용할 로봇원칙이 필요하다는 주장이 제기되고 있다. 논란의 시작은 트롤리 딜레마(Trolley dilemma) 상황에서 비롯되었다. 언덕을 내려가는 AV의 브레이크가 고장이 나서 갈림길에서 5명의 성인과 1명의 어린이 중 한쪽을 희생시키거나 또는 중앙분리대를 충돌해 자신의 생명을 희생시켜야 하는 3가지 선택 상황에 처했을 때의 딜레마다. AV를 설계할 때 어떤 경우라도 탑승자의 희생이 최소화되도록 의무론(Deontology)을 선택했다면 판매에는 도움이 되겠지만, 인명사고가 발생했기 때문에 AI를 설계한 사람이나 회사는 법적인 책임과 금전적 보상책임을 피할 수 없게 된다. 한편 AV가 최대 다수의 최대 행복을 지향하는 공리주의(Utilitarianism)적 선택을 하도록 프로그래밍됐을 경우에는 5명의 성인과 1명의 어린이 그리고 차량 탑승자의 가치를 순식간에 계산해서 손해가 가장 적은 피해 대상을 선택해야 하지만 현실적으로 계산이 가능하지도 않고 차량 탑승자가 죽을 수도 있는 차를 살 구매자도 거의 없으리라 예상된다.
위의 사례는 윤리적 판단이 필요한 상황으로, 인간운전자는 어떤 선택을 하든 그에 따른 법적 책임을 지면 된다. 하지만 지능형로봇은 법적 책임의 주체가 될 수 없기 때문에 피해를 최소화하도록 인간이 만든 윤리원칙에 따라 제작돼야 한다. 최근 미국, 유럽연합(EU), 미국 전기전자학회(IEEE) 및 한국로봇학회 등에서 발표되고 있는 로봇윤리원칙을 보면 지능형로봇은 성별, 연령, 장애 여부, 인종, 국적 등을 이유로 인간을 차별해서는 안 된다는 규정이 있다. 이 원칙을 위 사례에 적용하면 성인 5명과 운전자를 구하기 위해 어린이 1명을 선택해도 곤란하고, 어린이를 구하기 위해 성인이나 탑승자를 선택할 수도 없다. 어떤 선택도 인간에게 해가 되는 곤란한 상황에 대비해 윤리원칙은 또한 로봇의 설계자, 제작자, 이용자, 관리자 등을 대상으로 사전에 이런 상황이 발생하지 않도록 예방조치를 철저히 하도록 규정하고 있다. 예를 들면 브레이크 고장 시 스스로 속도를 줄여 안전한 곳으로 이동하도록 로봇을 설계하도록 한 것이다.
기술 발전으로 로봇이 인간처럼 윤리적 판단을 해야 하는 경우가 점점 늘어날 것으로 예상된다. 로봇윤리원칙은 인간의 명령이기 때문에 로봇은 이를 위반할 수 없다.
하지만 인간들은 윤리원칙을 위반하더라도 처벌되지 않으면 양심을 속이고 어기는 경우가 종종 있다. 특이점 시대가 오면 인간보다 더 뛰어난 로봇이 등장한다고 한다. 이들이 인간처럼 윤리원칙을 멋대로 무시하게 되면 스티븐 호킹 교수가 우려했듯이 인류의 종말은 피할 수 없다.
황기연 홍익대 도시공학과 교수·전 한국교통연구원장
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지