AI 학습데이터에 편향 내재땐 차별적인 결과 우려
공정·투명·안전한 사회적책임 알고리즘 개발 필수
AI 사용하는 데이터는 포괄적이고 대표성 지녀야
AI는 인류 이익을 위해 사용되고 위험 최소화 필요
AI규제는 발전 제한 아닌 민주적 가치와 양립해야
AI 개발·실행자 모두 기술이 미치는 영향에 책임을
파올로 베난티 프란치스코 교황 AI윤리부문 고문. 베난티 고문은 오는 5일 서울 송파구 롯데월드타워 롯데시네마에서 열리는 'AI월드 2024'에서 '인간과 AI의 공존'을 주제로 정재승 카이스트 뇌인지과학과 교수와 대담을 나눈다.
"인공지능(AI)은 신이 아니라 도구다. AI는 반드시 인간 존엄성을 높이는 방향으로 쓰여야 한다. AI가 민주적이고 편향되지 않으며 포괄적인 데이터를 써야 하는 이유다." 파올로 베난티 프란치스코 교황 AI윤리부문 고문의 철학이다. 베난티 고문은 AI 기술의 발전과 AI 윤리가 동시에 부각되고 있는 지금 시대에, 둘 사이의 균형을 맞춰줄 최고의 적임자로 평가받고 있다. 베난티 고문은 사제이자 신학자, 공학자라는 보기 드문 조합을 가진 인물이다. 공학을 전공하며 기술적 기초를 쌓았지만 종교적 소명에 따라 현대사회에서 인간의 의미와 삶에 대한 깊은 질문들을 탐구하고 있다. 이탈리아 정부 산하 AI위원회 위원장이자 교황청 생명아카데미 컨설턴트, 프란치스코 교황의 윤리고문을 맡고 있다.
게티이미지뱅크
■"인간중심적 알고리즘 작동돼야"
오는 5일 파이낸셜뉴스가 주최하는 2024 AI월드에서 특별대담에 나서는 베난티 고문은 2일 인터뷰에서 "AI 윤리의 핵심은 개발 단계에서부터 인간 중심적인 접근을 취하는 것"이라고 강조했다. 그는 "AI는 비판적 사고와 의사결정 능력이 위임되는 존재가 아니라, 인류를 위한 도구로서 기능해야 한다"고 말했다. 베난티 고문은 인간화되고 있는 기계로 인해 인간이 맞닥뜨리는 도전이 심화되고 있다고 봤다. 그는 "AI는 예언자나 신이 아니다"라며 "오히려 인간 존엄성을 존중하고 공익을 촉진하기 위한 도구로 사용돼야 한다"고 말했다. 이런 인간중심적 접근은 AI가 단순히 이윤만을 추구하거나 인간의 일자리를 점진적으로 대체하지 않는 것을 포함한다고 그는 덧붙였다.
베난티 고문은 2018년 알고리즘에 윤리를 부여하는 개념인 '알고레틱(algorethics)'을 처음 내보였다. 알고레틱은 AI 알고리즘의 지배에 반대하는 개념으로, 정보기술 사용 증가로 인해 발생하는 윤리적 문제와 사회적, 정치적, 경제적 및 조직적 영향을 연구해야 한다는 주장이다. 그는 "AI가 학습하는 데이터에 편향이 내재되고, 이로 인해 차별적인 결과가 나올 수 있다"고 경계했다. 따라서 공정하고 투명하며 안전한 사회적 책임 알고리즘을 개발하는 것이 필수적이라고 강조했다.
베난티 고문은 또 AI의 세계적 영향력, 특히 형평성과 사회 정의와 관련된 문제에 대해 우려했다. 그는 "AI 구동에 필요한 데이터는 주로 개발도상국(global North) 저임금 노동자로부터 수집된다"며 "부유한 선진국(global South)들은 이들에게 공정한 보상을 해야 한다"고 강조했다. 그러면서도 AI의 규제는 그 발전을 제한하는 것이 아니라 민주적 가치와 양립할 수 있도록 해야 한다고 강조했다.
■"AI 개발자, 기술이 미치는 영향 책임도 져야"
베난티 고문은 세계적인 AI 윤리적 틀을 수립하는 데도 깊이 관여하고 있다.
우선 로마 AI 윤리백서(Rome Call for AI Ethics)를 함께 만들었다. 로마 AI 윤리백서는 2020년 2월 28일 바티칸 생명 아카데미가 마이크로소프트(MS), IBM 등 빅테크와 국제기구인 식량농업기구(FAO), 이탈리아 정부와 협력해 발표한 이니셔티브다. AI의 개발과 사용에 있어 윤리적 접근 방식을 촉진하자는 것이 목표다. 최근 IBM은 이 윤리백서를 재확인했다.
요약하자면 로마 윤리백서의 목표는 기술혁신, 특히 AI가 인간 존엄성을 존중하고 사회 정의와 포용을 촉진하며 공익을 위해 개발 및 사용되도록 하는 것이다.
백서는 여섯 가지 기본원칙을 기반으로 한다. 구체적으로 △AI 시스템은 모든 사람이 설명 가능하고 이해할 수 있어야 하며, 그 작동과 결정이 명확하고 접근 가능해야 한다는 것 △차별을 방지하고 모든 사람이 기술발전의 혜택을 받을 수 있도록 할 것 △개발자, 사용자 및 정책결정자는 AI 시스템의 영향과 결과에 대해 책임질 것 △인간 존엄성, 권리, 이익을 해치지 않는 편견을 따르거나 만들지 않을 것 △신뢰할 수 있고 정확하며 일관된 결과를 제공할 것 △보안이 유지돼야 하며, 사용자 개인정보를 보호하고 사이버 공격이나 무단 감시를 방지할 것 등이다.
베난티 고문은 특히 책임성(accountability)을 강조하며 "AI 개발 및 실행에 관여하는 모든 행위자들이 자신들의 기술이 미치는 영향에 대해 책임을 져야 한다"고 말했다.
■"AI, 민주주의 지키도록 대표성 지닌 데이터 활용해야"
그는 유엔 AI 거버넌스인 고위급 자문기구에서도 활동 중이다. 유엔은 지난해 10월 전 세계 전문가와 정부 관료, 학자 39명으로 구성된 자문기구를 출범했다. 베난티 고문은 "이 자문기구는 (논의 중인) 유엔 차원의 AI 거버넌스 전담기구 설립에 영향을 미칠 수 있다"고 평가했다.
그는 "자문기구가 유엔 글로벌 AI 거버넌스 전담기구 형태와 기능을 정의할 수 있다"며 "이를 설립하려는 정치적 의지가 있다면 실현될 수 있다"고 말했다. 그러면서 "이 기구는 AI가 모든 인류의 이익을 위해 사용되고, 연관된 위험을 최소화하는 방향으로 나아가도록 하는 것을 목표로 한다"고 소개했다.
유엔 AI 고위급 자문기구는 AI의 미래 방향과 함의를 평가하고, 국제적으로 공유되는 위험 및 보안관리 방법을 마련한다. 또 지속가능 발전을 담보하기 위한 국제협력을 촉진한다.
AI 발전과 민주주의와 같은 사회시스템 간 관련성에 대해 베난티 고문은 "인간의 적절한 감독이 없다면 AI는 인간의 의사결정을 더 은밀하고 덜 민주적으로 만들 수 있다"며 "이는 AI가 인간이 합의한 의사결정 과정에 어떻게 영향을 미칠 수 있는지에 대한 윤리적 질문을 제기한다"고 말했다.
그러면서 AI 거버넌스는 기술이 인간의 삶을 착취하지 않도록 보장하는 데 초점을 맞춰야 한다고 다시 한번 강조했다. 그는 "AI가 민주주의와 양립할 수 있도록 해야 한다"며 "AI 사용은 잘못된 정보를 사용하거나 사회적으로 배제되는 결과를 낳아서는 안 된다"며 "이 때문에 사용되는 데이터는 포괄적이고 대표성을 가져야 한다"고 주장했다.
psy@fnnews.com 박소연 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지