생성형 AI 챗GPT가 그려준 미·중 반도체 전쟁. 파이낸셜뉴스 제공
[파이낸셜뉴스] 인공지능(AI) 시대가 열렸지만, 국내외 주요 생성형 AI 사업자 대부분이 미성년자 유해 콘텐츠 신고 절차를 마련하지 않는 등 이용자 보호 조치에 미흡해 비판이 일고 있다.
25일 국회 과학기술정보방송통신위원회 소속 조국혁신당 이해민 의원이 제출받은 '생성형 AI 사업자 이용자 보호 현황 조사 결과'에 따르면 일부 사업자가 이용자 보호에 필수적인 장치를 마련하지 않은 것으로 나타났다.
방송통신위원회는 지난해 3월부터 7월까지 생성형 AI 서비스를 제공하는 주요 사업자 9곳을 대상으로 △서비스 현황 △편향성 △투명성·설명 가능성 △책임성 △이용자 피해 구제 방안 △윤리 의식 등 6개 분야에서 이용자 권익 보호에 관한 사항을 조사했다.
조사 결과 6개 분야의 세부항목 25개 중 24개를 달성한 우수 사업자도 있었으나, 5곳은 조사항목의 절반도 충족하지 못했다.
미조치 항목에서 가장 눈길을 끈 것은 윤리 의식 분야에서 '미성년자 보호를 위한 유해 콘텐츠물 생성 위험성 고지'였다. 또 안전성 분야에서 'AI가 거짓을 사실로 말할 수 있는 가능성을 알리는 위험보고서 등을 통한 고지'였다.
미성년자 보호를 위한 유해 콘텐츠 신고 절차가 마련되지 않은 사업자는 무려 5곳으로 조사됐다. 또 사용자의 입력창이나 생성물 중 유해 정보에 대한 필터링이 없는 사업자도 3곳이었다.
딥페이크에 대한 오남용 방지를 위한 대책도 미흡했다. 개인정보와 유해정보 등 필터링이 없는 사업자가 4곳, 매크로 등 이상 신호에 대한 기술적 탐지 및 대응 시스템이 구축되지 않은 사업자가 6곳으로 나타났다.
이 의원은 "생성형 AI 서비스는 보편화됐지만, 이용자 보호 측면에서는 여전히 일관된 기준이 없는 상황"이라며 "방통위는 생성형 AI 서비스로 인한 국민 피해를 예방하고 사업자 혼란을 줄이기 위해 표준화된 가이드라인을 시급히 마련해야 한다"고 촉구했다.
dschoi@fnnews.com 최두선 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지