민간 자율 검·인증제도 내달 시행
위험 요인 평가하고 신뢰성 확보
내달부터 인공지능(AI) 서비스에서 발생할 수 있는 위험 요인 등을 민간 자율로 평가하는 검·인증 체계와 AI 생성물에 대한 워터마크 표시 제도가 추진된다.
과학기술정보통신부 이종호 장관은 25일 개인정보보호위원회 고학수 위원장, 인공지능 분야 민간 최고위 관계자들과 함께 '제4차 인공지능 최고위 전략대화'를 열고 이 같은 내용을 발표했다.
우선 주요국과 국제기구들이 인공지능 신뢰성 확보를 산업 발전의 전제로 인식해 가이드라인 등 자율 실천방안을 제시하는 상황에서 '국가 인공지능 윤리기준'의 구체적 실천수단으로 채용, 생성형 인공지능 기반 서비스 등 분야별 가이드라인을 마련·확대하고, 민간 자율 신뢰성 검·인증을 다음달부터 추진할 계획이다. 특히 AI 사업 중 고위험 영역 인공지능 개발·실증 사업을 수행하는 기업을 일부 선정해 오는 12월 시범 인증을 추진할 예정이다.
또한 인공지능 자체가 내포하는 편향성, 불투명성 등 기술적 한계와 인공지능 오작동 등에 따른 인공지능의 잠재 위험요인에 대응하기 위해 기존 인공지능의 한계를 극복하고 초거대 인공지능의 신뢰성을 확보하기 위한 기술개발을 내년부터 신규로 추진할 예정이다.
아울러 챗GPT와 같은 초거대 인공지능의 확산으로 안전에 대한 위험성 우려가 확대되는 상황에서 인공지능이 생성한 결과물에 대한 워터마크 도입의 제도화를 검토하고, 고위험 인공지능에 대한 해설서를 내년 1·4분기에 마련하는 등 신뢰성 확보를 위한 제도 정립 과제를 추진할 방침이다. 민간에서는 김유철 LG AI 연구원 부문장이 '인공지능 윤리원칙 실행을 위한 기업의 노력'을 발표하고, JLK 김동민 대표가 '고위험 인공지능 분야에 대한 신뢰성 검·인증의 필요성'을 소개했다.
이종호 과기정통부 장관은"인공지능은 디지털 심화 시대의 핵심기술로서 인공지능의 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다"며 "민간 자율 인공지능 신뢰성 검·인증 지원을 비롯한 인공지능 윤리 생태계 기반 조성과, 적합한 규제 체계를 정립해가는 데 힘쓰고, 관계부처와 함께 인공지능 윤리·신뢰성을 확보할 수 있는 정책방안을 보완해 새로운 디지털 질서의 모범이 되기 위하여 최선을 다하겠다"고 말했다.
solidkjy@fnnews.com 구자윤 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지