IT >

"AI 챗봇, 개인정보 유출하지 않도록"... 개인정보위 가이드라인 발표

가명정보 처리 가이드라인 개정안 발표

"AI 챗봇, 개인정보 유출하지 않도록"... 개인정보위 가이드라인 발표
개인정보보호위원회 CI. 개인정보보호위원회 제공

[파이낸셜뉴스] 최근 인공지능(AI) 등 기술의 발달로 비정형데이터에 대한 활용 수요가 폭발적으로 증가한 가운데, 개인정보 위험을 사전에 확인하고 통제할 수 있는 정부 차원의 가이드라인이 나왔다.

개인정보보호위원회는 4일 이 같은 내용의 '가명정보 처리 가이드라인' 개정안을 발표했다. 가명정보는 개인정보 일부 항목을 삭제 및 변형해 추가 정보 결합 없이는 특정 개인을 알아볼 수 없도록 한 정보다. 정형 데이터가 엑셀 파일처럼 행과 열 등 규정된 틀에 정리된 수치라고 한다면, 비정형 데이터는 정의된 구조가 없는 음성·텍스트·영상·이미지 등의 정보를 의미한다. AI 기술이 빠르게 발달하면서 지난해 기준 비정형 데이터는 전 세계 데이터의 약 90%를 차지할 정도로 몸집이 커졌다.

하지만 기존 가명정보 처리 가이드라인은 정형 데이터에 대한 기준만 제시해 기업이나 연구기관을 중심으로 비정형 데이터 사용 기준이 모호하다는 목소리가 나왔다. 이에 개인정보위는 1년여간 각 분야 전문가로 구성된 태스크포스(TF)를 운영하면서 가이드라인을 개정했다. 개정 가이드라인은 의료·교통·챗봇 등 주요 7개 분야별 비정형데이터의 가명처리 사례를 설명해 현장에서 손쉽게 활용할 수 있도록 한 것이 특징이다.

병원에서는 이미지 내 개인식별 위험이 있는 메타데이터를 삭제하고 활용해야 한다. 환자의 컴퓨터단층촬영(CT)을 사용할 때 '블랙마스킹' 기법을 통해 환자 번호나 생년월일, 성별 등을 지우도록 권고했다. 또 처리 목적이 달성된 정보는 신속히 파기할 것을 강조했다.

자율주행 시스템이나 교통정보 등에 비정형데이터를 활용할 경우 행인이나 차량 탑승자의 얼굴과 차량 번호판을 컴퓨터가 판별할 수 없는 수준으로 가려야 한다고 했다.

AI 챗봇의 경우 학습에 활용된 가명 정보가 그대로 답변으로 나오지 않도록 해야 한다. 이를 위해 '학습 데이터베이스'와 '답변 데이터베이스'를 분리해 처리할 것 등을 명시했다.

아울러 개인정보위는 앞으로 '사전적정성 검토제' 사례 등을 가이드라인에 추가하고 모범 사례를 확산해 나갈 계획이다. 사전적정성 검토제는 새로운 서비스 및 신기술 분야에서 개인정보위가 보호법 준수 방안을 사업자와 함께 마련하고, 이를 적용한 사업자에게는 추후 환경 및 사정 변화가 없는 한 행정처분을 하지 않는 제도다.

고학수 개인정보위 위원장은 “AI 등 많은 신기술 영역은 현장의 불확실성을 해소할 수 있는 세밀한 데이터 처리정책이 중요하다”며 “이번 가이드라인을 시작으로 대규모 언어모형 등 생성형 AI와 관련한 '공개된 개인정보 처리 가이드라인' 등 현장의 어려움을 해소할 수 있는기준을 올해 중에 순차적으로 발표하겠다”고 밝혔다.

soup@fnnews.com 임수빈 기자