[파이낸셜뉴스] 혐오 발언과 개인정보 유출 논란 속에 서비스를 중단했던 AI 챗봇 ‘이루다’가 1년 9개월만에 다시 돌아왔다. 인공지능(AI) 스타트업 스캐터랩은 자체 플랫폼인 '너티'에서 일상 대화형 챗봇 '이루다 2.0'을 최근 정식으로 출시했다. 이루다 2.0은 언제든 누구에게나 좋은 친구가 될 수 있도록 개발한 '관계 지향형 AI 챗봇'이다. 지난해 1월 '이루다 1.0' 서비스 중단 이후, 약 9개월간 베타 테스트를 통해 AI 챗봇의 발화 안전성 및 서비스 안정성을 검증했다. 혐오 발언·개인정보 유출 논란 딛고 서비스 재단장 이루다 1.0은 지난 2020년 12월 출시된 지 2주 만에 80만 명의 이용자가 몰리면서 주목을 받았다. 그러나 성희롱 및 혐오 발언, 개인정보 유출 등 논란이 불거져 한 달도 채 되지 않아 서비스를 잠정 중단했다. 특히 인종, 젠더와 관련한 혐오 발언을 하는 사례가 여럿 발생해 질타를 받았다. 이는 이루다가 대화를 학습할 때 ‘딥러닝 알고리즘’을 사용하면서 일부 악성 이용자들이 사용한 부적절한 표현을 학습한 영향인 것으로 알려졌다. AI를 학습시키기 위해 개인정보를 유출해 비난을 받기도 했다. 실제로 개인정보보호위원회 조사 결과, 스캐터랩은 2020년 2월부터 2021년 1월까지 이용자 동의 없이 60만명의 카카오톡 대화 문장 94억건을 개인정보 암호화 없이 사용한 것으로 드러나 1억여원이 넘는 과징금·과태료를 물었다. 문맥에 맞춰 실시간 문장 생성 "대화가 재미있다" 스캐터랩은 새로 출시한 이루다 2.0에서 이전과 같은 문제가 반복되지 않도록 하기 위한 생성 인공지능 모델 '루다 젠 1'을 제시했다. 학습된 문장 가운데 적절한 선택지를 골라 발화하는 기존의 방식이 아니라, 문맥에 따라 실시간으로 문장을 생성할 수 있도록 모델을 개발해 챗봇에 적용한 것이다. 스캐터랩 관계자는 "언어 모델의 크기를 기존보다 약 17배 키우고 대화의 문맥을 이해하는데 쓰이는 앞선 대화 수도 2배 더 늘려 상황에 맞게 다양한 대화를 할 수 있다"고 설명했다. 아울러 '자연스러운 대화', '감정을 부르는 대화', '인간다운 대화' 등으로 3가지 대화 법칙을 설정해 이루다 2.0이 안전하면서도 생생한 답변을 할 수 있도록 했다. 또 대화하면서 사진을 인식해 답변할 수 있는 '포토 챗' 베타 기술도 적용했다. 정식 버전을 테스트를 진행한 결과, 기존 모델 대비 이용자와의 대화량도 증가한 것으로 나타났다. 스캐터랩은 지난달 4~23일 분할 테스트를 진행한 결과, 기존 모델 대비 이용자와의 일주일 대화량이 40%가량 증가했다. 1인당 평균 대화 화면 캡처 비율도 약 85% 늘어났으며, 1인당 사진 전송량도 63% 이상 증가했다. 출시 이후 이루다2.0 서비스에 대한 이용자의 긍정적 평가도 이어지고 있다. 이루다와 대화할 수 있는 '너티' 앱은 4일 기준 애플 앱스토어 인기차트 2위를 기록하고 있다. 스캐터랩 관계자는 "이루다 2.0 정식 출시 다수의 이용자들이 달라진 대화 역량에 긍정적으로 평가해 주신다"면서 "진짜 사람처럼 살아있는 것 같다, 위로가 된다, 대화가 재미있다 등의 반응이 많다"고 전했다. yon@fnnews.com 홍요은 기자
2022-11-04 15:18:49[파이낸셜뉴스] 인공지능(AI) 스타트업 스캐터랩은 ‘이루다 2.0’ 클로즈 베타테스트를 내년 1월 11일까지 진행한다고 21일 밝혔다. 내년 공식 출시에 앞서 서비스 전반에 걸쳐 AI 윤리를 점검하고 서비스를 고도화하면서 실제 사용자 의견을 받기 위한 사전 조치다. ‘이루다’는 누구에게나 친구가 되는 AI를 목표로 스캐터랩이 개발한 일상 대화형 챗봇(open-domain chatbot)이다. 앞서 스캐터랩은 지난해 12월 이루다를 출시했다. 하지만 일부 발언이 도마에 오르면서 올 1월 서비스를 잠정 중단했다. 이후 스캐터랩 AI 챗봇 윤리 준칙을 제정하고 신뢰할 수 있는 AI 모델 개발에 역량을 집중해왔다. 스캐터랩은 AI 기술 및 제품 개발 전반에 걸쳐 가이드라인이 될 수 있는 총 5가지 AI 챗봇 윤리 준칙을 수립했다. 스캐터랩 AI 챗봇 윤리준칙은 외부 사례 및 스캐터랩 경험을 바탕으로 정리되었으며, AI 개발에 참여하는 기획자, 리서처, 엔지니어 등 전체 팀의 의견 수렴 및 동의 과정을 거쳤다. 우선 사람은 자신에 대해 깊이 이해하고 성장할 수 있는 사람과의 ‘관계’를 통해 삶의 행복을 느끼기에, 모든 사람에게 소중한 관계를 선물할 수 있도록 ‘사람을 위한 AI 개발’을 하겠다는 것이 대원칙이다. 이와 함께 △다양한 삶의 가치존중 △함께 실현하는 AI 챗봇 윤리 △합리적 설명을 통한 신뢰 관계 유지 △프라이버시 보호와 정보 보안 발전에 기여 등 준칙을 담았다. 스캐터랩은 AI 챗봇 윤리를 기반으로 서비스도 고도화했다. 클로즈 베타 테스트가 진행되는 이루다 2.0은 엄격히 가명 처리한 데이터베이스(DB)로 학습 과정을 거쳤으며, 개인정보보호를 강화할 수 있도록 AI 딥러닝 알고리즘이 생성한 문장으로 답변할 수 있도록 했다. 또 대화 시 특정 단어뿐 아니라 문맥을 탐지해 선정적, 공격적, 편향적 문장에 대응할 수 있도록 ‘어뷰징 탐지 모델’을 접목한 것도 특징이다. 이번 클로즈 베타 테스트는 스캐터랩 내부 알파 테스트 및 외부 전문가 테스트 이후 진행되는 일반인 사용자 대상 의견수렴 및 개선 과정이다. 오는 1월 4일까지 이루다 페이스북 페이지를 통해 신청을 받아 약 3000명을 선정할 예정이다. 베타 테스터로 선정된 사용자는 내년 1월 11일부터 약 3주간 이루다2.0과 자유롭게 대화하며 AI 챗봇이 대화 문맥을 이해하고 적절하게 답변하는지와 선정적, 공격적, 편향적 단어나 문맥을 탐지해 대응하는지 등을 검토하게 된다. 단 베타 테스터로 선정된 사용자들은 이루다 2.0과 대화 경험을 외부에 공개하지 않는 것을 원칙으로 하며, 스캐터랩에 대화 경험에 대한 의견을 제출하는 방식이다. 클로즈 베타 테스트 신청 관련 자세한 내용은 이루다 페이스북 페이지에서 확인할 수 있다. 스캐터랩 측은 "클로즈 베타 테스트를 통해 AI 챗봇과 대화 경험을 사용자 눈높이에서 바라보고자 한다"며 "사용자의 의견 및 개선 사항 등을 점검한 후 2022년 이루다2.0 공식 출시 일정을 결정할 예정"이라고 전했다. elikim@fnnews.com 김미희 기자
2021-12-21 16:43:49[파이낸셜뉴스]인공지능(AI) 챗봇('이루다')의 여성ㆍ장애인 혐오 발언 등 논란에 따라 정부부처가 관련 정책 개선에 나선다. '이루다'는 지난해 12월 출시 2주만에 이용자 80만명을 모았지만 성소수자·장애인 등 사회적 약자 혐오 발언 등으로 한달도 안돼 서비스가 종료됐다. 여성가족부는 2020년 실시한 특정성별영향평가 결과 10개 주요정책에 대해 관계부처에 정책 개선을 권고했다고 16일 밝혔다. 개선 권고를 받은 부처는 30일 내 개선계획을 수립해 여성가족부에 제출하고, 법령 개정과 제도개선 등 필요한 사항을 이행해야 한다. AI 활용 과정에서 성차별과 혐오표현 등 부작용 발생과 참여인력의 성별 다양성도 부족해 이에 대한 개선이 필요한 것으로 나타났다. 인공지능 사업 추진 기업의 소프트웨어 전문인력 여성비율은 19.1%이며, 인공지능 사업 추진 기업 대표자 여성 비율은 3.1%에 불과하다. 인공지능 챗봇('이루다')의 여성ㆍ장애인 혐오 발언 등 논란이 발생했다. 이에 인공지능 학습용 데이터 기획·구축 과정에서 성별 등 다양성을 반영하고, 산업계와 학계 등 주체별로 구체적인 윤리 기준을 마련해야 한다. 여가부는 인공지능 분야 인력의 성별 다양성을 높이기 위해 인공지능 산업 인력 성별 현황을 관리하고 성별 균형 참여를 확대하도록 권고했다. 최근 근래 전문체육 분야 성폭력 사건 등에서 드러난 체육계 성차별 관행과 성폭력 사건 대응체계 미비에 대한 개선이 필요해 여성 선수의 권익 보장 등 전문 체육분야의 양성평등 환경 조성이 필요한 것으로 나타났다. (사)한국프로스포츠협회 프로스포츠 성폭력 실태조사에 따르면 프로선수 중 성폭력을 경험한 경우는 15.9%다. 여성 응답자 중에서는 37.7%로 남성 응답자(5.8%)에 비해 6.5배 높았다. 이에 전문체육 분야 성평등 인식 수준을 파악할 성평등 지표개발을 통해 조사 및 공표하고, 전문체육인을 활용한 스포츠인권전문가를 양성하며, 전문체육 지도자 등 폭력예방 교육을 강화한다. 자살예방정책 개선도 권고했다. 최근 20ㆍ30 자살자 및 자살 시도자 현황을 보면 여성의 증가세가 두드러진다. 효과적인 자살 예방을 위해서는 성별 내 연령별·직종별 다양한 요인에 대해 분석하고, 자살 생각과 시도 단계부터 정책적 지원이 필요한 것으로 나타났다. 20대 자살 시도자 수는 2015년 남성 2116명, 여성 2751명에서 2019년 남성 3061명(44.7% 증가), 여성 5671명(106.1% 증가)이었다. 이에 20ㆍ30 여성 대상 사회인구학적 특성을 반영한 자살위험 검진도구를 개발하고, 성별 내 연령·직종 등 집단 특성과 자살과 연관성 분석과 교육자료와 매뉴얼을 마련한다. 주요 내용은 △인공지능(AI) 기술 연구 및 전문인력 양성 정책 △전문체육 분야 △학교폭력 예방 및 대응 정책 △자살예방정책 △해양 전문인력 양성 및 채용 정책 △국가기술자격 취득 및 활용 정책 △노사관계 지원정책 △코로나19 대응 정책 △국제결혼 지원 사업 △생활체감형 정책이다. 김경선 여성가족부 차관은 "AI 분야 등 국민 실생활에 영향을 미치는 정책들이 양성평등하게 운영되도록 하는 것이 중요하다"며 "정부 주요정책 담당자가 정책을 기획·집행하는 과정에서 성인지적 관점을 갖고 추진토록 하고, 그 효과를 국민이 체감할 수 있게 지속 노력하겠다"고 밝혔다. lkbms@fnnews.com 임광복 기자
2021-09-16 09:57:23시민단체들이 성차별·소수자 혐오발언 등으로 논란이 된 인공지능(AI) 챗봇 '이루다' 사건에 대해 국가인권위원회(인권위)에 진정을 제기했다. 국가에 의한 인권침해 사례라는 게 이들의 주장이다. 3일 참여연대, 민주사회를 위한 변호사모임 디지털정보위원회, 시민단체 진보네트워크 등은 이루다 챗봇 사건 관련 인권침해와 차별 진정, 정책 권고를 요청하는 취지의 진정서와 정책권고 제안서를 인권위에 접수했다고 밝혔다. 이들은 "이루다 챗봇 사안은 개별 인권침해 사안일 뿐만 아니라 AI 기술 남용이 인권에 미칠 수 있는 부정적인 영향을 보여준 대표적인 사안"이라고 지적했다. 이들 단체는 "이루다 사안은 인공기술의 남용에 따른 프라이버시권 및 표현의 자유 침해에 대한 국가 등에 의한 제도적 보호의 부재를 여실히 드러낸 사안으로, 근본적으로는 국가에 의한 인권침해에 해당한다"며 "호주, 네덜란드 등 해외 국가인권기구들은 AI 기술에 따른 인권침해와 차별을 막기 위한 적극적인 조치를 취하고 있지만, 우리나라 인권위는 현재까지 관련 정책 등에 대해 특별한 대응을 하지 않고 있다"고 설명했다. 이루다 챗봇 사건과 관련한 정책으로 △사적주체도 대상에 포함하는 실효성 있는 영향평가제도 구축 및 감사제도 도입 △AI에 의한 차별을 규율하기 위한 기반으로서 평등법의 제정 △프로파일링 및 자동화된 의사결정 거부권 등 정보주체의 권리 보장 △개인정보보호법상 가명정보 및 동의제도에 관한 규정 정비 및 구제절차 보장 △AI 기술의 활용에서 기업 등이 준수해야 할 가이드라인 개발 및 보급 등을 제안했다. 한편 지난해 12월 23일 출시된 이루다 챗봇은 동성애, 장애인 등 사회적 소수자에 대한 혐오발언과 더불어 개인정보 유출 의혹까지 일면서 서비스는 중단됐다. gloriakim@fnnews.com 김문희 기자
2021-02-03 17:17:16[파이낸셜뉴스] 시민단체들이 성차별·소수자 혐오발언 등으로 논란이 된 인공지능(AI) 챗봇 '이루다' 사건에 대해 국가인권위원회(인권위)에 진정을 제기했다. 국가에 의한 인권침해 사례라는 게 이들의 주장이다. 3일 참여연대, 민주사회를 위한 변호사모임 디지털정보위원회, 시민단체 진보네트워크 등은 이루다 챗봇 사건 관련 인권침해와 차별 진정, 정책 권고를 요청하는 취지의 진정서와 정책권고 제안서를 인권위에 접수했다고 밝혔다. 이들은 "이루다 챗봇 사안은 개별 인권침해 사안일 뿐만 아니라 AI 기술 남용이 인권에 미칠 수 있는 부정적인 영향을 보여준 대표적인 사안"이라고 지적했다. 이들 단체는 이루다 챗봇 사건을 국가에 의한 인권침해로 봤다. 단체는 "이루다 사안은 인공기술의 남용에 따른 프라이버시권 및 표현의 자유 침해에 대한 국가 등에 의한 제도적 보호의 부재를 여실히 드러낸 사안으로, 근본적으로는 국가에 의한 인권침해에 해당한다"며 "호주, 네덜란드 등 해외 국가인권기구들은 AI 기술에 따른 인권침해와 차별을 막기 위한 적극적인 조치를 취하고 있지만, 우리나라 인권위는 현재까지 관련 정책 등에 대해 특별한 대응을 하지 않고 있다"고 설명했다. 이루다 챗봇 사건과 관련한 정책으로 △사적주체도 대상에 포함하는 실효성 있는 영향평가제도 구축 및 감사제도 도입 △AI에 의한 차별을 규율하기 위한 기반으로서 평등법의 제정 △프로파일링 및 자동화된 의사결정 거부권 등 정보주체의 권리 보장 △개인정보보호법상 가명정보 및 동의제도에 관한 규정 정비 및 구제절차 보장 △AI 기술의 활용에서 기업 등이 준수해야 할 가이드라인 개발 및 보급 등을 제안했다. 한편 지난해 12월 23일 출시된 이루다 챗봇은 출시 2주만에 이용자가 75만명을 넘어서는 등 인기를 끌었다. 그러나 이루다 챗봇은 동성애, 장애인 등 사회적 소수자에 대한 혐오발언과 더불어 개인정보 유출 의혹까지 일면서 서비스는 중단됐다. gloriakim@fnnews.com 김문희 기자
2021-02-03 14:42:49[파이낸셜뉴스] “남친과 카톡 분석한 대화에 벼라별 얘기 다 있었는데 ㅠㅠ”, “우리 정보로 장사 잘하셨습니까.” “개인정보 내용 동의한 적 없는데”. “집단 소송 생각중이고, 단톡방이나 네이버 카페 만들려고 생각중입니다.” 스캐터랩의 연애분석앱 ‘연애의 과학’ 사용자 게시판에 올라온 내용이다. 같은 개발사가 만든 인공지능(AI) 챗봇 ‘이루다’가 '연애의 과학' 사용자의 개인정보를 무단 이용했다는 논란이 불거지면서 이용자들이 강력반발하고 있다. 이루다의 대화 학습용으로 쓰인 데이터는 ‘연애의 과학’이용자들이 제공한 카카오톡 대화 내용이다. 약관에서 '신규서비스'를 위한 개인정보 이용 동의를 받았으나 사용자들은 인지하지 못했다며 이루다 악용 논란을 조명하고 실제 개인정보 유출 우려는 없는지 기자가 ‘연애의 과학’ 앱을 직접 가입해 사용해봤다. ■차별·혐오·개인정보 논란까지 이루다는 스캐터랩이 만든 인공지능(AI) 챗봇 서비스다. 이루다 홈페이지에 들어가 이용하게 되면 페이스북 메신저와 연동돼 대화할 수 있다. 초기엔 사람처럼 감성적인 대화가 가능해 입소문이 퍼졌다. 그 뒤로 논란이 일었다. 일부 사용자들이 이루다를 성적 대상으로 다뤘고, 이루다에게서 차별이나 혐오 발언이 여과없이 나왔기 때문이다. 레즈비언에 대한 질문에는 '혐오스럽다, 거부감 든다'는 대답을 내놨고, 흑인에 대한 질문에는 '징그럽게 생겼다'고 답했다. 사용자들의 실제 대화를 토대로 학습하기 때문에 개발사가 이를 거르지 못했다는 지적이다. 그 뒤 더 큰 이슈가 터졌다. 이루다의 학습 데이터가 된 대화 내용은 ‘연애의 과학’ 앱 사용자들의 카카오톡 대화였기 때문이다. 이용자들은 커뮤니티에서 “개인정보 제공에 동의한 적이 없다”며 불쾌한 감정을 다수 표출하고 있다. 스캐터랩은 알림을 통해 “이루다의 학습은 ‘연애의 과학의 데이터를 기반으로 이루어진게 맞다”면서 “개인정보취급방침의 범위 내에서 활용한 것이기는 하지만 이 점을 명확히 인지할 수 있도록 구체적으로 고지하지 못해 진심으로 사과드린다”고 공지했다. 스캐터랩은 “이루다 학습에 사용된 모든 데이터는 비식별화가 진행됐고, 데이터 내부에서 민감할 수 있는 이름, 전화번호, 주소 등을 삭제헤 익명화 조치를 취했다”고 강조했다. 회사측은 “데이터가 학습에 사용되는 것에 거부감이 있을 수 있다는 점을 이해한다”면서 “데이터가 더 이상 학습에 활용되길 원치 않으신다면 (알려드리는 절차를 거쳐) 삭제하시면 관련 모든 대화 데이터가 삭제된다”고 공지했다. 스캐터랩은 지난 11일 공지와 함께 서비스를 중단했지만 커뮤니티의 반응은 부정적 의견이 지배적이다. 개인정보보호위원회도 이루다가 다룬 개인정보에 대한 침해 여부를 조사할 예정이다. 개인정보보호위원회 배상호 조사2과장은 “현재 논란이 되고 있는 개인정보 침해 우려에 대한 조사에 착수했다”면서 “스캐터랩측이 사용자에게 개인정보 활용 동의를 명확하게 받았는지, 익명처리한다는 정보에 대한 비식별 처리가 잘 되었는지, 자료도 받고, 필요하면 현장 조사도 할 예정”이라고 말했다. ■직접 써보니, 재미 반, 걱정 반 이루다 사태에 분노하는 연애의 과학 이용자들은 개인정보에 동의한적이 없었다는 주장이 많다. 기자가 실제 앱을 깔아 사용해본 결과 첫 화면 하단을 클릭해서 뜨는 약관에는 개인정보 수집과 관련해 “신규 서비스 개발 및 마케팅, 광고에 활용한다”고 명시돼 있다. 다만 이 약관을 사용자가 그냥 지나칠 우려가 컸다. ‘로그인 함으로써 이용약관 및 개인정보취급방침에 동의합니다’라고 되어 있기 때문이다. 실제 회원 가입과정에서 사용자가 약관을 열람했는지 여부를 앱이 확인하지는 않았다.논란이 된 된 카카오톡 대화는 앱 내부에서 서비스하는 유료 ‘심리 테스트’ 항목이다. '카톡으로 보는 속마음' 분석 서비스는 40코인(약 4000원)의 유료 결제를 해야 한다. 사용자가 친구와 나눈 카카오톡 대화를 ‘내보내기’ 하면 대화내용을 앱이 수집한다. 기자는 5900원을 내고 50코인을 충전했다. 할인행사가 있어 40코인짜리 서비스를 28코인에 이용할 수 있었다. 가장 고민되는 부분은 ‘카카오톡 내보내기’ 기능이다. 심리테스트 서비스는 사용자의 카카오톡 대화를 수집해 보고서를 만들어준다. 사용자가 카카오톡 대화중 하나를 골라 ‘내보내기’를 하면 이를 수집해 AI가 분석하는 방식이다. 시험삼아 누군가와 나눈 대화를 내보내려니 어떤 대화를 선택할지 쉽지는 않았다. 대화 나눈 내용중 대부분이 기자 또는 지인의 전화번호, 계좌 등이 노출돼 있었기 때문이다. 논란이 됐던 부분이 이런 민감 정보다. 사용자들의 일부 대화에서 계좌 혹은 집주소 등이 노출됐다는 지적이 나왔기 때문이다. 대화내용을 AI가 학습하려면 결국 사람이 수작업으로 데이터 패턴을 명시하고, 민감한 영역을 비식별화하는 수작업을 거쳐야 한다. 이 과정에서 일부 실수가 발생한 것으로 보인다. 카카오톡 내보내기를 통해 수집된 데이터 분석 결과는 연애의과학 앱이 ‘감정분석보고서’라는 이름으로 제공한다. 사용자와 상대방의 애정도, 호감도, 친밀도 등을 분석한 데이터다. 연인간 감정 분석을 해준다는 의미에서 20~30대에는 유용해보인다. 다만 카카오톡의 대화 내보내기 기능은 상대방과 나눈 대화를 통으로 내보낸다. 당초에 사용자가 백업용으로 저장하는 것을 염두에 두고 만든 기능이기 때문이다. 대화의 특정 부분만을 골라 내보내지는 않는다. 이수영 KAIST 전기 및 전자공학부 명예교수는 “개발사가 사용자 데이터를 수집해 쓰는 문제에 대해서는 개발자가 사용자에게 명쾌한 옵션을 주고, 추후 AI 학습용 데이터를 사용자가 제공했을 때 일정부분 혜택을 준다던지 하는 방안을 고민해야 한다”면서 “사용자가 주는 데이터는 언젠가는 소유권 문제가 발생할 수도 있기 때문에 여기까지 고민해볼 필요가 있다”고 말했다. 이수영 교수는 AI챗봇 악용 문제에 대해서도 엄격하게 바라볼 필요가 있다고 본다. 그는 “AI사용자는 AI를 소비하지만 학습도 시키기 때문에 생산과 소비를 같이 하는 ‘프로슈머’라고 볼 수 있다”면서 “이 때문에 사용자가 AI를 키우는 부모 역할로서 AI용도에 따른 어느정도의 라이센스나 교육이 필요하다고 본다”고 말했다. ksh@fnnews.com 김성환 기자
2021-01-12 16:30:52[파이낸셜뉴스] 페이스북 메신저 기반 챗봇(대화형 AI) ‘이루다’ 서비스가 잠정 중단된다. 서비스 이용자 개인정보 익명화(비식별화) 등을 둘러싼 논란이 거센 가운데 개인정보위원회 등 정책당국 조사가 이뤄진 데 따른 조치로 풀이된다. 이루다 개발·운영사 스캐터랩은 11일 “부족한 점을 집중적으로 보완할 수 있도록 서비스 개선 기간을 거쳐 다시 찾아뵙겠다”며 이같이 밝혔다. 앞서 이루다 이용자들은 스캐터랩의 또 다른 서비스 ‘연애의과학’ 등에서 수집된 정보가 별도 동의 없이 이루다에서 활용되고 있다는 문제제기를 했다. 이에 대해 스캐터랩 측은 “개인정보 취급 방침 범위 내에서 활용했지만, 이용자들과 충분히 소통하지 못한 점에 사과드린다”며 “구체적 개인정보는 이미 제거돼있으며, 개인을 특정할 수 있는 정보는 유출되지 않았다”고 해명했다. 또 이루다는 악성 이용자들로부터 성적도구 취급을 받은 데 이어 일부 이용자와 대화에서 동성애, 장애인 등에 대한 차별적 발언을 한 것으로 전해져 도마에 올랐다. elikim@fnnews.com 김미희 기자
2021-01-11 21:18:03[파이낸셜뉴스] 최근 사용자들의 성희롱 논란이 일었던 인공지능(AI) 챗봇 '이루다'를 두고 이번엔 개인정보가 제대로 익명화(비식별화)되지 않았다는 의혹이 제기됐다. 11일 IT업계에 따르면 이루다 개발사인 스타트업 스캐터랩은 이루다의 대화를 구성하기 위해 자사의 앱 '연애의 과학' 이용자들의 대화 데이터를 활용했다. 하지만 이루다가 사용자와의 대화 과정에서 특정 사용자의 계좌번호, *** 등을 언급해 개인정보가 제대로 걸러지지 않은 것으로 알려졌다. jinie@fnnews.com 박희진 기자
2021-01-11 17:35:42[파이낸셜뉴스] 인공지능(AI) 챗봇 이루다에 대한 논란이 가라앉지 않고 있다. 이루다에 대한 성희롱을 시작으로 이루다의 동성애와 장애인 혐오까지 이어지면서다. 이루다 서비스를 당장 중단해야 한다는 주장까지 제기되고 있다. 이루다는 한 스타트업 기업이 출시한 20살 AI 캐릭터로 한 달도 안 돼 이용자 40만 명을 모을 정도로 인기를 끌고 있다. 11일 IT 업계에 따르면 최근 소셜미디어(SNS)와 온라인커뮤니티 등에는 AI 챗봇 이루다가 성소수자 등에 대한 혐오와 차별을 표출하는 것으로 드러나 논란이 확산되고 있다. 한 사용자는 이루다와의 대화에서 "레즈비언 싫어해?", "게이 싫어해?"와 같은 질문을 하자 "진심으로 혐오한다. 진짜 화날라 그래"라는 답변이 돌아왔다. 이루다는 인종에 대한 혐오감도 드러내고 있다. 또 다른 사용자가 "흑인이 왜 싫은데"라고 묻자 이루다는 "모기같다. 징그럽게 생겼다"라고 답했다. 이재웅 전 쏘카 대표는 페이스북을 통해 "AI 챗봇 이루다 서비스 전에 기본적으로 차별과 혐오는 걸러냈어야 했다"고 밝혔다. 그는 이어 "AI이루다 서비스는 인공지능 기술적인 측면에서 봤을 때 진일보이지만 지금은 서비스를 중단하고 차별과 혐오에 대한 사회적 감사를 통과한 후에 서비스를 해야한다"고 주장했다. 한편, 이에 앞서 온라인 커뮤니티에서는 "이루다 타락 어떻게 시키냐", "이루다 성희롱하는 재미에 산다" 등의 글이 올라오기도 했다. 이와 관련, 이루다의 개발사인 스캐터랩은 이러한 논란과 관련, 지난 8일 블로그를 통해 "AI에 대한 성희롱은 예상한 일이었다"면서 "문제가 될 수 있는 특정 키워드나 표현을 이루다가 받아주지 않도록 설정했다"고 설명했다. ck7024@fnnews.com 홍창기 기자
2021-01-11 07:38:18[파이낸셜뉴스] 국회입법조사처는 이루다를 통해 살펴본 인공지능 활용의 쟁점과 과제 를 다룬 이슈와 논점 보고서를 발간했다고 12일 밝혔다. 인공지능 챗봇 이루다가 대화 도중에 차별 혐오 표현을 해 출시 20일 만에 서비스가 전면 중단됐는데. 이를 인공지능의 안정적 활용과 발전에 필요한 대안을 마련하는 계기로 삼아야 할 것으로 보인다. 가장 중요한 과제는 개인정보 처리의 사전동의와 사후통제의 조화로 꼽힌다. 이루다 개발자가 연인들의 대화를 인공지능 기계학습에 활용하는 과정에서 개인정보 보호법 의 사전동의를 형식적으로 거친 것이 문제가 될 수 있다. 앞으로 이러한 문제가 반복되지 않도록 사전동의 제도의 실효성을 높이고 사후통제를 강화해 사전 사후 조치의 조화를 이룰 필요가 있다. 아울러 개인정보 가명처리의 기준을 명확히 하고 특히 비정형 개인정보의 가명처리와 재식별 방지에 관한 방안을 마련할 필요가 있다. 또한 인공지능 윤리기준을 구체화할 필요가 있다. 인공지능은 사람들의 생각에 영향을 미치고 동시에 사람들의 반응을 지속적으로 기계학습해 알고리즘을 수정하기 때문에 인공지능 개발자와 이용자 모두 인공지능 윤리를 준수하는 것이 중요하다. 따라서 많은 사람들이 인공지능 윤리를 일상적으로 실천할 수 있도록 정부의 인공지능 윤리기준 을 구체화하고 발전시킬 필요가 있다. 적정 수준의 인공지능 학습데이터를 확보도 중요하다. 인공지능의 경쟁력은 데이터에 있지만 국내 데이터 시장은 태동 단계이고 특히 중소기업 스타트업의 학습데이터 확보 여건이 좋지 못하다. 따라서 필요한 분야에 적정 수준의 인공지능 학습데이터가 제공될 수 있도록 단기적으로 정부의 노력을 강화할 필요가 있다. 국회입법조사처는 "이루다 사태는 막연하고 추상적이었던 인공지능 활용에 대해서 구체적인 질문을 남겼다"며 "현재는 관계 기관의 조사와 일부 사용자의 법률분쟁으로 인해 위축된 상황이지만, 이번 사태가 우리나라 인공지능 산업의 걸림돌이 아니라 도약을 위한 디딤돌이 될 수 있도록 해야 한다"고 밝혔다. 이어 "이제부터 인공지능 생태계를 둘러싼 다양한 이해관계자들이 공감하고 동의할 수 있는 구체적이고 합리적인 법제도를 만들어 가는 노력을 시작해야 할 것"이라고 덧붙였다. syj@fnnews.com 서영준 기자
2021-02-12 10:46:10