국제 >

MS, 빙 챗봇 문답횟수 제한.."긴 대화, 부적절 답변 유발"

질문 5번 하고 챗봇으로부터 답변 5번 받으면 기존 대화는 중단

MS, 빙 챗봇 문답횟수 제한.."긴 대화, 부적절 답변 유발"
유수프 메흐디 마이크로소프트(MS) 부사장이 7일(현지시간) 미국 워싱턴주 레드먼드 MS 본사에서 인공지능(AI) 챗봇을 장착한 새 검색엔진 '빙'(Bing)을 소개하는 행사에서 발언하고 있다. 연합뉴스 제공.

마이크로소프트(MS) 검색엔진 빙(Bing) 챗봇의 문답 횟수가 제한된다.

17일(현지시간) 빙 개발팀은 사용자가 빙 챗봇과 대화 세션 한 차례에 주고받을 수 있는 문답을 최대 5회로 제한키로 했다고 밝혔다. 사용자당 하루 문답 횟수도 총 50회로 제한한다. 이는 발표 당일부터 바로 적용됐다.

빙 챗 이용자들은 한 대화 주제에 대해 질문을 5번 하고 챗봇으로부터 답변을 5번 받으면 기존 대화는 중단하고 새로운 대화 주제에 관해 이야기하라는 메시지를 받게 된다. 챗 세션이 끝날 때마다 기존 대화의 맥락이 삭제되며, 사용자와 챗봇이 기존 대화와 무관한 새로운 대화를 시작하게 되는 것이다.

MS의 사용자 데이터 분석에 따르면 사용자 대다수가 원하는 답을 찾는 데는 문답 5회로 충분한 것으로 나타났다. 또 챗 대화 중 문답 50회가 넘어가는 경우는 1%에 그쳤다.

MS는 "여러분들로부터 피드백을 계속해서 받는 것과 함께, 검색과 발견 권한을 더욱 개선하기 위해 챗 세션 제한을 완화하는 방안을 검토하겠다"고 밝혔다.

MS가 문답 횟수 제한을 부과한 이유는 챗봇이 사용자와 오래 대화할 경우 부적절하고 위험한 발언을 할 수 있다는 지적이 나옴에 따라 불거진 윤리 문제를 진화하기 위해서다. 이에 앞서 지난 15일 MS 빙 개발팀은 문제점이 발견됨에 따라 이를 수정하고 방지책을 내놓을 것이라고 밝힌 바 있다.

MS는 지난 2016년 3월 챗봇 테이(Tay)를 출시했다가 이 챗봇이 혐오발언과 비속어 사용을 계속하는 문제점이 발견되자 16시간 만에 운영을 중단한 바 있다.

ju0@fnnews.com 김주영 기자