SNS 사진·영상 범죄도구로 활용
가짜영상 제작해 협박 사기 잇따라
#. 외국인 A씨는 지난 10월 한국을 여행 중이던 딸이 감금된 채 울면서 살려달라고 외치는 영상을 전송받았다. 범인은 "당신 딸을 납치했다. 살리고 싶으면 합의금을 보내라"고 협박했다. 그는 딸의 위치를 찾기 위해 급한 대로 영사관에 연락했다. 그러나 딸은 안전했다. 알고 보니 전송받은 영상은 딥페이크(인공지능 기술로 만든 허위 영상물)이었다.
딥페이크로 자녀의 얼굴을 합성한 가짜 영상을 제작한 뒤 금전을 요구하며 협박하는 전화금융사기(보이스피싱)가 최근 해외에서 잇따르고 있다. 경찰청 국가수사본부는 국내에서도 유사한 사건이 발생할 가능성이 있는 만큼 속지 않도록 주의해야 한다고 조언했다.
7일 경찰에 따르면 사례는 딥페이크와 함께 '딥보이스'가 활용됐다. AI가 특정 인물의 목소리를 학습해 가짜 음성을 생성하는 기술이다. 범인들은 부모·자식 등 가족관계의 특수성을 이용, 부모가 판단력을 잃게 만든 뒤 송금을 요구하는 수법을 쓴다.
사회관계망서비스(SNS) 등에 공개된 사진·영상 등 개인정보가 범죄조직의 표적이 될 수 있다. 딥페이크, 딥보이스 모두 실제 인물의 얼굴과 목소리를 학습해야 하기 때문에 SNS 정보가 주로 활용될 수 있다고 경찰은 전했다.
만약 "가족이나 지인을 납치했다"는 협박 전화를 받으면 사적 대응보다는 반드시 112에 신고해야 한다. 경찰은 납치 신고를 접수하면 당사자 위치 파악 등 가장 먼저 초동조치에 나선다. 이를 통해 구조자의 안전을 확보하고 금전 피해를 막을 수 있다.
반면 범죄조직은 피해자들이 두려움과 걱정 때문에 신고를 주저한다는 점을 악용한다. 전화를 끊지 말라는 협박 때문에 경찰에 신고하기 곤란하면 주변 사람에게 신고를 부탁하거나 통화 중이라도 문자메시지로 직접 112에 연락 가능하다.
올 들어 지난 9월까지 딥페이크 등을 이용한 납치빙자형 보이스피싱은 174건 발생했다.
경찰 관계자는 "딥페이크 기술이 고도화돼 전문가들조차 육안으로 진위를 판단하기 어려운 만큼 SNS 등에 불특정 다수가 볼 수 있도록 게시물을 올리는 것을 지양해야 한다"고 말했다. 그러면서 "납치 전화가 보이스피싱일 가능성을 항상 염두에 두고 무조건 신고해야 한다"고 덧붙였다.
unsaid@fnnews.com 강명연 정경수 기자
※ 저작권자 ⓒ 파이낸셜뉴스, 무단전재-재배포 금지