[파이낸셜뉴스] 딥페이크 기술을 악용해 자녀의 얼굴을 합성, 부모에게 금전을 요구하는 전화금융사기가 발생해 주의가 촉구된다. 7일 경찰청 국가수사본부는 지난 10월께 접수된 외국인 A씨의 사건을 공개했다. A씨는 한국을 여행하던 딸이 방 안에 감금된 채 울면서 "살려달라"고 하는 영상을 받았다. 영상을 보낸 상대방은 "당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라"고 부모를 협박했고, 부모는 이 사실을 영사관에 알렸다. 신고를 받고 출동한 한국 경찰은 즉각 딸의 안전을 확인했다. 알고 보니 울부짖던 딸의 모습은 딥페이크로 만든 가짜 영상이었던 것으로 드러났다. 경찰은 "국내에서도 유사한 사건이 발생할 가능성이 있으므로 각별히 주의해달라"고 당부하며 "딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 소셜미디어(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄조직의 표적이 될 수 있다"라고 덧붙여 SNS 전체 공개 설정을 지양해야 한다고 경고했다. 딥페이크는 인공지능(AI) 기술을 활용해 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임 등도 재현 가능하다. 가짜 음성을 생성하는 딥보이스 역시 범인이 자녀 목소리를 복제해 납치 범죄에 악용할 가능성이 있다. 기존 피싱범죄가 목소리를 흉내내는 데 그쳤다면, 이제는 실제에 가까운 자녀의 목소리와 얼굴을 보여주면서 즉각적 송금을 요구하는 범행이 이뤄질 수도 있다. 이 경우 부모는 상황을 판단할 여유가 없이 심리적 압박에 내몰릴 가능성이 상당하다. 한편 경찰은 올해 9월까지 납치를 빙자한 전화금융사기가 174건 발생했다면서 "납치 전화가 금융사기일 가능성을 항상 염두에 두고 무조건 신고해야 한다"라고 강조했다. bng@fnnews.com 김희선 기자
2024-11-08 07:06:40#. 외국인 A씨는 지난 10월 한국을 여행 중이던 딸이 감금된 채 울면서 살려달라고 외치는 영상을 전송받았다. 범인은 "당신 딸을 납치했다. 살리고 싶으면 합의금을 보내라"고 협박했다. 그는 딸의 위치를 찾기 위해 급한 대로 영사관에 연락했다. 그러나 딸은 안전했다. 알고 보니 전송받은 영상은 딥페이크(인공지능 기술로 만든 허위 영상물)이었다. 딥페이크로 자녀의 얼굴을 합성한 가짜 영상을 제작한 뒤 금전을 요구하며 협박하는 전화금융사기(보이스피싱)가 최근 해외에서 잇따르고 있다. 경찰청 국가수사본부는 국내에서도 유사한 사건이 발생할 가능성이 있는 만큼 속지 않도록 주의해야 한다고 조언했다. 7일 경찰에 따르면 사례는 딥페이크와 함께 '딥보이스'가 활용됐다. AI가 특정 인물의 목소리를 학습해 가짜 음성을 생성하는 기술이다. 범인들은 부모·자식 등 가족관계의 특수성을 이용, 부모가 판단력을 잃게 만든 뒤 송금을 요구하는 수법을 쓴다. 사회관계망서비스(SNS) 등에 공개된 사진·영상 등 개인정보가 범죄조직의 표적이 될 수 있다. 딥페이크, 딥보이스 모두 실제 인물의 얼굴과 목소리를 학습해야 하기 때문에 SNS 정보가 주로 활용될 수 있다고 경찰은 전했다. 만약 "가족이나 지인을 납치했다"는 협박 전화를 받으면 사적 대응보다는 반드시 112에 신고해야 한다. 경찰은 납치 신고를 접수하면 당사자 위치 파악 등 가장 먼저 초동조치에 나선다. 이를 통해 구조자의 안전을 확보하고 금전 피해를 막을 수 있다. 반면 범죄조직은 피해자들이 두려움과 걱정 때문에 신고를 주저한다는 점을 악용한다. 전화를 끊지 말라는 협박 때문에 경찰에 신고하기 곤란하면 주변 사람에게 신고를 부탁하거나 통화 중이라도 문자메시지로 직접 112에 연락 가능하다. 올 들어 지난 9월까지 딥페이크 등을 이용한 납치빙자형 보이스피싱은 174건 발생했다. 경찰 관계자는 "딥페이크 기술이 고도화돼 전문가들조차 육안으로 진위를 판단하기 어려운 만큼 SNS 등에 불특정 다수가 볼 수 있도록 게시물을 올리는 것을 지양해야 한다"고 말했다. 그러면서 "납치 전화가 보이스피싱일 가능성을 항상 염두에 두고 무조건 신고해야 한다"고 덧붙였다. unsaid@fnnews.com 강명연 정경수 기자
2024-11-07 19:15:39[파이낸셜뉴스] # 외국인 A씨는 지난 10월 한국을 여행 중이던 딸이 감금된 채 울면서 살려달라고 외치는 영상을 전송받았다. 범인은 "당신 딸을 납치했다. 살리고 싶으면 합의금을 보내라"고 협박했다. 그는 딸의 위치를 찾기 위해 급한 대로 영사관에 연락했다. 그러나 딸은 안전했다. 납치와 전혀 관련이 없었다. 알고 보니 전송받은 영상은 딥페이크(인공지능 기술로 만든 허위 영상물)이었다. 딥페이크로 자녀의 얼굴을 합성한 가짜 영상을 제작한 뒤 금전을 요구하며 협박하는 전화금융사기(보이스피싱)가 최근 해외에서 잇따르고 있다. 경찰청 국가수사본부는 국내에서도 유사한 사건이 발생할 가능성이 있는 만큼 속지 않도록 주의해야 한다고 조언했다. 7일 경찰에 따르면 사례는 딥페이크와 함께 '딥보이스'가 활용됐다. AI가 특정 인물의 목소리를 학습해 가짜 음성을 생성하는 기술이다. 범인들은 부모·자식 등 가족관계의 특수성을 이용, 부모가 판단력을 잃게 만든 뒤 송금을 요구하는 수법을 쓴다. 사회관계망서비스(SNS) 등에 공개된 사진·영상 등 개인정보가 범죄조직의 표적이 될 수 있다. 딥페이크, 딥보이스 모두 실제 인물의 얼굴과 목소리를 학습해야 하기 때문에 SNS 정보가 주로 활용될 수 있다고 경찰은 전했다. 만약 "가족이나 지인을 납치했다"는 협박 전화를 받으면 사적 대응보다는 반드시 112에 신고해야 한다. 경찰은 납치 신고를 접수하면 당사자 위치 파악 등 가장 먼저 초동조치에 나선다. 이를 통해 구조자의 안전을 확보하고 금전 피해를 막을 수 있다. 반면 범죄조직은 피해자들이 두려움과 걱정 때문에 신고를 주저한다는 점을 악용한다. 전화를 끊지 말라는 협박 때문에 경찰에 신고하기 곤란하면 주변 사람에게 신고를 부탁하거나 통화 중이라도 문자메시지로 직접 112에 연락 가능하다. 올 들어 지난 9월까지 딥페이크 등을 이용한 납치빙자형 보이스피싱은 174건 발생했다. 경찰은 AI를 악용한 피싱범죄 예방 홍보 콘텐츠를 만들어 국내는 물론 해외 주재관, 한인회 등을 통해 전파할 예정이다. 경찰 관계자는 "딥페이크 기술이 고도화돼 전문가들조차 육안으로 진위를 판단하기 어려운 만큼 SNS 등에 불특정 다수가 볼 수 있도록 게시물을 올리는 것을 지양해야 한다"고 말했다. 그러면서 "납치 전화가 보이스피싱일 가능성을 항상 염두에 두고 무조건 신고해야 한다"고 덧붙였다. 한편 서울경찰청 광역수사단 형사기동대는 해외에 서버를 두고 당국 허가 없이 보이스피싱, 도박 등 문자를 대량으로 보낸 혐의(전기통신사업법 위반 등)로 A사 대표 김모씨(39)를 비롯한 3명을 구속 송치하고 임직원 17명을 불구속 상태로 검찰에 넘겼다. A사의 경우 지난 2015년부터 지난달 말까지 21억9000만건의 불법 문자를 전송해 주고 대금 명목으로 390억원 상당의 가상자산을 받아 챙겼다. 경찰은 이들을 검거한 후 보이스피싱 등 기관사칭 문자가 사라졌다고 설명했다. 지난 1월 보이스피싱 등을 위한 미끼문자 비율은 86%이었지만, 단속을 시작한 지난 6월부터 미끼문자 비율은 70%대로 떨어진 후 10월말 기준 동일한 유형의 미끼 문자가 한 건도 없었다고 강조했다. 다만 경찰 관계자는 "미끼문자가 감소했지만 직접 통화를 걸어 악성어플 등을 깔게 유도하는 방법 등은 주의해야 한다"고 경고했다. unsaid@fnnews.com 강명연 정경수 기자
2024-11-07 09:30:08사람들을 속여 개인정보나 돈을 뜯는 이른바 '피싱 범죄' 수법이 갈수록 다양해지고 있다. 전통적인 피싱 범죄가 불특정 다수를 대상으로 그중 일부가 속길 기대하는 '투망식'이었다면, 이젠 특정 개인이나 조직을 정밀하게 목표로 삼는 '작살형'으로 진화했다. 전문가들은 피싱 범죄가 교묘해지고 있는 만큼 우선 예방 차원에서 스스로도 조심할 필요가 있다고 조언한다. 26일 경찰 등에 따르면 지난 19일 오후 6시께 서울 영등포경찰서 112상황실에 "아는 동생 A씨가 납치된 거 같다"는 신고가 접수됐다. 당시 신고자는 A씨의 SNS 계정으로 '동생을 납치했으니 돈 3000만원을 보내지 않으면 일본으로 데려가겠다'는 메시지와 청테이프로 A씨의 얼굴과 몸을 결박한 사진을 전달받았다. 신고자는 A씨의 안전이 우려돼 경찰에 신고한 것으로 전해졌다. 경찰은 A씨의 SNS를 통해 인적사항을 확인했지만, 주민등록상 주소지와 실거주지가 일치하지 않았다. 지역 경찰과 형사들은 약 4시간 동안 단서를 확보해 A씨의 실거주지를 확인했다. 이후 경찰은 A씨를 위치추적과 연락을 통해 신변에 이상이 없는 것을 파악한 뒤 해당 연락이 피싱 사기임을 확인했다. 이처럼 특정 개인을 목표로 한 피싱 범죄 사례가 갈수록 늘고 있다. SNS를 통해 개인 정보 수집이 쉬워진 데다가 특정인을 겨냥할 경우 피싱 메시지를 더 정교하게 구성해 낚을 수 있는 가능성이 더욱 높아지기 때문이다. 금융감독원이 발표한 '2023년 보이스피싱 피해 현황 분석' 자료에 따르면 지난해 보이스피싱 피해자 수는 감소했지만, 피해액은 1965억원으로 전년 1451억원 대비 35.4%(514억원) 늘어났다. 같은 기간 1인당 피해액 역시 1100만원에서 1710만원으로 전년 대비 약 55.5%(610만원) 증가했다. 올해 피싱 피해액 역시 증가 추세다. 경찰청에 따르면 올 1~7월 보이스피싱 피해액은 3909억원으로 전년 대비 61% 증가한 것으로 집계됐다. 월평균 피해건수는 1676건, 피해액만 558억원에 달한다. 문제는 피싱 범죄가 투망식에서 작살형으로 진화하면서 갈수록 교묘해지고 있다는 점이다. 최근에는 인공지능(AI)을 이용한 딥보이스, 딥페이크도 등장하면서 범죄 수법이 더욱 정교해지고 있는 상황이다. 실제 지난 5월 부산에선 AI 딥보이스 기능을 활용해 피해자의 딸과 비슷한 목소리를 만들어 범행에 이용한 보이스피싱 조직 현금 인출책이 검거되기도 했다. 범죄 수법이 교묘해지면서 향후 더 큰 피해 사례가 나올 수도 있다는 우려가 나온다. 전문가들은 1차적인 피해 예방을 위해 개인정보를 노출하지 않는 등 피싱 범죄 표적이 되지 않도록 스스로 신경쓸 필요가 있다고 조언했다. 이윤호 동국대 경찰행정학과 교수는 "과거에는 투망식 피싱이 유행이었다면 요즘은 표적을 정해놓고 사기를 치는 작살형이 가장 유행하고 있다"며 "갈수록 기술이 진화하면서 누구도 안전하지 않게 된 만큼 예방 차원에서 SNS에 개인정보 공개 행위를 자제하는 등 스스로 조심할 필요가 커졌다"고 말했다. welcome@fnnews.com 장유하 기자
2024-09-26 18:06:29[파이낸셜뉴스] 사람들을 속여 개인정보나 돈을 뜯는 이른바 '피싱 범죄' 수법이 갈수록 다양해지고 있다. 전통적인 피싱 범죄가 불특정 다수를 대상으로 그중 일부가 속길 기대하는 '투망식'이었다면, 이젠 특정 개인이나 조직을 정밀하게 목표로 삼는 '작살형'으로 진화했다. 전문가들은 피싱 범죄가 교묘해지고 있는 만큼 우선 예방 차원에서 스스로도 조심할 필요가 있다고 조언한다. 26일 경찰 등에 따르면 지난 19일 오후 6시께 서울 영등포경찰서 112상황실에 "아는 동생 A씨가 납치된 거 같다"는 신고가 접수됐다. 당시 신고자는 A씨의 SNS 계정으로 '동생을 납치했으니 돈 3000만원을 보내지 않으면 일본으로 데려가겠다'는 메시지와 청테이프로 A씨의 얼굴과 몸을 결박한 사진을 전달받았다. 신고자는 A씨의 안전이 우려돼 경찰에 신고한 것으로 전해졌다. 경찰은 A씨의 SNS를 통해 인적사항을 확인했지만, 주민등록상 주소지와 실거주지가 일치하지 않았다. 지역 경찰과 형사들은 약 4시간 동안 단서를 확보해 A씨의 실거주지를 확인했다. 이후 경찰은 A씨를 위치추적과 연락을 통해 신변에 이상이 없는 것을 파악한 뒤 해당 연락이 피싱 사기임을 확인했다. 경찰 관계자는 "피싱을 진짜 납치로 오인해 신고한 건"이라고 설명했다. 이처럼 특정 개인을 목표로 한 피싱 범죄 사례가 갈수록 늘고 있다. SNS를 통해 개인 정보 수집이 쉬워진 데다가 특정인을 겨냥할 경우 피싱 메시지를 더 정교하게 구성해 낚을 수 있는 가능성이 더욱 높아지기 때문이다. 금융감독원이 발표한 '2023년 보이스피싱 피해 현황 분석' 자료에 따르면 지난해 보이스피싱 피해자 수는 감소했지만, 피해액은 1965억원으로 전년 1451억원 대비 35.4%(514억원) 늘어났다. 같은 기간 1인당 피해액 역시 1100만원에서 1710만원으로 전년 대비 약 55.5%(610만원) 증가했다. 올해 피싱 피해액 역시 증가 추세다. 경찰청에 따르면 올 1~7월 보이스피싱 피해액은 3909억원으로 전년 대비 61% 증가한 것으로 집계됐다. 월평균 피해건수는 1676건, 피해액만 558억원에 달한다. 이밖에 올 1~8월 투자리딩방 피해액은 5340억원, 올 2~8월 연애빙자사기 피해액은 545억원으로 나타났다. 문제는 피싱 범죄가 투망식에서 작살형으로 진화하면서 갈수록 교묘해지고 있다는 점이다. 최근에는 인공지능(AI)을 이용한 딥보이스, 딥페이크도 등장하면서 범죄 수법이 더욱 정교해지고 있는 상황이다. 실제 지난 5월 부산에선 AI 딥보이스 기능을 활용해 피해자의 딸과 비슷한 목소리를 만들어 범행에 이용한 보이스피싱 조직 현금 인출책이 검거되기도 했다. 범죄 수법이 교묘해지면서 향후 더 큰 피해 사례가 나올 수도 있다는 우려가 나온다. 전문가들은 1차적인 피해 예방을 위해 개인정보를 노출하지 않는 등 피싱 범죄 표적이 되지 않도록 스스로 신경쓸 필요가 있다고 조언했다. 이윤호 동국대 경찰행정학과 교수는 "과거에는 투망식 피싱이 유행이었다면 요즘은 표적을 정해놓고 사기를 치는 작살형이 가장 유행하고 있다"며 "갈수록 기술이 진화하면서 누구도 안전하지 않게 된 만큼 예방 차원에서 SNS에 개인정보 공개 행위를 자제하는 등 스스로 조심할 필요가 커졌다"고 말했다. welcome@fnnews.com 장유하 기자
2024-09-26 15:16:46경찰이 내년도에 딥페이크 성범죄와 인공지능(AI) 관련 예산을 대폭 늘린다. 이 돈은 단순 범죄 대응뿐만 아니라 딥페이크 등 허위조작 콘텐츠를 탐지할 수 있는 딥러닝 기술 개발과 범행 발생 전 차단, 피해자 지원에도 대거 투입된다. 19일 경찰청에 따르면 오는 2025년도 예산은 올해 대비 4.2%(5457억원) 증액된 13조5364억원 규모로 편성했다. 주요 사업비는 1.9%(494억원) 많은 2조667억원으로 책정했다. 경찰청은 우선 딥페이크·딥보이스 등 진화하는 허위콘텐츠 범죄에 대응하기 위해 딥러닝에 기반한 허위조작 콘텐츠 복합 탐지 기술 연구개발(R&D)에 모두 91억원을 투자한다. 투자금은 내년 27억원을 포함해 2027년까지 쓰인다. 마약범죄 추적 중 가상자산 믹싱(매매대금 세탁) 등에 대한 대응 차원에서 전문가 분석기술 지원에 9억5000만원, 가상자산 추적을 위한 간편조회 시스템 도입에 10억원을 각각 투자한다. 수사관에게 유사사건·수사쟁점 등을 제공하고 영장신청서 등 각종 수사서식의 초안을 만들어 주는 AI 수사도우미 구축에는 27억원을 배정했다. AI를 활용해 아동의 표정·움직임을 분석한 뒤 아동학대 의심장면을 요약·분석해 주는 영상분석 프로그램에는 14억6000만원을 쓸 계획이다. 지난해 7월 설립한 범정부 합동 '전기통신금융사기 통합신고대응센터' 플랫폼 고도화에는 지난해와 견줘 6억9000만원 증가한 55억4000만원을 투입해 2027년까지 구축을 완료한다는 방침이다. △투자리딩방이나 피싱 같은 조직화·지능화되는 악성사기 △온라인, 홀덤펍 등 도박(온라인, 홀덤펍 등) 등 민생침해범죄 제보자에겐 최대 1억원까지 보상금을 줄 수 있도록 '조직범죄 특별신고보상금'을 신설했다. 20억9000만원을 들여 운전자가 스스로 운전능력을 확인할 수 있는 자가진단시스템(VR 테스트)을 전국 운전면허시험장 등 19곳에 설치해 시범 운영한다. 경찰청은 동시에 사회적 약자 보호활동과 예방적 활동을 강화키로 했다. 스토킹·데이트폭력 등 피해자의 보복 피해를 막기 위해 '고위험 범죄피해자 민간경호서비스'를 기존 3개 시·도에서 전국으로 확대하는데 24억5000만원을 쓴다. beruf@fnnews.com 이진혁 기자
2024-09-19 19:00:05[파이낸셜뉴스] 경찰이 내년도에 딥페이크 성범죄와 인공지능(AI) 관련 예산을 대폭 늘린다. 이 돈은 단순 범죄 대응뿐만 아니라 딥페이크 등 허위조작 콘텐츠를 탐지할 수 있는 딥러닝 기술 개발과 범행 발생 전 차단, 피해자 지원에도 대거 투입된다. 19일 경찰청에 따르면 오는 2025년도 예산은 올해 대비 4.2%(5457억원) 증액된 13조5364억원 규모로 편성했다. 주요 사업비는 1.9%(494억원) 많은 2조667억원으로 책정했다. 경찰청은 우선 딥페이크·딥보이스 등 진화하는 허위콘텐츠 범죄에 대응하기 위해 딥러닝에 기반한 허위조작 콘텐츠 복합 탐지 기술 연구개발(R&D)에 모두 91억원을 투자한다. 투자금은 내년 27억원을 포함해 2027년까지 쓰인다. 마약범죄 추적 중 가상자산 믹싱(매매대금 세탁) 등에 대한 대응 차원에서 전문가 분석기술 지원에 9억5000만원, 가상자산 추적을 위한 간편조회 시스템 도입에 10억원을 각각 투자한다. 수사관에게 유사사건·수사쟁점 등을 제공하고 영장신청서 등 각종 수사서식의 초안을 만들어 주는 AI 수사도우미 구축에는 27억원을 배정했다. AI를 활용해 아동의 표정·움직임을 분석한 뒤 아동학대 의심장면을 요약・분석해 주는 영상분석 프로그램에는 14억6000만원을 쓸 계획이다. 지난해 7월 설립한 범정부 합동 '전기통신금융사기 통합신고대응센터' 플랫폼 고도화에는 지난해와 견줘 6억9000만원 증가한 55억4000만원을 투입해 2027년까지 구축을 완료한다는 방침이다. △투자리딩방이나 피싱 같은 조직화・지능화되는 악성사기 △온라인, 홀덤펍 등 도박(온라인, 홀덤펍 등) 등 민생침해범죄 제보자에겐 최대 1억원까지 보상금을 줄 수 있도록 '조직범죄 특별신고보상금'을 신설했다. 예산은 10억원이다. 20억9000만원을 들여 운전자가 스스로 운전능력을 확인할 수 있는 자가진단시스템(VR 테스트)을 전국 운전면허시험장 등 19곳에 설치해 시범 운영한다. 경찰청은 동시에 범죄피해자와 아동, 청소년 등 사회적 약자 보호활동과 예방적 활동을 강화키로 했다. 스토킹·데이트폭력 등 피해자의 보복 피해를 막기 위해 '고위험 범죄피해자 민간경호서비스'를 기존 3개 시·도에서 전국으로 확대하는데 24억5000만원을 쓴다. 경찰청은 이밖에 △경찰착용기록장치(바디캠) 도입 77억원 △내년 11월 '아시아태평양경제협력체(APEC) 정상회의' 관련 안전관리 208억원 △기동대 신형방패 등 경찰기동대 장비 도입 8억7000만원 증액 △실감형 가상훈련(VR) 확대 4억8000만원 △AI 수사도우미 구축에 27억원 △AI를 활용한 아동학대와 형사기능 영상분석에 각각 6억원, 8억6000만원 △원격화상조사시스템 및 음성인식 조서작성 시스템 도입 14억7000만원 등을 책정했다. 경찰청은 "범죄와 사고로부터 안전한 일상, 법과 상식에 기반한 공정한 사회, 국민 기대에 부응하는 든든한 경찰 구현을 위해 예산을 집중 투자할 계획"이라고 설명했다. 경찰청 내년 예산안은 향후 국회 심사를 거쳐 최종 확정된다. beruf@fnnews.com 이진혁 기자
2024-09-19 11:26:11"지금 세계는 인공지능(AI) 전쟁 중이라고 말할 수 있다. 우리는 소리 없는 거대한 전쟁의 한가운데 있다." 지난 5일 서울 송파구 롯데시네마에서 열린 'AI월드 2024'에서 강연자들은 AI는 개인의 역량을 넘어 국가경쟁력을 좌우하는 이른바 'AI 시대'가 본격적으로 열렸다고 입을 모았다. AI 시대를 가속화한 최대 공신은 오픈AI다. 이 회사가 만든 챗GPT는 유튜브가 2년10개월 걸린 사용자 1억명 확보를 단 2개월 만에 이뤄냈다. 세계 시총 10개 기업 중 7곳이 AI 관련 기업일 정도로 시장은 커졌다. 사람과 같거나 더 뛰어난 지능을 구현하는 범용인공지능(AGI)도 몇 년 안에 실현될 것이라는 전망이 나온다. 과학기술정보통신부 엄열 정보통신정책관은 이를 두고 "AI 시대, 골드러시가 본격적으로 시작되고 있다"고 했다. 정부와 업계 모두는 올해를 AI 경쟁력 확보에서 중요한 터닝포인트로 본다. 챗GPT가 등장한 지난해, AI 개발 경쟁의 막이 올랐다면 올해는 AI 기술이 우리 삶과 사회·산업에 무한 확산하는 기점이라는 의미다. 미국과 유럽, 중국 등 주요국이 AI 주도권 잡기에 사활을 걸고 오픈AI, 마이크로소프트, 구글 등 이른바 '빅테크'가 차세대 개발에 천문학적 자금을 투입하는 것도 이 같은 맥락이다. 그렇다면 이 같은 AI 시대에 한국은 어디쯤 와 있을까. 정부는 우리나라의 경쟁력을 세계 3위권 정도로 평가한다. 3위권이라고 안심하긴 이르다. 확고한 선두인 미국을 100으로 봤을 때 2위 중국(60) 그리고 한국은 영국과 캐나다, 싱가포르 등과 3위권(40)을 형성한다. 단순 수치로만 봐도 1등과의 격차가 2배가 넘고, 이를 실제 기술력과 국가경쟁력으로 대입해 보면 따라잡기 쉽지 않을 정도로 차이가 벌어졌다는 의미다. 이런 상황에서 AI를 활용한 범죄는 벌써 현실화됐다. 최근 딥페이크 논란이나 AI 음성을 악용한 '딥보이스'가 그것이다. 업계는 기술이 제대로 사용되기도 전에 부작용만 부각되면서 시장 자체가 망가질 것을 우려한다. AI월드 2024 기조연설에서 지식재산권(IP) 스타트업 스토리 제이슨 자오 공동대표의 "AI라는 정말 강력하고 흥미진진한 기술을 어떻게 활용해야 하는지 무방비 상태에 놓여 있다. 이 상태로 가다간 대재앙이 올 수도 있다"는 지적이 의미심장한 이유다. 기술진흥과 규제의 '뼈대'가 될 AI기본법 제정을 언제까지 기다려야 하나.
2024-09-09 18:19:16[파이낸셜뉴스] 테니스선수 출신 이형택이 보이스피싱 피해를 당할 뻔한 사연을 털어놨다. 이형택은 22일 방송된 SBS ‘동상이몽2-너는 내 운명’을 통해 사춘기 아들과 관련된 일화를 떠올렸다. 이형택은 “운동할 때는 떨어져 있었고 가끔 보면 애들이 좋아했다. 근데 지금은 나를 보는 둥 마는 둥 하고 어떨 땐 인사도 안한다. 엄마만 찾는다. 그러다 보니까 그들 사이에 끼어들려고 하지도 않았다”며 아이들과 서먹한 관계라고 전했다. 그러던 어느 날, 이형택은 모처럼 아들에게 걸려온 전화를 받았다. 그는 “웬일로 전화를 다 하냐며 전화를 받았더니 아들이 막 울면서 ‘아빠 나 다리 부러졌어, 지나가는 아저씨가 다리를 쳐서 부러졌어’라고 했다”며 “어디냐고 물었더니 횡설수설하더라”고 회상했다. 이어 “엄마와 통화했냐고 물어보니까 안 했다더라. ‘다리가 부러졌는데 왜 아빠한테 먼저 연락하지’ 생각했다. 아들은 무조건 엄마부터 찾는다. 느낌이 이상했다”며 “알고보니 보이스피싱이었다”고 털어놨다. 이형택은 “그래도 큰일일 때는 아빠를 찾는구나”라는 생각에 잠시 감동했다가 허무함을 느꼈다고 전해 웃음을 자아냈다. 이를 들은 야구선수 출신 홍성흔이 “얼마나 아들과 교류가 없었으면 아들 목소리도 모르냐”고 하자, 이형택은 “그게 아니다. 조심해야 한다. 아들이 울면서 하는데 목소리 못 알아듣는다”고 당부했다. 실제로 최근 특정인의 목소리를 이용한 AI 딥보이스 피싱 피해 사례가 국내에서 보고되고 있다. 딥보이스는 AI가 미리 입력한 목소리 샘플의 특성을 학습한 뒤, 텍스트로 입력한 문장을 학습한 목소리로 변환해 만들어진다. 이에 한 전문가는 “통화 목소리로는 실제 목소리인지 더 구분하기 어렵다”며 “금전을 요구하는 전화를 받았을 때 사적인 질문을 여러 차례 던져 반드시 본인확인을 거치는 게 이런 수법의 범죄에 대응하는 방법”이라고 설명했다. gaa1003@fnnews.com 안가을 기자
2024-07-23 08:43:34[파이낸셜뉴스] 보이스피싱(전화금융사기)을 예방하기 위해 모르는 번호로 전화가 왔을 때 먼저 말을 하면 안 된다는 방법이 온라인 커뮤니티에서 화제다. 지난 17일 한 온라인 커뮤니티에는 ‘모르는 번호로 전화 와서 아무 말도 안 하면 절대 먼저 말하지 마’라는 제목의 글이 올라왔다. 글쓴이 A씨는 “목소리를 따서 사기에 활용될 수 있다고 한다”며 숙명여대 에브리타임 게시글을 캡처해 공유했다. 공개한 사진에 익명의 글쓴이는 “교수님 덕분에 보이스피싱을 피했다”고 전했다. 글쓴이는 “전화를 받았는데 전화를 건 사람이 계속 한마디도 안 하더라. 전화를 받은 사람도 아니고 건 사람이 이럴 수 있냐”며 “최근 4산법 (4차산업혁명과법) 교수님이 모르는 번호로 전화 왔는데 아무 말도 안 하면 절대 말하지 말라고 했다”고 설명했다. 이어 “목소리를 따서 가족한테 사기 치려고 그러는 거라는 (교수님) 말씀이 갑자기 생각나서 바로 끊었다”며 “교수님 아니었으면 큰일 날 뻔했다”고 안도했다. 게시물을 접한 누리꾼들은 “AI를 사기에 도용하는 시대다”, “지인이 진짜 당했다” 등 공감하는 댓글을 이었다. 이런 가운데 국내는 물론 해외서도 특정인 목소리를 감쪽같이 복제하는 생성형 인공지능(AI)이 보이스피싱에 활용되면서 피해 사례가 늘고 있다. 미국 컴퓨터 바이러스 백신 업체 맥아피에 따르면 생성형 AI를 사용할 경우 3초 분량의 목소리 샘플만 있어도 이를 완벽히 복제해 특정인 말투, 문장 등을 구현할 수 있는 것으로 알려졌다. 특정인의 목소리를 복제해 보이스피싱에 이용하는 사례를 보면 가족이나 친구 등에게 교통사고 등 급한 상황이 생겼다면서 돈을 보내달라고 요구하는 식이다. 실제로 앞서 2021년 아랍에미리트 은행에서 기업 임원을 사칭한 딥보이스 피싱에 3500만달러를 송금하는 가하면 작년 3월에는 캐나다의 한 부모가 아들의 치료비를 보내달라는 딥보이스 피싱에 속아 2만1000달러를 보낸 일도 있었다. hsg@fnnews.com 한승곤 기자
2024-07-19 15:52:55