경찰 출동해 딸 안전 확인, 피해 막아
올해 납치 빙자 전화금융사기 174건
![[그래픽=뉴시스] 재판매 및 DB금지. hokma@newsis.com](https://img1.newsis.com/2024/09/09/NISI20240909_0001649897_web.jpg?rnd=20240909164039)
[그래픽=뉴시스] 재판매 및 DB금지. [email protected]
[서울=뉴시스] 김남희 기자 = 지난 10월 외국에 거주하는 부모(외국인)는 불상의 외국 범죄 조직으로부터 한국을 여행 중이던 딸이 방 안에 감금된 채 울면서 살려달라고 하는 영상을 받았다.
범인은 "당신 딸을 납치했다"며 "딸을 살리고 싶으면 합의금을 보내라"고 부모를 협박했다. 부모는 이 사실을 영사관에 알렸고, 영사관이 한국 경찰에 신고했다. 경찰이 딸의 안전을 확인해 피해는 발생하지 않았지만 해당 영상에 등장한 딸의 모습이 딥페이크 기술로 만들어진 가짜였다는 점이 확인됐다.
경찰청 국가수사본부는 7일 최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 전송하고, '자녀를 납치를 했다'며 금전을 요구한 외국인 대상 전화금융사기가 발생하고 있다고 밝혔다. 그러면서 "국내에서도 유사한 사건이 발생할 가능성이 있으니 주의해야 한다"고 당부했다.
피싱범죄에 악용될 수 있는 인공지능(AI) 기술에는 딥보이스도 있다. 범인이 자녀 목소리를 복제한 뒤 부모에게 전화해 마치 납치된 것처럼 흐느끼며 살려달라고 한다거나, 급한 일이 있다면서 돈을 빌려달라는 목소리를 들려주는 방식이다.
경찰청에 따르면 올해 9월까지 납치 빙자 전화금융사기 사건은 총 174건 발생했다. 납치든, 납치를 가장한 전화금융사기 사건이든 무조건 경찰에 신고하는 것이 중요하다.
아울러 딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 사회관계망 서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등은 범죄조직의 표적이 될 수 있다. 불특정 다수가 볼 수 있는 공개 설정으로 게시물을 올리는 것은 주의해야 한다.
경찰청 마약조직범죄수사과장은 "인공지능(AI) 기술의 발전이 일상을 더 편리하게 만들었지만, 동시에 범죄에 악용될 수 있으므로 국민께서 항상 조심하셔야 한다"고 당부했다.
◎공감언론 뉴시스 [email protected]
범인은 "당신 딸을 납치했다"며 "딸을 살리고 싶으면 합의금을 보내라"고 부모를 협박했다. 부모는 이 사실을 영사관에 알렸고, 영사관이 한국 경찰에 신고했다. 경찰이 딸의 안전을 확인해 피해는 발생하지 않았지만 해당 영상에 등장한 딸의 모습이 딥페이크 기술로 만들어진 가짜였다는 점이 확인됐다.
경찰청 국가수사본부는 7일 최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 전송하고, '자녀를 납치를 했다'며 금전을 요구한 외국인 대상 전화금융사기가 발생하고 있다고 밝혔다. 그러면서 "국내에서도 유사한 사건이 발생할 가능성이 있으니 주의해야 한다"고 당부했다.
피싱범죄에 악용될 수 있는 인공지능(AI) 기술에는 딥보이스도 있다. 범인이 자녀 목소리를 복제한 뒤 부모에게 전화해 마치 납치된 것처럼 흐느끼며 살려달라고 한다거나, 급한 일이 있다면서 돈을 빌려달라는 목소리를 들려주는 방식이다.
경찰청에 따르면 올해 9월까지 납치 빙자 전화금융사기 사건은 총 174건 발생했다. 납치든, 납치를 가장한 전화금융사기 사건이든 무조건 경찰에 신고하는 것이 중요하다.
아울러 딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 사회관계망 서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등은 범죄조직의 표적이 될 수 있다. 불특정 다수가 볼 수 있는 공개 설정으로 게시물을 올리는 것은 주의해야 한다.
경찰청 마약조직범죄수사과장은 "인공지능(AI) 기술의 발전이 일상을 더 편리하게 만들었지만, 동시에 범죄에 악용될 수 있으므로 국민께서 항상 조심하셔야 한다"고 당부했다.
◎공감언론 뉴시스 [email protected]
