딥페이크 성적 허위 영상물 피해 급증하는데 검거율은 저조
초상권에 목소리도 빼앗겼다…교묘해진 AI 합성 범죄
보안 전문가들 "SNS 상 개인정보, 사진, 음성 등 노출 주의해야"
[서울=뉴시스]송혜리 기자 = #지난해 5월 동양계 미국인 여성 틱톡커 000은 숏폼 영상 플랫폼 틱톡에 자신이 겪은 디지털 성범죄 피해 사실을 고백했다.
000은 팬들과 소통하고 자신의 일상을 공유하기 위해 소셜네트워크서비스(SNS) 인스타그램을 운영했다. 이후 익명의 이용자들이 인스타그램에 게시된 000의 사진을 합성한 누드사진을 그에게 보냈다.
000은 "(소셜미디어에 올린 사진은) 옷을 입은 내 사진이었지만, 그들은 딥페이크 프로그램으로 나를 알몸으로 만들었다"면서 "매일같이 수십 개의 딥페이크 성착취물이 왔다"고 말했다.
최근 인공지능(AI) 딥페이크(Deepfake) 기술을 악용한 성적 허위 영상물 유포 범죄로 인한 피해가 빠르게 늘고 있다.
딥페이크란 인공지능(AI) 기술인 딥러닝(deep learning)과 '가짜'를 의미하는 단어인 페이크(fake)의 합성어다. AI 기술을 이용해 사람의 이미지·영상·음성을 합성하는 기술이다.
육안으로 진위 여부를 판단하기 어려울 정도로 딥페이크 영상 기술이 발전하고, 누구나 쉽게 제작할 수 있도록 기술 장벽이 낮아지면서 이를 악용하는 범죄도 증가하고 있다. 주로 유명인과 연예인을 타깃으로 성착취물이나 가짜뉴스를 만드는데 사용됐지만 최근에는 일반인들이 표적이 되고 있다. 쉽게 접할 수 있는 딥페이크 앱(애플리케이션)이 등장하면서다.
◆2년 사이 성적 허위 영상물 3배 증가…검거율은 절반도 안돼
지난달 27일 방송통신심의위원회는 딥페이크 기술을 활용해 연예인이나 지인의 얼굴을 음란한 이미지나 영상물과 합성해 유포하는 성적 허위영상물에 대한 시정요구가 2년 새 3배 이상 폭증했다고 발표했다. 지난 2021년 1913건으로 확인된 성적 허위 영상물은 지난해 말 기준 5996건으로 크게 늘었다.
기술 진화 속도도 빠르다. 딥페이크에 이어 딥보이스 악용 범죄도 등장했다. 딥보이스는 목소리 복제 기술이다. 특정인의 목소리를 딥러닝으로 학습시켜, 해당 특정인이 실제 말을 하는 것처럼 만들어낸다. 단순히 음성을 위조한 콘텐츠 뿐만 아니라, 포르노에 아이돌의 목소리를 합성한 영상물이 유포돼 논란이 됐다. 이러한 영상물은 개인 간 판매도 이뤄졌던 것으로 알려졌다.
딥페이크 범죄 피해가 급증하고 있는 것과는 달리 2021년부터 지난해 8월까지 딥페이크 영상 범죄 검거율은 48.3%에 그쳤다. 딥페이크 범죄 특성상 피해자가 피해 사실을 인지하기 어렵고, 발견 후 신고하더라도 해외에 서버를 둔 불법 음란물 제공하는 사이트·플랫폼에 대한 수사가 쉽지 않아서다.
◆SNS서 사진 공개 시 개인정보 노출 자제해야
보안 전문가들은 딥페이크 범죄 피해에 노출되지 않으려면 디지털 범죄 예방 수칙을 숙지하고 대비하는 것이 중요하다고 강조했다.
가장 먼저 SNS상 개인정보·사진·음성 등의 노출에 주의해야 한다. SNS와 같은 공개적인 플랫폼에 개인 또는 타인에 대한 개인정보 노출을 자제해야 한다. SNS에 올린 사진을 이용해 딥페이크 범죄를 저지른 사례가 있는 만큼 개인을 특정할 수 있는 정보, 얼굴 사진, 음성 등의 노출에 더 각별한 주의가 필요하다.
아울러 딥페이스·딥보이스 기술은 보이스 피싱 등에 악용될 수 있다. 무리한 금전·인증 요구 시 반드시 의심할 필요가 있다. 가족이나 지인이 메신저로 금전적인 요구를 할 경우 즉시 전화해 확인해야 한다. 출처가 불분명한 메시지의 URL 클릭도 위험할 수 있으니 반드시 확인 후 클릭해야 한다.
범죄가 의심될 경우엔 상대방만 알 수 있는 질문을 통해 확인이 필요하다. 상대방과 둘만 아는 정보에 대한 질문을 하는 등 재차 확인은 필수다.
◎공감언론 뉴시스 chewoo@newsis.com