스페인서 AI 이용 앱으로 조작 어린소녀 수십명 나체사진 유포돼…경찰 수사 착수

기사등록 2023/09/21 21:49:19 최종수정 2023/09/21 21:52:33

소녀 모친들 "포르노 사이트에 업로드될 것 우려…매우 심각한 범죄"

【마닐라=AP/뉴시스】11월20일 세계어린이날을 하루 앞둔 2008년 11월19일 필리핀 마닐라의 상원 밖에서 아동 포르노 반대 시위가 열리고 있다. 스페인에서 인공지능(AI)을 이용해 옷을 입지 않은 나체의 모습으로 변형시킨 어린 소녀 수십명의 사진이 유포돼 경찰이 수사에 착수했다고 CNN이 21일 보도했다. 피해 소녀들의 어머니들은 이 가짜 사진들이 아동 포르노 사이트에 실릴 것으로 우려하고 있다. 2023.09.21.
[서울=뉴시스]유세진 기자 = 스페인에서 인공지능(AI)을 이용해 옷을 입지 않은 나체의 모습으로 변형시킨 어린 소녀 수십명의 사진이 유포돼 경찰이 수사에 착수했다고 CNN이 21일 보도했다.

스페인 서부 에스트레마두라 지역 알멘드라레호의 일단의 어머니들은 그들의 딸들이 벌거벗은 것처럼 보이는 자신들의 사진을 받았다고 신고했다. 어머니 중 1명인 미리암 알 아디브는 자신의 인스타그램 계정에 동영상을 올려 이에 대한 경각심을 높였다.

그녀는 누군가가 앱을 이용해 어린 소녀들이 벌거벗은 것처럼 보이는 가짜 사진을 만들었다며 이런 피해가 발생하는 상황을 이해할 수 없다고 말했다.

지역 정부 관계자 프란시스코 멘도사는 "경찰이 가짜 사진을 제조한 것으로 의심되는 몇몇 젊은이들의 신원을 확인했다"고 말했다.

알 아디브는 이 가짜 사진들이 포르노 사이트에 업로드될 수 있다는 우려가 있다고 말했다. 그녀는 "다른 사람들의 사진을 이런 종류의 잔학 행위에 사용하고 주변에 전송하는 것은 매우 심각한 범죄"라고 덧붙였다.

현지 보도에 따르면 가짜 사진들은 AI를 이용, 벌거벗은 이미지를 만들어내는 앱을 사용해 만들어졌다.

알멘드랄레호의 호세 마리아 라미레스 시장은 "이 사건은 또 다른 젠더 기반 폭력"이라고 말했다. 에스트레마두라 지방정부의 책임자 마리아 과르디올라 역시 "역겨운 사건"이라며 "여성에 대한 디지털 폭력 증가는 재앙"이라고 말했다.


◎공감언론 뉴시스 dbtpwls@newsis.com