과총, '생성형 AI 사회적 이슈와 대응' 포럼 개최
AI학계 "AI라는 강력한 무기, 청소년들 쉽게 사용해"
"N번방 방지법, 텔레그램 내 유통 못 막아…교육 병행 필요"
[서울=뉴시스]윤정민 기자 = 최근 타인 사진을 도용한 딥페이크 음란물이 텔레그램을 통해 확산하며 사회적 우려가 커진 가운데 인공지능(AI) 학계 전문가들은 규제 강화와 함께 AI 리터러시(문해력) 교육도 중요하다고 주장했다. AI 영상물이라는 걸 알리는 표식(워터마크)을 넣거나 생성자를 유추하는 메타데이터를 AI 콘텐츠에 의무적으로 넣도록 하는 등의 규제도 필요하다. 하지만 규제가 실시간으로 기술 발전에 따라갈 수 없는 만큼 AI 윤리에 대한 교육도 필요하다는 뜻이다.
한진영 성균관대 인공지능융합학과 교수는 한국과학기술단체총연합회가 28일 오후에 연 '생성형 AI의 사회적 이슈와 대응' 포럼에서 "생성형 AI의 물결을 막을 수 없다. 생성형 AI 시대에 취약계층이 (AI를) 잘 활용할 노력이 필요하다. 기술과 함께 제도, 교육 발전 같이 이뤄져야 한다"고 밝혔다.
이날 포럼에 참석한 전문가들은 생성형 AI 발전의 이점과 문제점을 동시에 짚었다. '생성형 AI 기술 동향'을 주제로 발제한 권태경 연세대 정보대학원 교수는 안중근 의사, 김구 선생, 유관순 열사 등의 사진을 딥페이크로 활용해 독립운동가들이 광복에 기뻐하는 영상을 보여주며 "딥페이크가 악용되기도 하지만 (독립운동가 딥페이크 사례처럼) 생성형 AI 시대 이전에 할 수 없던 영상을 만들어준다"고 말했다.
한 교수도 "초등학생 등 청소년도 AI를 적극적으로 배울 때 파워(힘)가 될 수 있지만 이러한 강력한 무기가 굉장히 쉽게 접근 가능한 사회가 됐다"며 "하지만 챗GPT한테 자살 상담을 문의하는 등 취약한 부분도 있다"고 말했다.
이에 한 교수는 생성형 AI 기술 악용에 대응하는 기술 연구와 교육 도입도 필요하다고 강조했다. 한 교수 연구팀은 과학기술정보통신부가 2022년 발주한 '악의적 변조 콘텐츠 대응을 위한 딥페이크 탐지 고도화 및 생성억제 기술개발' 과제(3개년)를 수행하고 있다. 한 교수는 "생성된 영상이 딥페이크인지, 유해 요소가 있는지, (이 콘텐츠가) 얼마나 퍼질지 예측하는 연구를 수행하고 있다"며 AI 기술을 잘 쓰기, 안전하게 쓰기 위한 기술 발전도 필요하다고 말했다.
정부 측 토론자로 나선 김남철 과기정통부 정보통신정책총괄과장도 딥페이크에 대해 "창작 분야에 상당히 의미 있지만 부작용이 심한 부분도 있다"며 규제, 교육 강화 필요성을 언급했다.
김 과장은 규제에 대해 과기정통부가 AI 창작물에 워터마크를 표기하도록 하는 등의 조항이 포함된 AI기본법 입법을 추진하고 있다고 말했다. 아울러 다음 달 출범할 것으로 예상되는 국가AI위원회를 통해 "부처, 민간 전문가, 기업 관계자들이 딥페이크 부작용에 대한 안전책을 마련하는 데 역량을 모으는 기회가 될 것"이라고 전했다.
김 과장이 AI 윤리 교육 강화 필요성을 언급한 건 'N번방 방지법'으로 알려진 정보통신망법, 성폭력 방지 특별법 한계 때문이다. 김 과장은 "불법 정보를 기업한테 자체적으로 모니터링 시스템 구축해 차단하도록 하는데 규제력이 효율적으로 집행되지 않고 있다"며 텔레그램 사례를 들었다. 이번 딥페이크 음란물 사태 원인이 된 텔레그램은 경찰 수사에 협조하지 않고 있다. 국내에도 서버 등 관련 시설이 없기 때문에 수사하는 데 현실적 제약이 따른다.
김 과장은 과기정통부가 딥페이크를 활용한 불법 콘텐츠 차단·탐지·삭제 기술 개발을 지원하지만 "기술이 계속 진화하는 가운데 법·제도가 딱 맞춰 선제적으로 대응하는 데 어려움이 있다"고 말했다. 이에 그는 청소년들이 딥페이크 악용이 문제가 된다는 점을 알 수 있도록 "학교에서부터 AI 윤리, 리터러시(문해력) 교육이 병행돼야 한다"고 강조했다.
윤혜선 한양대 법학전문대학원 교수는 "인류가 발전하는 데 AI를 활용하려는 욕구와 희망이 커지는데 다양한 부작용이 존재했다"며 "딥페이크 이슈 해결을 논의할 때 다양한 수단과 관점을 제시할 이해관계자가 참여한 거버넌스가 필요하다"고 말했다.
◎공감언론 뉴시스 alpaca@newsis.com