중앙대 김호기 교수팀, AI 최상위 학회 'ICML 2026' 논문 3편 채택

기사등록 2026/05/08 09:21:33

딥페이크 방어 및 AI 규제 거버넌스 등 '안전한 AI' 연구

공학·법률 융합 연구 통해 글로벌 AI 규제 시대 선도적 모델 제안

[서울=뉴시스] 중앙대 산업보안학과 김호기 교수. (사진=중앙대 제공) 2026.05.08. photo@newsis.com *재판매 및 DB 금지
[서울=뉴시스] 중앙대 산업보안학과 김호기 교수. (사진=중앙대 제공) 2026.05.08. [email protected] *재판매 및 DB 금지
[서울=뉴시스]박시은 인턴 기자 = 중앙대학교는 산업보안학과 김호기 교수 연구팀의 논문 3편이 오는 7월 서울 코엑스에서 개최되는 인공지능(AI) 분야 최상위 국제 학술대회인 'ICML 2026'에 채택됐다고 8일 밝혔다.

최근 딥페이크 범죄와 AI 윤리, 오픈소스 AI의 안전성 규제가 세계적인 화두로 떠오른 가운데, 김 교수팀은 이번 연구를 통해 'AI 안전성(Safe AI)'과 'AI 거버넌스 및 규제'라는 핵심 과제에 대한 해결책을 제시했다.

이번 연구 성과는 기술적 최적화부터 실무적인 방어 체계 구축, 정책적 대안 제시까지 아우르고 있다. 연구진은 서울대 이재욱 교수 및 싱가포르 난양공대(NTU) 등과 함께 진행한 연구에서 AI 학습 알고리즘(SAM)의 수학적 한계를 규명하고 모델 학습의 안정성을 높이는 방법을 규명했다.

또한 울산과학기술원(UNIST) 박새롬 교수팀과는 딥페이크 범죄에 선제적으로 대응하고자 세계 최초의 통합 벤치마크를 구축해 실생활에 적용할 수 있는 방어 가이드라인을 수립했다.

아울러 김 교수팀은 서울대 법학전문대학원 박상철 교수팀과 함께한 기술·법률 융합 연구를 통해 기존 기술 중심 모델 카드의 한계를 지적하고, 정책과 라이선스가 결합한 다층적 AI 거버넌스 체계를 제안하며 글로벌 AI 규제 시대의 새로운 모델을 선보였다.

김 교수는 "앞으로의 AI 기술은 성능 향상을 넘어, 사용자가 신뢰할 수 있도록 하는 안전성 및 규제 연구가 필수"라며 "국내외 우수한 연구진과의 협력을 통해 안전하고 신뢰할 수 있는 AI 생태계 구축에 이바지할 수 있어 기쁘다"고 소감을 밝혔다.

한편 한국연구재단(NRF)과 정보통신기획평가원(IITP)의 지원으로 수행된 이번 연구의 상세 자료는 중앙대 산업보안학과 '신뢰할 수 있는 인공지능 연구실' 공식 홈페이지를 통해 확인할 수 있다.


◎공감언론 뉴시스 [email protected]
button by close ad
button by close ad

중앙대 김호기 교수팀, AI 최상위 학회 'ICML 2026' 논문 3편 채택

기사등록 2026/05/08 09:21:33 최초수정

이시간 뉴스

많이 본 기사