"AI 위험 관리 위해 국제 공조 절실…AI 국가전략 자산화 해야"

기사등록 2024/11/26 10:00:00

최종수정 2024/11/26 10:58:16

과기정통부, AI신뢰·안전성 컨퍼런스…세계 석학 요슈아벤지오 교수 강연

삼성·네이버·SKT 등 안전한 AI 개발 위한 위험 관리 방안 등 공유

[서울=뉴시스] 과학기술정보통신부가 서울 전쟁기념관에서 국내 대표 AI분야 대기업, 스타트업, 연구자 등과 개최한 'AI신뢰‧안전성 컨퍼런스'를 개최했다. (사진=과기정통부 제공) *재판매 및 DB 금지
[서울=뉴시스] 과학기술정보통신부가 서울 전쟁기념관에서 국내 대표 AI분야 대기업, 스타트업, 연구자 등과 개최한 'AI신뢰‧안전성 컨퍼런스'를 개최했다. (사진=과기정통부 제공) *재판매 및 DB 금지

[서울=뉴시스]심지혜 기자 = 최첨단 인공지능(AI) 모델의 위험에 대한 효과적인 관리를 위해서는 국내법과 국제협약간의 상호조화가 필요하다는 주장이 제기됐다. 이와 함께 국가 전략 자산으로 AI를 적극 육성해야 한다는 시각도 있다.

26일 과학기술정보통신부가 서울 전쟁기념관에서 국내 대표 AI분야 대기업, 스타트업, 연구자 등과 개최한 'AI신뢰·안전성 컨퍼런스'에서는 이같은 내용이 공유됐다.

컨퍼런스는 AI신뢰·안전성 관련 기술·정책 동향을 공유하고 정부지원 연구결과물의 주요성과와 민간의 이행현황을 점검하기 위해 열렸다. 국내 AI신뢰·안전성 확보의 우수사례에 대한 시상식도 함께 개최됐다.

AI분야 세계적 석학인 요슈아벤지오 몬트리올대 교수는 기조강연에서 AI안전 확보를 위한 정책과 과학의 중요성을 강조하며 "최첨단AI모델의 위험에 대한 효과적인 관리를 위해 국내법-국제협약간의 상호조화가 필요하다"고 말했다.

이어 "과학측면에서는 AI모델의 정렬과 통제가 중요이슈로, 정량적으로 측정가능한 AI모델의 위험평가, 위험관리기술 확보를 위한 정부지원을 확대해야 한다"며 "AI안전연구소의 역할이 필요하다"고 언급했다.

이어 오혜연 한국과학기술원(KAIST) AI연구원장은 국제사회의 AI패권 경쟁 동향을 공유하며 전략자산으로서 AI의 중요성을 강조했다. 또 AI기술의 언어·문화적 포용성, 격차 문제 등 글로벌 사회에 미치는 현황과 함께 AI안전분야 신시장 창출과 기업 경쟁력 확보관점에서 AI안전 정책의 추진전략을 소개했다.

박규병 튜닙 대표는 'AI안전장치(가드레일) 솔루션을 활용한 다양한 형태의 위험탐지 및 대응방안'을, 김동환 포티투마루 대표는 'AI신뢰성 인증(TTA) 획득 등을 통한 자사 거대언어모델(LLM) 신뢰·안전성 확보사례'를 발표했다.

아울러 지난 5월에 개최된 ‘AI글로벌포럼’에서 진행된 'AI서울기업서약'에 참여한 총 14개 기업 중 삼성전자, 네이버, 카카오, SK텔레콤, KT, LG유플러스, LG AI연구원 등 국내 6개 기업도 컨퍼런스에 참여했다.

이들은 안전하고 신뢰할 수 있는 AI를 개발하기 위한 위험 관리 방안 수립, 기술 연구, 내부거버넌스 마련 등 각사의 이행현황에 대해 공유했다.

한국정보통신기술협회(TTA)는 대규모 참여자의 공격시도를 분석해 식별된 7가지 분야 주요위험과 다양한 공격기법(거부무력화, 혼동유도)을 소개했다.

제2회 AI신뢰성 대상 시상식도 열렸다. 대상은 '신뢰할 수 있는 AI개발안내서를 기반으로 자체적인 데이터 품질관리 프로세스를 수립·적용한 다비오의 '어스아이2.0'이 받았다.

송상훈 과기정통부 정보통신정책실장은 “정부가 지속적으로 추진해 온 AI신뢰·안전성 정책의 노력에 호응해 최근 산업계·학계에서도 AI신뢰·안전성 전담조직 설치와 투자 확대 등 자발적인 노력이 확대되고 있다"고 말했다.

이어 "민간자율에 기반한 책임있는 AI개발·활용 문화가 확산될 수 있도록 정책 지원을 강화하는 한편, 첨단AI로 인한 잠재적 위험에 대비해 AI안전연구소를 출범하고 국가차원에서 체계적으로 대응해 나가겠다"고 강조했다.


◎공감언론 뉴시스 [email protected]
button by close ad
button by close ad

"AI 위험 관리 위해 국제 공조 절실…AI 국가전략 자산화 해야"

기사등록 2024/11/26 10:00:00 최초수정 2024/11/26 10:58:16

이시간 뉴스

많이 본 기사