AI 안전 평가·정책 연구·R&D 등 전담…미·영·일 등과 국제협력도 지속
"AI G3로 나아가는 韓…안전한 AI는 우리가 최고라는 이미지 만들 것"
[서울=뉴시스]윤현성 기자 = 딥페이크 범죄, AI(인공지능) 오작동 등 AI 위협을 전담 대응하기 위한 'AI안전연구소(AISI)'가 문을 열었다.
AI안전연구소는 우리 기업들이 AI 기술·서비스를 개발하는 과정에서 보다 '안전한 AI'가 구현되도록 지원하는 역할을 맡는다. 히말라야 등반자들이 현지 '셰르파'들의 도움을 받아 안전한 길을 찾아가듯, 우리 기업이 글로벌 AI 경쟁에서 정상에 오를 수 있도록 돕는다는 목표다.
과학기술정보통신부는 27일 판교 글로벌R&D센터에서 AI안전연구소 개소식을 개최했다. 이번 AI안전연구소 개소는 지난 5월 열린 'AI서울정상회의'에서 10개국 정상이 안전한 AI에 대한 글로벌 협력을 강조한 이후 그 후속조치로서 이뤄졌다.
AI안전연구소는 AI의 기술적 한계, 인간의 AI기술 오용, AI 통제력 상실 등으로 발생하는 다양한 AI위험에 체계적·전문적으로 대응하기 위한 AI안전연구 전담조직이다.
국내에서는 산·학·연 기관이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브의 역할을 하고, 해외에서는 10개국이 함께하는 '국제 AI안전연구소 네트워크'의 일원으로 안전한 AI를 위한 글로벌 연대에 참여하게 된다. AI안전연구소는 이미 공식 개소에 앞서 영국·미국·캐나다·일본·싱가포르 등 5개국의 연구소와도 AI 기술·인력·정책 교류를 위한 MOU(업무협약)를 체결하기도 했다.
이날 개소식에서는 AI 통제불능에 대한 위험성, 지속가능 AI 실현을 위한 AI 안전의 중요성이 거듭 강조됐다. AI가 급격한 속도로 발전하고 있는 만큼 그 과정에서 발생할 수 있는 여러 부작용에 대응하기 위해 산·학·연 협력부터 국제 공조까지 모두 이뤄져야 한다는 설명이다.
김명주 AI안전연구소장은 연구소 개소를 선언하면서 "올해 노벨상 수상자들도 AI 통제 불능 상태라는 위협에 대해 우려를 표하고, AI 책임론 등에 대해 언급하고 있다"며 "AI 기술도 중요하지만 안전을 확보하는 것도 그만큼 중요하다는 것"이라고 강조했다.
그러면서 "AI안전연구소의 가장 큰 비전은 안전한 AI로 만드는 지속가능한 미래"라며 "AI 안전에 관한 과학적 이해를 높이는 한편, AI 안전 관련 정책을 고도화하고 안전 제도를 확립해나가는 게 목표"라고 덧붙였다.
AI안전연구소는 우리 기업들이 AI 기술·서비스를 개발하는 과정에서 보다 '안전한 AI'가 구현되도록 지원하는 역할을 맡는다. 히말라야 등반자들이 현지 '셰르파'들의 도움을 받아 안전한 길을 찾아가듯, 우리 기업이 글로벌 AI 경쟁에서 정상에 오를 수 있도록 돕는다는 목표다.
과학기술정보통신부는 27일 판교 글로벌R&D센터에서 AI안전연구소 개소식을 개최했다. 이번 AI안전연구소 개소는 지난 5월 열린 'AI서울정상회의'에서 10개국 정상이 안전한 AI에 대한 글로벌 협력을 강조한 이후 그 후속조치로서 이뤄졌다.
AI안전연구소는 AI의 기술적 한계, 인간의 AI기술 오용, AI 통제력 상실 등으로 발생하는 다양한 AI위험에 체계적·전문적으로 대응하기 위한 AI안전연구 전담조직이다.
국내에서는 산·학·연 기관이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브의 역할을 하고, 해외에서는 10개국이 함께하는 '국제 AI안전연구소 네트워크'의 일원으로 안전한 AI를 위한 글로벌 연대에 참여하게 된다. AI안전연구소는 이미 공식 개소에 앞서 영국·미국·캐나다·일본·싱가포르 등 5개국의 연구소와도 AI 기술·인력·정책 교류를 위한 MOU(업무협약)를 체결하기도 했다.
이날 개소식에서는 AI 통제불능에 대한 위험성, 지속가능 AI 실현을 위한 AI 안전의 중요성이 거듭 강조됐다. AI가 급격한 속도로 발전하고 있는 만큼 그 과정에서 발생할 수 있는 여러 부작용에 대응하기 위해 산·학·연 협력부터 국제 공조까지 모두 이뤄져야 한다는 설명이다.
김명주 AI안전연구소장은 연구소 개소를 선언하면서 "올해 노벨상 수상자들도 AI 통제 불능 상태라는 위협에 대해 우려를 표하고, AI 책임론 등에 대해 언급하고 있다"며 "AI 기술도 중요하지만 안전을 확보하는 것도 그만큼 중요하다는 것"이라고 강조했다.
그러면서 "AI안전연구소의 가장 큰 비전은 안전한 AI로 만드는 지속가능한 미래"라며 "AI 안전에 관한 과학적 이해를 높이는 한편, AI 안전 관련 정책을 고도화하고 안전 제도를 확립해나가는 게 목표"라고 덧붙였다.
AI안전연구소는 연구소장 하에 AI안전정책 및 대외협력실, AI안전 평가실, AI안전 연구실 등 3개실로 구성된다. 당장은 약 12~13명 규모로 출범하나 향후 인력 충원을 통해 최종적으로 총 30여명 규모로 꾸려질 예정이다.
대외협력실에서는 AI안전정책 연구 등을 주도하게 되며, AI안전 평가실에서는 AI 위험을 정의하고 안전평가 등을 수행하게 된다. AI안전 연구실은 실제 AI 위험 대응을 위한 기술을 개발하고, AI안전 기술 확산을 지원한다.
이를 통해 AI 안전 평가, AI 안전 정책 연구, AI 안전 글로벌 협력, AI 안전 R&D(연구개발)이라는 4가지 핵심과제를 추진해나간다는 목표다.
김 소장은 "AI안전연구소는 AI기업을 돕는 전문적인 헬퍼, 혹은 히말라야 등정을 돕는 '셰르파'같은 역할을 하게 될 것"이라며 "우리 AI 기업들이 각 분야에서 정상에 오를 수 있도록 앞에 있는 위험에 대해 먼저 대응하고 돕는 역할"이라고 설명했다.
이어 "우리나라는 AI G3(3대 강국)을 향해 나아가고 있다"며 "AI안전 연구소는 안전한 AI는 한국이 가장 뛰어나다는 이미지를 만들어나가려고 한다. 가장 안전한 AI하면 한국이 떠오를 수 있도록 이미지를 구축해 나가는 데 모든 노력을 다하겠다"고 말했다.
한편 이날 연구소 개소식과 함께 '대한민국 AI안전컨소시엄' 협약식도 함께 이뤄졌다. 네이버·KT·카카오·LG AI연구원·SK텔레콤·삼성전자 등 산업계부터 서울대·카이스트 등 학계와 TTA(한국정보통신기술협회)·NIA(한국지능정보사회진흥원) 등 연구계까지 총 24개 기관이 참여했다.
AI안전연구소와 컨소시엄 참여기관들은 AI안전 프레임워크(위험 식별·평가·완화) 연구·개발·실증, AI안전관련 국제규범 대응 등 정책연구, AI안전관련 기술 협력 등을 함께 추진하게 된다.
유상임 과기정통부 장관은 "AI안전은 지속가능한 AI발전의 전제로 AI분야에 종사하는 우리 모두가 함께 해결해 나가야할 가장 큰 도전과제"라며 "특히 지난 '영국 AI안전성 정상회의', 'AI서울정상회의' 이후 불과 1년 만에 미국, 영국, 일본, 싱가포르, 캐나다 등 주요국이 모두 AI안전연구소를 설립하고, 전례없이 기민하고 체계적인 국제 AI안전 협력체계가 구축되고 있다"고 설명했다.
이어 "우리도 AI안전연구소를 중심으로 산·학·연 연구역량을 결집해 AI안전의 기술·정책적 역량을 조속히 확보해 대한민국 AI산업 혁신을 촉진할 안전기반을 구축해 나가는 한편, 글로벌 AI안전 연대의 주도적인 역할을 수행하여 아태지역을 대표하는 AI안전 연구허브로 발전해 나갈 수 있도록 적극 지원하겠다"고 말했다.
◎공감언론 뉴시스 [email protected]
대외협력실에서는 AI안전정책 연구 등을 주도하게 되며, AI안전 평가실에서는 AI 위험을 정의하고 안전평가 등을 수행하게 된다. AI안전 연구실은 실제 AI 위험 대응을 위한 기술을 개발하고, AI안전 기술 확산을 지원한다.
이를 통해 AI 안전 평가, AI 안전 정책 연구, AI 안전 글로벌 협력, AI 안전 R&D(연구개발)이라는 4가지 핵심과제를 추진해나간다는 목표다.
김 소장은 "AI안전연구소는 AI기업을 돕는 전문적인 헬퍼, 혹은 히말라야 등정을 돕는 '셰르파'같은 역할을 하게 될 것"이라며 "우리 AI 기업들이 각 분야에서 정상에 오를 수 있도록 앞에 있는 위험에 대해 먼저 대응하고 돕는 역할"이라고 설명했다.
이어 "우리나라는 AI G3(3대 강국)을 향해 나아가고 있다"며 "AI안전 연구소는 안전한 AI는 한국이 가장 뛰어나다는 이미지를 만들어나가려고 한다. 가장 안전한 AI하면 한국이 떠오를 수 있도록 이미지를 구축해 나가는 데 모든 노력을 다하겠다"고 말했다.
한편 이날 연구소 개소식과 함께 '대한민국 AI안전컨소시엄' 협약식도 함께 이뤄졌다. 네이버·KT·카카오·LG AI연구원·SK텔레콤·삼성전자 등 산업계부터 서울대·카이스트 등 학계와 TTA(한국정보통신기술협회)·NIA(한국지능정보사회진흥원) 등 연구계까지 총 24개 기관이 참여했다.
AI안전연구소와 컨소시엄 참여기관들은 AI안전 프레임워크(위험 식별·평가·완화) 연구·개발·실증, AI안전관련 국제규범 대응 등 정책연구, AI안전관련 기술 협력 등을 함께 추진하게 된다.
유상임 과기정통부 장관은 "AI안전은 지속가능한 AI발전의 전제로 AI분야에 종사하는 우리 모두가 함께 해결해 나가야할 가장 큰 도전과제"라며 "특히 지난 '영국 AI안전성 정상회의', 'AI서울정상회의' 이후 불과 1년 만에 미국, 영국, 일본, 싱가포르, 캐나다 등 주요국이 모두 AI안전연구소를 설립하고, 전례없이 기민하고 체계적인 국제 AI안전 협력체계가 구축되고 있다"고 설명했다.
이어 "우리도 AI안전연구소를 중심으로 산·학·연 연구역량을 결집해 AI안전의 기술·정책적 역량을 조속히 확보해 대한민국 AI산업 혁신을 촉진할 안전기반을 구축해 나가는 한편, 글로벌 AI안전 연대의 주도적인 역할을 수행하여 아태지역을 대표하는 AI안전 연구허브로 발전해 나갈 수 있도록 적극 지원하겠다"고 말했다.
◎공감언론 뉴시스 [email protected]