[서울=뉴시스] 이진영 기자 = 대통령 직속 4차산업혁명위원회는 30일 4차위 회의실에서 산·학·연 민간전문가가 참여한 가운데, 신뢰할 수 있는 인공지능(AI) 활용 방안을 모색하기 위해 간담회를 개최했다고 밝혔다.
이번 간담회는 인공지능분야의 기술 발전과 활용이 가속화되는 상황에서, 인공지능의 편향성 등이 사회적 이슈로 제기됨에 따라 법·기술·산업·연구계 등 각 분야 전문가들이 참여해 인공지능의 신뢰성을 저해하는 요소를 점검하고 효과적 대응방향에 대해 논의하기 위해 마련됐다.
정보통신정책연구원의 이호영 본부장은 자동화된 의사결정의 영향이 확대되고 있어 인공지능 편향 완화 방안을 논의하는 것이 시급하다면서 '인공지능 알고리즘 편향과 대응방안'을 주제로 발표했다.
이어 주요국의 대응 사례를 소개하면서 영국의 데이터윤리혁신센터와 같은 독립기관을 통한 관리강화, 자가진단·감사·인증제도 등을 통한 인공지능 의사결정의 신뢰성 제고방안 등을 사례로 제시했다.
이와 함께 이 본부장은 "우리가 구현하고자 하는 인공지능 시스템이 무엇인지에 대해서는 사회적 공론화 과정을 통해 다양한 주체가 모여 숙의해나갈 필요가 있다"라고 언급했다.
참석한 전문가들은 또 인공지능의 활용이 확산됨에 따라 공정성 제고가 더욱 중요해지고 있다는데 인식을 같이하고, 인공지능의 개발 및 활용 시 직면하는 어려움과 대응 방안에 대해 논의했다.
인공지능 공정성의 정의에 대해 이상직 태평양 변호사는 "공정성의 판단기준은 관점이나 문화 등에 따라 달라질 수 있다"며 "헌법 평등원칙 등을 공정성에 대한 기본적 합의로 두고, 형법 등 하위법령 위반행위를 공정성을 저해하는 행위로 해석해야한다"라는 의견을 내놓았다.
편향성 원인에 대해 최재식 카이스트 교수는 "학습데이터나, 학습모델 또는 학습알고리즘의 편향이 주된 원인이며, 학습데이터 편향은 공정성에, 학습모델·알고리즘은 정확도에 영향을 주는 경우가 있다"라고 말했다.
공정성이 중요한 이유에 대해 최인선 한국지능정보사회진흥원(NIA) 팀장은 "인공지능 알고리즘이 사회 각 분야 의사결정에서 주요 역할을 담당하게 되면서 영향력이 증대하였기 때문"이라고 했으며, 고학수 서울대 교수는 "공정성은 인공지능 기술에 대한 신뢰성과 연결되어 활용에 영향을 줄 수 있다"라고 언급했다.
참여전문가 대부분은 현재 인공지능기술 성장 궤도와 각 계의 노력을 고려할 때, 우리나라 정책방향은 이용자의 권리를 보호하되, 과도한 부담보다는 자율규제 체계 중심으로 나아갈 필요가 있다고 제언했다.
이상직 태평양 변호사와 김대원 카카오 이사는 알고리즘을 직접 제어하는 방식의 접근보다는 기업 스스로의 윤리적·법적 점검 장치 마련과 자발적 노력, 정부의 양질의 데이터 고도화 정책, 소비자의 건전한 이용 노력이 필요하다고 제언했다.
최재식 카이스트 교수와 최인선 NIA 팀장은 인공지능의 투명성 제고를, 강용성 대표는 정부가 충분한 사회적 논의를 통해 관련 가이드라인을 수립·운영하고, 가이드라인 준수 등에 대해 관리·감독할 수 있는 독립기구 (예: (가칭)인공지능윤리위원회)’ 신설을 제안했다.
아울러 이진규 네이버 개인정보보호책임자는 채용, 대출 등 개인에게 상당한 영향을 미치는 의사결정 알고리즘에 대해 개개 사안별로 관련 관계자들이 모여 문제점 등을 분석하고 합의하는 절차 마련의 필요성을 강조했다.
윤성로 4차위원장은 " 4차위는 작년 12월 과학기술정보통신부와 협력해 선제적으로 ‘사람이 중심이 되는 '인공지능 윤리기준'을 심의·마련했다"며 "올해는 기업의 자율규제와 함께 기업들이 AI 개발·활용시 점검할 수 있는 체크리스트 개발·보급, 인공지능 윤리교육 등을 추진해나갈 것이다"라고 말했다.
이어 "오늘 제언해주신 민간의 자율성에 기반한 자정체계 활성화, 관리감독 역할을 하는 독립기구의 필요성, 자동검증 기술 개발 등 다양한 방안들이 시장에서 조화로이 작동할 필요가 있다"라고 덧붙였다.
◎공감언론 뉴시스 [email protected]
이번 간담회는 인공지능분야의 기술 발전과 활용이 가속화되는 상황에서, 인공지능의 편향성 등이 사회적 이슈로 제기됨에 따라 법·기술·산업·연구계 등 각 분야 전문가들이 참여해 인공지능의 신뢰성을 저해하는 요소를 점검하고 효과적 대응방향에 대해 논의하기 위해 마련됐다.
정보통신정책연구원의 이호영 본부장은 자동화된 의사결정의 영향이 확대되고 있어 인공지능 편향 완화 방안을 논의하는 것이 시급하다면서 '인공지능 알고리즘 편향과 대응방안'을 주제로 발표했다.
이어 주요국의 대응 사례를 소개하면서 영국의 데이터윤리혁신센터와 같은 독립기관을 통한 관리강화, 자가진단·감사·인증제도 등을 통한 인공지능 의사결정의 신뢰성 제고방안 등을 사례로 제시했다.
이와 함께 이 본부장은 "우리가 구현하고자 하는 인공지능 시스템이 무엇인지에 대해서는 사회적 공론화 과정을 통해 다양한 주체가 모여 숙의해나갈 필요가 있다"라고 언급했다.
참석한 전문가들은 또 인공지능의 활용이 확산됨에 따라 공정성 제고가 더욱 중요해지고 있다는데 인식을 같이하고, 인공지능의 개발 및 활용 시 직면하는 어려움과 대응 방안에 대해 논의했다.
인공지능 공정성의 정의에 대해 이상직 태평양 변호사는 "공정성의 판단기준은 관점이나 문화 등에 따라 달라질 수 있다"며 "헌법 평등원칙 등을 공정성에 대한 기본적 합의로 두고, 형법 등 하위법령 위반행위를 공정성을 저해하는 행위로 해석해야한다"라는 의견을 내놓았다.
편향성 원인에 대해 최재식 카이스트 교수는 "학습데이터나, 학습모델 또는 학습알고리즘의 편향이 주된 원인이며, 학습데이터 편향은 공정성에, 학습모델·알고리즘은 정확도에 영향을 주는 경우가 있다"라고 말했다.
공정성이 중요한 이유에 대해 최인선 한국지능정보사회진흥원(NIA) 팀장은 "인공지능 알고리즘이 사회 각 분야 의사결정에서 주요 역할을 담당하게 되면서 영향력이 증대하였기 때문"이라고 했으며, 고학수 서울대 교수는 "공정성은 인공지능 기술에 대한 신뢰성과 연결되어 활용에 영향을 줄 수 있다"라고 언급했다.
참여전문가 대부분은 현재 인공지능기술 성장 궤도와 각 계의 노력을 고려할 때, 우리나라 정책방향은 이용자의 권리를 보호하되, 과도한 부담보다는 자율규제 체계 중심으로 나아갈 필요가 있다고 제언했다.
이상직 태평양 변호사와 김대원 카카오 이사는 알고리즘을 직접 제어하는 방식의 접근보다는 기업 스스로의 윤리적·법적 점검 장치 마련과 자발적 노력, 정부의 양질의 데이터 고도화 정책, 소비자의 건전한 이용 노력이 필요하다고 제언했다.
최재식 카이스트 교수와 최인선 NIA 팀장은 인공지능의 투명성 제고를, 강용성 대표는 정부가 충분한 사회적 논의를 통해 관련 가이드라인을 수립·운영하고, 가이드라인 준수 등에 대해 관리·감독할 수 있는 독립기구 (예: (가칭)인공지능윤리위원회)’ 신설을 제안했다.
아울러 이진규 네이버 개인정보보호책임자는 채용, 대출 등 개인에게 상당한 영향을 미치는 의사결정 알고리즘에 대해 개개 사안별로 관련 관계자들이 모여 문제점 등을 분석하고 합의하는 절차 마련의 필요성을 강조했다.
윤성로 4차위원장은 " 4차위는 작년 12월 과학기술정보통신부와 협력해 선제적으로 ‘사람이 중심이 되는 '인공지능 윤리기준'을 심의·마련했다"며 "올해는 기업의 자율규제와 함께 기업들이 AI 개발·활용시 점검할 수 있는 체크리스트 개발·보급, 인공지능 윤리교육 등을 추진해나갈 것이다"라고 말했다.
이어 "오늘 제언해주신 민간의 자율성에 기반한 자정체계 활성화, 관리감독 역할을 하는 독립기구의 필요성, 자동검증 기술 개발 등 다양한 방안들이 시장에서 조화로이 작동할 필요가 있다"라고 덧붙였다.
◎공감언론 뉴시스 [email protected]