[뉴시스 AI경제포럼]유창동 교수 "AI가 사람도 평가하는 시대…편향성 제거해 개발해야"

기사등록 2020/08/21 10:15:59

"미국에선 죄수 보석여부도 인공지능이 판단"

"데이터 편편향성으로부터 취약층 보호해야"

"약한 인공지능에서 강한 인공지능으로 가야"

[서울=뉴시스] 조수정 기자 = 유창동 카이스트 전기 및 전자공학부 교수가 21일 오전 서울 중구 소공동 더플라자호텔에서  'AI의 현재와 미래'를 주제로 '제1회 뉴시스 AI 경제포럼'에서 특별강연 하고 있다. 2020.08.21. chocrystal@newsis.com
[서울=뉴시스] 조수정 기자 = 유창동 카이스트 전기 및 전자공학부 교수가 21일 오전 서울 중구 소공동 더플라자호텔에서  'AI의 현재와 미래'를 주제로 '제1회 뉴시스 AI 경제포럼'에서 특별강연 하고 있다. 2020.08.21. [email protected]


[서울=뉴시스] 고은결 기자 = 유창동 카이스트 교수(한국인공지능학회 회장)는 "이제는 인공지능이 사람까지 평가하는 시대"라며 "앞으로 공정하고 책임감 있고 투명한 인공지능을 개발해야 한다"고 말했다.

유 교수는 21일 오전 서울 중구 소공동 플라자호텔에 개최한 제1회 뉴시스 AI 경제 포럼 'AI의 현재와 미래'에서 '인공지능이 이룬 혁신과 공정성'을 주제로 특별강연을 진행하며 이같이 말했다.

유 교수는 "인공지능이 다양한 영역 활용되며 이제는 사람까지 평가하게 됐다"며 "죄수의 보석 여부, 채용 과정에서 1차적 판단, 신용 평가까지 AI가 평가하기 시작했다"고 말했다.

유 교수에 따르면 미국에서는 현재 죄수가 보석으로 나오기 전에 인공지능이 그 죄인이 재범을 저지를 가능성에 대해 평가한다. 'compass'라는 인공지능 알고리즘의 평가가 보석 여부를 판단하는 데 영향을 미친다는 것이다.

유 교수는 AI가 신용 평가를 하는 것과 관련해서는 "단순히 한 사람의 재산, 소득을 평가하는 게 아니라 상황, 인격, 책임감 등을 평가해 이를 기반으로 대출 등 금융 서비스도 진행하고 있다"고 설명했다.

[서울=뉴시스] 조수정 기자 = 유창동 카이스트 전기 및 전자공학부 교수가 21일 오전 서울 중구 소공동 더플라자호텔에서  'AI의 현재와 미래'를 주제로 '제1회 뉴시스 AI 경제포럼'에서 특별강연 하고 있다. 이날 포럼은 코로나19 방역 지침을 따르기 위해 온라인 생중계를 진행하고 현장 인원을 30명 미만으로 제한하며 마스크 착용, 발열확인 등을 거쳐 입장했다. 2020.08.21. chocrystal@newsis.com
[서울=뉴시스] 조수정 기자 = 유창동 카이스트 전기 및 전자공학부 교수가 21일 오전 서울 중구 소공동 더플라자호텔에서  'AI의 현재와 미래'를 주제로 '제1회 뉴시스 AI 경제포럼'에서 특별강연 하고 있다. 이날 포럼은 코로나19 방역 지침을 따르기 위해 온라인 생중계를 진행하고 현장 인원을 30명 미만으로 제한하며 마스크 착용, 발열확인 등을 거쳐 입장했다. 2020.08.21. [email protected]


이처럼 AI가 막강한 능력을 갖게 된 상황에서 데이터의 관습적인 편향성이 문제를 일으킬 수 있다는 지적이 이어졌다.

유 교수는 "문제는 인공지능이 이런 능력을 가지려면 데이터로부터 지식을 얻어야 하는데 데이터에는 관습적인, 역사적으로 형성된 편향성이 있는 것"이라고 했다.

AI가 어떤 글을 읽고 수치화해 이해할 때, 오랜 시간 데이터가 쌓이며 만들어진 편향성이 개입할 수 있다는 것이다.

유 교수는 이어 "우리는 취약계층을 보호해야 한다. 성별, 종교, 부, 지역, 장애, 정치적 성향, 나이, 학벌에 대한 편향성이 있으면 안된다"라며 "보호변수(취약계층)에 공정하게 이뤄져야 한다"고 말했다.

그러면서 "공정한 인공지능이 세계적 트렌드다. 공정하고, 책임감 있고, 투명한 'FAT(Fair, Accountable, Transparent)' AI를 개발해야 한다"고 강조했다.

그는 "인공지능을 만들 때 편향성을 제거하기 위해서는 평등과 공정성을 고려해야 한다"라며 "활용 영역에 따라 그룹 공정성과 개별 공정성을 동시 판단해야 한다"라고 설명했다.

그룹 공정성은 보호변수가 서로 다른 그룹에서 AI 판단에 대한 통계가 동일해야 하는 것이며, 개별 공정성은 개별 역량에 따라 판단이 공정해야 한다는 것이다.


[서울=뉴시스] 조수정 기자 = 유창동 카이스트 전기 및 전자공학부 교수가 21일 오전 서울 중구 소공동 더플라자호텔에서  'AI의 현재와 미래'를 주제로 '제1회 뉴시스 AI 경제포럼'에서 특별강연 하고 있다. 2020.08.21. chocrystal@newsis.com
[서울=뉴시스] 조수정 기자 = 유창동 카이스트 전기 및 전자공학부 교수가 21일 오전 서울 중구 소공동 더플라자호텔에서  'AI의 현재와 미래'를 주제로 '제1회 뉴시스 AI 경제포럼'에서 특별강연 하고 있다. 2020.08.21. [email protected]


이어 현재의 '약한 인공지능'을 넘어 '강한 인공지능'을 지향해야 한다는 설명도 이어졌다.

유 교수는 "영화에서 보는 인공지능과 신문에서 읽는 인공지능이 좀 다른 것 같다는 질문을 많이 받는다"라며 "우리가 현재 토론하는 인공지능은 일정한 영역에서만 일 처리를 잘하는 '약한 인공지능'이며, 영화처럼 다양한 영역에서 다 잘하는 인공지능은 '강한 인공지능'이다"라고 말했다.

그는 "앞으로 우리가 추구해야 할 것은 약한 인공지능에서 강한 인공지능으로 가는 것"이라 "물론 'FAT'한 인공지능이어야 한다"고 설명했다.

마지막으로 유 교수는 "여태까지 국력은 군대, 산업, 천연자원 등을 얼마나 많이 가졌느냐로 판단됐다면, 미래에는 인공지능 전문가가 얼마나 많이 있느냐, 많이 활용되느냐로 국력을 따지고 회사의 능력을 판단하게 될 것"이라며 "이를 위해 학계와 산업계 간 협력이 이뤄져야 하며 정부도 이를 도와줘야 할 것"이라고 전했다.


◎공감언론 뉴시스 [email protected]

관련기사

button by close ad
button by close ad

[뉴시스 AI경제포럼]유창동 교수 "AI가 사람도 평가하는 시대…편향성 제거해 개발해야"

기사등록 2020/08/21 10:15:59 최초수정

이시간 뉴스

많이 본 기사