이 전 대표는 10일 자신의 페이스북 계정에 글을 올려 "범용 서비스를 제공하는 기업의 경영진이라면 이런 문제가 지적됐을때 즉시 납득할만큼 수정을 할 수 없다면 사과하고 서비스를 중단하는 것이 답"이라고 말했다.
이 전 대표는 "경영진이 혐오나 차별을 조장하거나 방치했다고 생각하지 않는다"며 "아마 학습된 데이터가 일반인들의 일대일 대화이다보니 차별이나 혐오로 보이는 결과를 만들어냈을 수 있다"고 말했다.
그는 "성적 악용부분은 앞으로 차차 학습을 통해서 바로 잡아 나갈 수 있는 부분일 수도 있지만 차별과 혐오부분은 잠시라도 있어서는 안 되는 일"이라며 "책임있는 투자자와 경영진이 잘 알아서 문제를 풀 것으로 믿습니다. 기업의 사회적 책임은 경영진과 투자자가 함께 져야할 문제"라고 강조했다.
이어 "이루다를 만들만큼의 기술력이면 최소한의 혐오나 차별을 방지하는 것이 오래 걸리지 않을 수 있다"며 "투자자들도 경영진이 사회적 책임을 다 하도록 돕는 것이 회사의 장기적인 미래를 위해 더 나은 선택임을 깨닫고 빠르게 문제를 인식하고 사과하고 바로 잡아서 서비스를 할 수 있도록 해야 한다"고 강조했다.
이 전 대표는 이루다에 대해 ▲AI 챗봇에 대한 성적 학대·악용 ▲AI 챗봇이 20세 여성으로 설정된 점 ▲혐오와 차별 등에 대한 문제와 해결책을 제시했다.
그는 챗봇에 대한 성적 학대·악용과 관련, "성적 학대·악용은 사용자의 문제이지 AI서비스의 문제라고 보기는 어렵다"며 "학습과 보정을 통해서 직접적인 대상화가 어렵도록 보완하면서 악용하는 사람들이 그 과정을 공개·공유하는 것을 적극적으로 막아야 한다. 이 부분은 회사가 잘 대처했다고 본다"고 말했다.
그는 AI 챗봇이 20세 여성으로 설정된 점과 관련, "기업의 목표가 이윤극대화뿐만 아니라 사회적 책임을 다하는 것이라고 하면 그런 선택을 안 할 수 있었을 것이라는 아쉬움이 있다"며 "기술은 사회적 책임도 있고, 특히 AI는 사회적 책임에 더 민감해야 한다"고 강조했다.
이 대표는 "정말 중요한 문제는 불특정 다수에게 서비스를 제공하는 현재의 챗봇이 성적지향에 대해서 차별과 혐오하는 메시지를 내고 있다는 점"이라며 "AI가 사람을 차별, 혐오, 학대하는 것은 큰 문제"라고 강조했다. 이어 "성적지향이나 특정 종교나 장애 여부에 대해서 일상 대화에서 차별하거나 혐오하는 사람이 많아서 학습의 결과로 차별이나 혐오를 하게 됐다고 하더라도 그것을 보정없이 일반 대중에게 서비스를 하는 것은 큰 문제"라고 주장했다.
그는 "서비스 중단 후 우리 사회 규범에 맞는 최소한의 차별·혐오테스트를 통과하는 지를 점검한 후 다시 서비스를 하는 것이 맞다"며 "오래 걸릴 일은 아니다. 그리고 딥러닝 학습기반 시스템이라고 해서 모든 것을 학습으로 해결할 필요도 없다"고 주장했다.
이 전 대표는 지난 9일에도 "AI 이루다 서비스는 인공지능 기술적인 측면에서 봤을 때는 커다란 진일보이지만, 지금은 서비스를 중단하고 차별과 혐오에 대한 사회적 감사를 통과한 후에 서비스를 해야 한다"고 주장했다.
◎공감언론 뉴시스 pjy@newsis.com