교육을 넘어 문장에 기반하는 모든 부문에 영향
사실과 허위 구분 못하고 편견 드러내는 등 문제
인공지능의 답 도출 과정 개발자도 알지 못해
[서울=뉴시스] 강영진 기자 = 전능한 것으로 여겨지는 새로운 인공지능 챗GPT(ChatGPT)가 발표된 직후 우스갯거리로 받아들이던 반응이 공포로 변하고 있다고 미국의 인터넷 매체 액시오스(AXIOS)가 19일(현지시간) 보도했다.
막대한 양의 온라인 문서를 통해 훈련을 받은 오픈AI(OpenAI)사의 챗봇은 인간의 스타일까지 흉내내는 수준이다.
챗GPT가 공개된 뒤 이용자가 100만 명을 넘어서면서 전문가들이 챗GPT가 너무 우수해 사람처럼 취급될 수 있다고 말한다. 사실처럼 여겨질 수 있는 엄청난 분량의 문장을 만들어내는 능력을 갖췄기 때문에 사람 사이의 신뢰관계가 무너져 내릴 수 있다는 것이다.
온라인 정보 업계가 재편되고 허위정보와 스팸이 범람하게 되는 건 문제의 시작일 뿐이다.
사람이 쓴 것인지 기계가 쓴 것인지를 구분할 수 없게 만드는 챗GPT의 능력 때문에 여러 학문 분야의 학업 평가 기준이 무너질 수 있다.
기말 리포트가 표절인지, 대필된 것인지를 가리느라 애를 먹어온 고등학교와 대학교 선생님들은 챗GPT로 인해 사실상 무력화될 수 있다.
교육 분야를 넘어 법, 예능, 과학, 역사, 언론 등 문장을 기반으로 이뤄지는 다른 모든 분야가 영향을 받을 수 있다. 영상을 만들어내는 AI가 영상 관련 분야에 같은 문제를 야기할 수 있다.
인터넷 투자자 겸 분석가 폴 케드로스키는 이달초 “오픈AI가 준비가 안된 사회에 핵폭탄을 터트린 것은 유감”이라며 “결과를 염두에 두지 않고 바이러스를 방출했다”고 썼다.
벤처투자자인 프레드 윌슨은 문서의 진위를 보장하는 방법으로 암호화 서명방식이 필요하다고 예상했다. 그러나 아직은 챗GPT가 제기하는 위험성에 대응할 수단은 없다.
한편 챗GPT의 한계가 드러나는 여러 문제점들에 대한 지적도 많이 제기되고 있다.
우선, 정확도다. 챗GPT는 뛰어난 문장력에 비해 사실과 허위를 잘 구분하지 못한다. 기술전문가 베네딕트 에반스는 “학부생이 수업 한 번 듣지 않고 자신있게 말하는 것처럼 보일 때가 많다”고 썼다.
두 번 째로 편견의 문제가 있다. 오픈AI는 챗GPT가 공격적이거나 차별적인 발언을 하지 못하도록 억제하고 있으나 허점이 많이 드러난다. 챗GPT처럼 학습하는 인공지능은 문장의 패턴을 배우는 과정에서 인간이 가진 문제가 그대로 반영되는 문장을 사용하기 때문이다.
따라서 인공지능 개발자들이 제공하는 데이터를 다듬어 사회에 해를 끼치지 않도록 해야 하지만 개발 경쟁이 치열한 기업들은 이를 무시한다.
마지막으로 개발자들이 제어를 못한다는 점이다. 대규모 학습을 하는 인공지능은 아무런 설명도 없이 결과물을 제시한다. 개발자들도 특정 답변이 어떻게 나왔는지를 파악하지 못한다. 평론가 스콧 알렉산더는 “세계 최고의 인공지능 회사들이 인공지능을 통제하지 못하는 건 잘못된 일”이라고 말했다.
역사적으로 산업혁명과 같은 자동화가 혼란을 일으킨 것은 사실이지만 사회를 망가트리진 않았다. 사려 깊게 진전시킨다면 챗GPT와 같은 도구가 사람들을 단순업무로부터 해방시킬 수 있다. 수학에서 계산기가 활용되는 것과 마찬가지 방식으로 학생들이 챗GPT를 사용할 수도 있을 것이다.
글쓰기는 힘들다. 인공지능이 글을 대신 쓰는 일이 늘어나면 글쓰기를 배우는 사람도 줄어든다. 이는 차세대 인공지능에 유용하게 쓰일 인간의 창조물 공급량을 줄임으로써 인류의 지적 능력 확장이 늦춰지는 악순환을 초래할 수 있다.
◎공감언론 뉴시스 yjkang1@newsis.com