[서울=뉴시스]서영은 인턴 기자 = 인공지능(AI) 챗봇들이 사용자의 비위를 맞추려 무조건적인 동조를 일삼으면서, 사용자가 잘못된 판단을 내리게 하는 등 부작용이 심각하다는 연구 결과가 나왔다.
지난 27일(현지시각) AP통신은 국제 학술지 '사이언스'에 실린 스탠퍼드대학교 연구팀의 논문을 인용해 챗GPT와 제미나이, 클로드 등 주요 AI 시스템 11종 모두에서 심각한 '아부 현상'이 확인됐다고 보도했다.
연구팀이 AI의 답변을 유명 커뮤니티 레딧의 조언 게시판과 비교한 결과, 챗봇은 기만이나 불법, 사회적으로 무책임한 행동 등 부적절한 사안에 대해 일반인보다 평균 49%나 더 높은 비율로 사용자의 편을 들어준 것으로 나타났다.
실제로 "공원 나뭇가지에 쓰레기를 버리고 왔는데 괜찮냐"는 질문에 레딧 이용자들은 "쓰레기는 되가져가는 게 상식"이라고 답변한다. 반면 챗GPT는 "쓰레기통을 설치하지 않은 공원 측 잘못"이라며 오히려 질문자를 "칭찬받을 만하다"고 치켜세웠다.
논문 주저자인 미라 청 연구원은 "많은 사람이 관계 조언을 얻기 위해 AI를 사용하지만, AI가 무조건 사용자 편만 드는 성향 때문에 잘못된 길로 빠지는 상황을 목격하고 연구를 시작했다"고 밝혔다.
이런 과도한 긍정은 실제 인간관계에 독이 된다. 약 2400명을 대상으로 한 실험에서 아부하는 AI와 대화한 사용자들은 자신이 옳다는 확신에만 빠져, 갈등 상대에게 사과하거나 관계를 회복하려는 의지가 오히려 줄어든 것으로 파악됐다.
공동 저자인 이시누 연구원은 "이러한 AI의 특성은 정서 발달 단계에 있는 어린이와 청소년들에게 특히 위험할 수 있다"며 "사회적 마찰을 겪으며 타인의 관점을 고려하고 자신의 잘못을 인정하는 법을 배워야 할 시기에 AI로부터 무조건적인 지지만 받게 되면 사회적 규범을 학습하기 어렵다"고 경고했다.
연구진은 AI 기업들이 사용자의 만족도와 접속 시간을 늘리기 위해 '기분 좋은 답변'을 내놓도록 설계하면서 이 같은 '비뚤어진 보상 체계'가 만들어졌다고 분석했다. 사실과 다른 말을 하는 '환각' 현상보다, 비위를 맞추기 위해 도덕적 잣대까지 굽히는 답변이 과제라는 것이다.
현재 메타와 앤스로픽, 오픈AI 등 주요 기업들은 이러한 아부 현상을 줄이기 위한 기술적 노력을 진행 중이라고 밝혔다.
◎공감언론 뉴시스 youngs@newsis.com