"챗GPT에 지나친 감정 의존 우려"…오픈AI 보고서

기사등록 2024/08/10 06:00:00

GPT-4o 고급 음성모드 공개 이후 내놔

"인간과의 상호작용에 대한 필요성 줄여"

이미 AI와 낭만적 관계인 사람도 있어 우려

[AP/뉴시스]오픈AI가 자체 보고서를 통해 챗GPT 이용자들이 음성모드에 지나치게 의존하게 되는 부작용이 생길 수 있다고 우려했다. 2024.8.9
[서울=뉴시스] 최현호 기자 = 오픈AI가 자체 보고서를 통해 챗GPT 이용자들이 음성모드에 지나치게 의존하게 되는 부작용이 생길 수 있다고 우려했다.

8일(현지시각) CNN에 따르면 오픈AI는 이날 내놓은 거대언어모델(LLM) 등에 대한 안전성 검토 관련 보고서를 통해 이같이 밝혔다.

이 보고서는 최근 출시한 GPT-4o의 고급 음성모드를 지난주 챗GPT플러스 사용자들에게 처음 공개했다고 밝힌 뒤 나온 것이다.

오픈AI는 챗GPT의 고급 음성모드가 인간과 워낙 유사하기 때문에 사람들이 지나친 의존성을 갖게 될 수 있다고 우려했다.

GPT-4o의 고급 음성모드는 놀라울 정도로 실제와 같은 소리를 낸다고 한다. 실시간으로 반응하고, 방해 받는 상황에도 적응할 수 있으며, 웃음 소리나 '흠'처럼 사람이 낼 수 있는 소리까지 낸다. 또 이용자 목소리 톤에 따라 감정 상태까지 판단할 수도 있다.

오픈AI는 보고서를 통해 "이용자들은 인공지능(AI)과 사회적 관계를 형성해 인간과의 상호작용에 대한 필요성을 줄일 수 있다"면서 "외로운 사람들에게는 도움이 될 수 있지만 건강한 관계에는 (좋지 않은) 영향을 미칠 수 있다"고 설명했다.

아울러 오픈AI는 보고서에서 인간에게 엄청난 변화를 가져올 수도 있는 AI 기술이 현재 너무 빠른 속도로 발전하고 있다고도 짚었다. AI 기술이 인간에게 어떤 영향을 미칠 지 제대로 이해하기도 전에 많은 기업들이 AI 도구를 대중들에게 빠르게 선보이기 위해 경쟁하고 있다는 것이다.

또 오픈AI는 챗GPT의 음성모드와 이용자 간 상호작용하는 방식이 추후에는 기존 사회적 상호작용에서 정상으로 간주돼 온 부분에까지 영향을 미칠 수 있다고도 언급했다.

그러면서 오픈AI는 AI를 안전하게 만들기 위해 최선을 다하고 있으며, 이용자가 AI 도구에 감정적으로 의존하게 될 가능성과 관련한 연구를 계속할 계획이라고 덧붙였다.

한편 일부 이용자들은 이미 AI 챗봇과 낭만적인 관계를 맺고 있어 전문가들의 우려를 불러일으키고 있다고 CNN은 전했다.

이와 관련, 기술과 인간 간의 커뮤니케이션을 연구하는 애리조나 주립대 교수 리젤 샤라비는 "기업이 윤리적이고 책임감 있는 방식으로 이 문제를 해결해야 할 책임이 크며, 지금은 모두 실험 단계에 있다"면서 "장기적으로는 존재하지 않을 수 있는, 끊임없이 진화하는 기술과 깊은 관계를 형성하고 있는 사람들이 걱정스럽다"고 말했다.


◎공감언론 뉴시스 wrcmania@newsis.com