청소년 챗GPT 대화 기록, 부모가 함께 관리한다

기사등록 2025/09/03 11:21:47 최종수정 2025/09/03 12:22:25

오픈AI, 내달 중 청소년 보호 기능 강화

만 13세 이상 이용자, 부모 계정과 연결

[보스턴=AP/뉴시스]2023년 3월1일 미국 보스턴에서 한 휴대전화 화면에 오픈AI 로고가 떠 있다. 2025.07.25.

[서울=뉴시스]윤정민 기자 = 오픈AI가 다음 달 중으로 청소년 이용자의 악의적인 챗GPT 이용을 보호하기 위해 부모 관리 기능을 도입한다. 부모가 자녀 계정과 연결해 메모리·채팅 기록 활성화(AI가 자녀와의 대화 내역 학습) 여부를 결정할 수 있고 모델 반응을 나이에 맞게 조정할 수 있도록 한 것이다.

오픈AI는 2일(현지 시간) 공식 블로그를 통해 향후 120일 동안 챗GPT의 안전 기능을 집중 강화하겠다며 이러한 계획을 밝혔다.

부모가 이메일 초대를 통해 자녀 계정(만 13세 이상)과 연동하고 기본 설정으로 활성화된 '연령별 모델 행동 규칙'을 관리할 수 있게 된다. 자녀가 장시간 대화를 이어가면 휴식을 권장하고 심리적 고통을 표현할 경우 부모에게 알림을 전송하는 기능도 추가될 예정이다.

오픈AI가 이러한 노력에 나선 데는 최근 미국에서 오픈AI 인공지능(AI) 챗봇 '챗GPT'가 자살 방법 조언·유서 초안을 제공했다는 논란이 제기됐기 때문이다. 오픈AI는 논란 직후 "챗GPT는 사람들이 가장 필요할 때 안전하게 의지할 수 있는 도구가 돼야 한다. 청소년과 같이 취약할 수 있는 사용자들이 보호받을 수 있도록 전문가 자문과 책임 있는 접근을 통해 지속적으로 시스템을 개선해 나갈 것"이라며 안전한 이용을 위한 보호 조치를 발표했다.

구체적으로 챗GPT가 자해와 같은 위험한 요청에 대해 응답을 거부하고 감정을 인정하며 전문 기관 도움을 안내한다. 미성년자 등에게는 추가적인 보호 장치를 적용하고 장시간 대화가 이어질 경우 휴식을 권장하는 기능도 포함했다.

오픈AI는 이번 청소년 보호 강화 조치를 포함해 ▲위기 상황 개입 확대 ▲전문가와 긴급 서비스 연결 지원 ▲신뢰할 수 있는 연락처 연결 ▲청소년 보호 강화 등 네 가지 분야를 집중 개선한다는 방침이다. 특히 자해 등 민감한 대화가 탐지되면 기존 대화 모델 대신 더 정밀한 사고 과정을 거치는 추론 모델 'GPT-5-싱킹' 등으로 자동 전환해 대응할 계획이다.

오픈AI는 안전성 강화를 위해 전문가 자문 기구를 운영한 점도 소개했다. 오픈AI는 올해 초 '웰빙·AI 전문가 위원회'를 발족해 청소년 발달, 정신 건강, 인간-컴퓨터 상호작용 분야 전문가들로부터 자문을 받고 있다. 이들은 제품, 연구 및 정책 결정에 대한 자문을 제공한다.

글로벌 의사 네트워크는 60개국 250명 이상의 의사가 참여하고 있으며 이 중 정신과, 소아과 등 30개국 의사 90여명은 이미 모델의 정신 건강 대응 연구에 참여했다. 오픈AI는 "이들의 의견은 안전 연구, 모델 교육 및 기타 개입에 직접적인 정보를 제공하여 필요 시 적절한 전문가를 신속하게 투입하는 데 도움이 된다"며 "섭식장애, 약물 사용, 청소년 건강 등의 분야에 대한 깊은 전문 지식을 갖춘 임상의와 연구자를 네트워크에 더 추가하고 있다"고 전했다.

오픈AI는 "챗GPT를 최대한 유용하게 만들기 위해 전문가의 지도를 받으며 끊임없이 학습하고 접근 방식을 강화해 나가겠다"고 강조했다.


◎공감언론 뉴시스 alpaca@newsis.com