메타, 페이스북과 메시전에도 18세 미만 사용자 안전장치 확대
사용 1시간 뒤 앱 자동 종료 및 취침시간 사용 중단도
[런던=AP/뉴시스] 유세진 기자 = 16세 미만 인스타그램 사용자들은 10대들을 위한 안전 조치 확대에 따라 앞으로 부모의 승인을 받지 못하면 나체 사진을 생방송으로 내보내거나 흐리게 처리한 것을 지울 수 없게 된다고 인스타그램 소유주인 메타가 8일 밝혔다.
메타는 또 18세 미만 사용자들을 위한 안전 장치도 페이스북과 메신저로 확대한다고 덧붙였다.
메타는 소셜미디어가 청소년들의 삶에 미치는 영향에 대한 반발이 커지는 가운데 부모들에게 자녀들의 온라인 활동을 감독할 수 있는 더 많은 선택권을 주기 위해 지난해 9월 인스타그램을 위한 청소년 계정 프로그램을 시작했었다.
이러한 변화는 미국, 영국, 캐나다, 호주 사용자들에게 먼저 적용되며, 몇 달 안에 전 세계 사용자들로 확대될 예정이다.
이에 따라 16세 미만 청소년들은 부모가 허락하지 않는 한 인스타그램 라이브를 사용할 수 없게 된다. 메타는 블로그에 올린 글에서 "나체로 의심되는 이미지를 흐리게 하는 기능을 해제하는 데에도 부모의 허락이 필요하다"고 말했다.
메타는 또 인스타그램의 청소년 계정 보호 장치를 페이스북과 메신저 플랫폼으로 확장할 것이라고 말했다.
여기에는 청소년 계정을 기본적으로 비공개로 설정하고, 낯선 사람의 개인 메시지를 차단하고, 싸우는 영상 같은 민감한 콘텐츠에 대한 엄격한 제한, 60분 후 앱을 자동 종료하는 알림 및 취침 시간 중 사용 중단 알림 등이 포함된다.
메타는 "페이스북과 메신저의 청소년 계정은 부적절한 콘텐츠와 원치 않는 접촉을 제한하는 유사한 자동보호 기능과 10대들이 시간을 잘 보낼 수 있도록 하는 방법을 제공할 것"이라고 말했다.
메타는 지난해 9월 청소년 계정 프로그램이 시작된 후 적어도 5400만개의 청소년 계좌가 개설됐다고 말했다.
◎공감언론 뉴시스 dbtpwls@newsis.com