
소셜미디어 기업 메타(Meta)가 뉴질랜드 청소년을 대상으로 한 보호 기능을 확대하며, 부모의 관리 권한을 강화하는 조치를 도입한다.
보도에 따르면 메타는 인스타그램, 페이스북, 메신저의 ‘청소년 계정(Teen Accounts)’에 콘텐츠 제한 기능과 이용 시간 알림, 부모의 채팅 모니터링 기능 등을 기본 탑재한다고 밝혔다.
이번 조치에 따라 청소년 계정은 부적절한 콘텐츠 노출 제한, 일정 시간 사용 시 알림 제공, 부모가 자녀의 활동을 확인할 수 있는 기능 등이 기본적으로 적용된다.
메타는 특히 청소년들이 연령에 부적합한 콘텐츠를 반복적으로 게시하는 계정이나 부적절한 이름을 가진 계정을 팔로우할 수 없도록 제한할 방침이다.
또한 기본적으로 표시되는 콘텐츠도 청소년 관람가(13세 이상) 수준의 콘텐츠로 설정된다고 설명했다.
메타 측은 “일부 암시적 표현이나 강한 언어가 간혹 노출될 수 있지만, 이를 최소화하기 위해 지속적으로 개선하겠다”고 밝혔다.
새롭게 도입되는 ‘제한 콘텐츠(Limited Content)’ 설정은 보다 강력한 보호 기능을 제공한다.
이 기능이 활성화되면 특정 게시물의 댓글 확인·작성·수신이 제한되며 청소년이 접하는 콘텐츠 범위도 더욱 엄격히 관리된다.
메타는 이 기능이 부모에게 자녀의 온라인 경험을 보다 세밀하게 조정할 수 있는 도구가 될 것이라고 설명했다.
이번 조치는 뉴질랜드 정부가 16세 미만 청소년의 소셜미디어 사용 금지 여부를 검토 중인 상황에서 나왔다.
또한 미국에서는 메타와 구글이 청소년에게 중독성을 유발하는 플랫폼 설계 책임을 인정받아 수백만 달러의 배상 판결을 받은 바 있어, 글로벌 규제 압박이 강화되고 있다.
메타는 뉴질랜드 내 페이스북과 메신저 청소년 계정에 대해 이번 주부터 ‘13세 이상 기본 설정’을 적용할 예정이며, ‘제한 콘텐츠’ 기능은 올해 안에 도입될 계획이라고 밝혔다.
Source: RNZ