페이스북, 아동 착취 콘텐츠 공유 막는다

페이스북이 아동 착취 콘텐츠 적발을 위한 새로운 툴 개발과 정책 마련에 나선다.

AFP통신 보도에 따르면 앤티곤 데이비스 페이스북 안전 담당 전 세계 책임자는 23일(현지시간) "자사 앱을 이용해 아이들을 해치는 것은 혐오스럽고 용납할 수 없는 일"이라며 "우리는 이러한 종류의 콘텐츠 공유를 감소시키기 위해 새로운 툴 및 정책 마련을 포함한 특화된 해결책을 마련하고 있다"고 밝혔다.

페이스북은 부적절한 애정 표현이 담긴 캡션이나 해시태그 등과 함께 아이들의 이미지를 공유하는 페이스북과 인스타그램 계정을 폐쇄하겠다고 강조했다.

데이비스는 "우리는 노골적으로 아동을 성적 대상화 하는 콘텐츠를 이전에도 항상 제거해왔다"면서도 "노골적이지 않거나 알몸 노출을 담지 않은 콘텐츠의 경우 가려내기 더 힘든 측면이 있다"고 설명했다.

그는 "신규 정책에 따라 이미지 자체로는 규정을 어기지 않았더라도 첨부된 텍스트에 따라 해당 콘텐츠가 아동을 성적 대상화 하는지, 연관 프로필이나 페이지, 계정 등이 제거돼야 하는지를 더욱 제대로 가리게 될 것"이라고 덧붙였다.

AFP는 페이스북이 시험 중인 새로운 툴에는 아동 착취와 연관된 용어를 검색할 경우 경고 팝업 메시지와 안전 경보 작동 등이 포함된다고 전했다.

페이스북의 규정을 위반한 콘텐츠는 삭제와 함께 해당 계정이 국립실종·착취아동센터(NCMEC)에 보고된다.

페이스북에 따르면 2020년 하반기 NCMEC에 공유된 불법적 아동 착취성 포스트에 대한 분석 결과, 90% 이상이 이미 그 이전에 신고된 것과 동일하거나 매우 유사한 것으로 드러났다.

신용현 기자 yonghyun@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지