사진=AP
사진=AP
페이스북이 올 3분기에만 자살 관련 콘텐츠 250만건을 삭제했다. 같은 기간 삭제한 가짜 계정은 17억건, 스팸은 19억건에 달했다.

페이스북은 인공지능(AI) 기술을 통해 유해 콘텐츠를 사전에 대부분 감지해 차단하고 있다. 단 환경이나 맥락에 이해가 필요한 콘텐츠는 AI가 완벽하게 걸러낼 수 없다고 했다. 고(故) 설리, 구하라 등 유명 연예인들의 잇따른 자살로 악성 댓글을 비롯한 유해 콘텐츠에 엄격한 잣대와 관리가 요구되는 만큼 유저들 신고가 중요하다는 입장이다.

페이스북은 28일 서울 역삼동 페이스북코리아 본사에서 기자간담회를 열고 유해 콘텐츠에 대한 커뮤니티 규정 시행 현황을 담은 '제4차 커뮤니티 규정 집행 보고서'를 공개했다.

발표자로 나선 유동연 페이스북 아시아태평양(APAC) 콘텐츠 정책담당은 △커뮤니티 안전 △이용자 의견 반영 △공정함 세 가지 가치를 근간으로 커뮤니티 규정을 만들었다고 설명했다.

페이스북은 유저들의 안전에 위해되는 카테고리를 모두 25개로 나눴다. 폭력·선동, 위험인물·단체, 자살·자해, 아동 성착취, 규제상품, 혐오발언, 따돌림 등이 해당된다.

이 기준에 근거해 페이스북이 지난 3분기 삭제한 데이터는 △가짜 계정 17억건 △스팸 19억건 △폭력·자극적 콘텐츠 2억5200만건 △아동 나체 이미지·성착취 1억1600만건 △혐오 발언 700건에 이른다.

페이스북은 AI에 지난 5년간 지속적으로 투자해 유해 콘텐츠 감지·삭제율을 높이고 있다. 실제로 지난 3분기에 삭제한 자살·자해 관련한 콘텐츠 250만건 중 97.3%를 AI가 사전에 감지했다. 테러 선동과 관련해 AI가 사전에 감지한 콘텐츠는 98.5%에 육박한다.
유동연 페이스북 APAC 콘텐츠 정책담당(사진=페이스북)
유동연 페이스북 APAC 콘텐츠 정책담당(사진=페이스북)
유동연 정책담당은 "AI의 사전 조치율이 2017년 60%대에서 2년 만에 90%대로 올랐다"며 "유저가 게시물을 업로드하는 중에 AI가 유해 콘텐츠 여부를 구별해 게시물을 삭제하기도 하고, 이미 업로드된 게시물의 유해성 여부를 판별하기도 한다. 콘텐츠 리뷰 인력보다 AI가 빠르다"고 말했다.

하지만 AI는 기술적 한계가 있다. 혐오발언, 따돌림 등 상황과 맥락을 파악해야 하는 콘텐츠들은 AI가 유해성 여부를 진단하기 어렵기 때문이다. 따라서 페이스북은 맥락이 중요한 콘텐츠는 리뷰어들의 힘을 빌려 유해성을 판별하고 있다.

현재 페이스북과 인스타그램은 커뮤니티 안전과 보안을 지원하는 업무에 글로벌 인력 3만5000명을 투입하고 있다. 2017년 대비 3배 늘렸다. 검사, 인권변호사, 안전전문가 등이 다양한 인력이 포함된다. 전세계에 공통 적용되는 페이스북의 커뮤니티 규정을 이들이 개발한다.

잠재적 유해 콘텐츠를 검토하는 리뷰 인력은 1만5000명이다. 한국어를 포함해 50개 이상의 언어로 사용자 커뮤니티에 들어오는 신고물에 대한 리뷰, 지원을 제공한다. 페이스북은 국가별 콘텐츠 관리 인력 수는 별도 공개하지 않았다.

방대한 콘텐츠 양에 비례해 유해 콘텐츠는 지속적으로 느는 추세. 페이스북은 유저 신고가 특히 중요하다고 거듭 강조했다. AI도 유저의 신고를 학습해 유해성 판별 정확도를 높인다.

유동연 담당은 "따돌림이나 자살·자해 등 사용자 안전을 위협하는 콘텐츠는 더욱 엄격한 잣대를 마련하고 있다. 맥락에 대한 이해가 중요해 AI가 판단하기 쉽지 않아 유저의 적극적 신고가 중요하다"면서 "페이스북은 유저들이 스스로를 자유롭게 표현할 수 있도록 하는 동시에 안전하게 서비스를 이용할 수 있도록 도울 것"이라고 덧붙였다.

김은지 한경닷컴 기자 eunin11@hankyung.com
기사제보 및 보도자료 open@hankyung.com