페이스북 최고기술책임자(CTO) 마이크 슈레퍼는 이날 올해 3분기 AI 소프트웨어가 자사 플랫폼에서 삭제된 혐오 발언 2천210만건 가운데 94.7%를 잡아냈다고 밝혔다.
이는 2017년에 AI가 혐오 발언을 탐지하던 비율 24.0%, 지난해 3분기의 탐지 비율 80.5%에서 상승한 것이다.
슈레퍼 CTO는 "수십억명이 우리 플랫폼을 사용하는 가운데 콘텐츠 검토 작업을 확대하고 의사결정을 자동화하기 위해 우리는 AI에 의존한다"며 "우리의 목표는 혐오 발언과 가짜 뉴스, 그리고 다른 유형의 규정 위반 콘텐츠를 모든 형태와 전 세계 모든 언어, 공동체별로 재빨리, 정확하게 포착하는 것"이라고 말했다.
그러나 여전히 약 5%는 AI에 난관으로 남아 있다.
미묘한 콘텐츠나 맥락 속에서 의미를 파악해야 하는 경우다.
예컨대 묘지 사진 위에 '여기가 너의 자리야'라는 문구가 쓰인 경우 AI는 그 의미를 이해하는 데 어려움을 겪고, 빈정대는 표현이나 은어·속어 등은 항상 잡아내지는 못한다.
이런 경우는 사람이 개입해 해당 콘텐츠가 규정을 위반했는지 결정해야 한다.
페이스북은 이런 도전에 맞서기 위해 최근 오프라인상의 데이터 대신 실제 온라인상의 사례와 수치들로부터 학습하는 '강화된 통합성 최적화'(RIO) 기술 같은 새로운 AI 기술을 도입했다고 설명했다.
슈레퍼 CTO는 페이스북이 직면한 도전은 복잡하고 미묘하며 급속하게 진화하고 있다며, 멀쩡한 콘텐츠를 혐오 발언이나 가짜 뉴스로 잘못 분류할 경우 사람들의 표현의 자유를 방해할 수 있다고 말했다.
페이스북이나 트위터, 틱톡 등의 소셜미디어들은 플랫폼에서 인종차별적 속어나 종교 비하 발언 같은 혐오 발언과 폭력 선동 등을 추방하기 위해 노력하고 있다.
페이스북의 경우 전 세계적으로 수천명의 콘텐츠 감시자를 채용해 게시물과 사진, 동영상에 대해 단속 활동을 벌이고 있다.
그러나 이런 인간 감시자들만으로는 단속에 한계가 있다 보니 정보기술(IT) 기업들은 머신러닝 같은 AI 분야에 점점 더 많이 의존하고 있다.
/연합뉴스