경찰팀 리포트

온라인에 공개된 소스 코드로 음란 영상물 손쉽게 만들어
인증 없이도 재생·유포 가능

아이돌그룹 설현 씨도 피해…합성 사진 유포자 檢에 고소

"엄연한 성폭력인데…"
정보보호법 위반으로 처벌 '문제'

"나도 피해자"… 靑에 청원 봇물
포털사이트에서 ‘딥페이크(deepfakes)’를 검색하면 유명 연예인들의 이름으로 올라온 음란 영상이 주르륵 뜬다. 클릭하면 아무런 인증 절차 없이 곧바로 재생된다. 링크 주소를 옮겨 유포하기도 쉽다. 영상 속 인물의 얼굴은 분명 해당 연예인이지만 이는 이미지 합성으로 만들어진 가짜다. 인공지능(AI) 기술이 발달하면서 사진뿐 아니라 영상까지 자연스러운 합성이 가능해진 것이다. 최근 여사친(여자사람친구) 등 지인의 얼굴을 음란물과 합성해 인터넷에 유포하는 일도 심심찮게 일어난다. 그럼에도 이에 대한 법적 처벌은 미미한 수준이다. 전문가들은 신종 디지털 성범죄가 크게 늘어나고 있지만 각종 제도가 이를 따라가지 못하면서 애꿎은 피해자들만 양산되고 있다고 지적한다.
Getty Images Bank

Getty Images Bank

지인 얼굴로 만드는 AI 포르노

아이돌그룹 AOA의 멤버인 설현은 지난 19일 소속사 FNC엔터테인먼트를 통해 자신의 얼굴을 음란물과 합성해 공개·유포한 이를 찾아달라며 서울중앙지검에 고소장을 제출했다. 해당 사진은 ‘휴대폰에서 유출된 실제 설현’이라는 제목으로 소셜네트워크서비스(SNS)와 인터넷을 타고 퍼져나갔다.

한양대는 지난 3일 징계위원회를 열어 친구 10여 명의 음란물 합성 사진을 제작, 소지한 A씨에게 퇴학 처분을 내렸다. A씨는 피해자들이 자신의 SNS에 올린 사진을 몰래 내려받아 인터넷상의 여성 누드 사진에 합성한 뒤 스마트폰에 저장했다. 그러다 지난해 12월 스마트폰을 분실했고 이를 발견한 다른 재학생이 피해자들에게 알리면서 A씨의 행각이 들통났다. 피해자들은 “악질적인 성희롱 문구와 함께 음란물과 합성된 얼굴을 보며 정신적으로 많은 고통에 시달렸다”며 경찰에 A씨를 신고했다.

합성 사진 제작은 주로 트위터나 텀블러 같은 SNS를 통해 이뤄진다. SNS에 ‘지인 합성’ ‘일반인 제보’ 등의 키워드를 검색하면 수십여 개의 계정이 뜬다. 이들은 1 대 1 쪽지를 통해 의뢰를 받고 합성물을 건네준다. 제작에 앞서 당사자의 얼굴이 잘 보이는 사진과 이름, 나이 등 간단한 프로필을 요구한다. 이들 계정 대부분은 ‘떴다방’처럼 폭파와 생성을 반복하며 단속을 피한다. 한양대 A씨가 합성을 의뢰한 계정도 경찰 수사 당시에는 이미 문을 닫은 상태였다.

사진뿐 아니라 영상 합성도 가능하다. 딥페이크는 AI를 활용해 특정 인물의 얼굴이나 신체 부위를 자신이 원하는 영상에 합성한 영상편집물이다. 지난해 말 미국에서 딥페이크라는 네티즌이 온라인 커뮤니티 ‘레딧’에 할리우드 유명 여배우의 얼굴과 포르노를 합성한 영상을 게시한 것이 시초다. 딥페이크 영상은 온라인에 무료 공개된 소스 코드와 머신러닝 알고리즘을 활용해 손쉽게 만들 수 있다는 설명이다.

성폭력 아닌 음란물 유포죄 적용

AI로 음란물에 '여사친' 얼굴 합성… 진화하는 디지털 성범죄

이는 엄연한 가해 행위지만 성폭력으로 처벌받지 않는 실정이다. 조작된 음란물 사진이나 영상을 상업적 목적으로 제작해 유포하는 것은 정보통신망이용촉진 및 정보보호 등에 관한 법률 70조(사이버 명예훼손)나 형법 제244조(음화 제조 등) 위반 등으로 처벌된다.

음화 제조 등 음란물 유포는 가해가 아닌 사회 공익을 해쳤다는 명목으로 처벌이 이뤄진다. 범죄의 폭력성보다는 음란성에 초점이 맞춰져 상대적으로 형량이 낮다. 실제 중학교 동창 9명의 사진을 알몸 사진과 합성해 SNS에 게시한 혐의를 받는 B씨는 지난해 11월 법원에서 징역 1년에 집행유예 2년, 성폭력 치료프로그램 80시간 이수를 선고받았다.

합성물을 유포했다는 증거가 없을 경우 적용할 수 있는 혐의도 마땅치 않다. 과거와 달리 단순 소지만 하더라도 SNS 등을 통해 유포·복제될 가능성이 커졌지만 법령은 이를 반영하지 못한다. 한국사이버성폭력대응센터 관계자는 “사이버 성폭력은 법제도가 현실을 전혀 따라가지 못하고 있다”며 “음란 영상, 사진 합성 등도 사이버 성폭력 범주 안에서 적용받을 수 있도록 법 개정이 필요하다”고 강조했다.

청와대 국민청원 게시판에는 딥페이크 등을 막아달라는 요구가 쇄도하고 있다. 지난해 12월30일 마감된 ‘일반인 모욕 사진 유포를 처벌해달라’ ‘디지털 성범죄 규정 강화’ 청원에는 각각 12만3288명, 1만763명이 서명했다. ‘딥페이크 제작 및 유포를 막아달라’는 청원도 여러 차례 올라왔다. 청원 글을 올린 이는 “온갖 성매매, 나체 합성 의뢰, 딥페이크 자료가 오가는 해외 기반 SNS를 수사하는 데 더 많은 경찰 인력과 예산을 투입해달라”며 “딥페이크는 그 자체로 엄연한 성범죄”라고 호소했다.

해외사이트에서 유통… 국제 공조도 난망

국회에는 이미 합성 사진·영상 제작도 성폭력처벌법을 적용받아 처벌하는 내용의 법 개정안이 발의돼 있다. 민경욱 자유한국당 의원은 지난달 제출한 개정안에서 “(음란 합성물은) 피해자의 성적 수치심과 인격권을 침해하는 것으로 성폭력법으로 처벌받는 것이 타당하다”며 근거 규정을 신설했다.

방송통신심의위원회도 성과 관련한 불법 촬영물, 초상권 침해 정보만을 전담하는 ‘디지털성범죄대응팀’ 신설을 추진하고 있다. 디지털성범죄 정보를 선제적으로 차단하기 위한 기술도 개발할 계획이다.

경찰 역시 사이버성범죄수사팀을 발족하면서 수사력을 집중하고 있지만 한계도 있다. 경찰 관계자는 “합성 음란물이 유통되는 곳이 주로 해외 사이트라 국제 공조가 필요하다”며 “아동음란물이나 개인이 촬영한 보복성 포르노(리벤지포르노)와 달리 일반 음란물은 합법인 나라가 많아 국제 공조가 쉽지 않다”고 말했다.

합성물 자체가 진위 여부를 가리기 어려울 정도로 정교하게 만들어지면서 피해자들의 적극적인 신고가 없으면 단속이 어렵다는 점도 고충으로 꼽힌다. 경찰 측은 “유명 연예인이 아닌 일반인은 경찰 모니터링으로는 합성 유무의 판단이 쉽지 않다”며 “추가 피해를 막기 위해서라도 피해자들이 인지하는 즉시 경찰에 신고하는 게 중요하다”고 했다.

■ 딥페이크(Deepfakes)

인공지능(AI)과 머신러닝 기술을 통해 특정 인물의 얼굴이나 부위를 합성한 영상편집물. 이 기술을 이용해 기존 포르노 배우의 얼굴에 정계·연예계 유명인이나 일반인의 얼굴을 합성, 유포해 사회적 문제로 떠올랐다. 해외에서는 힐러리 클린턴 얼굴에 도널드 트럼프 미국 대통령의 얼굴을 바꿔치기 하거나 할리우드 유명 배우의 얼굴을 합성한 음란물이 유포되기도 했다.

이현진 기자 apple@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지