'그것이 알고 싶다' 소름끼치는 딥페이크 기술 "손이 부들부들"

"모르는 사람한테 DM이 왔어요. 보여줄 게 있다더니 제 얼굴로 합성한 여성의 나체 사진을 보내면서 200만 원을 보내지 않으면 지인들에게 유포한다고 하더라고요. 하라고 하고 차단했는데 손이 벌벌벌 떨렸어요."

27일 방송된 SBS '그것이 알고싶다'에서는 '보고, 듣고, 의심하라. 가짜와의 전쟁, 딥페이크'라는 제목으로 '딥페이크' 기술과 이를 악용한 범죄를 추적했다.

피해자 A 씨는 SNS 메시지를 통해 낯선 이에게서 자신의 성관계 영상을 받았다. 분명 직접 촬영한 영상도 아니었고 실제 있었던 일도 아니었지만, 영상 속 인물은 자신의 얼굴과 똑 닮아있었다. 기억에도 전혀 없고, 있을 수도 없는 일인데, 영상 속의 '나'는 진짜 나를 보듯 표정과 움직임까지 자연스러웠다.
'그것이 알고 싶다' 소름끼치는 딥페이크 기술 "손이 부들부들"

'그것이 알고 싶다' 소름끼치는 딥페이크 기술 "손이 부들부들"

놀란 마음을 가라앉히고 영상을 자세히 보기 시작한 A씨는 이 영상이 본인의 얼굴 사진과 다른 사람의 몸을 합성해 만든 가짜 동영상인 것으로 보였다.

세상에 얼굴이 알려진 연예인이나 공인도 아닌, 평범한 사람으로 지내온 자신이 어떻게 본인도 모르는 사이 성 착취 동영상의 주인공이 된 것인지 알 수 없다. 문제는 이런 메시지를 받은 사람이 A 씨 뿐만이 아니라는 사실이다.

인공지능의 한 분야인 딥러닝(Deep learning)을 활용해, 사람의 얼굴이나 특정 부위를 합성한 가짜 동영상을 만들어내는 기술 '딥페이크(Deepfake)'. 최근, 세계적인 인기를 얻고 있는 K-POP 연예인들의 얼굴을 이용한 딥페이크 영상물이 만들어지고 있는데, 대부분 성 착취 동영상의 형태로 악용되고 있어 사회적으로 큰 이슈가 되고 있다.
'그것이 알고 싶다' 소름끼치는 딥페이크 기술 "손이 부들부들"

'그것이 알고싶다' 제작진이 만난 제보자들 역시 이 딥페이크 기술에 자신들의 사진을 이용당한 피해자였다. 딥페이크 범죄는 유명 연예인을 넘어 일반인에게까지 뻗치고 있었다.

IT 산업은 물론 엔터테인먼트 산업까지 다양한 분야에 쓰이고 있는 인공지능 기술. 그중 하나인 '딥페이크'는 이미 사망한 사람의 얼굴을 재현해 가족들을 위로하기도 하고, 과거의 추억을 소환해 새로운 감동을 만들어 내며, 신원 보호가 필요한 사람들을 위한 안전장치도 될 수 있는 등 제대로만 쓰인다면 긍정적인 부분이 많은 기술이다. 그리고 앞으로 더 발전해, 실제와 거의 차이가 없는 정교한 동영상 제작도 가능할 것으로 보인다.

하지만 전문가들은 '딥페이크'가 성착취 동영상 제작의 사례처럼 범죄에 악용될 경우, 이제는 보이는 것을 보이는 대로 믿을 수 없는, 가짜와 진짜를 구분하기 어려운 치명적인 사회적 위험을 발생시킬 수 있다고 경고한다.

'그것이 알고싶다' 제작진은 전문가들의 자문을 받아 '딥페이크' 기술을 이용한 범죄 실험을 진행했다. 대상은 부모와 자녀. 자녀의 '딥페이크' 영상을 받아본 부모님들이 과연 어떤 반응을 보였을까.

병원에 입원한 자녀가 부모를 속여 돈을 요구하는 피싱 사기 모의 실험을 진행한 것. 딥페이크 영상을 받은 부모들은 "너 아닌데", "비슷한데 아닌 건 알수 있었다"라고 의심하면서도 "혹시 모른다"라는 불안감에 신용카드 사진을 바로 전송했다.

한 인공지능 연구원 제보자는 "딥페이크 제작자들이 활발하게 활동한 사이트는 K-POP 아이돌과 일본 AV 배우들 영상을 합친 사이트였다. 누가 누가 딥페이크 포르노물을 더 정교하게 만들어내느냐를 대결하는 분위기였다"고 전했다.

한 네덜란드 사이버 보안업체 CEO는 "사진이 올라와 있는 SNS가 이 기술의 피해자가 될 수 있다"고 경고했다.

이미나 한경닷컴 기자 helper@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지