사진=올가 로이에크 유튜브 캡처
사진=올가 로이에크 유튜브 캡처
"중국 남자와 결혼하고 싶습니다."

금발 미모의 여성 '에이프릴'이 중국판 인스타그램 샤오훙수에서 유창한 중국어로 "중국에서 8년 살았다"며 친중(親中) 발언을 쏟아내고 있다. 또 다른 샤오훙수 계정 '나타샤의 수입과자점'엔 구독자 수 30만명의 러시아인 '나타샤'가 러시아 과자를 소개하고 판매한다. 영상 수준은 제법 훌륭하다. 봉지를 뜯어 '오도독' 깨물어 먹는 소리까지 풍부한 ASMR(자율 감각 쾌락 반응)을 담았다. 설날 접대용 사탕 영상은 '좋아요'만 11만개 이상이다.
사진=올가 로이에크 유튜브 캡처
사진=올가 로이에크 유튜브 캡처
계정 주인 나타샤는 영상에 "(사탕이)적당히 달아 중국 분들 입맛에 딱"이라며 "공식 온라인스토어에서 출고된다"는 댓글을 달았다. 적지 않은 영상에 좋아요가 수만 개, 댓글은 수천 개씩 달렸다. 하지만 조금 이상하다. '에이프릴'과 '나타샤'가 동일인처럼 꼭 닮았기 때문이다. 사실 이 영상은 모두 인공지능(AI) 기술로 만들어진 '가짜 영상'이다.

"세상에 이런 일이...소름 끼친다" 진짜 주인공 패닉

영상=올가 로이에크 유튜브
영상=올가 로이에크 유튜브
24일 업계에 따르면 AI 기술이 발달하면서 이같은 딥페이크(Deepfake) 범죄가 확산하고 있다. 사람의 얼굴 혹은 신체 일부를 진짜처럼 보이도록 영상 조작이 가능해지면서 실제 진위 여부를 알 수 없는 딥페이크 영상이 범죄에 악용되고 있다.

중국에서 활동하는 '에이프릴'과 '나타샤'는 러시아 국적으로 중국에 거주하며 파워 인플루언서로 활동하고 있다. 샤오훙수에는 이런 나타샤들이 수십명 검색된다. 친중 발언을 거침없이 내뱉으면서 우호적인 여론을 형성하고 식음료 또는 패션 상품을 판매하고 있다.

영상 속 실제 인물은 우크라이나 국적의 올가 로이에크(Olga Loiek)라는 젊은 여성이다. 로이에크는 지난달 말 자신의 유튜브 채널에 "한 누리꾼이 준 메시지를 읽고 깜짝 놀랐다"며 "사실 내 영상이 중국에 퍼진 건 이미 알고 있었던 사실이라 별로 신경 쓰이지 않았는데, 그가 준 링크를 눌러 확인했을 땐 정말 충격적이었다. 가짜 복제인간이 한둘이 아니었다"고 밝혔다.
사진=올가 로이에크 유튜브 캡처
사진=올가 로이에크 유튜브 캡처
사진=올가 로이에크 유튜브 캡처
사진=올가 로이에크 유튜브 캡처
가짜 로이에크 영상에선 노골적인 정치적 메시지가 나오기도 했다. 러시아에 대한 중국의 경제적 지원 및 우호적인 양국 관계 등을 찬양하고 사탕을 판매하는 식이다. 딥페이크로 만들어진 가짜 로이에크는 "중국에서 유학하다 머물기로 결정했다" "중국은 강국" "중국 남성과 결혼하고 싶다"는 내용의 발언을 내뱉는다. 진짜 로이에크는 "그들은 내 얼굴을 이용해 수익을 내고 있다"며 "자세히 보면 약간 필터가 입혀진 듯 부자연스럽다. AI 콘텐츠 사용시 규제가 필요하다"고 호소했다.
사진=바이두 캡처
사진=바이두 캡처
로이에크 외에도 지난해 중국판 틱톡에서 40만명 팔로워를 보유한 '폴 코샤티(Paul Kochatie)' 역시 딥페이크 악용 사례로 꼽힌다. 그는 자신이 러시아인이며 러시아-우크라이나 전쟁에서 정예 부대로 참전하고 있다고 주장했다. 그가 올린 전쟁 관련 콘텐츠 영상은 50만회 돌파할 정도로 인기였다. 하지만 누리꾼들은 전쟁 배경이 중국 지방 도시로 보이는 데다 긴박한 전쟁 상황에서 자유롭게 영상을 촬영하고 스마트폰을 소지하고 있다는 점 등에서 허점을 잡아냈다. 이후 아이피(IP) 주소가 중국 허남성으로 알려지면서 정체가 탄로났다.

바이든 "투표하지 마"…경선 앞두고 '딥페이크 전화' 기승

영상=@AXIA 쇼츠
영상=@AXIA 쇼츠
AI 기술을 악용한 딥페이크 범죄는 전 세계적으로 폭증하고 있다. 세계경제포럼(WEF)에 따르면 AI 딥페이크 동영상 수는 2019년에서 2020년 사이 900% 급증했다. WEF는 올해 1월 발간한 '글로벌 위험 보고서'에서 2년간 전세계 가장 큰 위험이 'AI'로부터 나올 수 있다고 지적했다. 유럽연합(EU) 경찰 유로폴(Europol)은 2026년까지 온라인 콘텐츠의 최대 90%가 합성으로 생성될 수 있다고 우려했다.

특히 올해는 세계적으로 중요한 선거가 많아 정치권에서 'AI 리스크'는 심화할 것으로 예상된다. 과거에는 주로 여성 및 아동에 음란물을 합성한 성착취물이 논란이 됐으나, 최근에는 연예인이나 유명인, 정치인 등을 합성해 사기에 이용하는 사례가 늘어나는 추세다.

미국의 경우 지난 1월23일 뉴햄프셔주 프라이머리(예비선거)를 앞두고 조 바이든 대통령을 사칭, 경선 불참을 조장하는 딥페이크 음성이 유포돼 논란이 됐다. 전화는 "진짜 헛소리네" 등 바이든 대통령이 자주 사용하는 말투를 흉내냈다. 뉴햄프셔주 검찰은 "바이든 대통령 목소리처럼 들리지만, 이 메시지는 인공적으로 생성된 것으로 보인다"며 "오인하지 말라"고 당부했다.
 23일 오전 서울 양천구 방송통신심의위원회에서 열린 제14차 통신심의소위원회 회의에서 한 위원이 틱톡에 올라온 '가상으로 꾸며본 윤석열 대통령 양심고백' 딥페이크 영상 게시물 관련 자료를 살펴보고 있다. 사진=뉴스1
23일 오전 서울 양천구 방송통신심의위원회에서 열린 제14차 통신심의소위원회 회의에서 한 위원이 틱톡에 올라온 '가상으로 꾸며본 윤석열 대통령 양심고백' 딥페이크 영상 게시물 관련 자료를 살펴보고 있다. 사진=뉴스1
국내에서도 오는 4월10일 총선을 앞두고 딥페이크가 기승을 부리고 있다. 중앙선거관리위원회가 지난달 29일부터 지난 19일까지 20일간 적발한 건수만 129건에 달한다. 공직선거법상 딥페이크를 이용한 선거운동은 금지돼 있다. 윤석열 대통령이 등장하는 딥페이크 조작 영상이 확산되자 방송통신심의위원회는 지난 23일 플랫폼 업체에게 영상 차단과 삭제를 요청했다. 같은날 네이버, 카카오, 구글, 메타, 엑스(옛 트위터), 바이트댄스(틱톡) 관계자들과 함께 허위정보 대응 관련 자율규제 강화 회의를 개최하기도 했다.

선거일이 가까워질수록, 딥페이크 조작 영상은 더욱 기승을 부릴 것으로 예상된다. 네이버는 딥페이크와 관련된 검색 결과에 '경고 문구'를 붙이는 방안을 추진 중이다. 카카오는 AI 자회사 카카오브레인이 생성 AI 모델 ‘칼로’에 비가시성 워터마크 기술 도입을 검토하고 있다.

인스타그램을 운영하는 메타의 한 관계자는 "AI 딥페이크 조작물의 확산을 막기 위해 커뮤니티 정책을 위반하는 조작된 미디어를 삭제하고, 허위 또는 변형된 콘텐츠라고 판명된 게시물에 라벨을 붙이는 등 다방면의 조치를 취하고 있다"고 설명했다.
사진=게티이미지뱅크
사진=게티이미지뱅크
조아라 한경닷컴 기자 rrang123@hankyung.com