AI 자동화 도구로 빠른 속도로 표적 생성, 타격
깜깜이 사용·오류 지적 잇따라…"무차별 공격과 마찬가지" 비판도
가자 민간희생 급증에 이스라엘 AI 무기 도마…"사용규칙 있나"
가자지구 전쟁으로 민간인 사망이 속출하고 있는 가운데, 인권 단체들이 전장에서 이스라엘이 동원한 인공지능(AI) 기술에 문제를 제기하고 있다고 미국 정치전문매체 폴리티코가 3일(현지시간) 보도했다.

폴리티코에 따르면, 이스라엘은 가자지구를 공격하면서 학교, 구호단체 사무실, 예배 장소, 의료 시설 등을 포함하는 타격 목표물을 골라낼 때 '복음'(Gospel)이라는 이름의 AI 기반 시스템을 활용하고 있다.

이 AI는 기계학습을 통해 방대한 양의 데이터를 신속하게 분석해 공격할 수 있는 목표물을 가려내는 것으로 알려졌다.

이스라엘군은 가자지구에서의 AI 유도 폭탄 등 AI 관련 기술 사용에 대해 말을 아끼고 있으나, 지난 2월 성명에서는 복음이 잠재적 표적을 식별하는 데 사용된다고 인정했다.

다만 공격에 대한 최종 결정은 항상 사람이 내리며, 명령 체계에 있는 적어도 한명 이상의 승인이 필요하다고 강조했다.

군은 가자지구 북부 지상전이 한창이던 11월에 성명을 통해 복음 시스템이 정확도를 높이는 것 외에도 "자동화 도구를 이용해 빠른 속도로 표적을 생성할 수 있다"고 밝힌 바 있다.

해당 성명에서 군은 전투 시작된 후 27일간 1만2천개 이상의 목표물을 타격했다고 언급하기도 했다.

인권 단체들은 이스라엘군의 이런 AI 활용에 규칙이 충분하게 적용되고 있는지 의문을 제기하고 있다.

팔레스타인이 비영리단체인 '함레'(7amleh)는 최근 성명에서 전쟁에서 자동화된 무기를 사용하는 것은 "팔레스타인 주민들에게 최고로 사악한 위협이 된다"고 주장했다.

이스라엘 최대 인권단체인 이스라엘 민권협회도 지난해 12월 자동 표적 시스템과 관련해 더 높은 투명성을 요구하면서 군에 정보공개를 청구했다.

가자 민간희생 급증에 이스라엘 AI 무기 도마…"사용규칙 있나"
AI 전쟁 정책을 추적하는 미국 인사들도 이스라엘이 본래 목적을 왜곡해 민간인을 보호하기보다는 표적 목록을 확대하는 데 AI를 사용하고 있다고 주장하고 있다.

진보 성향의 외교 정책 싱크탱크인 국제정책센터의 낸시 오카일 대표는 "이스라엘이 '파워 티켓'이라고 부르는 목표물을 잡으려고 AI를 활용했다는 사실이 분명해지고 있다"면서 이는 정밀 타격을 위해 AI를 사용한다는 본래의 목적과는 다른 것이라고 주장했다.

이스라엘군은 하마스 또는 팔레스타인 이슬람 지하드와 관련해 안보 또는 인식상 중요성이 있는 표적을 파워 티켓이라고 부르는데, 오카일 대표는 이스라엘군이 파워 티켓 지정을 광범위하게 인정하고 있는 것으로 보인다고 강조했다.

폴리티코는 이스라엘군에 AI 투명성을 높이라는 지적은 이스라엘을 전폭 지원하는 미국 정치권을 불편하게 만들 수 있다고 전망했다.

미국 정부는 이스라엘의 AI 사용에 대해서 언급하는 것을 피해 왔고, 인권 단체들은 정부가 이스라엘이 전쟁을 어떻게 수행하는지를 제대로 통찰하지 못하고 있다고 비난해왔다.

이스라엘은 미국이 지난해 11월 '전쟁에서의 책임있는 AI 사용'을 촉구하면서 제안한 국제 논의 구상에도 동참하지 않은 상태다.

전문가들은 모든 AI 표적 시스템은 높은 위험을 안고 있다고 지적한다.

영국 보안업체 트레일 오브 비트의 하이디 클라프 이사는 "AI 시스템의 높은 오류율 기록을 고려할 때, 목표물을 부정확하고 편향적으로 자동화하는 것은 무차별적 표적 공격과 크게 다르지 않다"고 주장했다.

/연합뉴스