英 가디언, 이스라엘 정보관리 인용
IDF "참조용 DB일뿐 표적 명단 아냐"
"이스라엘군, 하마스 표적 식별에 AI 활용"
팔레스타인 무장정파 하마스 소탕전을 벌이는 이스라엘이 표적 식별에 인공지능(AI)으로 구축한 데이터베이스를 활용했다는 주장이 제기됐다고 영국 일간 가디언이 3일(현지시간) 보도했다.

이 신문은 이스라엘 정보 관리 6명의 말을 인용해 이스라엘군(IDF)이 지난 6개월간 전쟁에서 하마스나 팔레스타인 이슬라믹 지하드(PIJ) 표적을 식별하는 데 '라벤더'라는 AI 시스템을 활용했다고 전했다.

이스라엘군 정보부대인 8200부대가 개발한 이 AI 시스템은 방대한 양의 정보를 처리해 하급 무장대원일 가능성이 있는 사람을 빠른 속도로 식별해내는 역할을 했다고 이들은 말했다.

소식통들에 따르면 8200부대는 무작위 샘플링과 예측치 교차 확인을 거쳐 '라벤더'가 90%의 정확도에 도달했다는 결론을 내리고 이를 표적 추천 도구로 사용하기로 했다.

'라벤더'는 어느 시점에는 하마스 및 PIJ와 연계 가능성이 있는 팔레스타인 남성을 최대 3만7천명까지 추려냈다고 한다.

'라벤더'를 사용했다는 한 소식통은 "나는 하나의 표적당 20초를 쓰곤 했고, 매일 수십 명을 작업했다"며 "나에겐 승인 도장 외에 인간으로서 부가가치가 없었다.

시간이 많이 절약됐다"고 주장했다.

가디언은 이스라엘·팔레스타인 독립 매체 '+972 매거진', 히브루어 매체 '로컬 콜'로부터 이런 증언을 제공받았다고 설명했다.

이스라엘군은 성명에서 "테러리스트 조직원을 식별하거나 어떤 사람이 테러리스트인지 예측하려 하는 AI 시스템을 사용하지 않는다"며 "정보 시스템은 목표물 식별 과정에서 분석가들을 위한 도구일 뿐"이라고 반박했다.

보도에 언급된 AI 시스템에 대해서는 "시스템이 아니라 단순한 데이터베이스로서 그 목적은 정보 자료를 교차 참조하기 위한 것"이라며 "공격 대상으로 적합하다고 확인된 군사 작전의 목록이 아니다"라고 강조했다.

소식통 중 두 명은 전쟁 초기 가자지구에 있는 하급 대원을 공습할 때 민간인 15∼20명 사망은 허용됐다고도 주장했다고 가디언은 전했다.

이런 공습에는 유도 기능이 없는 재래식 폭탄인 '멍텅구리 폭탄'(dumb bomb)이 쓰여 집 전체를 파괴, 안에 있는 사람을 모두 죽였다고 이들은 말했다.

이에 대해 이스라엘군은 "예상되는 군사적 이점과 예측되는 부수적 피해를 개별 평가해 피해가 더 크면 공습을 행하지 않는다"며 "수만 명을 집에서 죽이는 정책에 관한 주장을 전면 부인한다"고 밝혔다.

/연합뉴스