[AI뉴스레터]미래 전쟁의 게임 체인저, AI 군사력
영화 스타워즈 시리즈에서 드로이드 로봇 군단이 반란군과 전투를 벌이고 마블 시리즈 ‘가디언스 오브 갤럭시’에서 무인 드론으로 우주전쟁의 승패가 갈리는 모습을 볼 때만 해도 상상력을 스크린에 옮긴 것에 만족했었는데 드론 폭격으로 인한 피해가 뉴스에 종종 등장하고 적진 정찰에 군사로봇이 활용되고 있는 현실이 SF영화에서 보던 것과 크게 다를 것이 없다.
AI가 활용된 전쟁이 실시간으로 진행 중이다. 3월 포춘지에, 우크라이나가 터키에서 수입한 자율주행 드론 TB2를 이용하여 러시아의 탱크와 포병에게 타격을 가하는 동영상이 공개되었다. 러시아 역시 시리아 내전에서 사용된 자율 주행 기능 및 자폭 기능이 있는 ‘가미가제’ 드론 ‘란셋(Lantset)’을 보유 중이고 전장에서의 데이터 분석을 위해 AI가 활용될 것이라는 인터뷰 내용도 있었다. 또한 딥페이크(deepfake)를 활용하여 허위정보를 흘리거나 소셜미디어를 통해 생산되는 방대한 양의 정보를 AI를 통해 분석하는 등 전쟁에서의 AI활용이 보다 본격화되고 있음도 확인 되었다.

AI를 활용한 국방 선진국들의 준비

고대 중국의 병법서인 ‘손자병법’에 ‘수(數)에서 밀리면 싸우지 마라’라는 전법이 있다. 최근까지도통용되던 기본 전법이다. 핵무기 보유국들도 보유 기수로 우위를 논하기도 하니 이러한 ‘수’싸움은 힘의 평가잣대로 계속 활용되고 있다. 우크라이나 전쟁을 보도하는 언론에서도 러시아와 양국간의 병력 수, 여러 무기 보유숫자 비교표를 보여주고 있지만, 이제는 재래식 무기 숫자가 아닌 소프트웨어 역량, 즉 자율형 드론, 무인 수송기·수송정, 전투로봇 등 AI기반 전략자산의 수준이 더 중요한 잣대가 되고 있다
1958년 창설된 전설적인 연구개발기관 DARPA(Defense Advanced Research Projects Agency, 미국 국방고등연구계획국)에서는 인터넷의 전신인 알파넷, 위성위치추적(GPS), 자율주행 등 첨단 기술개발에 이어 2018년부터 20억 달러 규모의 AI 넥스트 캠페인(AI Next Campaign)프로젝트를 시작하였다. 이 캠페인은 국방 자동화는 물론 머신러닝 보안 향상, 정교한 사이버 공격에 대한 실시간 분석 등 자율형 무기체계와 관련한 윤리적, 법적, 사회적인 문제까지 총 망라하여 검토하고 있다. 이미 미군은 능동형 유도미사일 ‘패트리어트’와 무인드론 공습 등을 통해 AI 무기를 실전에 투입한 바 있다. 또한 마이크로소프트로부터 AR헤드셋 홀로렌즈를 공급받는 계약을 체결했는데, 영화 ‘아이언맨’의 ‘자비스’ AI가 보여주었듯이 전장에 필요한 실시간 시청각 정보를 헤드셋에 전달하여 군작전 수행에 도움을 줄 예정이다.
세계 2위의 군사대국 러시아의 경우 2013년 참모총장 제라시모프(Valery Gerasimov)를 통해 독립적으로 군사작전을 수행 할 수 있는 로봇화된 부대를 도입 할 예정이라고 밝혔고, 러시아판 DARPA모델의 R&D조직을 만들어 AI 전투로봇 배치를 위해 빅데이터 및 소프트웨어 기술 개발에 투자를 집중하고 있다. 또한 2022년 2월 블라디미르 푸틴(Vladimir Vladimirovich Putin) 대통령은 러시아의 ‘조국수호의 날’ 기념연설에서 “극초음속 장비 등 첨단 무기체계를 지속적으로 개발하고, 디지털 기술과 AI 사용을 확대할 것이며, 이는 러시아 군의 전투 능력을 크게 증가시킬 것"이라고도 했다.
2030년까지 AI 전분야에서 미국을 제치겠다는 AI굴기를 선언한 세계 제1의 빅데이터 통제국가인 중국 역시 2017년 시진핑 주석이 ‘AI군대화’를 언급한 이후 적 함정에 대한 자살 공격이 가능한 자율형 로봇 잠수함 등 정부차원의 AI무기 개발을 지속 진행 중이다.

한국의 국방AI와 감시경계로봇 SGR-A1

한국 국방기술원의 ‘2021 국방 ICT 조사보고서’에서 우리의 국방AI분야는 미국과 약 3년의 기술격차(77%수준)가 있다고 평가했다. 이를 개선하기 위해 2030년까지 지능화 및 무인화 무기체계를 전력화 하는 AI R&D예산을 1조원까지 확대 투자하고 국방과학연구소 지능정보기술부를 국방인공지능기술센터로 확대 개편하여 국방 AI를 선도할 석·박사급 인력 5000여명의 양성계획을 밝히기도 했다.
이렇게 AI 기반의 무기개발 논의가 활발해지기 전에, 자동감시 기능이 탑재된 삼성테크윈(현 한화에어로스페이스) SGR-A1(South Korea Intelligent Surveillance and Guard Robot A1)이 휴전선부근 전방부대에서 상용평가를 마쳤고 일부가 비무장지대에 배치되었다는 외신이 있었다(국방부의 공식확인은 없었음). 이 장비는 국내보다 해외에서 최초의 반인류적인 완전 자율형 로봇(‘Killer Robot’)으로 유명세를 탔다. 2010년 삼성테크윈 대변인이 “SGR-A1이 자동감시 및 발사 능력을 갖춘 것은 사실이나 사람에게 자동으로 사격을 할 수는 없다”라고 밝히긴 했지만, 지구상 유일한 휴전국가이고 비무장지대라는 특수성으로 인해 실전배치가 합리적이라는 의견도 만만치 않았다.

페트로프의 위대한 판단과 자율형 무기의 위험성

AI의 비약적인 발전에도 불구하고 예상치 못한 결과가 여러 사례를 통해 확인되고 있다. 미국과 소련(현 러시아)간 냉전이 격화되던 1983년 9월 소련 위성 관제센터 시스템은 반사된 햇빛을 오판하여 ‘미국이 ICBM을 발사했으니 핵무기 발사로 대응 하라’라고 권고했었다. 다행히 당직 사령이었던 스타니슬라프 페트로프(Stanislav Petrov)의 과감한 판단으로 바로잡을 수 있었지만 그의 선택이 아니었다면 제3차 세계대전이 일어 날 수도 있었던 아찔한 순간이었다.
여러 피해가 발생하기도 했다. 이라크전이 한창이던 2003년 3월과 4월 연합군의 패트리어트 미사일의 식별 오류로 미국과 영국의 전투기가 각각 폭격을 받아 아군 3명의 사망한 소식을 미국방성 산하 방위과학위원회 보고서에서 밝힌 바 있다. 또한, 2021년 8월 미군의 아프가니스탄 철수 직전에 테러요원으로 오판하여 민간인이 희생된 드론 공격 사건도 있었는데 이때 사망자 10명 중 7명이 두 살배기를 포함한 어린이들 이었다.

AI기반 무기에 대한 정책적 논의

사람을 피하는 기술이 적용된 자율주행 자동차는 민간인 사상자를 줄일 수 있기 때문에 언젠가 대부분의 자동차에 자율주행기능이 탑재되는 것은 모두가 동의하는 미래일 것이다. 그와 달리 영화 ‘터미네이터’의 스카이넷이나 ‘매트릭스’의 인간을 지배하는 AI 컴퓨터처럼 초고도화된 AI는 인류를 파괴하게 된다는 SF영화들의 공통된 메시지로 인해 컴퓨터가 알아서 판단하는 AI 무기에 대해 부정적인 선입견이 많다. 굳이 페트로프의 선택이나 패트리어트의 오폭 사례를 떠올리지 않더라도 AI가 반영된 무기 체계 프로세스에 인간의 개입은 필수적이다
2017년 제네바에서 열린 CCW(The Convention on Certain Conventional Weapons, 특정재래식 무기금지협약)회의 에서 ‘인공지능으로 작동되는 킬러로봇’을 주제로 UN차원의 논의가 시작되었다. 당시 테슬라의 일론 머스크(Elon Musk), 딥마인드의 무스타파 술레이만(Mustafa Suleyman)을 포함한 116개국의 로봇 및 인공지능 전문가들이 UN에게 킬러로봇 개발을 금지하는 조치를 촉구하는 서한을 발송하기도 했다. 하지만 국방예산투자 상위권에 있는 미국, 러시아, 이스라엘, 호주 등의 국가들은 이러한 국제조약 제정 움직임에 반대하는 입장이다. 한국과 같이 휴전상태이거나 적국의 조약 준수 여부가 불명확할 경우 찬성하기가 어려운 것 또한 어쩔 수 없는 현실이기 때문이다.

이제는 윤리적 고민을 제대로 해야 할 때

한국과 미국 등 많은 국가의 증권거래소에서는 급격한 경제여건 변동으로 금융시장이 단시간에 붕괴되는 불상사를 막기 위해 조건을 충족 할 경우 ‘써킷브레이커(circuit breakers)’가 발동해 일정시간 증권거래를 중단 시킨다. 잠시 숨을 돌리며 최악의 상황을 대비하라는 건데, 전쟁에서는 이렇게 숨 돌릴 수 있는 장치는 전혀 없고, 일단 터지고 나면 모두가 불행하게 될 뿐이다.
지금까지는 AI가 반영된 무기를 효율성에만 집중하여 경쟁적으로 개발하여 왔다. 본격적으로 전장에 배치되고 활용되는 현재, 더 늦기 전에 윤리적인 고민을 하지 않는다면 돌이킬 수 없는 파국을 맞을 지도 모른다. 우리는 지금 자국의 이익을 위해 전쟁까지 불사하는 잘못된 판단이 불러오는 부정적인 나비효과를 실시간으로 목격하고 있다. 쉽진 않겠지만 국방AI가 해결해야 할 과제들을 효율성뿐만 아니라 윤리적 문제까지 고려해 차근차근 논의하는 것이 필요한 시점이다.