"AI에 서울 방어 맡겨도 되나"…올트먼 "따져볼 것 많다"
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
브루킹스硏과 온라인 대담
군사분야 활용 가능하지만
인간 판단 대체에는 부정적
AI 시설 공평한 분배 희망
선거에 악용되는 것 막을 것
군사분야 활용 가능하지만
인간 판단 대체에는 부정적
AI 시설 공평한 분배 희망
선거에 악용되는 것 막을 것
샘 올트먼 오픈AI 최고경영자(CEO·사진)가 인공지능(AI)을 전쟁에 활용할 가능성에 “(따져봐야 할) 질문이 많다”고 답했다. 그는 AI가 핵무기 발사를 결정할 수 있어야 하는 것은 아니라면서도, 빠르게 행동하기 위해 AI를 활용할 수 있다는 취지로 설명했다.
올트먼 CEO는 7일(현지시간) 미국 싱크탱크 브루킹스연구소가 ‘AI 시대의 지정학적 변화’를 주제로 개최한 온라인 대담에서 북한이 서울을 공격했을 때 AI가 북한군 항공기를 격추할 가능성에 관해 질문을 받았다.
진행자는 “AI 때문에 강대국 간 핵 전쟁이 발생할 가능성을 우려하는 의견이 있다”며 “북한이 서울을 향해 군 항공기 100대를 출격시켰다. 한국은 AI가 조작하는 로봇을 이용해 항공기를 전부 격추했고, 북한 조종사 100명이 목숨을 잃었다”는 구체적인 상황을 제시했다.
이에 대해 올트먼 CEO는 “공격이 이뤄지고 있다는 것이 얼마큼 확실한지, 예상되는 인명 피해는 어느 정도인지 (우리가 따져봐야 할) 질문이 많다”고 답했다. 그는 “AI가 핵무기 발사를 결정할 수 있어야 한다는 주장을 들은 적이 없고, 접근하는 미사일을 요격할 때처럼 빠르게 행동해야 할 때 AI를 사용해서는 안 된다고 말하는 것도 들은 적이 없다”고 했다.
그는 “그사이에 넓은 (회색)지대가 있다”며 “회색지대의 어느 지점에 선을 그어야 할지” 생각해야 한다는 의견을 개진했다. 군사 분야에서 AI를 보조적으로 활용할 수 있겠지만, AI에 중요한 판단을 위임하기는 쉽지 않을 것이라는 뜻으로 해석된다. 또 “나는 국방·안보 분야 전문가가 아니다”며 “오픈AI에서 이런 결정을 하지 않아도 되길 바란다”고 선을 그었다.
국가 간 첨예한 갈등이 AI 산업에 미칠 영향에 대해서는 “우리는 매우 분명히 미국과 우리 동맹 편”이라며 “미국이 이끌면서도 꽤 넓고 포용적인 연합체가 AI 기반시설 확대를 주도하면 좋겠다”고 희망했다. 올트먼 CEO는 “AI 기술이 인류 전체에 도움이 되기를 바란다”며 “우리가 동의하지 않는 지도부가 있는 특정 국가 사람에게만 이익이 되는 일을 원치 않는다”고 덧붙였다. 중국과의 관계에 대해서는 “AI와 관련해 중요한 수많은 것에서 우리는 중국 정부 의견에 동의하지 않겠지만, 모두가 AI의 파국적 위험을 줄여야 한다는 목표를 공유할 것이란 희망을 품고 있다”고 말했다. 높은 수준의 AI 안전성을 확보하기 위해 중국 정부와의 소통에 노력하겠다는 의지도 강조했다.
이 대담에서 올트먼 CEO는 AI가 보편적으로 보급돼야 한다고 역설했다. 그는 AI 시스템을 운영하는 데 필요한 컴퓨팅 자원(AI 컴퓨팅), 반도체, 데이터센터 등 AI 기반시설이 “미래에 가장 중요한 상품이 될 가능성이 크다”고 전망했다. 이어 “AI 기반시설이 저렴해지고 이를 누구나 사용할 수 있도록 민간뿐만 아니라 정부도 공공재로 투자해 사람들에게 공평하게 분배하길 바란다”고 덧붙였다.
그는 AI 기업들이 11월 미국 대선에서 AI가 악용되는 것을 막기 위해 집중하고 있다고 했다. 올트먼 CEO는 “우리는 선거가 끝날 때까지 편집증적으로 (굉장히 예민하게) 대응할 것”이라고 말했다.
임다연 기자 allopen@hankyung.com
올트먼 CEO는 7일(현지시간) 미국 싱크탱크 브루킹스연구소가 ‘AI 시대의 지정학적 변화’를 주제로 개최한 온라인 대담에서 북한이 서울을 공격했을 때 AI가 북한군 항공기를 격추할 가능성에 관해 질문을 받았다.
진행자는 “AI 때문에 강대국 간 핵 전쟁이 발생할 가능성을 우려하는 의견이 있다”며 “북한이 서울을 향해 군 항공기 100대를 출격시켰다. 한국은 AI가 조작하는 로봇을 이용해 항공기를 전부 격추했고, 북한 조종사 100명이 목숨을 잃었다”는 구체적인 상황을 제시했다.
이에 대해 올트먼 CEO는 “공격이 이뤄지고 있다는 것이 얼마큼 확실한지, 예상되는 인명 피해는 어느 정도인지 (우리가 따져봐야 할) 질문이 많다”고 답했다. 그는 “AI가 핵무기 발사를 결정할 수 있어야 한다는 주장을 들은 적이 없고, 접근하는 미사일을 요격할 때처럼 빠르게 행동해야 할 때 AI를 사용해서는 안 된다고 말하는 것도 들은 적이 없다”고 했다.
그는 “그사이에 넓은 (회색)지대가 있다”며 “회색지대의 어느 지점에 선을 그어야 할지” 생각해야 한다는 의견을 개진했다. 군사 분야에서 AI를 보조적으로 활용할 수 있겠지만, AI에 중요한 판단을 위임하기는 쉽지 않을 것이라는 뜻으로 해석된다. 또 “나는 국방·안보 분야 전문가가 아니다”며 “오픈AI에서 이런 결정을 하지 않아도 되길 바란다”고 선을 그었다.
국가 간 첨예한 갈등이 AI 산업에 미칠 영향에 대해서는 “우리는 매우 분명히 미국과 우리 동맹 편”이라며 “미국이 이끌면서도 꽤 넓고 포용적인 연합체가 AI 기반시설 확대를 주도하면 좋겠다”고 희망했다. 올트먼 CEO는 “AI 기술이 인류 전체에 도움이 되기를 바란다”며 “우리가 동의하지 않는 지도부가 있는 특정 국가 사람에게만 이익이 되는 일을 원치 않는다”고 덧붙였다. 중국과의 관계에 대해서는 “AI와 관련해 중요한 수많은 것에서 우리는 중국 정부 의견에 동의하지 않겠지만, 모두가 AI의 파국적 위험을 줄여야 한다는 목표를 공유할 것이란 희망을 품고 있다”고 말했다. 높은 수준의 AI 안전성을 확보하기 위해 중국 정부와의 소통에 노력하겠다는 의지도 강조했다.
이 대담에서 올트먼 CEO는 AI가 보편적으로 보급돼야 한다고 역설했다. 그는 AI 시스템을 운영하는 데 필요한 컴퓨팅 자원(AI 컴퓨팅), 반도체, 데이터센터 등 AI 기반시설이 “미래에 가장 중요한 상품이 될 가능성이 크다”고 전망했다. 이어 “AI 기반시설이 저렴해지고 이를 누구나 사용할 수 있도록 민간뿐만 아니라 정부도 공공재로 투자해 사람들에게 공평하게 분배하길 바란다”고 덧붙였다.
그는 AI 기업들이 11월 미국 대선에서 AI가 악용되는 것을 막기 위해 집중하고 있다고 했다. 올트먼 CEO는 “우리는 선거가 끝날 때까지 편집증적으로 (굉장히 예민하게) 대응할 것”이라고 말했다.
임다연 기자 allopen@hankyung.com