머스크 테슬라 CEO
머스크 테슬라 CEO
“인공지능(AI)에 일자리를 뺏긴 사람들로 인해 사회가 극도로 불안정해진다. AI가 해킹과 허위 정보로 만들어낸 ‘가짜뉴스’ 때문에 전쟁이 벌어진다.”

전기자동차 제조업체 테슬라의 일론 머스크 최고경영자(CEO)가 두려워하는 AI가 가져올 인류의 미래다. 머스크 CEO는 지난 15일 미국 로드아일랜드에서 열린 미국주지사협의회 하계총회에 참석해 “AI는 인간 문명의 존재를 근본적으로 위협할 것”이라며 암울한 시나리오를 벗어나기 위한 대책 마련이 시급하다고 강조했다.

머스크의 경고가 나온 지 1주일 만인 23일 마크 저커버그 페이스북 CEO는 “(AI에 대한 비관론은) 상당히 무책임하다”고 머스크에게 일침을 가하며 AI의 위험성에 대한 논쟁에 다시금 불을 지폈다. AI는 인류에 재앙일까, 축복일까.

◆“AI 종말론 무책임”

저커버그 페이스북 CEO
저커버그 페이스북 CEO
저커버그는 이날 미국 캘리포니아주 팰로앨토에 있는 자택 뒤뜰에서 페이스북 이용자들과 페이스북 라이브(생중계 서비스)로 이야기를 나눴다. 한 이용자가 “머스크의 최근 인터뷰를 봤는데 미래에 대한 그의 가장 큰 두려움은 AI였다”며 저커버그의 생각을 물었다. 저커버그는 “꽤 확실한 의견을 갖고 있고, 특히 AI에 대해선 낙관적”이라며 “회의론자나 종말론 시나리오를 선전하는 사람을 이해할 수 없고 어떤 측면에선 상당히 무책임하다(pretty irresponsible)고 생각한다”고 답했다.

앞서 머스크는 “로봇이 길거리에서 인간을 살육하는 상황을 지켜보고 난 뒤에야 위험을 자각한다면 너무 늦다”며 “일반적으로 나쁜 일이 벌어지고 수년 후에 규제당국이 해당 산업을 규제하는 것이 관례지만 AI에 대해서는 선제적이고 능동적인 대응이 필요하다”고 강조했다.

저커버그는 AI를 활용한 서비스의 유용성을 주창해왔다. 그는 지난해 초 영화 ‘아이언맨’에 나오는 로봇 비서 ‘자비스’를 모델로 AI 비서를 개발하겠다고 포부를 밝힌 지 11개월여 만에 배우 모건 프리먼의 목소리를 입힌 가정용 음성 비서를 공개하기도 했다. 자비스는 저커버그가 침대에서 눈을 뜨자마자 인사를 건네고, 커튼을 걷어주며 요일과 기온, 일정을 알려준다. 토스트를 굽는 것은 물론 얼굴을 인식해 부모의 방문 사실을 알려줄 수도 있다.

저커버그는 “앞으로 5~10년 사이에 AI는 우리 삶의 질을 크게 향상시킬 것”이라고 말했다. 그는 “기술은 언제나 좋은 일에도 나쁜 일에도 쓰일 수 있다”며 “여러분은 무엇을 만들고 어떻게 쓸 것인지 주의를 기울여 결정해야 한다”고 덧붙였다.

◆AI, 인류에 위협…경계심 높아져

저커버그 VS 머스크 'AI 설전'
저커버그와 머스크는 ‘무엇을 AI로 볼 것인가’에서부터 상반된 견해를 보이고 있다. 머스크가 이해하는 AI는 인간의 요청이나 개입 없이 스스로 문제를 인식하고 해결하는 하나의 알고리즘이다. 머스크는 저커버그가 선보인 자비스에 대해 “가전을 자동으로 작동하는 것을 AI라고 부르지 않겠다”며 “불을 켜고 온도를 맞추는 소프트웨어는 AI가 아니다”고 말했다. 머스크의 시각으로 보면 애플 ‘시리’, 마이크로소프트(MS) ‘코타나’, 구글 ‘어시스턴트’, 아마존 ‘알렉사’ 등 AI 비서 프로그램은 모두 AI란 이름을 붙일 수 없다.

테슬라와 항공우주업체 스페이스X를 이끄는 머스크는 지난 몇 년간 AI의 위험성에 대한 우려를 피력해왔다. 그가 화성 이주 프로젝트를 추진하는 것도 AI가 지구를 장악하게 될 경우에 대한 ‘백업 플랜’이라고 말할 정도다. 세계적인 물리학자 스티븐 호킹이나 MS 창업자 빌 게이츠도 인공지능이 인간의 지능을 능가할 것이란 측면에서 머스크의 의견에 동의하고 있다.

저커버그와 머스크의 견해 차는 컴퓨터 프로그래밍에 대한 이해의 차이에서 비롯됐다고 보는 전문가들도 있다. 저커버그는 1년간 직접 코딩해 음성비서를 개발한 프로그래머인 반면 경영학과 물리학을 전공한 머스크는 AI에 대한 직관적 이해를 통해 개연성 있는 시나리오를 제시하는 것이란 설명이다. 박근수 서울대 컴퓨터공학과 교수는 “컴퓨터의 능력(computability)에 관한 이론에 따르면 문제해결 방식을 스스로 고안하고, 이 방법을 평가하는 것은 컴퓨터의 능력을 벗어나는 것”이라면서도 “하지만 프로그램 오류나 해킹으로 자율주행차나 비행기 사고가 일어나는 것은 얼마든지 가능하기 때문에 추상적으로 미래를 예단하긴 어렵다”고 설명했다.

추가영 기자 gychu@hankyung.com