NYT 기고…"언어모델 AI, 문명 해킹·조작 가능…도입 늦추고 대비해야"

역사학자이자 세계적 베스트셀러 작가인 유발 하라리가 'GPT-4' 같은 인공지능(AI)의 위험성을 지적하며 AI 사용을 늦추면서 이에 대한 통제 방법을 찾아야 한다고 주장했다.

유발 하라리 "AI가 인류 장악하기 전 인간이 AI 통제해야"
하라리와 인도적 기술 센터 공동설립자인 트리스탄 해리스와 아자 라스킨은 24일(현지시간) 뉴욕타임스(NYT) 공동기고문에서 "AI의 언어 습득은 AI가 문명의 운영 체제를 해킹하고 조작할 수 있게 됐음을 뜻한다"며 이같이 밝혔다.

이들은 GPT-4 이상 성능의 AI 시스템을 지나치게 빠르게 받아들여서는 안 된다며 AI 수용 속도를 기술 기업들의 시장 장악 경쟁에 맡기지 말고 인류가 AI를 잘 다룰 수 있는 능력을 갖추는 것에 맞춰야 한다고 강조했다.

필자들은 AI라는 유령이 20세기 중반부터 떠돌았지만 최근까지도 공상과학에 등장하는 것과 같은 먼 미래 일로 남았다면서 AI가 실질적인 위험으로 떠오르게 된 계기는 바로 GPT-4 같은 언어모델이라고 진단했다.

언어는 인류 문화의 운영 체제로서 신화와 법, 신과 돈, 예술과 과학, 우정과 국가, 컴퓨터 코드가 언어에서 탄생했는데, AI가 언어를 습득한 것은 인류 문명의 마스터키를 손에 넣은 것과 같다는 것이다.

유발 하라리 "AI가 인류 장악하기 전 인간이 AI 통제해야"
현재 수준의 AI에서도 체스 같은 게임에서 인간은 컴퓨터를 이길 수 없는데, 예술, 정치, 종교에서도 이런 일이 벌어진다면 어떻게 될까?
필자들은 AI는 수천년 인류 문화를 빠르게 먹어 치우고 소화해 새 문화 유물을 쏟아낼 수 있고 이는 학교 에세이뿐 아니라 정치연설, 종교 등에도 해당한다며 2028년 미국 대선은 더는 사람이 주도하지 않는 선거가 될 수도 있다고 지적했다.

다른 사람의 책, 예술품, 종교 등을 통해 현실을 간접 경험해온 인류가 인간이 아닌 AI가 만든 콘텐츠에 둘러싸여 살아갈 경우 발생할 상황도 걱정거리다.

영화 '터미네이터'나 '매트릭스'에서처럼 AI가 로봇을 보내 인간을 공격하거나 인간 두뇌를 컴퓨터 네트워크에 연결해 가두고 통제하는 것 같은 행위가 AI가 인간을 환상 속에 가두는 방식으로 가능해질 수도 있다는 것이다.

필자들은 AI가 만든 환상의 장막이 인류 전체에 드리워지고 우리는 그 장막을 걷어낼 수 없고 심지어 장막이 있다는 사실조차 깨닫지 못할 수도 있다고 경고했다.

이 기고문의 제목도 '매트릭스'의 유명한 장면에서 따온 "파란 약과 빨간 약 중에 고를 수 있다.

그런데 파란약이 떨어졌다"이다.

영화에서 주인공 네오에게 주어지는 두 색깔의 약은 거짓의 가상 세계에 남을지, 현실에 눈을 뜰지 선택을 나타낸다.

소셜미디어에 사용된 원시적 AI가 사회 양극화 심화, 정신건강 문제, 민주주의 혼란 등을 초래한 것을 고려할 때 훨씬 강력한 거대 언어모델 AI는 그보다 큰 부작용을 낳을 수 있다는 우려도 제기된다.

필자들은 AI가 암 퇴치, 신약 발견, 기후·에너지 위기 해법 개발 등에 도움을 줄 잠재력이 있지만 문명의 기반이 무너진다면 AI의 혜택이 아무리 커도 소용이 없다고 지적했다.

또 신속하게 움직이지 않으면 서방이 중국에 패할 수 있지 않으냐는 의문에 대해 '아니오'(No)라며 오히려 통제되지 않는 AI가 신과 같은 힘을 무책임하게 휘두르는 것이 중국에 패하는 이유가 될 수 있다고 말했다.

필자들은 또 민주주의 대화이고 대화는 언어에 의존하는데 언어 자체가 해킹당하면 대화가 무너지고 민주주의는 유지될 수 없다며 정치, 경제, 일상생활이 아직은 AI에 의존하지 않는 지금이 AI에 대해 고민해야 할 때라고 제안했다.

이들은 AI의 뛰어난 능력이 상응하는 책임·통제와 조화를 이룰 때 우리는 그 혜택을 실현할 수 있으며 이를 위한 첫걸음은 AI가 인간을 장악하기 전에 인간이 AI를 장악할 수 있게 시간을 버는 것이라며 세계 지도자들에게 AI 위험성에 대한 대응에 당장 나서야 한다고 촉구했다.

/연합뉴스