[다산칼럼] 인공지능 규제론에 도사린 위험
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
챗GPT 두려움 확산
그 근원은 AI의 혁신성
섣부른 정부규제 대신
시장이 선택토록 해야
인류와 공존·공영
복거일 사회평론가·소설가
그 근원은 AI의 혁신성
섣부른 정부규제 대신
시장이 선택토록 해야
인류와 공존·공영
복거일 사회평론가·소설가
지난달 전문가 1000여 명이 “GPT-4보다 강력한 인공지능(AI) 체계의 훈련을 적어도 6개월 동안 멈추자”고 호소했다. 이런 호소는 “강력한 인공지능 체계는 그것들의 효과가 긍정적이고 그것들의 위험이 관리될 수 있다고 우리가 자신할 수 있을 때 비로소 개발돼야 한다”는 주장에 바탕을 뒀다.
이것은 백일몽이다. 돌도끼 이래 흉기로 쓰이지 않은 문명의 이기가 있었는가? 새로운 기술이 발명되기 전에 어떻게 그 효과들을 긍정적이든 부정적이든 제대로 예측할 수 있는가?
6개월의 유예기간은 외부 전문가들이 안전 조치를 마련하는 데 쓰일 터인데, 만일 제대로 못 하면 정부가 개입해야 한다는 얘기다. 이런 일을 꾸미는 ‘전문가’들은 으레 시장을 의심하고 정부를 믿는다. 그들은 정부가 규제에 필요한 지식을 충분히 갖추고 정치적 영향에서 자유롭다고 가정한다. 그런 가정이 충족된 적은 드물다.
인공지능처럼 빠르게 발전하는 분야에선 규제 자체가 문제가 된다. 도입 당시엔 합리적인 규제도 빠르게 시대착오적이 된다. 그래서 본래의 목적은 이루지 못하면서 기술 발전만 방해하게 된다.
현실적으로 가장 문제적인 것은 이런 주장이 자유주의 국가에만 영향을 미치고 전체주의 국가는 영향을 받지 않으리라는 점이다. 만일 그들의 주장이 효과를 본다면, 생성 인공지능 개발에서 앞선 미국 기업들이 손을 놓은 사이에 중국 기업들이 따라잡을 것이다.
이런 사정은 1950년대의 ‘핵무기 반대운동’을 떠올리게 한다. 버트런드 러셀이 주도한 이 운동은 “죽음보다는 공산당 지배가 낫다(Better red than dead)”고 외쳤다. 그들도 알고 있었다. 소비에트 러시아가 핵무기를 감축할 리 없다는 것을.
선의에서 나왔지만 핵무기 반대운동은 큰 해독을 끼쳤다. 러시아가 막강한 핵무기를 갖출 때, 서유럽은 독자적 핵무기를 갖추지 못했다. 이제 러시아는 서유럽에 핵무기를 쓸 수 있다고 공개적으로 위협한다.
사람들이 인공지능의 빠른 발전을 두려워하는 것은 자연스럽다. 실제로 인류 위에 군림하거나 인류를 없애려고 시도하는 인공지능을 그린 과학소설 작품은 한 세기 전부터 나왔다. 이번에 사람들의 두려움을 촉발한 것은 GPT가 혁신적이라는 사정이다. 지금까지 인공지능 프로그램은 주어진 일만 수행하는 ‘좁은 인공지능(Narrow AI)’이었다. 궁극적으로는 의식과 의지도 지닌 ‘너른 인공지능(General AI)’으로 발전할 것이다. GPT는 너른 인공지능으로 가는 첫걸음을 내디딘 셈이다.
여기서 주목할 것은 인류와 인공지능이 서로 돕는다는 사정이다. 인류는 인공지능을 만들고 발전시킨다. 인공지능은 인류의 지능을 보완한다. 둘 사이의 관계는 전형적 공생이다. 인공지능은 인류에 적대적일 이유가 전혀 없다. 의식과 의지를 갖춰도 공생 관계를 벗어날 이유가 없다.
그래도 불안해하는 사람이 많을 것이다. 요즈음 인공지능을 다룬 논설마다 ‘적절한 규제’가 필요하다는 얘기로 끝난다.
인공지능의 개발에서 지침 노릇을 해온 것은 과학소설 작가 아이작 아시모프가 세운 ‘로봇 공학의 세 법칙’이다. 원래는 이야기를 위한 문학적 관행이었는데, 인공지능 개발자들이 실천적 지침으로 삼았다.
▶제1법칙: 로봇은 사람을 해치거나 행동하지 않음으로써 사람이 해를 입도록 해서는 안 된다.
▶제2법칙: 로봇은 사람이 내린 명령을 따라야 한다. 그것들이 제1법칙과 상충하지 않는 한.
▶제3법칙: 로봇은 자신의 존재를 보호해야 한다. 그런 보호가 제1법칙이나 제2법칙과 상충하지 않는 한.
아시모프는 사람이란 말을 정의해야 세 법칙을 현실에 적용할 수 있음을 뒤늦게 깨달았다. 그래서 개인들에 우선하는 인류라는 개념을 도입했다.
▶제0법칙(The Zeroth Law): 로봇은 인류를 해치거나 행동하지 않음으로써 인류가 해를 입도록 해서는 안 된다.
인공지능 개발자들이 이런 지침을 충실히 따르도록 하려면, 소비자들이 가장 나은 프로그램을 고를 수 있어야 한다. 그리고 그것으로 족하다. 경쟁자의 제품보다 나은 제품을 내놓는 생산자만이 살아남는 자유 시장은 늘 정부 규제보다 낫다.
이것은 백일몽이다. 돌도끼 이래 흉기로 쓰이지 않은 문명의 이기가 있었는가? 새로운 기술이 발명되기 전에 어떻게 그 효과들을 긍정적이든 부정적이든 제대로 예측할 수 있는가?
6개월의 유예기간은 외부 전문가들이 안전 조치를 마련하는 데 쓰일 터인데, 만일 제대로 못 하면 정부가 개입해야 한다는 얘기다. 이런 일을 꾸미는 ‘전문가’들은 으레 시장을 의심하고 정부를 믿는다. 그들은 정부가 규제에 필요한 지식을 충분히 갖추고 정치적 영향에서 자유롭다고 가정한다. 그런 가정이 충족된 적은 드물다.
인공지능처럼 빠르게 발전하는 분야에선 규제 자체가 문제가 된다. 도입 당시엔 합리적인 규제도 빠르게 시대착오적이 된다. 그래서 본래의 목적은 이루지 못하면서 기술 발전만 방해하게 된다.
현실적으로 가장 문제적인 것은 이런 주장이 자유주의 국가에만 영향을 미치고 전체주의 국가는 영향을 받지 않으리라는 점이다. 만일 그들의 주장이 효과를 본다면, 생성 인공지능 개발에서 앞선 미국 기업들이 손을 놓은 사이에 중국 기업들이 따라잡을 것이다.
이런 사정은 1950년대의 ‘핵무기 반대운동’을 떠올리게 한다. 버트런드 러셀이 주도한 이 운동은 “죽음보다는 공산당 지배가 낫다(Better red than dead)”고 외쳤다. 그들도 알고 있었다. 소비에트 러시아가 핵무기를 감축할 리 없다는 것을.
선의에서 나왔지만 핵무기 반대운동은 큰 해독을 끼쳤다. 러시아가 막강한 핵무기를 갖출 때, 서유럽은 독자적 핵무기를 갖추지 못했다. 이제 러시아는 서유럽에 핵무기를 쓸 수 있다고 공개적으로 위협한다.
사람들이 인공지능의 빠른 발전을 두려워하는 것은 자연스럽다. 실제로 인류 위에 군림하거나 인류를 없애려고 시도하는 인공지능을 그린 과학소설 작품은 한 세기 전부터 나왔다. 이번에 사람들의 두려움을 촉발한 것은 GPT가 혁신적이라는 사정이다. 지금까지 인공지능 프로그램은 주어진 일만 수행하는 ‘좁은 인공지능(Narrow AI)’이었다. 궁극적으로는 의식과 의지도 지닌 ‘너른 인공지능(General AI)’으로 발전할 것이다. GPT는 너른 인공지능으로 가는 첫걸음을 내디딘 셈이다.
여기서 주목할 것은 인류와 인공지능이 서로 돕는다는 사정이다. 인류는 인공지능을 만들고 발전시킨다. 인공지능은 인류의 지능을 보완한다. 둘 사이의 관계는 전형적 공생이다. 인공지능은 인류에 적대적일 이유가 전혀 없다. 의식과 의지를 갖춰도 공생 관계를 벗어날 이유가 없다.
그래도 불안해하는 사람이 많을 것이다. 요즈음 인공지능을 다룬 논설마다 ‘적절한 규제’가 필요하다는 얘기로 끝난다.
인공지능의 개발에서 지침 노릇을 해온 것은 과학소설 작가 아이작 아시모프가 세운 ‘로봇 공학의 세 법칙’이다. 원래는 이야기를 위한 문학적 관행이었는데, 인공지능 개발자들이 실천적 지침으로 삼았다.
▶제1법칙: 로봇은 사람을 해치거나 행동하지 않음으로써 사람이 해를 입도록 해서는 안 된다.
▶제2법칙: 로봇은 사람이 내린 명령을 따라야 한다. 그것들이 제1법칙과 상충하지 않는 한.
▶제3법칙: 로봇은 자신의 존재를 보호해야 한다. 그런 보호가 제1법칙이나 제2법칙과 상충하지 않는 한.
아시모프는 사람이란 말을 정의해야 세 법칙을 현실에 적용할 수 있음을 뒤늦게 깨달았다. 그래서 개인들에 우선하는 인류라는 개념을 도입했다.
▶제0법칙(The Zeroth Law): 로봇은 인류를 해치거나 행동하지 않음으로써 인류가 해를 입도록 해서는 안 된다.
인공지능 개발자들이 이런 지침을 충실히 따르도록 하려면, 소비자들이 가장 나은 프로그램을 고를 수 있어야 한다. 그리고 그것으로 족하다. 경쟁자의 제품보다 나은 제품을 내놓는 생산자만이 살아남는 자유 시장은 늘 정부 규제보다 낫다.