김태윤
김태윤
구글이 얼마 전 초거대 인공지능(AI) 팜2(PALM2) 기반 ‘바드(BARD)’를 발표했다. 한국어와 일본어의 우선 지원, 코딩과 관련된 기능, 다양한 정보의 멀티모달, 답변의 다양성과 출처 명시 등이 챗GPT에 비해 현격히 좋아졌다.

우리 국민이 지난 몇십 년간 구글에서 검색한 내용이 집적되고 분석돼 AI의 일부가 된 듯하다. 우리 국민들은 AI를 어떻게 봐야 할지, 어떻게 접근해야 할지 정리해보고자 한다.

우리 국민은 알파고로 AI의 위력을 봤고 챗GPT를 통해 AI가 가까이 있음을 느꼈다. 벤처기업협회 초대회장인 고(故) 이민화 교수는 이미 십수 년 전에 손에 스마트폰을 든 슈퍼맨으로 인류가 진화했다고 갈파한 바 있다. 그 스마트폰이 이제 슈퍼컴퓨터 수준으로 진화했다. 인간이 슈퍼맨이 될 수도 있다는 기대 앞에서 AI에 대한 불안감도 동시에 커지고 있다.

첫째는 AI가 학습한다는 것이 알고리즘 안에서 정확히 어떤 상태를 의미하는지 확실하지 않다. AI 과학자들 사이에서도 여러 다른 이론과 관찰, 접근 방법이 존재하는 듯하다. 이 복잡성과 불확실성은 향후 고도의 AI가 출현했을 때 통제 가능성이나 예측 가능성을 위협할 수 있기 때문에 불안하다. 하지만 인간 두뇌의 인지에 대해서도 우리는 여전히 정확히 모르고 있다. 다시 말해 ‘정확히 모른다고 해서 끝없이 불안해할 필요는 없다’고 믿는다. 두 번째 불안 요소는 AI가 과연 인간을 닮을 것인가 또는 닮아야 하는가에 관한 질문이다. 소위 튜링 테스트를 통해 AI의 인간성을 확인하는 사고방식이 친숙하기는 하다. 반면에 AI가 인간을 모방할 필요는 없으며 오히려 그와는 상당히 다른 정보 처리와 판단의 주체여야 한다는 관점도 있다. AI가 고상한 인품과 이상적 지향을 보유했으면 좋겠지만 인간 본연의 공포와 탐욕 그리고 사악함을 먼저 흉내 내고 고착될 수도 있다. 매우 두렵지만 현재 나와 있는 모델들은 대부분 그렇게 보인다. 그렇다고 해서 금지와 규제가 해법은 아니다. 오히려 불확실성을 회피하는 비겁함이다. 유럽연합(EU)과 미국의 AI 정책을 잘 살펴보면 한쪽의 불안한 피해의식과 다른 한쪽의 진취적 도전의식이라는 차이가 극명하다.

AI 연구 1세대인 김진형 교수는 “AI의 날은 양쪽이 훨씬 날카롭고, 우리는 양쪽 모두 잘 이해하지 못한다”며 “사후 검증할 수 있고 위험 요소가 적을 때 사용하는 것이 바람직한 반면, 자율주행자동차나 자율형 살상 무기 활용은 아직까진 위험하다”고 말했다. 주방에 비치된 식칼처럼 여기자는 것이다. 도구로서의 가벼운 AI는 많은 스타트업이 거뜬히 개발하고 있다. 대규모 언어모델(LLM) 기반의 많은 앱이 챗GPT의 환각(hallucination), 보안, 고비용 세 가지 문제를 해결한 기업용 경량화 버전으로 개발되고 있다. 한편 한국 번역시장에 돌풍을 일으키고 있는 독일 쾰른의 AI 스타트업 딥엘(DeepL)도 주목 대상이다. 영미권에서는 이미 번역의 정석으로 인정받고 있는 딥엘은 구글 번역기는 물론 국내 토종 번역 서비스인 네이버 파파고보다도 한국어 번역이 매끄럽다는 평을 듣고 있다.

도구로서 AI는 탁월한 도우미다. 지치지 않고 자체 학습해 자기 계발하며 상호작용하고, 비용이 높지 않으며 휴대성도 뛰어난 유능한 비서다. 모든 국민이 이런 비서를 두고 있다면 데이터 수집, 알고리즘 개발, 최적화, 피드백, 업그레이드의 선순환을 통해 데이터에 기반한 합리적 추론과 결정이 가능해진다. 일상생활이 데이터에 기반한 지능 활동으로 수렴한다. 미신, 편견, 정치공학의 소음이 하루아침에 사라질 수 있다.

도구가 있으면 잘 활용하면 된다. 학교 숙제는 AI 버전을 초벌로 하고 학생이 그 보편적 기초에서 얼마나 업그레이드했는지에 초점을 둬야 한다. 국민들이 우수한 AI 소비자가 되면 그 산업은 당연히 발전한다. 수많은 AI 스타트업으로부터 영감이 넘쳐날 것이다. 국가경쟁력 제고, 문화창달, 정치 선진화, 인류문명에의 공헌도 자연스럽게 연결된다.

유달리 작고 척박하고 힘없었던 우리나라였지만 고도로 집적되고 응축된 지능에 기반한 영감과 지성의 나라로 다시 태어날 수 있다.