박현제
박현제
인공지능(AI)이 ‘초거대(hyper scale)’ 경쟁이라는 새로운 국면으로 접어들었다. 데이터, 학습 모델, 컴퓨팅 인프라라는 종합 플랫폼의 경쟁으로 패러다임이 바뀌고 있다. 지난달 18일 구글은 연례 개발자 행사에서 사람처럼 말하는 ‘람다(LaMDA)’라는 언어모델을 소개했고, 1주일 뒤 네이버는 온라인 콘퍼런스에서 하이퍼클로바(HyperClova)라는 한국어 AI 모델을 소개했는데, 세계 최고 수준인 오픈AI의 GPT-3를 능가하는 것을 목표로 하고 있다. KT는 KAIST와 함께 AI·소프트웨어(SW) 기술연구소를 공동 설립해 초거대 AI 연구에 나서고, LG AI연구원도 1000억원 이상 투자해 초거대 AI 기술을 개발한다.

모처럼 역동적인 AI 연구가 진행되고 있는 상황에서 지난 4월 21일 발표된 유럽연합(EU)의 AI법안을 생각하지 않을 수 없다. 유럽집행위원회에서 제안한 AI법안의 핵심은 AI의 위험성을 평가해 수준에 맞는 규제를 적용하겠다는 것이다. 즉, 사회적 영향력이 큰 AI 제품과 서비스를 고위험 AI로 구분하고 별도의 데이터베이스에 등록, 관리, 규제 준수 보고 의무를 부여한다. 사후 문제 발생 시 관할 당국에서 데이터, 알고리즘의 공개와 검증까지 요구할 수 있도록 했다. 법 위반 땐 전 세계 매출의 6%까지 과징금으로 부과하는 등 현재 EU의 일반데이터보호규정(GDPR)보다 더 높은 수준의 규제를 담고 있다.

고위험 AI에 해당하는 AI는 유럽 국경을 초월하며 대부분의 AI 제품과 서비스가 해당될 것으로 예상된다. 투명하고 공정하고 편향성이 없으며, 믿을 만한 AI 기술을 확보하는 것이 최소한 유럽 시장을 염두에 두고 있는 기업이라면 반드시 넘어야 할 산이 된 것이다. 법안은 제정까지 논의가 더 필요하며 그 과정에서 업계의 의견이 전달될 것으로 보인다. 하지만 그간 AI 개발 과정에서 불거진 데이터 편향성 해소, 설명 가능성 등 AI의 신뢰성 확보를 위한 일정 수준의 규제는 예상된다.

지난달 13일 우리 정부는 ‘신뢰할 수 있는 인공지능 실현 전략’을 발표했다. AI 신뢰성 확보를 위한 법제도를 정비하고, 검인증 체계를 마련하며, 신뢰성 원천 기술 개발을 지원한다는 내용이 골자다. 유럽식 규제보다는 신뢰성 기술 개발을 위한 지원 정책이 중심인 것은 다행스러운 일이다. 특히 민간에서 간과할 수 있는 공정성, 설명 가능성이 강화된 차세대 AI 기술개발은 정부의 역할이 더욱 필요하다. 아울러 민간이 자발적으로 AI 신뢰성을 강화할 수 있도록 윤리 가이드라인을 마련해 보급하고 실증하는 사업은 민간의 자율적인 혁신 활동을 저해하지 않는 점에서 긍정적이다.

신기술의 역사는 기술을 대중화하고 확산하기 위한 지원과 신뢰가 밑바탕이 됐다. 산업혁명을 촉발한 증기기관, 자동차는 모두 발명국보다 교통의 불모지였던 신대륙 미국에서 꽃을 피웠다. 대항해시대를 주름잡던 범선의 나라 영국에서 증기선은 자리잡을 수 없었다. 자동차를 먼저 발명했음에도 31년간 ‘적기조례’를 존속시킨 영국보다 프랑스, 독일, 미국에서 자동차산업이 부흥을 맞이했다. 에디슨은 교류 전기가 위험하다는 인식을 주기 위해 1500명의 관객 앞에서 코끼리를 감전사시키는 퍼포먼스를 보였다. 하지만 값싸고 안정적으로 전기를 공급했던 테슬라의 웨스팅하우스가 1893년 시카고 만국박람회장의 전기사업권을 따내며 대중의 시선을 사로잡는 것을 막을 수 없었다.

AI가 4차 산업혁명의 원동력이라는 사실에는 이의가 없을 것이다. 섣부른 규제 입법으로 본격적 도약을 준비하는 AI 혁신을 위축시키는 우를 범하지 않아야 한다. 오히려 객관적인 검증과 실험을 통한 혁신을 촉진하며 대중 속에 믿을 만한 기술로 자리잡을 수 있도록 과감한 투자와 지원을 아끼지 말아야 할 때다. 디지털 전환시대, 소프트웨어의 변방에서 주도국으로 발돋움할 절호의 기회다.