"인공지능 정책, 50년 장기 과제로 추진해야"
국내 인공지능(AI) 정책을 수십 년 이상의 장기 과제로 삼아야 한단 의견이 제시됐다. 영국과 미국 등 선진국들은 절차적 논의를 위해 길게는 100년까지의 시간도 안배하고 있다. AI 기술이 미치는 사회적 영향력을 고려했을 때, 이들 수준의 체계와 제도 정비 없이는 AI가 '독이 든 성배'로 남을 수 있다는 지적이다.

12일 소프트웨어정책연구소(SPRi) '유럽연합(EU)의 인공지능 윤리 정책 현황과 시사점' 보고서에 따르면, 영국 정부 산하 기구인 AI 위원회는 최근 "AI 기술은 10년에서 50년의 장기 비전을 가져야 한다"고 밝혔다. 이를 포함해 AI 윤리 가이드라인을 수립한 EU와 AI 분야에서 글로벌 학술 기관으로 거듭난 미국 스탠퍼드 대학의 사례를 참고했을 때, 국내도 AI 정책 수립만큼은 '장기적 비전'이 필수적이라고 보고서는 분석했다.

AI 위원회는 올해 1월 'AI 로드맵' 발간을 통해 AI 기술의 윤리 및 보안, 사회적 영향을 충분한 시간을 들여 따져야 한다고 밝혔다. 미 스탠퍼드 대 역시 지난 2016년 "향후 100년간의 AI 연구를 정기적으로 점검하겠다"는 'AI 100' 보고서를 발표한 바 있다. 두 보고서는 모두 AI 기술이 가지는 파장이 일반적인 기술과는 결이 다름을 강조했다. SPRi는 "국제적 수준의 정책 수립을 위해선, 이들 같은 장기적 추진과 함께 협의체의 투명성과 실효성 확보가 진행돼야 한다"고 전했다.

우리 정부는 지난 2019년 인공지능 국가전략 수립 이후 지난해 말 'AI 윤리 기준안'을 마련했다. 현재 주체별 체크리스트, 교육 프로그램 등 세부 절차를 꾸리고 있는 상황이다. SPRi는 "EU의 AI 윤리 가이드라인 수립은 2년의 시간을 거쳐 다양한 이해관계자의 의견을 모았다"면서도 "이때 실무 현장에서의 실증이 되지 않았기 때문에, 국내 체크리스트 개발 시에는 기업 현장의 실증 조사가 필수적"이라고 말했다. EU의 정책 수립 기간에 더해, 실무에서의 애로사항을 반영하는 절차까지도 수반돼야 한다는 설명이다.

지침에 대한 구속력은 최소화가 필요하다고 주문했다. EU의 가이드라인은 '무엇을 할 수 있는(can do)'보다 '무엇을 해야 하는지(should do)'에 대한 지침으로 구성돼있다. 보고서는 "가이드라인의 궁극적 목적은 AI 개발 주체의 책임 있는 경쟁력 강화"라고 명시했다. 개발자가 법규나 지침을 어길 때, 이를 처벌하는 것이 목표가 아니라는 것이다. 자유로운 산업 진흥의 틀 안에서 윤리까지 지키는 구조를 차용해야 한다고 했다.

글로벌 입법 동향의 중요성도 다시금 파악해야 한다고 보고서는 강조했다. 최근 한국이 참여한 세계 첫 AI 협의체인 'AI에 대한 글로벌 파트너십(GPAI)', OECD가 밝힌 AI 원칙 등이 국제 사회의 정책 수립에 빠르게 파고들고 있다는 분석이다. SPRi는 "향후 EU의 입법 동향을 비롯해 AI 윤리 관련 기업 동향, 기술 표준화 등 논의를 국내 규범 보완에 지속적으로 적용시켜야 한다"고 밝혔다.

이시은 기자 see@hankyung.com