[뉴스의 맥] EU '인공지능 법안' 산업 촉매 될까, 족쇄 될까
알파고와 이세돌의 바둑 대국을 보면서 우리는 인공지능의 새로운 기술적 가능성을 체감할 수 있었다. 그로부터 5년의 시간이 지났다. 그사이 기술은 눈부시게 발전했고 인공지능이 활용되는 영역 또한 크게 늘어났다. 인공지능 기술은 이제 우리 일상의 일부로 깊숙이 들어왔고 일상화 과정은 앞으로 더욱 가속화될 전망이다.

기술이 사회에 도입되는 과정에서 오남용이나 부작용이 없을 수 없다. 그런 점에서 올초에 있었던 챗봇 이루다와 관련된 논란은 인공지능 기술이 사회에 본격적으로 도입되는 과정에서 어떤 정책적 고민을 해야 할지에 관한 중요한 과제를 안겨줬다. 인공지능은 여러 가지 면에서 우리 생활을 편리하게 해주는 것임에 틀림없지만 자칫 폐해를 안겨줄 가능성도 있다. 기술 개발을 촉진하고 인공지능이 삶을 편리하게 해주도록 유도하는 한편 오남용과 부작용은 최소화하도록 법제도와 정책을 설계할 필요가 있다.

인공지능과 관련한 법제도를 어떻게 설계할 것인지의 문제는 한국을 포함해 세계 여러 나라가 고민하고 있는 것이기도 하다. 하지만 인공지능 기술은 우리에게 익숙한 지금까지의 기술 유형과는 많은 차이가 있어서 학계에서도 법제도의 구체적인 방향에 대한 논의가 아직 정리되지 않은 상황이다. 그런 상황에서 지난달 21일 인공지능 영역을 규율하기 위한 법안이 유럽연합(EU)에서 발표됐다. 부속서를 포함해 120쪽이 넘는 긴 법안으로 그만큼 상세한 내용이 담겨 있다.
[뉴스의 맥] EU '인공지능 법안' 산업 촉매 될까, 족쇄 될까

군사용 인공지능은 적용 제외 명시

EU에서는 이제 이 법안을 두고 오랜 기간 입법 논의가 이뤄질 것이다. 인공지능 영역에서의 정책 방향을 두고 EU는 이미 몇 년 전부터 논의해 왔다. 2018년에 고위전문가그룹을 구성해 논의를 시작했고 작년에는 인공지능 백서를 발간했다. 이번에 발표된 법안은 그런 장기적이고 지속적인 논의의 흐름에서 이해해야 한다. 한편 EU 내에서의 논의와 별개로 이 법안은 세계 여러 나라에서도 다양한 반향을 일으킬 전망이다. 그런 점에서 이 법안의 내용을 살펴보고 어떤 시사점을 얻을 것인지 생각해 볼 필요가 있다.

EU 인공지능 법안의 가장 큰 특징으로 인공지능이 주는 위험도를 고려해 차등적인 규율을 도입한다는 점을 들 수 있다. 특히 사회적 위험도가 높은 유형의 기술은 도입을 허용하지 않도록 하고, 별다른 위험이 없어 보이는 기술에 대해서는 별도의 규율 없이 도입이 가능하도록 하는 방식을 택하고 있다. 금지되는 기술은 아니지만 위험도가 높은 유형의 기술에는 여러 가지 의무가 부과된다. 그 이외에 군사용 인공지능에 대해서는 이 법안이 적용되지 않는다고 선언하고 있다.

입법 놓고 장기간 논의 이어질 듯

위험에 기초한 분류 및 규율 방식에 대해 좀 더 구체적으로 보자. 위험도가 특히 높기 때문에 금지되는 기술은 다음의 네 가지 유형이다. 첫째, 사람이 의식하지 못하는 사이에 사람의 행동양식에 왜곡을 가져오거나 피해를 초래할 수 있는 인공지능 시스템. 둘째, 나이, 신체적 장애, 정신적 장애 등 특정 집단에 속하는 사람의 취약점을 이용해 이들이나 제3자에게 해를 끼칠 우려가 있는 인공지능 시스템. 셋째, 개인의 사회적 행동양식이나 속성에 기초해 사회적 신뢰도 등에 대해 공공기관이 점수화하고 이로부터 부당한 불이익이 발생할 수 있는 유형의 인공지능 시스템. 넷째, 공공장소에서 법집행을 목적으로 실시간 원격 생체정보 식별을 하는 인공지능 시스템 중 납치, 테러, 범죄자 확보 등 법에서 허용하는 예외 상황에 해당하지 않는 경우.

이런 네 가지 유형의 인공지능 시스템은 사회적 해악의 위험성이 크다는 판단하에 금지한다. 이 중에서 세 번째 유형은 중국에서 이미 도입된 바 있는 사회신용점수 제도와 같은 유형의 인공지능을 금지하고자 하는 취지로 흔히 해석된다. 금융 영역에서 개인의 신용평점을 부여하는 것은 일상화됐지만 여기서 더 나아가 일상생활과 관련된 여러 정보를 수집해 점수를 부여하는 방식으로 평가하는 것은 허용하지 않겠다는 것이다. 그리고 네 번째 유형은 안면인식 시스템의 이용을 제한적으로만 허용하겠다는 정책 판단이 반영된 것으로 이해된다. 안면인식 기술은 인종·성별로 정확도에 상당한 차이가 있다는 연구 결과가 반복해 발표되면서 차별에 관한 논란이 발생하기도 하는 상황이다.

한편, 법안은 금지되지 않지만 위험도가 높은 것으로 분류되는 인공지능과 관련해 상당히 많은 내용을 다루고 있다. 여기에는 다양한 유형의 인공지능이 포함되는데, 제품 안전 등을 이유로 이미 EU 법률상 규율의 대상이 되는 일부 기술이 포함되고 또 특정 유형의 기술에 대해서는 아예 법안의 부속서에 명시적으로 나열해 규율하는 방식을 취하고 있다. 별도로 명시된 기술에는 생체정보를 이용한 식별 및 유형화, 교통이나 전기 등 중요한 사회적 인프라 관리, 교육 및 직업훈련, 고용 및 인사관리, 신용도 평가 등 주요 사적 및 공적 서비스, 법집행, 이민, 사법 및 민주적 절차 등 여러 인공지능 기술이 포함된다.

이 유형에 속하는 인공지능에는 위험관리시스템 구비, 데이터 거버넌스 구축, 기술문서 마련, 기록, 투명성 확보, 인간에 의한 감독, 정확도와 견고성 및 보안의 확보 등이 요구된다. 또 상용화에 앞서 적합성 인증 및 관계기관의 데이터베이스에 등록할 것이 요구되고 감독기관의 모니터링 대상이 된다. 상용화 이후에도 문제 상황의 발생에 따른 보고의무 등 다양한 의무가 부과된다.

그 이외 인공지능 시스템은 행동강령 채택이 권장되는 것 말고는 별다른 의무사항이 없다. 다만 이 중 일부 유형의 인공지능 시스템에는 투명성 의무가 부과된다. 구체적으로, 챗봇과 같이 인공지능이 사람과 상호작용하는 경우, 생체정보에 기초해 사람을 분류하는 경우, 그리고 딥페이크처럼 진짜인 것처럼 보이는 생성기술이 활용되는 경우 이에 관해 이용자에게 알려줄 의무가 있다.

EU 차원의 인공지능 이사회 설치도

법안은 전반적으로 매우 상세한 규제 내용을 담고 있는 한편, 새로운 시도와 이노베이션을 지원하기 위한 장치도 포함하고 있다. 특히 샌드박스 제도를 도입해 인공지능의 개발과 평가 과정에 도움을 제공하도록 하고 있다. 그리고 법 집행은 개별 회원국 차원에서 이뤄지는 것을 원칙으로 하는 한편, EU 차원의 인공지능 이사회를 설치해 지속성과 일관성을 도모할 수 있는 구조를 마련하고 있다.

이 법안에 대해 EU 안팎에서 다양한 반응이 나오고 있고 앞으로의 논의 과정에서 그 내용이 적지 않게 바뀔 가능성도 있다. 법안은 인공지능 영역에 대한 가이드를 제시해 기술 개발 및 상용화 과정에서 어떤 고려가 필요할지를 좀 더 명확히 하는 것을 목적으로 마련된 것으로 볼 수 있다. 이를 통해 인공지능 기술에 대한 사회적 신뢰가 더욱 높아질 것으로 기대하는 것이다. 이런 기대가 충족될 수 있을지, 그 반대로 유용한 기술의 도입을 저해하는 결과가 초래될 것인지는 앞으로 지켜봐야 할 것이다.

'AI 강국' 미국은
부당한 차별 초래 방지 등 FTC,기업들에 지침 제시

세계적으로 인공지능 기술이 가장 앞선 나라는 단연 미국이다. 그렇다면 미국에는 인공지능에 대한 규율 논의가 없는가? 그렇지 않다. 버락 오바마 행정부 시절부터 인공지능 기술 발전을 도모하는 동시에, 어떻게 부작용을 최소화할 것인지에 대해 별도의 보고서가 마련되기 시작했고 입법을 통해 인공지능을 규율할 것인지에 관한 논의 또한 이뤄지고 있다. 연방 차원에서는 아직 별도의 입법이 이뤄지지 않은 상황이지만 주나 지자체 차원에서는 관련된 입법이 이뤄진 경우도 있다. 좀 더 현실적인 차원에서 보면 연방거래위원회(FTC)가 인공지능 기술에 대한 규율에서 중요한 역할을 수행한다.

연방거래위원회는 경쟁법 집행기관으로 알려져 있지만, 그와 동시에 인공지능과 관련성이 있는 몇몇 개별법의 집행기관이기도 하다. 즉, 불공정하거나 기만적인 행위를 금지하는 연방거래위원회법, 신용정보 영역을 규율하는 공정신용보고법, 대출 등 신용공여에 대해 규율하는 신용기회균등법이 모두 연방거래위원회를 통해 집행된다.

이런 법적 관할권에 기초해 연방거래위원회는 인공지능과 알고리즘에 관해 전문성을 확보하고 법을 집행해 온 오랜 경험이 있다. 또 주기적으로 정책과 법집행 방향을 구체화해 가이드를 제시하기도 한다. 지난달 19일에도 기업이 인공지능 기술을 개발하는 과정에서 어떻게 진실성, 공정성, 형평성을 추구해야 할 것인지에 관한 지침을 제시했다.

이번 지침에는 다음 사항들의 중요성이 강조됐다. △인공지능 모형의 개발에 이용되는 데이터셋 자체의 편향을 최소화하기 위한 노력 △인공지능 모형을 적용한 결과 불공정하거나 차별적 상황이 발생하지는 않는지에 대한 모니터링 △투명성과 개방성의 확보 △개별 기업이 자신의 인공지능 기술이 공정하다거나 편향이 없는 결과를 가져온다는 식의 과장된 언급을 함부로 하지 않도록 주의 △이용자의 데이터를 이용할 경우 용도에 관한 명확한 고지 △인종이나 성별 등이 고려된 맞춤형 광고를 제공할 경우 부당한 차별이 초래될 가능성에 유의 △문제가 발생하면 책임을 질 준비를 할 것 등이다.

인공지능과 관련된 영역의 규율에서 연방거래위원회의 중요한 특징은 유연한 판단과 신속한 법집행이 가능하다는 것이다. 지금까지는 미국과 유럽의 감독규제기관이 어떤 시각에서 인공지능을 바라보는지에 대한 차이가 크게 부각되지 않았다. 하지만 이번에 EU에서 발표한 인공지능 법안을 계기로, 향후 미국과 유럽이 대체로 유사한 방향성을 갖고 규율하게 될 것인지 또는 서로 상당히 다른 방향을 모색하게 될 것인지 여부는 글로벌한 차원에서 인공지능 기술의 향방에 매우 중요한 영향을 미치게 될 것이다.