문병순 KT 경제경영연구소 책임연구원
문병순 KT 경제경영연구소 책임연구원
유럽 연합이 세계 최초의 인공지능 법안(이하 인공지능법안)을 2021년 4월 21일 유럽의회에 제출했다. 유럽 연합은 인공지능이 뛰어난 기술이지만, 자칫 인종차별, 프라이버시 침해와 같은 문제를 야기할 수 있다고 보고 규제를 시작한 것이다. 법안 내용은 무엇이고, 우리 기업은 어떻게 대응해야 할 것인가.

위험에 따라 차등 규제

인공지능법안을 살펴보면 모든 인공지능을 규제하는 것이 아니라 위험한 인공지능만 규제한다. 위험도에 따라, 사용이 금지되는 매우 위험한(unacceptable risk) 인공지능, 금지되지는 않지만 엄격한 절차를 요구한 고위험 인공지능, 관련 사항만 고지하면 되는 제한된 위험의 인공지능으로 분류하여 규제하고 다른 인공지능은 규제하지 않는다.
먼저 매우 위험한 인공지능은 인권침해 우려가 매우 커서 사용이 금지되며 사용시 전 세계 매출의 6%를 과징금으로 부과한다. 법안은 4가지를 열거하고 있다. 첫째, 공공장소에서 모든 국민의 행동을 감시하는 안면인식 CCTV다. 현재 많은 나라들이 안면인식 알고리즘을 결합한 CCTV를 공공장소에 설치해 범죄 예방과 용의자 추적 등에 이용하고 있다. 안면인식 CCTV가 언제나 금지되는 것이 아니라 모든 일반인의 얼굴까지 데이터 베이스로 만들어 실시간으로 전 국민을 감시하는 것만 금지된다. 유럽연합은 이러한 기술을 프라이버시와 인권에 미치는 영향을 고려하여 금지한 것이다.
둘째, 정부가 모든 행동을 감시하여 점수화한 소셜 스코어링을 금지하고 있다. 이러한 기술은 프라이버시를 침해하고 정부에 비판적인 시민을 통제하는데 이용될 수 있다는 이유로 금지한 것이다. 예를 들어 중국의 소셜 스코어링은 신용 정보뿐만 아니라 범죄 내역, 교통범칙금, 심지어 헌혈 내역 등 시민의 모든 행동을 종합하여 점수화한 것이다. 이 점수가 낮으면 대출 축소 등 서비스 이용이 제한된다. 실제로 소셜 스코어링이 낮은 기자가 기차나 비행기 같은 공공 서비스를 이용하지 못한 사례도 보도됐다. 이외에 인공지능을 통한 아동 감시처럼 아동과 장애인 등 취약한 집단을 대상으로 하는 인공지능, 시민의 잠재의식을 조작해 위험을 야기하는 인공지능도 금지된다.
고위험 인공지능은 안전과 인권에 큰 영향을 주는 시스템에 인공지능이 사용되는 경우다. 사용은 허용되지만 출시 전에 제반 법규 준수 여부 검토(적합성 평가), 편향성 없는 정확한 데이터 사용 의무 준수 여부를 검토받아야 하는 등 엄격한 규제를 받는다.
유럽연합은 고위험 인공지능으로 6가지를 열거했다. 첫째, 안면인식 같은 생체인식이다. 전 국민 얼굴 데이터와 결합해 국민을 감시하는 안면인식은 아예 금지되지만, 수배자만 탐지하는 CCTV는 고위험 인공지능으로 분류되어 엄격한 규제 아래 허용된다. 둘째, 운송이나 전력 등 오작동시 큰 위험이 발생할 수 있는 중요 인프라에 인공지능이 적용되는 경우다. 셋째, 인공지능을 통한 대입 채점처럼 인공지능이 시민의 인생에 큰 영향을 주는 경우다. 넷째, 채용, 승진, 성과 측정 등과 같은 인사관리에 인공지능이 관여하는 경우다. 이미 국내에서도 많은 기업들이 화상면접에 인공지능을 이용하고 있는데, 유럽연합의 인공지능법안은 이를 엄격히 규제하고 있다. 우리나라 시민단체들도 작년에 인공지능을 채용에 활용한 13개 공공기관에 편향성 여부와 평가 기준 정보공개를 요구했다.
다섯째, 대출, 보조금 결정처럼 필수적인 민간 서비스와 공공 서비스 결정에 인공지능이 이용되는 경우다. 미국은 신용기회균등법 등으로 대출에서 인종차별을 금지하고 있다. 유럽연합도 인공지능 기반 대출로 소수자들이 차별받는 것을 막기 위해 고위험 인공지능으로 규제한 것이다. 마지막으로 수사, 판사업무 보조와 이민업무에 인공지능이 활용될 경우 자칫 무고한 시민이 처벌되거나 추방될 수 있기 때문에 고위험 인공지능으로 규제했다. 구체적으로 범죄자 데이터를 인공지능으로 분석해 피의자를 추려내거나, 영주권 신청의 적격성 평가, 거짓말 탐지기 등에 인공지능이 사용될 경우 엄격한 절차를 거쳐야 한다.
제한된 위험의 인공지능은 특별한 규제 없이 인공지능이 상대하고 있다는 점만 알리면 된다. 실제 인물이 행동하는 것처럼 인공지능이 생성한 영상(deep fake)과 챗봇처럼 인공지능이 사람처럼 작동하는 경우 제한된 위험의 인공지능에 해당된다. 매우 위험한 인공지능, 고위험 인공지능, 제한된 위험의 인공지능이 아닌 경우 아무런 규제는 없다.

혁신보다 소비자 보호가 우선

소비자 보호를 위해 유럽연합은 인공지능법안을 제출했다. 하지만 유럽 산업계는 인공지능법안이 혁신을 저해한다며 반대하고 있다. 유럽 산업연맹(Orgalim)은 고위험 인공지능에 대한 적합성 평가는 안전성을 높이지도 못하면서 기업의 부담만 늘릴 것이라고 주장하고 있다. 적합성 평가 비용도 문제지만, 치열한 경쟁 속에서 출시가 늦어지면 경쟁에서 이기기 어렵다는 이유를 들고 있다.
이러한 반대에도 불구하고 유럽연합은 향후 인공지능 위반 기업에 대한 손해배상 강화 등 인공지능 규제를 지속적으로 강화하겠다는 입장을 밝히고 있다. 사실 유럽이 엄격한 인공지능법안을 만든 이유는 기존 차별금지법과 소비자 보호법이 있기는 하지만, 미국과 달리 사후 배상제도가 강력하지 않기 때문이다. 미국의 경우 차별금지법제와 소비자보호법 위반시 집단소송과 징벌적 배상의무를 부과하고 있기 때문에, 아직까지는 연방정부 차원에서 인공지능법안 도입을 고려하지 않고 있다. 따라서 유럽연합뿐만 아니라 기존 차별금지나 소비자보호법제를 통해 인공지능으로 인한 소비자 보호가 어려운 나라들은 유럽연합처럼 인공지능 규제법을 도입할 가능성이 있는 것이다.

우리 기업도 적극적인 대책 마련 필요

국내외에서 인공지능 부작용 통제를 위한 법제도 도입이 잇따르고 있는 만큼 우리 기업들도 대비를 서둘러야 할 것이다. 유럽 인공지능법이 통과되면 유럽에 수출하는 우리 기업도 이 법을 준수해야 한다. 또한 인공지능법이 없는 나라라 하더라도 많은 나라들이 인공지능의 부작용에 관심을 가지면서 자율 규제의 일환으로 인공지능 윤리를 제정하고 있는데, 이런 나라에서 인권침해적인 인공지능을 사용한다면 우리 기업의 명성이 훼손될 것이다.
이미 선진국 기업들은 인공지능의 인권침해 문제에 적극적으로 나서고 있다. 구글은 인공지능 윤리 전문가가 무려 200여 명이나 있는데, 향후 발생하는 다양한 인공지능 윤리 문제를 대처하기 위해 400명으로 증원하기로 결정했다. 아마존과 IBM, 마이크로소프트는 경찰이 안면인식기술이 결합된 CCTV를 이용할 경우 흑인을 집중적으로 감시할 수 있다는 이유로 안면인식 기술 제공을 중단했다.
우리 기업들도 인공지능 윤리 문제가 심각하게 논의되고 있는 점을 감안해 선진국 기업처럼 적극적으로 대처할 필요가 있다. 글로벌 기업으로 성장한 현재의 위상과 달리 인권침해에 무관심하다면 글로벌 시장에서 생존할 수 없을 것이다. 인공지능의 인권침해를 최소화하기 위해 내부 비판이 허용되는 기업 문화와 시스템을 만들고, 인공지능 윤리 관련 인력을 확보해 소비자 인권 보호에 충실한 기술을 개발해야 할 것이다.