EU(유럽연합)이 인공지능(AI)의 오용을 규제하기 위한 인공지능법 규정을 승인했다.

15일(현지시간) CNBC에 따르면, EU의회는 서구에서 첫 제정이 될 인공지능법 규정의 승인을 완료했다. 중국은 이미 기업이 챗GPT와 같은 생성AI 제품을 개발하는 방법을 관리하는 규칙을 제정했다.

이 법은 AI 시스템이 유발할 수 있는 위험 수준에 비례해 시스템에 대한 의무를 설정했으며 챗GPT와 같은 ‘기초모델’ 공급자에 대한 요구 사항도 제시했다.

EU의 AI 법은 AI 응용프로그램을 허용할 수 없는 위험, 고위험, 제한적 위험, 최소 위험 또는 무위험의 4가지 수준으로 분류하고 있다.

허용할 수 없는 위험 응용 프로그램은 기본적으로 금지되며 EU내에서 유통될 수 없다.
여기에는 다음이 포함된다.

• 행동을 왜곡하기 위한 기술이나 조작 등 기만적 기술을 사용한 AI 시스템

• 개인 또는 특정 집단의 취약점을 악용하는 AI 시스템

• 민감한 속성 또는 특성에 기반한 생체 인식 분류 시스템

• 사회 신용 평가 또는 신뢰성 평가에 사용되는 AI 시스템

• 범죄를 예측하는 위험 평가에 사용되는 AI 시스템

• 무차별적 스크래핑으로 얼굴 인식DB를 생성하거나 확장하는 AI 시스템

• 법 집행,국경 관리,직장,교육 분야에서 감정을 추론하는 AI 시스템

또 대규모 언어 모델 및 생성 AI와 같은 ”기초 모델”개발자는 모델을 공개하기 전에 안전 점검, 데이터 거버넌스 조치 및 위험 완화를 하도록 의무화됐다.

로펌 링크레이터의 변호사인 세이언 펠리반은 “AI 모델 제공자는 (인간의)기본권, 건강, 안전, 환경, 민주주의 및 법치에 대한 위험을 평가해 완화 조치를 반드시 해야한다”고 지적했다. 또 논란이 되는 “데이터 소스의 적합성 및 편향 가능성을 조사하는 등 데이터 거버넌스에 대한 요구 사항도 따라야한다”고 덧붙였다.

EU의 인공지능법은 일차로 유럽 의회에서 통과됐지만 전 회원국에 발효되기까지는 시간이 걸릴 것으로 보인다.

EU의 인공지능 법규에 대해 기술 업계는 우려를 표명했다. 유럽 컴퓨터통신산업협회(CCIA)는 AI법의 적용 범위가 지나치게 확대돼 무해한 형태의 AI까지 잡을 수 있다고 지적했다.

그러나 영국의 로펌 클리포드 챈스의 기술그룹 변호사인 데시 사보바는 EU의 규칙은 윤리적 AI원칙을 법규화한 것으로 “글로벌 표준”이 될 것이라고 말했다.

김정아 객원기자 kja@hankyung.com