인공지능(AI) 기술 발전 속도가 빨라지면서 규제 정책을 둘러싼 논쟁이 뜨겁다. 기술 개발 및 상용화 초기 단계에 국제적인 규제 가이드라인을 마련해야 한다는 주장과 규제 장벽부터 세우면 산업 발전을 가로막을 수 있다는 주장이 팽팽히 맞서 있다. AI 산업계는 규제 장벽이 낮아야 기술 경쟁에서 앞서갈 수 있다고 강조하고 있다.

‘AI 의사’의 오진이나 자율주행차 사고 등의 책임을 제조사와 AI 로봇, 소유주 중 누구에게 물어야 할지는 주요 쟁점 중 하나다. 미국에선 지난 3월 전기차 제조업체 테슬라의 ‘모델X’ 운전자 사망사고와 관련해 제조사와 운전자 간 책임 공방이 벌어지고 있다. 당시 모델X에 자율주행 모드가 작동하고 있었다는 사실이 밝혀졌기 때문이다.

유럽의회는 지난 2월 AI 로봇이 스스로 판단을 내릴 능력을 갖추고 그 판단에 대한 알고리즘(문제해결 절차나 방법)이 인간은 파악하기 어려운 수준까지 발전하면 AI 로봇에 책임을 물을 수밖에 없다는 결의안을 통과시켰다. 로봇에 의한 생명 위협과 재산 손실의 책임을 로봇 자체에 묻겠다는 의미다. 유럽의회 결의안에 대한 반론도 만만찮다. 로봇에 법인격을 부여함으로써 제조업체, 프로그래머, 소유주 등이 법적 책임에서 빠져나갈 여지가 생긴다는 주장이다.

AI 기술을 통해 생체 정보를 분석하게 되면서 개인의 일거수일투족을 감시하는 ‘빅브러더’ 등장을 우려하는 목소리도 커지고 있다. 최근 중국 통신장비업체 항저우중헝전기가 생산라인의 노동자들에게 센서가 부착된 모자를 쓰게 하고 뇌파를 실시간으로 측정해 AI 알고리즘으로 감정 변화를 읽어내는 ‘뇌 감시 시스템’을 적용하면서 논란이 일기도 했다. AI를 통해 빅데이터를 분석한 결과가 여론 조작이나 폭력 등 나쁜 의도로 오·남용될 가능성이 있다는 경고가 나오고 있다.

각국 정부의 입장도 엇갈린다. 지난 10일 미국 백악관 회의에서 마이클 크래치오스 기술고문은 “혁신에 담을 쌓는다고 미래를 정지시킬 수 없다”며 “AI 개발에 가능한 한 최대 자유를 보장할 것”이라고 말했다. 반면 영국 정부는 국제적인 AI 윤리 규정 마련을 주도하겠다는 목표를 세웠다.

추가영 기자 gychu@hankyung.com