카카오는 올 1월 ‘알고리즘 윤리헌장’을 마련해 발표했다. 국내 기업 가운데 인공지능(AI) 기술 개발과 윤리에 관한 규범을 공표한 첫 사례였다. 이용자의 행복과 사회의 편익을 중시한다는 취지 아래 알고리즘의 독립성, 차별 방지, 학습 데이터 운영 등에 관련한 대원칙을 담았다.

카카오 측은 “원칙과 철학에 기반한 AI 기업이 되기 위해 다섯 달 동안 여러 임직원의 내부토론을 거쳐 완성했다”고 설명했다.

급속히 발전하는 AI 기술이 인류에게 ‘축복’이 될지 ‘재앙’이 될지는 불투명하다. 전문가들 전망조차 극과 극으로 갈려 예측이 쉽지 않다. 이런 가운데 AI와 관련한 윤리기준 마련에 선제적으로 나서는 정부와 기업이 늘고 있다.

지난해 1월 AI 연구지원 비영리단체 ‘퓨처 오브 라이프’는 미국 캘리포니아주 아실로마에서 ‘아실로마 AI 원칙’을 내놨다. 총 23개 항으로 이뤄진 원칙에는 ‘AI의 목표와 행동은 인간의 가치와 일치해야 한다’, ‘자기복제를 통해 빠르게 성능이 향상된 AI는 엄격한 통제를 받아야 한다’ 등의 항목이 들어갔다.

AI로 인한 군비 경쟁을 피해야 하고, 경제 번영은 인류에게 혜택을 주는 데 쓰여야 한다는 내용도 있다. 고(故) 스티븐 호킹 박사, 일론 머스크 테슬라 대표, 데미스 허사비스 딥마인드 대표 등 2000여 명이 지지 서명을 했다.

구글, 페이스북, 아마존, IBM 등은 2016년 ‘파트너십 온 AI’를 결성해 AI의 부작용 예방을 위해 노력하는 연구자와 단체들을 후원하고 있다.

미국의 정보통신기술(ICT) 전문가 단체인 국제전기전자기술자협회(IEEE)는 2016년 말 AI 윤리기준 지침서의 초안을 발표한 이후 내용을 꾸준히 다듬고 있다. AI가 인권을 보장하고, 투명하게 작동하며, 결정의 도출 과정을 설명할 수 있어야 한다는 등의 원칙을 제시했다.

국내에선 2007년 산업자원부(현 산업통상자원부)가 사회 각계 의견을 수렴해 ‘로봇윤리헌장’ 초안을 작성한 적이 있다. 인간과 로봇의 관계를 규정한 세계 최초 사례로 평가됐지만 공식 제정까지 이뤄지진 못했다. 올 5월에는 경제협력개발기구(OECD)가 AI 기술 관련 권고안 마련에 착수했는데, 전문가그룹 의장에 한국인인 민원기 뉴욕주립대 교수가 선임돼 주목받기도 했다.

임현우 기자 tardis@hankyung.com