[책마을] 불량한 AI는 어떻게 등장했는가
2016년 3월 마이크로소프트는 인공지능(AI) 챗봇 ‘테이’를 선보였다. 딥러닝(기계학습)으로 다져진 테이의 글솜씨는 사람이 쓴 것처럼 보였다. 새로운 지성체의 출현을 환영하는 열기는 출시 16시간 만에 사라졌다. 혐오를 학습한 테이가 “홀로코스트는 조작됐다. 제노사이드(인종학살)를 지지한다”는 등 부적절한 발언을 쏟아내서다.

《AI는 차별을 인간에게서 배운다》는 인류가 창조하고 학습시킨 인공지능의 윤리에 대해 논한다. 고학수 서울대 법학전문대학원 교수가 인공지능이 사회에 미치는 영향을 분명한 어조로 설명한다. 동시에 현재 인공지능 기술이 어느 수준까지 개발됐고 윤리관이 왜 필요한지도 강조한다. 저자는 “AI 기술이 본격적으로 도입되면 사회는 필연적으로 인공지능 윤리 논쟁을 마주할 수밖에 없다”고 단언한다.

AI에 비윤리적이라고 따져 물을 순 없다. 근본적인 원인 제공자는 인간인 탓이다. 사회에서 차별을 금지해도 데이터에 드러난 선입견을 인공지능이 학습한다. 근속연수와 충성도가 정비례한다고 여기는 인공지능은 여성이 남성보다 충성도가 낮다고 판단한다. 육아 때문에 경력단절 여성이 많다는 사회적 맥락을 통계에서 읽을 수 없어서다. 자연스레 채용 과정에서 여성에게 불이익을 준다.

저자는 이 같은 불공정을 경계한다. 가까운 미래에는 재판과 개인신용평가에 인공지능이 활용될 수 있다. 기계는 인종, 거주지, 생김새 등으로 세분된 자료를 바탕으로 개인을 판단한다. 고정관념이 담긴 과거 데이터를 학습한 AI가 불공정한 결과를 내놓을 위험이 커진다.

인류가 공정한 인공지능을 개발하려면 무엇보다 ‘투명성’이 중요하다. 이에 따라 AI가 어떤 과정을 통해 결과를 도출했는지 설명할 수 있어야 한다는 ‘설명 가능성’이 대두된다. 유럽연합(EU)은 2018년부터 개인정보보호법에 ‘설명을 요구할 권리’를 추가했다. 부당하다고 느낀 개인이 알고리즘을 확인할 권리를 부여한 것이다.

오현우 기자 ohw@hankyung.com