인간 중심의 인공지능 개발이 선택이 아닌 필수인 이유
독일 카이저슬라우테른 공대 교수로 사회정보학을 가르치는 츠바이크 교수는 기술과 사회, 문화, 인공지능과 윤리 분야 전문가다. 또한 독일 연방의회의 인공지능 분야 전문조사위원회 위원으로 독일의 정책 수립에도 적극 참여하고 있다. 원래 생화학을 전공한 그녀는 통계 이론과 데이터 분석을 접한 뒤 사회정보학 영역에 뛰어들었다.
그동안 많은 미국 학자의 책이 있었지만, 독일 학자의 이 책은 유럽에서도 인공지능 연구에 대한 기대와 함께 인공지능이 사회에 갖는 함의에 대해 많은 논의를 하고 있음을 알게 해준다. 사실 이런 논의는 유럽 연합 국가에서 더 치열하게 전개되고 있다.

책은 크게 3부로 구성됐다. 1부 도구 상자에서는 저자가 이 문제에 어떻게 도달하게 되었고, 현재 논의되는 여러 주제가 어떤 배경을 갖게 되는지 짧게 설명한다. 책의 핵심은 2부와 3부에 있다. 2부는 본인이 참여했던 여러 연구나 관심 분야를 소개하면서 알고리즘, 컴퓨터 지능, 머신 러닝 등이 어떻게 적용되고 있으며 어떤 한계가 있는 것인지 알려준다. 우리에게 익숙한 넷플릭스 추천 알고리즘이나 타이타닉호 사건, 채용 면접, 로봇 청소기, 재판에 활용하는 알고리즘 등의 사례를 통해 최적의 해를 구하는 것이 생각보다 매우 어렵다는 점과, 알게 모르게 우리의 판단과 사회적 차별이 어떻게 반영될 수 있는지 설명한다. 다시 말해, 데이터의 부족이나 치우침, 인간의 수작업이나 변수 조절 등에 의해 인공지능은 가치중립적이지 않음을 지적한다. 이 책의 장점은 2부에서 확연히 드러난다. 알고리즘이나 머신러닝, 인공지능을 다양한 그림과 간단한 사례를 통해 이해하기 쉽게 설명하고 있기 때문이다.

3부는 저자가 가장 강조하고 싶었던 차별과 이데올로기, 감독과 운영, 기계와 인간의 관계에 대해서 논한다. 알고리즘과 차별 그리고 이데올로기라는 측면에서는 책에서 계속 강조하는 ‘책임성의 긴 사슬’이라는 개념으로 데이터, 접근 방법, 품질 척도, 공평성 척도, 해석, 행동, 피드백 모든 과정에서 윤리 관련 이슈가 존재함을 설명하고 있다. 책임성은 시스템에 관여한 모든 과정에 적용할 수 있다는 것이 긴 사슬의 의미이다.

츠바이크 교수는 공정과 공평에 대해 인공지능 시스템이나 알고리즘 기반 시스템이 모두를 충족시키기 어렵다는 점과 어떤 잣대를 최적으로 할 지는 사회가 결정할 수밖에 없음을 강조한다. 즉, 공평성의 척도를 어떻게 결정할 것인가는 알고리즘 개발자에게 위임할 수 없으며, 필요한 것은 허용되지 않은 차별이라는 사회적 개념을 측정할 수 있도록 만드는 운영화라는 점, 그리고 이를 사회가 공유하고 투명하게 소통해야 한다고 주장한다.
기계의 결정은 늘 통계적 특성을 띨 수밖에 없다. 그리고 그것은 이해 가능해야 한다. 특히 기계의 잘못된 판단은 그 손해잠재력이 개인을 넘어서 전 사회적 손해를 초래할 수 있기 때문에 투명성과 강한 감독이 필요함을 역설하고 있다. 더군다나 그것이 독점적 상황이라면 더 심각하게 생각해야 한다며 자신이 개발한 리스크 매트릭스에 여러 알고리즘을 매핑해서 보여준다. 이 매트릭스를 통해 투명성과 이해가능성 요구를 다섯 개의 등급으로 분류할 수 있음도 제시하고 있다.
마지막으로 알고리즘 기반의 의사결정 시스템을 활용하기 위한 사회적 수용성 규칙을 논하고 강한 인공지능이 가질 수 있는 문제점을 제시한다. 결국 츠바이크 교수가 얘기하는 것은 인간 중심의 인공지능 개발이 우리가 선택해야 하는 방향이며 통제와 감독의 중요성이 어느 때보다 중요하다는 것이다.

※책과얽힘
인간 중심의 인공지능 개발이 선택이 아닌 필수인 이유
국내에서 보기 드문 과학기술 전문 큐레이팅 책방이다.서울 강남구청역 인근에 있다. 기술과 정책 전문가들이 수시로 모이는 사회적 공간, 커뮤니티 역할도 하고 있다. 모든 책은 공학박사인 주인장(한상기)이 엄선해 판매한다. 페이스북에서 책과얽힘을 검색해도 만날 수 있다.