[이경전의 경영과 과학] 우리 사회 '알고리즘 리터러시'를 높여야
프로 골프선수에게 골프를 잘 치는 비결을 시시콜콜 공개하라고 하는 것은 실례다. 영업 비밀이기 때문이다. 특급 요리사에게 요리 비법과 레시피를 공개하라고 하는 것과 마찬가지다.

방송통신위원회와 정보통신정책연구원은 ‘인공지능(AI) 기반 미디어 추천서비스 이용자 보호 기본원칙’을 지난달 30일 발표했다. 정보 공개, 선택권 보장, 자율검증 실행, 불만 및 분쟁 해결, 내부 규칙 제정이라는 실행 원칙을 제시했는데, 자율 규범이라 실효성도 없을뿐더러 사업자가 고객 만족과 품질 경쟁을 통해 취사선택할 것이므로, 정부 기관이 이런 것을 연구 발표하는 것은 예산 낭비에 불과하다.

한 국회의원은 지난달 25일 ‘알고리즘 투명화법’을 발의하면서 이용자의 알고리즘에 대한 설명 요구권을 포함시켰는데, 이는 프로 골프선수나 특급 요리사에게 영업 비밀 공개를 요구하는 것과 다르지 않다. 서비스 간 자유 경쟁이 보장된 경우라면, 소위 ‘갑’인 고객은 특정 추천 서비스가 싫으면 다른 추천 서비스로 가면 된다. 중요한 것은 ‘을’인 서비스들이 자유롭게 경쟁하는 환경을 조성하는 일이다.

그런데 사업자가 실질적으로 독점적인 상황이거나 추천 서비스가 아닐 경우, 정부의 시혜성 서비스나 예산 지원, 신용평가 등 시민이나 고객이 소위 ‘을’의 상황인 경우에는 설명이 필요할 수 있다. 미국 연방거래위원회(FTC)는 알고리즘에 의해 신용평가 등 분야에서 소비자에게 불리한 결정을 내려야 할 때 자세한 설명과 함께 부정적인 영향을 미친 상위 요인을 최소 네 가지 공개해야 한다는 원리를 제시하고 있다. 예를 들어, 사법적 판단은 아무리 AI, 기계학습에 기반한 시스템을 사용한다고 하더라도 그에 관해 설명해야 한다. 이유가 없는 사법적 판단은 민주사회에 있을 수 없기 때문이다. 따라서 아직 설명 기능이 부족한 딥러닝은 사법적 판단의 자동화엔 활용할 수 없다.

그런데 채용, 입학, 보험상품 계약에서도 상대방에게 설명해야 하는지는 논란의 여지가 있다. 이들 분야를 자유로운 계약·거래 관계로 볼 때 설명의 당위성은 떨어진다. 예를 들어, 학교는 좋은 학생을 유치해야 하고, 학생은 좋은 학교를 선택해야 하는 상호 자유경쟁의 관계다.

알고리즘의 설명 가능성에 대한 요구가 연구자나 기업의 이해관계에서 제기되는 것도 바람직하지 않다. ‘설명 가능 인공지능’은 딥러닝의 경우 형용모순과 같은 것이며, 충분히 발전하지 못한 상태다. 따라서 알고리즘의 설명성은 요구조건이 될 수 없으며, 기업이 고객 만족과 경쟁력 관점에서 선택해야 할 성격의 것이다.

2019년 11월 방통위는 이용자 중심의 지능정보사회를 위한 원칙을 제시하면서 알고리즘이 인간의 신체, 자유, 재산 및 기타 기본권을 침해했을 때 이용자에게 주요 요인을 설명할 수 있어야 한다고 했지만, 더 중요한 것은 피해를 보상하는 것이다. 알고리즘에 과정보다 결과에 대해 책임지게 하는 것이 더 엄격하게 의무를 지우는 것이다.

2020년 11월 19일 국회도서관에서 열린 한 토론회에서 궁선영 경희대 경영대학원 교수는 알고리즘의 투명성이나 설명 가능성보다 더 관심을 둬야 할 것은 알고리즘이 어떤 결과를 가져오며, 그 결과가 바람직한가에 대한 평가라고 설파했다. 추천 시스템이 고도화될수록 사용자의 입맛에 맞는 정보만 제공되고 나머지 정보는 감춰지는 위험, 이른바 ‘필터 버블’에 갇히게 될 수 있으므로, 인간 전문가의 참여가 필요하다고 역설했다. AI 기업 간 경쟁이 심화될수록 레이블링, 타기팅, 데이터 집중의 고도화가 이뤄지는데 역설적으로 고도화의 위험을 관리할 방법을 성찰해야 한다는 것이다.

시민사회는 AI 시스템 목표의 투명성을 높일 것을 요구하는 것이 더 중요하고, 알고리즘의 결과가 목표에 맞는지 검증할 능력, 즉 ‘알고리즘 리터러시’를 갖는 것이 중요하다. 시민사회는 조금 더 알고리즘에 대한 지식으로 무장해야 하고, 알고리즘 개발자들은 사회 요구에 대한 책무를 가져야 한다. 이들의 윤리적 역량을 확장하고, 이들이 인간 사회의 가치 체계와 공정성의 개념 등을 잘 이해할 수 있도록 교육하는 것 역시 중요하다.