고학수(서울대학교 법학전문대학원 교수, 한국인공지능법학회 회장)
고학수 서울대 교수

고학수 서울대 교수

인공지능(AI) 기술이 발전하면서 여러 영역에서 연구와 활용도가 높아지고 있다. 관심과 열기가 뜨거운 영역 중 하나로 의료 영역이 빈번하게 언급된다. 엑스레이에 대한 판독을 포함한 영상의학 영역은 일찍부터 AI 기술에 대한 관심이 집중되기 시작한 영역에 속한다. 근래에는 병리학을 포함한 다양한 기초 의학 영역은 물론 대다수의 임상의학 영역에서 매우 활발하게 연구가 활발하다. 또한 전자의무기록의 작성과 관리를 위해 AI 기술의 활용이 모색되는 등 의료현장에서의 실질적인 필요성을 고려한 다양한 시도가 진행되고 있다.
의료 AI 기술이 발전하면서, 어떻게 이를 의료 시스템에 접목할 수 있을지 그리고 건강보험 시스템에 어떻게 반영할 수 있을지에 관한 논의가 계속 이루어지고 있다. 그와 함께 최근에 관심이 크게 늘어난 AI 윤리 특히 공정한 AI와 관련된 논의가 의료 영역에 주는 함의는 무엇인지에 대한 논의도 나타나고 있다.

공정한 의료 AI는 무엇을 의미하는가? AI와 관련해서는 공정성은 차별금지를 의미하는 것으로 해석되는 경우가 많다. 의료 맥락에서 생각해 보면, 이는 AI를 활용한 다양한 의료 의사결정이 사회경제적으로 그리고 인구통계학적으로 서로 다른 집단 사이에 부당한 차별적 결과를 가져오지 않을지에 관한 논의로 이어진다.
예를 들어보자. AI 기술을 활용한 신약개발 과정에서 여성의 임상시험 참여가 적은 경우가 종종 나타난다. 그 경우 여성의 생리학적 특징이 신약개발에 적절히 반영되지 못할 가능성이 있다. 인종에 따른 문제 가능성도 여러가지 형태로 나타나고 있다. 피부과에서는 백인의 피부에 기초하여 이루어진 AI 연구가 유색인종에 대해서는 정확도가 떨어진다는 보고가 주기적으로 나타나고 있다. 최근에는 웨어러블 기기를 이용한 심박수 측정에 있어서도 인종별로 정확도 및 편차가 다르게 나타났다는 평가도 있었다. 또 다른 유형의 문제로, 알고리즘을 활용하여 병원의 의료자원 배분을 표준화하고 일관성을 확보하려는 노력이 역설적이게도 환자들의 사회경제적인 상황을 반영하게 되면서 왜곡을 초래할 수 있다는 연구결과가 발표돼 주목을 끌기도 했다.

무엇이 문제인가? 지금으로는 단편적인 사례들이 계속 보고되는 중이지만, 전반적인 상황에 관한 체계적인 정리는 안된 상황이다. 데이터 문제가 대표적이다. 이는 충분히 많은 데이터의 확보 문제를 넘어, AI 학습용 데이터가 연구대상 모집단의 통계적 특징을 정확하게 반영할 수 있는지에 관한 문제로 나타난다.
학습용 데이터 자체에 한계가 있을 수 있는 잠재적 원인은 매우 다양하다. 우선 특정 질병 유형의 환자에 관한 데이터가 적거나 특정 인구통계학적 배경을 지닌 환자에 관한 데이터가 적은 것이 문제가 될 수 있다. 데이터가 과거의 관행을 반영하면서 의료환경이나 사회경제적 환경 변화를 적절히 반영하지 못해 문제가 발생할 수도 있다. 실무적으로는 전자의무기록이 작성되는 과정에서 의료비 청구 등을 염두에 둔 무의식적 편향이 한 원인이 될 수도 있다.
의료 AI가 우리 사회에 골고루 혜택을 가져올 수 있도록 하기 위해선 다양한 편향의 원인에 대해 구체적으로 파악하고 이를 체계화하는 작업이 선결되어야 한다.

ⓒ 한경닷컴, 무단전재 및 재배포 금지