김무환 < 포스텍 총장 mhkim8@postech.ac.kr >
[한경에세이] 착한 AI, 못된 AI

‘A.I.’ ‘아이, 로봇’에서 ‘익스팅션’까지, 인공지능(AI)을 다룬 영화들이 그리는 미래는 대체로 우울하다. 알파고가 안겨준 충격과 AI에 대한 우려를 그대로 그려내기라도 하듯, AI의 사용이 인간에게 큰 위험인 것처럼 보인다. 이런 위험을 증명이라도 하듯 AI는 실제로 사고(?)를 쳤다.

AI가 이미지를 자동으로 인식해 태그를 다는 ‘구글 사진’은 흑인 얼굴을 고릴라로 표시하는가 하면, 아마존의 AI 채용시스템은 여성이라는 단어가 들어가면 무조건 감점 처리를 하는 것으로 알려져 도입이 취소됐다.

영화 속 위험천만한 모습의 AI와 달리 현실 속의 AI는 스마트폰 속 친절한 비서와 같은 조력자이자 친구다. 이 친구는 감정과 편견이 없어 감정에 휘둘리기 쉬운 사람의 정확한 판단을 돕는다. 그런데 이 똑똑한 친구들이 왜 이런 사고를 쳤을까.

결론부터 이야기한다면, 그 정답은 사람 때문이라는 것이다. 사고(思考)는 AI가 하지만, 그 사고의 원천이 되는 데이터를 선택하는 것은 사람이다. 천문학적인 양의 데이터를 학습시키는 과정에서 개발자가 가진 편견을 이 AI는 고스란히 모방한다. 10년간 우수 사원 데이터를 학습시킨 아마존 AI 시스템에는 여성 차별적인 데이터가 포함돼 있었고, AI는 이를 그대로 기준으로 삼았다.

비슷한 사례로 2018년 사이언스지에는 AI가 편견을 학습할 수 있는가에 관한 연구도 실렸다. 이 연구에서는 AI는 남성은 수학과 공학에, 여성은 언어나 예술과 연관을 지었다. 또 백인은 행복이나 선물 같은 긍정적인 단어에, 흑인은 불행 같은 부정적 단어와 관련이 있다고 했다. 이처럼 인간이 갖는 편견을 AI가 그대로 답습한다는 결과에 많은 이들이 적지 않은 충격을 받았다. 이들이 간과한 것은 지금의 AI는 스스로 사고하거나 비판하는 능력을 갖추고 있지 않아, AI가 어떤 성향을 지니게 되는지는 사람이 관여할 수밖에 없다는 사실이다.

‘새까만 먹을 가까이하다 보면 자신도 모르게 검어진다’는 뜻의 근묵자흑(近墨者黑)이라는 말처럼, AI가 우리에게 ‘착한 친구’가 될지, ‘못된 친구’가 될지는 먼저 사람이 AI에 어떤 친구가 되느냐에 달려 있다. 개발자들이 이들을 어떤 친구로 개발하느냐에 따라 미래 사회도 유토피아와 디스토피아로 크게 달라질지 모른다. 그렇기에 컴퓨팅 사고력과 더불어 윤리성과 가치관, 데이터를 비판적으로 검증할 수 있는 통찰력은 이제 개발자들에게 기본적이며 필수적인 요건이 될 것이다.

스마트폰 속 AI 비서부터, 채용·스포츠·금융·헬스케어 분야 등 AI는 이미 우리 생활 속에서 그 역할을 시작했다. 인간이 AI를 공동선을 위한 조력자로 삼고 함께 걸어가려면 개발자 역할이 그 무엇보다 중요하다. 공상과학(SF) 영화와 달리 착한 AI 그리고 사람의 좋은 친구로서 조화롭게 살아가는 가까운 미래를 기대한다.

ⓒ 한경닷컴, 무단전재 및 재배포 금지