전문가들은  AI에 책임을 미뤄선 안된다고 지적하고 있다.  게티이미지
전문가들은 AI에 책임을 미뤄선 안된다고 지적하고 있다. 게티이미지
AI의 핵심은 추론입니다. 엄청난 세부 사항을 분석하는 데 도움이 될 수 있지만 큰 그림은 사람만이 이해할 수가 있습니다. 인간은 AI보다 실수를 많이 하지만 이를 인식할 힘도 더 큽니다. 인공지능을 구축하는 방법이 잘못되는 건 결국 사람의 문제입니다. 미국 IT 전문 매체 벤처비트가 AI를 활용하는 최악의 방법 네 가지를 선정했습니다. 이들을 소개합니다.

①잘못된 데이터를 기반으로 의사 결정하기
AI는 방대한 데이터 세트에서 일정한 패턴을 찾는데 탁월합니다. 하지만 잘못된 데이터가 있으면 큰 문제가 발생합니다. MIT 연구원들이 컴퓨터 알고리즘 훈련에 사용하는 이미지 데이터 세트 10개를 분석한 결과 모든 세트에서 평균 3.4%의 오류를 발견했다고 합니다. 또한 퀵드로(QuickDraw),사이파(CIFAR) 등 오픈 소스 데이터 세트에서도 데이터의 오류가 발견됐습니다. 긍정적인 사안을 부정적으로 판단하는 데이터 등의 오류가 있었습니다.

②AI 학습의 실패
AI 엔진은 정확한 데이터가 제공된다면 옳은 답을 구해낼 수 있습니다. 하지만 테스트를 거치기 이전까지 어떤 작업이 수행될지는 알 수 없습니다. 특히 금융에서 좋은 엔진을 구축하려면 동질적인 대규모 데이터 세트가 필요하고 측정하려는 데이터의 값이 정확해야 합니다. AI 엔진이 잘 설계되지 않으면 특정 데이터 세트에 치우칠 수가 있습니다. AI가 새로운 정보를 처리하고 학습하는 시간이 절대적입니다.

③의사 결정에 대한 인간 책임 회피
AI가 무슨 일을 하도록 프로그래밍하더라도 인간의 목표를 공유하거나 그 결과를 책임지지도 않습니다. AI 소프트웨어가 판단에 도움을 줄 수는 있지만, 실제 결정을 내리진 못하며 인간만이 의사결정을 내릴 수가 있습니다. 법률에서도 결정에 대한 책임은 인간에 있다는 데 동의합니다. 금융 AI가 대출을 거부했을 때 거부가 발생한 사유를 사람이 적절히 설명할 수 없으면 곤란해지는 일이 한 두 가지가 아닙니다. 결국 모든 책임은 결과적으로 인간이 지게 해야 합니다.

④ 데이터의 과대평가
데이터가 확보되면 모든 문제가 해결된다고 믿는 사람들이 많습니다. 하지만 데이터는 제대로 갖춰져야 하며 편향되지 않아야 합니다. 데이터 세트마다 각기 서로 다른 문제를 설명하고 있다면 실제 공통분모를 찾기가 어렵습니다.
부동산을 예로 들면 지역별로 데이터를 수집한다고 하더라도 부동산 시장은 지역마다 특성이 모두 다르기 때문에 이들을 모두 아우르는 알고리즘을 찾기는 하늘의 별 따기입니다. 데이터 세트가 너무 작아도 의미 있는 분류 알고리즘을 구축할 수 없습니다. AI 엔진을 구축하기 이전에 데이터가 잘 갖춰져 있는지 확인해야 합니다.
오춘호 연구위원