"학습 따라 AI가 편견 가질 수도…면접 활용 신중히"

세스 도브린 IBM 최고 AI 책임자

사람의 건강·생계에 영향 준다면 규제해야
“인공지능(AI) 알고리즘은 위험성을 내포하고 있습니다. 데이터를 어떻게 학습하는가에 따라 편견이나 편향이 생기게 됩니다. 사람의 건강이나 생계에 영향을 줄 수 있는 AI는 사용을 금지하거나 정밀하게 규제해야 합니다.”

세스 도브린 IBM 최고AI책임자(CAIO·부사장)는 13일 서울 여의도 한국IBM에서 만나 이같이 말했다. 그는 IBM 본사에서 AI와 클라우드 전환 등을 총괄하고 있다.도브린 부사장은 기업이 AI를 도입해 얻는 이득을 고려하기에 앞서 ‘AI 윤리’에 대한 고민이 필요하다고 강조했다. 강력한 도구인 만큼 도입 단계부터 AI가 미칠 영향을 생각해야 한다는 얘기다. 그는 “그동안 AI를 어떻게 도입할지에 관해 많은 논의가 이뤄졌지만, 여기에 영향을 받게 될 사람에 대한 고려는 상대적으로 적었다”고 지적했다. IBM이 2019년 11월 안면인식 사업에서 손을 떼기로 결정한 것도 이 같은 고민의 결과물이다.

기업이 AI를 사용할 때 반드시 투명성과 설명 가능성을 고려해야 한다는 게 도브린 부사장의 설명이다. 그는 IBM이 AI를 도입한 미국의 한 대형 유통기업 예를 들었다. 이 기업은 매일 1만 건 가까운 구인 공고를 내고 있다. 인사 담당자가 서류를 일일이 확인해야 하는 채용 절차를 개선하기 위해 AI를 적용했다. 도브린 부사장은 “구직자들이 왜 합격했는지, 불합격했는지 기업이 파악하고 설명할 수 있어야 한다”며 “공정성을 검증하기 위해 시민단체와도 협업하고 있다”고 설명했다.

최근 한국에서 늘고 있는 AI 면접에 대해선 조심스러운 태도를 보였다. 그는 “AI 윤리는 윤리와 마찬가지로 사회적, 문화적 맥락을 고려해야 하는 만큼 단편적으로 말하기 어렵다”면서도 “현재 AI 수준을 고려해 볼 때 공정한 방식의 접근은 아니라고 본다”고 했다.도브린 부사장은 정부 규제와 관계없이 기업이 AI 윤리에 대해 고민할 수 있는 제도적 장치가 필요하다고 강조했다. IBM은 지난해 이사회 멤버들이 참여하는 AI 윤리위원회를 구성해 운영하고 있다.

그는 “사업별 리더 25명 정도가 참여해 실제 비즈니스에 AI 윤리가 녹아들도록 하고 있다”며 “윤리 관련 방침을 마련하는 데 그치지 않고 실제로 집행력을 갖는 게 중요하다”고 조언했다. 이어 “사람이 AI를 어떻게 다루는가에 따라 AI가 편견을 강화할 수도, 없앨 수도 있다”며 “더 좋은 세상을 만들기 위해 공정성과 신뢰도를 높이려는 노력이 필요하다”고 말했다.

이승우 기자 leeswoo@hankyung.com

핫이슈