사진=뉴스1

사진=뉴스1

금융당국이 금융권의 인공지능(AI) 활용에 대한 가이드라인을 마련했다. 서비스 전 과정에서 윤리 원칙이 지켜지도록 3중 내부 통제 장치를 마련하는 게 골자다.

금융위원회는 8일 제 1차 디지털 금융협의회 데이터분과회의를 열고 ‘금융분야 AI 가이드라인’을 발표했다. 가이드라인에는 △AI 윤리원칙 마련 △AI 조직구성 △위험관리 정책 수립이라는 3중 안전 장치에 대한 내용이 담겼다.
금융 AI 가이드라인 나왔다…"3중 내부통제 장치 마련"

먼저 AI 금융거래 및 대고객서비스를 적용한 모든 금융업권은 AI 윤리 원칙을 마련해야 한다고 명시했다. 회사별로 가치와 AI 활용 상황 등을 고려해 AI 서비스 개발·운영 원칙과 기준을 수립해야 한다. 또 AI의 잠재적 위험을 평가·관리할 구성원의 역할·책임·권한을 서비스 전 단계(기획-설계-운영-모니터링)에 구체적으로 정의하도록 했다.

AI의 의사결정이 개인의 금융거래 계약에 중대한 영향을 주는 경우에는 내부통제 및 승인 절차를 마련하고 별도 책임자도 지정해야 한다. 예를 들어 신용평가, 보험·대출·카드발급 심사 등에 AI가 활용되는 경우가 해당한다.

AI 학습에 사용되는 데이터에 대한 조사를 강화하고, 개발 과정에서 개인신용정보 오·남용이 없도록 정보보호를 강화하는 내용도 담겼다. 특히 사생활정보 등 민감한 개인정보를 활용할 때는 비(非)식별조치를 거치도록 했다.또 특정 집단에 대한 금융 차별이 생기지 않도록 공정성 평가에도 주의를 기울이도록 했다.

금융소비자에게는 AI를 활용하는 사실을 미리 고지하고 이의신청 등 권리구제 방안도 안내하도록 했다. 도규상 금융위 부위원장은 이날 회의에서 "AI는 더이상 지체할 수 없는 금융의 미래이지만 전면 도입하기에는 넘어야 할 과제가 많다"며 "가이드라인은 신뢰를 근간으로 하는 금융서비스가 AI 기술을 접목하는 데 지켜야 할 최소한의 방향성을 제시하고자 했다"고 말했다.

가이드라인은 하반기 중 시행된다. 각 금융업권협회는 구체적인 세부 실무지침도 3분기 내에 마련할 계획이다.

정소람 기자 ram@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지