금융분야 AI 가이드라인·유효성 검증 테스트베드 만든다
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
공정성·투명성 높이고, 데이터세트 등 제공해 활성화 지원
디지털금융 협의회는 4개 분과로 확대·개편 금융위원회는 2분기에 금융 분야 인공지능(AI) 가이드라인을 준비하고 금융 업권별 실무지침 등도 올해 단계적으로 마련해 나가겠다고 밝혔다.
도규상 금융위 부위원장은 13일 영상회의로 열린 제7차 디지털금융 협의회에서 이같이 밝혔다.
도 부위원장은 "AI는 인간보다 빠르게 더 많은 정보를 처리함으로써 의사결정의 효율성을 높이지만 의사결정의 편향성 등 공정성 이슈가 제기될 수 있다"며 "양자 간 조화를 이룰 수 있도록 운영 가이드라인을 만들겠다"고 말했다.
또 "금융권의 AI 활용을 지원하기 위해 빅데이터 인프라를 구축하고 AI 알고리즘의 유효성을 검증할 수 있는 테스트베드(시험환경)도 만들어 나가겠다"고 덧붙였다.
금융 분야에서 AI는 로보어드바이저, 알고리즘 거래, 고빈도거래(HFT), 챗봇, 신용평가 및 대출·보험 심사, 사기탐지(FDS) 등에 다양하게 활용된다.
그러나 금융투자 분야 등 일부를 제외하고는 AI 활용에 대한 법제상 규율이 명확하지 않은 상황이다.
이에 금융위가 서울대 산학협력단이 수행한 연구용역 결과를 토대로 AI 가이드라인을 마련하기로 했다.
서울대 산학협력단은 금융위가 발주한 '금융 분야 AI 운영 가이드라인 연구용역'에서 AI 시스템의 잠재적 위험을 평가·관리할 거버넌스를 구축하고 전 과정에서 적절한 평가를 시행해 신뢰성을 확보해야 한다고 제언했다.
AI 활용사례의 사회적 영향평가, 개발 시 학습데이터의 품질 및 개인정보 활용의 정당성 평가, 성능·공정성(비차별성)에 대한 검증, 안전성 평가 등이 필요하다는 설명이다.
금융상품 판매 시 주로 사용되는 전문적 내용이 축적된 말뭉치 데이터세트, AI 학습·교육용 인조 합성데이터 등 빅데이터 인프라를 정부가 공공재 성격으로 구축하면, 개별 금융기관이 각자 자체적으로 보유한 데이터만으로 AI를 개발할 때 생기는 한계를 보완할 수 있다.
가칭 'AI 설명 테스트베드'는 금융 챗봇이 소비자에게 금융상품을 판매할 때 설명의무를 적절하게 이행할 수 있는지 등을 실증적으로 측정하는 기능을 수행한다.
연구진은 공정성 평가와 관련, 금융소외계층의 금융 접근성을 높여야 할 때는 결과적 평등 기준을, 대출 심사 등 금융거래 기회를 제공할 때는 기회의 평등 기준을 적용하는 등 맥락에 따라 유연하게 평가해야 한다고 조언했다.
정확성 측면에서도 대출 심사 때는 자격을 갖춘 사람이 거절되는 위험을 최소화하고 사기 거래 탐지 때는 부적절한 거래를 놓치는 위험을 최소화하는 식으로 금융서비스 특성에 따라 판단 기준을 달리해야 한다고 제안했다.
도 부위원장은 "AI 등 혁신적인 기술의 활용 과정에서 투명성·공정을 확보하고 다수의 금융회사가 유사한 알고리즘을 활용함에 따라 발생할 수 있는 쏠림 현상에 대해 상세하게 점검하겠다"고 말했다.
이날 디지털금융 협의회에서는 디지털금융 확산에 따른 경쟁 심화와 금융사 수익성 약화, 비금융 부문 신용위험의 금융부문 전이 가능성, 탈(脫)은행화 가속에 따른 통화정책 영향의 약화 가능성 등 리스크 요인도 논의됐다.
도 부위원장은 "비금융회사가 금융업을 영위하는 과정에서 리스크 전이나 그림자 금융과 같은 위험요인을 모니터링하겠다"며 "AI 기술을 활용한 딥페이크 등 새로운 유형의 금융 범죄에 대응하고 섭테크(Suptech·금융감독과 기술의 합성어) 등에도 선제적으로 대비하겠다"고 말했다.
작년 9월 출범해 '기울어진 운동장' 논의에 집중해온 디지털금융협의회는 ▲ 플랫폼·오픈뱅킹 ▲ 규제혁신 ▲ 데이터공유 ▲ 금융보안 등 4개 분과 회의체로 확대·개편된다.
분과회의는 분기마다, 전체회의는 반기마다 1회 이상 개최해 디지털 금융 전반의 과제를 논의할 예정이다.
/연합뉴스
디지털금융 협의회는 4개 분과로 확대·개편 금융위원회는 2분기에 금융 분야 인공지능(AI) 가이드라인을 준비하고 금융 업권별 실무지침 등도 올해 단계적으로 마련해 나가겠다고 밝혔다.
도규상 금융위 부위원장은 13일 영상회의로 열린 제7차 디지털금융 협의회에서 이같이 밝혔다.
도 부위원장은 "AI는 인간보다 빠르게 더 많은 정보를 처리함으로써 의사결정의 효율성을 높이지만 의사결정의 편향성 등 공정성 이슈가 제기될 수 있다"며 "양자 간 조화를 이룰 수 있도록 운영 가이드라인을 만들겠다"고 말했다.
또 "금융권의 AI 활용을 지원하기 위해 빅데이터 인프라를 구축하고 AI 알고리즘의 유효성을 검증할 수 있는 테스트베드(시험환경)도 만들어 나가겠다"고 덧붙였다.
금융 분야에서 AI는 로보어드바이저, 알고리즘 거래, 고빈도거래(HFT), 챗봇, 신용평가 및 대출·보험 심사, 사기탐지(FDS) 등에 다양하게 활용된다.
그러나 금융투자 분야 등 일부를 제외하고는 AI 활용에 대한 법제상 규율이 명확하지 않은 상황이다.
이에 금융위가 서울대 산학협력단이 수행한 연구용역 결과를 토대로 AI 가이드라인을 마련하기로 했다.
서울대 산학협력단은 금융위가 발주한 '금융 분야 AI 운영 가이드라인 연구용역'에서 AI 시스템의 잠재적 위험을 평가·관리할 거버넌스를 구축하고 전 과정에서 적절한 평가를 시행해 신뢰성을 확보해야 한다고 제언했다.
AI 활용사례의 사회적 영향평가, 개발 시 학습데이터의 품질 및 개인정보 활용의 정당성 평가, 성능·공정성(비차별성)에 대한 검증, 안전성 평가 등이 필요하다는 설명이다.
금융상품 판매 시 주로 사용되는 전문적 내용이 축적된 말뭉치 데이터세트, AI 학습·교육용 인조 합성데이터 등 빅데이터 인프라를 정부가 공공재 성격으로 구축하면, 개별 금융기관이 각자 자체적으로 보유한 데이터만으로 AI를 개발할 때 생기는 한계를 보완할 수 있다.
가칭 'AI 설명 테스트베드'는 금융 챗봇이 소비자에게 금융상품을 판매할 때 설명의무를 적절하게 이행할 수 있는지 등을 실증적으로 측정하는 기능을 수행한다.
연구진은 공정성 평가와 관련, 금융소외계층의 금융 접근성을 높여야 할 때는 결과적 평등 기준을, 대출 심사 등 금융거래 기회를 제공할 때는 기회의 평등 기준을 적용하는 등 맥락에 따라 유연하게 평가해야 한다고 조언했다.
정확성 측면에서도 대출 심사 때는 자격을 갖춘 사람이 거절되는 위험을 최소화하고 사기 거래 탐지 때는 부적절한 거래를 놓치는 위험을 최소화하는 식으로 금융서비스 특성에 따라 판단 기준을 달리해야 한다고 제안했다.
도 부위원장은 "AI 등 혁신적인 기술의 활용 과정에서 투명성·공정을 확보하고 다수의 금융회사가 유사한 알고리즘을 활용함에 따라 발생할 수 있는 쏠림 현상에 대해 상세하게 점검하겠다"고 말했다.
이날 디지털금융 협의회에서는 디지털금융 확산에 따른 경쟁 심화와 금융사 수익성 약화, 비금융 부문 신용위험의 금융부문 전이 가능성, 탈(脫)은행화 가속에 따른 통화정책 영향의 약화 가능성 등 리스크 요인도 논의됐다.
도 부위원장은 "비금융회사가 금융업을 영위하는 과정에서 리스크 전이나 그림자 금융과 같은 위험요인을 모니터링하겠다"며 "AI 기술을 활용한 딥페이크 등 새로운 유형의 금융 범죄에 대응하고 섭테크(Suptech·금융감독과 기술의 합성어) 등에도 선제적으로 대비하겠다"고 말했다.
작년 9월 출범해 '기울어진 운동장' 논의에 집중해온 디지털금융협의회는 ▲ 플랫폼·오픈뱅킹 ▲ 규제혁신 ▲ 데이터공유 ▲ 금융보안 등 4개 분과 회의체로 확대·개편된다.
분과회의는 분기마다, 전체회의는 반기마다 1회 이상 개최해 디지털 금융 전반의 과제를 논의할 예정이다.
/연합뉴스