기업에 'AI의 판단기준' 설명 책임 부과, 내년 G20서 각국에 동참 요청키로
사진=연합뉴스
사진=연합뉴스
바야흐로 인공지능(AI) 시대다.

금융기관의 융자심사에서부터 기업의 채용에 이르기까지 AI가 쓰이지 않는 분야가 드물 정도로 사용범위가 갈수록 넓어지고 있다.

일본 정부가 이런 시대 변화에 맞춰 AI 활용에 관한 7가지 원칙을 제정키로 했다.

AI의 판단에 대해 해당 기업에 설명책임을 부과하는게 가장 중요한 내용이다.

판단기준을 제시해 금융기관의 융자심사 등에서 결정이 공정하게 이뤄졌는지 파악하기 위해서다.

일본 정부는 이들 원칙을 토대로 법정비를 추진, 일본에서 활동하는 외국기업에도 적용한다는 계획이다.

27일 니혼게이자이(日本經濟)신문에 따르면 일본 정부는 '인간중심 AI사회원칙검토회의'에서 논의를 거쳐 12월에 7대 원칙을 발표할 계획이다.

내년 6월 오사카(大阪)에서열리는 주요 20개국(G20) 정상회의에서 참가국에도 동참을 요청한다는 방침이다.

AI 활용에는 우려가 적지 않다.

금융기관이 어떤 기준으로 융자심사를 했는지, 채용 합격 여부를 어떻게 결정했는지 등 AI에 의한 결정기준이 명확하지 않으면 판단결과에 불만이 제기될 수밖에 없다.

채용에 AI를 활용할 경우 성별, 국적 등이 합격여부 결정에 영향을 미칠 수도 있다.

AI를 활용하는 기업 측도 그런 내용을 파악하지 못할 우려가 있다.

7대 원칙은 기업에 판단기준과 결정이유를 알기 쉽게 설명할 책임을 부과해 AI의 판단에 최종적으로는 인간이 책임을 지게하는 방식으로 AI를 둘러싼 우려를 불식하도록 촉구하는데 초점을 맞췄다.

외국기업이 각각의 국가나 해당기업의 독자적인 원칙에 따라 활동하면 혼란이 초래될 우려가 있다.

미국은 구글, 애플, 페이스북, 아마존 등 이른바 'GAFA'로 불리는 IT(정보기술) 공룡기업이 AI개발을 주도하고 있다.

AI 활용원칙이 기본적으로 기업의 자율규제에 맡겨져 있다.

반면 중국은 국가 주도의 색채가 짙다.

BAT(바이두, 알리바바, 텐센트)로 불리는 기업을 경유해 사실상 국가가 데이터를 관리하고 있다.

유럽연합(EU)은 미국과 중국에 맞서 EU주도로 연말까지 AI윤리지침을 마련키로 했다.

EU의 윤리지침은 AI의 판단과정을 알기 쉽게 전달할 책임을 기업에 부과하고 있는게 특징이다.

일반데이터보호규정(GDPR)을 통해 개인정보를 엄격하게 보호하도록 규제하는 방향이다.

일본 정부가 마련한 AI활용 원칙은 ▲AI는 인간의 기본적 인권을 침해하지 않는다 ▲충실한 AI교육 ▲신중한 개인정보 관리 ▲AI의 보안조치 확보 ▲공정한 경쟁환경 유지 ▲결정과정에 대한 기업의 설명 책임 ▲국경을 초월한 데이터 이용환경정비 등이다.

/연합뉴스