백악관 새 정책 규칙 발표…올해 12월까지 AI 안전장치 마련 요구
미국, 정부 기관에 'AI 안전장치' 의무화…"안전성 입증해야"
미국 백악관이 28일(현지시간) 인공지능(AI)을 업무에 활용하는 정부 기관들에 AI로 인한 부작용을 막기 위한 구체적인 안전장치를 의무적으로 마련하도록 했다고 밝혔다.

이날 로이터·AP 통신 등 외신에 따르면 백악관 예산관리국(OMB)은 연방 정부 기관들이 AI를 활용할 경우 그 내용을 대중에 투명하게 공개하고 부작용과 영향력에 대해 검증 및 모니터링을 하도록 하는 새 정책 규칙을 발표했다.

백악관에 따르면 미국 내 대부분의 정부 기관은 올해 12월까지 업무에 활용하고 있는 AI 도구의 부작용 방지를 위한 구체적인 안전장치를 마련해야 한다.

또 각 정부 기관은 AI 기술 활용을 감시할 수 있는 숙련된 '최고 AI 담당관'(Chief AI Officer)을 채용해야 하며, 매년 각 기관이 활용하고 있는 AI의 분야 및 내용, 가능한 부작용 목록을 대중에 공개해야 하는 의무도 부과된다.

여기에는 공항 얼굴인식부터 전력망 관리, 대출, 보험, 의료, 날씨 등 각종 분야에서 정부 기관들이 활용하고 있는 AI 도구들이 포함된다.

이러한 안전장치를 도입하지 않은 기관들에 대해 "기관 수장이 AI 시스템 사용을 중단했을 시 기관 업무에 심각한 장애가 초래되거나 안전 혹은 권리상 위험을 키울 것이라는 사유를 밝히지 못하는 이상 AI 사용을 반드시 중단해야 한다"고 백악관 측은 설명했다.

카멀라 해리스 미 부통령은 "앞으로 정부 기관들이 AI 도구를 사용할 경우 그 도구들이 미국인의 권리 및 안전을 위험하게 만들지 않는다는 사실을 입증하도록 요구할 것"이라고 설명했다.

AI 무기 도입 등에 대해 추가 논의가 진행 중인 정보 당국과 국방부 등 일부 기관들은 이번 규칙 적용 대상에서 제외됐다.

이번 정책은 앞서 조 바이든 미 대통령이 지난해 10월 서명한 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'에 따른 후속 조치다.

당시 바이든 대통령은 행정명령을 통해 미국 기업들에 자사가 개발한 AI가 국가 안보나 경제 및 건강상 위험을 초래할 경우 이를 연방 정부에 통지하고, AI에 대한 안전 테스트 결과 및 주요 정보를 정부와 공유하도록 했다.

이를 통해 기업의 AI 개발 및 활용에 대한 안전장치 마련을 의무화했던 백악관은 이번 정책 규칙에서는 정부 기관의 AI 활용에 초점을 맞췄다.

/연합뉴스