구글의 모회사인 알파벳, 마이크로소프트(MS), 메타플랫폼스, 아마존, 오픈AI 등 7개 빅테크가 생성AI로 만든 콘텐츠에 워터마크를 넣는 등 안전조치를 자발적으로 취하기로 했다. 생성AI가 오픈AI의 챗GPT 등장 이후 이를 활용한 정보조작이나 가짜뉴스가 범람할 수 있다는 우려에 따른 조치다.

미국 백악관은 지난 21일(현지시간) 이들 기업이 AI를 활용한 사기나 속임수 등을 차단하기 위해 이런 조치를 자발적으로 취하기로 약속했다고 밝혔다. 이들 기업은 △AI 시스템의 기능, 한계, 적절한 사용 영역 등 공개 △유해한 편견, 차별을 방지하고 개인정보를 보호하는 것을 포함해 AI의 사회적 리스크에 대한 우선적 연구 △제3자에 의한 AI 시스템의 취약성 발견 및 보고 촉진 등에 대해서도 약속했다. 또 AI 위험 관리에 관한 정보를 업계 및 정부, 시민 사회, 학계 등과 공유키로 했다.

이는 작년 말 챗GPT 출시 후 AI 활용에 대한 우려가 커진 것에 대한 대응책이다. 특히 내년 11월 미국 대선 때 딥페이크 등 AI 기술을 활용한 정보 조작이나 가짜뉴스가 극성을 부릴 수 있다는 전망도 나오고 있다.

백악관은 “새 기술을 개발하는 기업은 제품의 안전성을 보장할 책임이 있다”며 “AI의 잠재력을 최대한 활용하고 혁신이 미국인의 권리와 안전을 희생시키지 않도록 하기 위해 바이든 정부는 업체들이 최고 수준의 표준을 유지할 것을 권고하고 있다”고 설명했다. 이어 한국을 비롯해 20개 국가의 이름을 열거한 뒤 “바이든 정부는 동맹 및 파트너 국가와 협력해 AI의 개발 및 사용을 관리하기 위한 강력한 국제 프레임워크를 만들 것”이라고 말했다.

실리콘밸리=최진석 특파원 iskra@hankyung.com