Getty Images Bank
Getty Images Bank
인공지능(AI) 기술이 고도화하면서 AI 모델의 오류와 비윤리적 생성물을 둘러싼 문제도 심화하고 있다. AI 모델이 역사적 사실과 다른 결과를 내놓거나, 폭력적·성적인 이미지를 생성하는 등 부작용이 나타나고 있기 때문이다. AI 업계에서 ‘윤리 리스크’가 핵심 화두로 떠오르면서 ‘AI 버그’를 효과적으로 관리하는 능력이 기업의 경쟁력을 구분 짓는 가늠자 역할을 할 것으로 보인다.

10일(현지시간) 테크업계에 따르면 제러드 캐플런 앤스로픽 공동창업자 겸 최고과학책임자(CSO)는 지난 6일 미국 캘리포니아주 샌프란시스코 모스콘센터에서 열린 세일즈포스의 ‘트레일블레이저 DX’ 행사에 참석해 AI의 윤리, 신뢰성 문제를 집중적으로 거론했다. 그는 “AI 기술이 고도화할수록 안심하고 사용할 수 있는 AI 모델을 찾게 된다”며 “성능이 뛰어난 AI도 데이터 보안이 취약하고, 저작권 침해 등의 우려가 있다면 사용자로부터 외면받을 것”이라고 강조했다.

‘오픈AI의 대항마’로 잘 알려진 앤스로픽은 다리오 아모데이, 다니엘라 아모데이와 캐플런 등 4명이 공동 창업한 AI 스타트업이다. 오픈AI 창립멤버였던 아모데이 남매는 회사를 떠나 앤스로픽을 설립하고 윤리성을 강조한 AI 모델 ‘클로드’ 개발에 나섰다. 카플란은 “기업에선 신뢰성, 안전성, 개인정보 보호, 데이터 보안, 저작권 등에서 문제없는 깨끗한 데이터를 원하고 이런 부분에 문제없는 AI 플랫폼을 원한다”며 “앤스로픽은 설립 초기부터 이 부분에 신경 쓰면서 개발하고 있다”고 강조했다.

최근 구글 제미나이의 이미지 생성 오류, 챗GPT의 저작권 침해 등 AI 모델의 윤리적 문제가 이슈가 된 상황이라 이날 카플란의 발언에 업계의 이목이 쏠렸다. 같은 날 마이크로소프트(MS)의 이미지 생성 AI가 안전장치 미비로 유해한 콘텐츠를 생성할 수 있다는 내부 폭로가 나오기도 했다. 이 회사의 소프트웨어 엔지니어 셰인 존스는 미 연방거래위원회(FTC)에 “MS의 AI 이미지 생성 도구에 보안 취약점이 있다”는 내용의 서한을 보냈다. 그는 “폭력적이고 성적으로 대상화된 이미지가 생성될 수 있다”며 “MS는 소비자에게 이러한 위험을 충분히 알리지 않고 있다”고 비판했다.

구글도 차세대 대규모언어모델(LLM) 제미나이의 이미지 생성 오류로 홍역을 치르고 있다. 구글의 공동창업자인 세르게이 브린은 지난 5일 한 행사에 참석해 “철저한 테스트가 이뤄지지 않았기 때문”이라며 “확실하게 망쳤다”고 말했다. 제미나이는 미국 건국자나 아인슈타인 등 역사적 인물을 유색인종으로 묘사했다. 조선시대 장군이 흑인으로 등장하기도 했다. 결국 구글은 이 기능을 도입한 지 20여 일 만에 철회했다. 브린은 “우리는 왜 제미나이의 응답이 이렇게 이뤄지는지 완전히 이해하지 못했다”며 “그것은 회사의 의도가 아니었다”고 덧붙였다.

캐플런은 “앤스로픽 창업자들의 공감대는 세상에 도움이 되는 기술을 만들자는 것”이라며 “이로운 AI를 위해 철저한 검증과 테스트를 하면서 개발하고 있다”고 말했다. AI 기술 전망에 대해 캐플런은 “모두의 예상보다 빨리 기술 진보가 이뤄질 것”이라며 “부작용 방지를 위해 기술 개발만큼이나 검증과 테스트도 함께 이뤄져야 인류에게 도움이 되는 AI 에이전트로 거듭날 것”이라고 했다.

실리콘밸리=최진석 특파원 iskra@hankyung.com