우주선 닮은 엔비디아 본사…연구원만 2만명
지난달 중순, 샌타클래라에 있는 우주선을 닮은 엔비디아 본사. 로비에 들어서자 검은 유리로 둘러싸인 전시장이 시선을 압도했다. 입구 오른쪽으로 그래픽처리장치(GPU) 등 반도체 제품이 진열돼 있었다. 글로벌 정보기술(IT) 기업들이 뭉칫돈을 싸들고 구매하기 위해 줄을 선다는 AI 반도체 A100과 H100이 존재감을 드러냈다. 찰리 보일 엔비디아 DGX 부사장은 “생성형 AI는 미래를 바꿀 핵심 키워드”라며 “DGX 클라우드를 통해 엔비디아의 AI 솔루션을 쉽게 제공하겠다”고 말했다.

올초부터 엔비디아를 ‘반도체회사’로만 규정짓기 어렵게 됐다는 평가가 쏟아지고 있다. ‘CUDA’라는 GPU 기반 행렬 계산을 위한 소프트웨어(SW)에 더해 엔비디아는 초거대 AI 플랫폼 기업으로 체질을 바꾸고 있다.

젠슨 황 엔비디아 최고경영자(CEO)는 AI 연산 서비스를 외부에 제공하는 클라우드를 비롯해 생성형 AI의 기초가 되는 초거대언어모델(LLM)을 누구에게나 제공하는 등 AI 생태계의 지배자가 되겠다는 전략을 구체화했다. 보일 부사장은 “엔비디아 직원 2만5000명 중 약 2만 명이 연구원”이라며 “엔비디아의 AI 반도체 경쟁력은 우수한 인력에 있다”고 말했다. 어떤 기업이든 생성형 AI 시대에 자신만의 AI를 갖고 싶어 한다.

하지만 AI 학습에 필요한 데이터센터를 구축하려면 천문학적인 비용이 든다. 엔비디아는 이 같은 높은 진입 장벽에 주목했다. ‘AI 혁명’에 비견되는 챗GPT 광풍을 보며 누구나 AI에 접근할 수 있어야 한다고 판단했다. 엔비디아 DGX 클라우드는 생성형 AI 컴퓨팅 리소스와 인프라를 묶어 압도적인 연산력을 구독 형태로 제공하기 때문에 기업들은 자체 서버를 구축할 필요가 없다. 웹 브라우저로 전용 클러스터에 접속만 하면 된다. 요리에 비유하면 밀키트와 같다.

이용료도 저렴하다. 엔비디아 최신 칩인 H100 8개가 하나의 대규모 GPU로 작동하는 인스턴스(서버의 한 형태) 하나를 구독할 때 드는 비용은 월 3만6999달러에 불과하다. 대규모 데이터센터 구축에 수십조원, 관리에 연 수조원이 든다는 점을 감안하면 획기적이다. 보일 부사장은 “서비스를 내놓자마자 많은 업체가 합류했다”며 “MS 애저, 구글 클라우드 플랫폼(GCP), 오라클 클라우드 인프라(OCI)와 파트너십을 맺었다”고 밝혔다.

강경주 기자/샌타클래라=최진석 특파원 qurasoha@hankyung.com