AMD, AI 학습용 필수 반도체 GPU 내놓고 엔비디아에 도전장
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
GPU 신모델 MI300X 전격 공개..엔비디아 아성에 도전
메모리 최대 192GB로 엔비디아 H100보다 커
시장은 '냉랭' .. 주가는 3.6% 하락
메모리 최대 192GB로 엔비디아 H100보다 커
시장은 '냉랭' .. 주가는 3.6% 하락
미국 반도체업체 AMD가 인공지능(AI) 학습에 필수 반도체 그래픽처리장치(GPU) 신모델을 내놓았다. GPU 시장을 지배하고 있는 엔비디아에 도전장을 내민 것이다.
AMD는 13일(현지시간) GPU 최신 제품인 MI300X가 올해말 일부 고객에게 배송되기 시작할 것이라고 밝혔다. GPU는 챗GPT 같은 최첨단 AI 모델을 구축하기 위한 학습에 필수적인 반도체다.
학습을 위한 연산을 동시에 처리하면서 속도를 높여주기 때문에 '가속기'라고도 불린다. GPU 시장의 최강자로 꼽히는 엔비디아는 시장점유율 80% 이상을 차지하고 있다. AMD가 내놓은 신제품을 개발자와 서버 제조사에 판매량을 늘려나간다면 중앙처리장치(CPU)에 집중된 사업구조를 다변화하는 할 수 있다.
리사 수 AMD 최고경영자(CEO)는 이날 미국 샌프란시스코에서 투자자와 애널리스트를 만난 자리에서 "AI가 회사의 가장 크고 전략적인 장기 성장 기회"라고 강조했다. 그는 "데이터센터 AI 가속기 시장 규모가 올해 약 300억달러에서 연 평균 50% 이상 성장해 2027년에는 1500억달러 이상이 될 것"이라고 예상했다.
AMD의 신제품 출시로 GPU 시장의 가격 경쟁이 촉발될 것으로 예상된다. AMD는 MI300X의 가격을 공개하지는 않았다. 하지만 엔비디아의 H100이 3만달러 이상 고가인 것을 감안하면 후발주자인 AMD가 이보다 낮게 가격을 책정해 엔비디아를 압박할 수 있다. 이는 데이터센터 이용료 인하로 이어지게 되고 AI 애플리케이션 개발 비용도 낮출 수 있을 예정이다.
MI300X는 AI의 핵심인 대규모언어모델(LLM)과 그밖에 첨단 AI 모델을 위해 설계됐다. 메모리 용량이 최대 192GB로 경쟁 제품보다 더 큰 AI 모델을 학습하는 데도 이용 가능하다. 엔비디아의 H100은 120GB의 메모리만 지원한다.
LLM은 점점 더 많은 연산을 실행해야 하기 때문에 많은 메모리를 필요로한다. AMD는 이날 매개변수 400억개로 이뤄진 팰콘이라는 모델을 시연해보였다.
AMD는 MI300X 8개를 한개의 시스템에 결합한 제품을 제공할 계획이다. 경쟁사인 엔비디아와 구글도 AI 애플리케이션 개발을 위해 8개 이사의 GPU를 결합한 시스템을 내놓은 바 있다.
GPU 신모델 발표에도 시장의 반응은 냉랭했다. AMD 주가는 이날 정규장에서 124.53달러로 3.61% 하락했다. 이후 시간외 거래에서 0.4% 오른 125.03달러에 거래되고 있다.
실리콘밸리=서기열 특파원 philos@hankyung.com
AMD는 13일(현지시간) GPU 최신 제품인 MI300X가 올해말 일부 고객에게 배송되기 시작할 것이라고 밝혔다. GPU는 챗GPT 같은 최첨단 AI 모델을 구축하기 위한 학습에 필수적인 반도체다.
학습을 위한 연산을 동시에 처리하면서 속도를 높여주기 때문에 '가속기'라고도 불린다. GPU 시장의 최강자로 꼽히는 엔비디아는 시장점유율 80% 이상을 차지하고 있다. AMD가 내놓은 신제품을 개발자와 서버 제조사에 판매량을 늘려나간다면 중앙처리장치(CPU)에 집중된 사업구조를 다변화하는 할 수 있다.
리사 수 AMD 최고경영자(CEO)는 이날 미국 샌프란시스코에서 투자자와 애널리스트를 만난 자리에서 "AI가 회사의 가장 크고 전략적인 장기 성장 기회"라고 강조했다. 그는 "데이터센터 AI 가속기 시장 규모가 올해 약 300억달러에서 연 평균 50% 이상 성장해 2027년에는 1500억달러 이상이 될 것"이라고 예상했다.
AMD의 신제품 출시로 GPU 시장의 가격 경쟁이 촉발될 것으로 예상된다. AMD는 MI300X의 가격을 공개하지는 않았다. 하지만 엔비디아의 H100이 3만달러 이상 고가인 것을 감안하면 후발주자인 AMD가 이보다 낮게 가격을 책정해 엔비디아를 압박할 수 있다. 이는 데이터센터 이용료 인하로 이어지게 되고 AI 애플리케이션 개발 비용도 낮출 수 있을 예정이다.
MI300X는 AI의 핵심인 대규모언어모델(LLM)과 그밖에 첨단 AI 모델을 위해 설계됐다. 메모리 용량이 최대 192GB로 경쟁 제품보다 더 큰 AI 모델을 학습하는 데도 이용 가능하다. 엔비디아의 H100은 120GB의 메모리만 지원한다.
LLM은 점점 더 많은 연산을 실행해야 하기 때문에 많은 메모리를 필요로한다. AMD는 이날 매개변수 400억개로 이뤄진 팰콘이라는 모델을 시연해보였다.
AMD는 MI300X 8개를 한개의 시스템에 결합한 제품을 제공할 계획이다. 경쟁사인 엔비디아와 구글도 AI 애플리케이션 개발을 위해 8개 이사의 GPU를 결합한 시스템을 내놓은 바 있다.
GPU 신모델 발표에도 시장의 반응은 냉랭했다. AMD 주가는 이날 정규장에서 124.53달러로 3.61% 하락했다. 이후 시간외 거래에서 0.4% 오른 125.03달러에 거래되고 있다.
실리콘밸리=서기열 특파원 philos@hankyung.com