글로벌 반도체학회 '멤콘 2024'…'AI 시대' 이끌 CXL·HBM 공개
삼성전자, 올해 HBM 출하 작년의 최대 2.9배로 늘린다(종합)
삼성전자가 올해 고대역폭 메모리(HBM) 출하량을 작년 대비 최대 2.9배로 늘릴 수 있을 것으로 예상했다.

삼성전자는 26일(현지시간) 미국 캘리포니아주 마운틴뷰에서 열린 글로벌 반도체 학회 '멤콘(MemCon) 2024'에서 인공지능(AI) 시대를 이끌어 갈 고성능·고용량 HBM과 '컴퓨트익스프레스링크'(CXL) 기술 기반 메모리를 선보였다.

HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 메모리다.

생성형 AI 구동을 위해 주목받고 있다.

행사에서 D램 개발실장인 황상준 부사장은 "양산 중인 3세대(HBM2E)와 4세대(HBM3)에 이어 12단 5세대 HBM과 32기가비트(Gb) 기반 128기가바이트(GB) DDR5 제품을 상반기에 양산해 AI 시대 고성능 고용량 메모리 리더십을 이어가겠다"고 밝혔다.

또 황 부사장은 올해 삼성전자의 HBM 출하량을 지난해보다 최대 2.9배로 늘릴 수 있을 것으로 내다봤다.

앞서 세계 최대 IT·가전 전시회 'CES 2024' 등에서 삼성전자는 올해 HBM 출하 목표치를 작년 대비 2.5배로 제시했는데, 고객 수요에 유연하게 대응해 출하를 확대할 수 있다는 것이다.

삼성전자는 이번에 발표한 중장기 HBM 로드맵에서 2023년 출하량을 기준으로 HBM을 2026년에는 13.8배, 2028년에는 23.1배 출하할 계획을 소개했다.

삼성전자는 6세대 HBM인 HBM4의 경우 적층된 메모리의 가장 아래층에 컨트롤 장치인 버퍼 다이(Buffer Die)를 적용해 AI 시대 메모리 반도체 혁신을 이어간다는 계획이다.

HBM4의 코드명은 '스노우볼트'로 정해졌다.

삼성전자 미주 메모리연구소장 최진혁 부사장은 기조 연설에서 "메모리 용량 측면에서는 CXL 기술이, 대역폭 측면에서는 HBM이 미래 AI 시대를 주도해 나갈 것"이라고 밝혔다.

CXL은 중앙처리장치(CPU)와 그래픽처리장치(GPU), 메모리 반도체를 연결해 데이터 처리 속도와 용량을 높이는 기술로, 생성형 AI로 데이터양이 많이 증가하면서 차세대 메모리 기술로 주목받고 있다.

최진혁 부사장은 "CXL은 메모리의 효율적인 관리가 가능하고 시스템의 안전성을 높일 수 있어 삼성전자만의 다양한 CXL 기반 설루션을 통해 메모리 용량과 대역폭을 대거 향상시킬 수 있다"고 말했다.

삼성전자는 CMM-D(D램), 낸드와 D램을 함께 사용하는 CMM-H(하이브리드), 메모리 풀링 설루션인 CMM-B(박스) 등 CXL 기반 설루션을 대거 선보였다.

멤콘은 AI 관련 메모리 설루션을 심층적으로 논의하기 위해 작년에 처음 개최된 학회로, 삼성전자와 SK하이닉스, 마이크로소프트(MS), 메타, 엔비디아, AMD 등이 참가했다.

/연합뉴스