SK하이닉스가 역대 최고 수준의 고성능 D램인 ‘5세대 고대역폭메모리(HBM)’를 세계 최초로 개발했다. 엔비디아 등 고객사의 성능 검증을 거쳐 내년 하반기 본격적인 양산에 들어갈 계획이다. 삼성전자도 올 하반기 5세대 HBM을 공개할 것이라고 예고한 상태다. 고성능 D램 시장 선점을 놓고 삼성전자와 SK하이닉스의 경쟁이 치열해질 것이라는 전망이 나온다.
SK하이닉스, 최고성능 AI용 D램 세계 첫 개발
SK하이닉스는 21일 “인공지능(AI)용 초고성능 D램 신제품인 5세대 HBM(HBM3E) 개발에 성공했다”며 “검증 절차를 진행하기 위해 고객사에 샘플을 공급하기 시작했다”고 발표했다. 5세대 HBM을 개발해 고객사 검증을 하는 것은 SK하이닉스가 처음이다. HBM은 D램을 수직으로 쌓고 연결해 데이터 처리 용량과 속도를 일반 D램 대비 열 배 이상으로 높인 반도체다. 대규모 데이터 학습·추론에 특화한 반도체 패키지인 ‘AI 가속기’에 그래픽처리장치(GPU) 등과 함께 들어간다. 생성형 AI가 확산하면서 수요가 빠르게 늘고 있는 고성능 D램이다.

SK하이닉스의 HBM3E는 초당 최대 1.15테라바이트(TB) 이상의 데이터를 처리할 수 있다. 풀HD급 영화 230편 이상 분량의 데이터를 1초 만에 처리하는 수준이다. 열 방출 성능은 전작 대비 약 10% 향상했다.

SK하이닉스는 4세대 HBM 제품인 ‘HBM3’에 이어 5세대 제품 개발 경쟁에서도 삼성전자를 제치고 ‘세계 최초’ 타이틀을 가져갔다. 2013년 HBM을 최초로 개발한 이후 10년 가까이 연구개발(R&D)에 꾸준히 투자한 게 성과를 내고 있다는 분석이다.

◆엔비디아 AI 가속기에 적용 유력

SK하이닉스가 이날 공개한 5세대 HBM ‘HBM3E’는 최신 인공지능(AI) 가속기의 필수 부품으로 꼽힌다. AI 가속기는 생성형 AI에 필수적인 대규모 데이터 학습·추론에 특화된 반도체 패키지다. 그래픽처리장치(GPU), 중앙처리장치(CPU)를 배치하고 그 옆에 D램을 수직으로 쌓은 다수의 HBM을 배치하는 ‘첨단패키징’을 통해 데이터 처리 성능을 극대화한 게 특징이다. 오픈AI의 챗GPT 서비스에 활용된 엔비디아의 ‘H100’ AI 가속기엔 SK하이닉스의 HBM3 D램이 적용됐다.

HBM3E는 엔비디아가 내년 하반기 공개 예정인 차세대 AI 가속기 ‘GH200’에 적용될 것이 유력하다. SK하이닉스는 실제 HBM3E 샘플을 엔비디아에 보내 성능을 테스트 중인 것으로 알려졌다. 젠슨 황 엔비디아 최고경영자(CEO)도 지난 8일 한 행사에서 “HBM3E를 장착한 ‘GH200 그레이스 호퍼 슈퍼칩’을 내년에 양산할 것”이라고 언급했다.

◆역대 최고 성능의 HBM 개발

HBM은 AI 가속기에 적용돼 AI용 서버에서 대규모 데이터를 처리하는 역할을 한다. SK하이닉스의 HBM3E는 초당 최대 1.15테라바이트(TB) 이상의 데이터를 처리할 수 있다. 풀HD급 영화 230편 이상 분량의 데이터를 1초 만에 처리하는 수준으로 업계 최고 사양이다.

HBM은 여러 D램 칩을 수직으로 연결하는 만큼 패키징을 통해 열을 효율적으로 배출할 수 있게 하는 기술도 중요하다. SK하이닉스는 HBM3E에 ‘어드밴스트 MR-MUF’ 기술을 적용해 열 방출 성능을 전작 대비 약 10% 높였다. MR-MUF는 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 ‘액체’ 형태의 보호재를 공간 사이에 주입하고 굳히는 공정이다. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 기존 방식 대비 방열에 이점이 있다.

삼성전자도 올 하반기 5세대 HBM 제품인 ‘HBM3P’를 공개하며 SK하이닉스에 맞불을 놓을 계획이다. 제품명은 ‘스노우볼트’가 유력한 것으로 알려졌다. 내년에는 6세대 HBM도 생산하기로 했다.

생성형 AI 시장 확대에 삼성·SK 간 경쟁이 더해져 HBM 시장은 지속적으로 성장할 것으로 예상된다. 시장조사업체 트렌드포스에 따르면 글로벌 HBM 시장 규모는 올해 39억달러(약 5조2300억원)에서 2024년 89억달러(약 12조원)로 127% 커질 것으로 전망된다.

황정수 기자 hjs@hankyung.com