본문 바로가기

    ADVERTISEMENT

    [모바일한경] 제품보다 가격부터 디자인하는 이케아 등

    • 공유
    • 댓글
    • 클린뷰
    • 프린트
    모바일한경은 PC·폰·태블릿에서 만나는 프리미엄 디지털 서비스입니다.

    구독 mobile.hankyung.com 문의 02) 360-4000
    ▶제품보다 가격부터 디자인하는 이케아

    ▶뉴욕에 드리운 젠트리피케이션 그림자

    ▶인구 550만 명 핀란드 유럽의 ‘스타트업 요람’ 된 까닭

    ▶(카드뉴스) 뉴질랜드 웰링턴의 매력

    ADVERTISEMENT

    1. 1

      [GTC 2026]"추론 변곡점 왔다" 엔비디아, 추론 특화 그록 LPU3 공개

       엔비디아가 추론 특화 인공지능(AI) 가속기 '그록3 LPU(언어처리장치)'를 16일(현지시간) 공개했다.젠슨 황 엔비디아 최고경영자(CEO)는 이날 미국 캘리포니아주 새너제이에서 열린 회사 연례 최대 컨퍼런스 GTC2026에서 "그록3 LPU를 처음으로 공개한다"라고 밝혔다. 이 반도체는 엔비디아가 지난해 12월 그록(Groq) 핵심 인재와 기술을 영입한지 3개월 만에 내놓은 첫 성과다. 그록 LPU는 대형언어모델(LLM)을 실행하는 추론에 특화한 반도체다. 핵심은 메모리 병목을 최소화했다는 점이다. 기존 엔비디아 AI칩은 계산을 담당하는 그래픽처리장치(GPU)와 데이터를 저장하는 고대역폭메모리(HBM)가 분리돼있어 이를 오가는 데이터가 정체되는 현상이 발생한다. 그록 LPU는 연산 반도체 내에 SRAM을 탑재해 지연 시간을 최소화한다. 엔비디아의 최신형 AI칩 루빈에는 메모리 용량이 288기가바이트(GB)인 6세대 고대역폭메모리(HBM4)가 탑재되는데, 그록3 LPU에는 500분의1 수준인 500메가바이트(MB) SRAM이 들어간다. 반면 데이터 대역폭은 그록3 LPU가 초당 150테라바이트(Tb/s)로 루빈의 7배에 달한다. 작업 상황에 따라 동적으로 자원을 할당하는 GPU와 달리 LPU는 데이터의 이동 경로와 속도를 정해놓는 '결정론적 구조'를 택해 메모리 병목을 최소화했다.   데이터 지연을 극도로 최소화했지만 한계도 있다. 칩 하나 당 토큰(AI 처리의 기본단위) 생성 속도가 상대적으로 낮다. 이러한 단점을 보완하기 위해 엔비디아는 HBM의 높은 연산 성능과 LPU의 낮은 지연 속도를 결합한 새로운 AI칩을 개발 중이다. 엔비디아의 그록3 LPU 출시는 AI칩 시장의 무게 중심이 학습에서 추론으로 옮겨가는 상황에서

    2. 2

      삼성전자, HBM4E 최초 공개…"베라 루빈 메모리 유일 공급"

      삼성전자가 16일(현지시간) 미국 새너제이에서 열리는 엔비디아 GTC에 참가해 차세대 HBM4E 실물을 처음 공개했다고 밝혔다.삼성전자는 이날부터 19일까지 진행되는 이번 행사에서 HBM4 양산으로 축적한 1c D램 공정 기반 기술 경쟁력과 삼성 파운드리 4나노 베이스 다이 설계 역량을 앞세웠다. 특히 HBM4E 실물 칩과 코어 다이 웨이퍼를 최초로 공개했다. 삼성전자 HBM4E는 핀당 16Gbps 속도와 4.0TB/s 대역폭을 지원할 예정이다. 아울러 기존 TCB(열압착 접합) 대비 열 저항을 20% 이상 개선하고 16단 이상 고적층을 지원하는 HCB(하이브리드 구리 접합) 기술도 공개했다.삼성전자가 이번 전시에서 특히 부각한 것은 엔비디아 차세대 가속기 '베라 루빈' 플랫폼용 메모리를 전 세계에서 유일하게 공급할 수 있다는 점이다. 삼성전자는 이번 전시에서 '엔비디아 갤러리'를 별도 구성해 △루빈 GPU용 HBM4 △베라 CPU용 SOCAMM2 △스토리지 PM1763을 베라 루빈 플랫폼과 함께 전시했다. 소캠2(SOCAMM2)는 LPDDR 기반 서버용 메모리 모듈로 업계 최초로 양산 출하를 시작했으며, PCIe 6세대 기반 서버용 SSD PM1763은 부스 내에서 엔비디아 SCADA 워크로드를 직접 시연하며 성능을 현장에서 체감할 수 있도록 했다.삼성전자는 추론 성능과 전력 효율 개선을 위해 베라 루빈 플랫폼에 새롭게 도입된 CMX(AI 추론 과정에서 생성되는 KV 캐시 데이터를 GPU 메모리 밖의 스토리지로 확장해 활용하는 메모리 확장 기술) 플랫폼에 PCIe Gen5 기반 서버용 SSD PM1753을 공급할 계획이다. 부스 내 AI 팩토리 존에서 제품을 확인할 수 있다. 전시 공간은 AI 팩토리(AI 데이터센터), 로컬 AI(온디바이스 AI), 피지컬 AI 세 개 존으로 구성했다. 행사 둘째 날인 17일에는

    3. 3

      정용진, AI인프라 베팅…'한국판 아마존' 노린다

      신세계그룹이 국내에 인공지능(AI) 데이터센터를 짓는다. 미국 아마존처럼 AI 클라우드 서비스로 사업을 확장하는 동시에 본업인 유통에 AI를 접목한다는 전략이다. 신세계그룹은 16일 샌프란시스코 국립AI센터에서 미국 리플렉션AI와 ‘한국 소버린 AI 팩토리 건립을 위한 전략적 파트너십 양해각서(MOU)’를 체결했다. MOU에 따라 두 회사는 하반기 합작법인을 설립하고 국내에 250㎿ 규모 데이터센터를 건설한다. SK텔레콤과 아마존웹서비스(AWS)가 울산에 건설 중인 데이터센터(103㎿)의 두 배가 넘는 규모다. 위치와 건립 시기는 공개되지 않았다.신세계그룹은 이 데이터센터를 유통산업 전반에 AI를 접목하기 위한 인프라로 활용한다고 설명했다. AI를 통해 재고 관리·배송 효율을 개선하고 온라인몰에도 쇼핑 지원 ‘AI 에이전트’를 도입한다는 것이다. 정부와 기업을 대상으로 AI 클라우드 서비스를 제공하는 사업도 벌인다.체결식엔 정용진 신세계그룹 회장과 미샤 라스킨 리플렉션AI 최고경영자(CEO), 하워드 러트닉 미 상무장관이 참석했다. 미 정부는 딥시크 등을 앞세워 영향력을 확대하고 있는 중국을 견제하기 위해 동맹국에 AI 인프라를 수출하는 사업을 지원하고 있다. 신세계그룹의 AI 데이터센터는 이런 프로젝트의 첫 성과다.미국의 ‘딥시크 대항마’로 평가받는 리플렉션AI는 알파고 개발자인 이오안니스 안토노글루, 구글 딥마인드 출신 미샤 라스킨이 2024년 세운 회사로, 폐쇄형 AI 모델을 개발 중인 빅테크와 달리 ‘서구권의 첨단 개방형 AI 모델’을 표방하고 있다. 지난해 10월 엔비디아 등에서 20억달러(약 3조원) 규모 투자를 유치하며 그래픽처리장치(GPU) 공급처

    ADVERTISEMENT

    ADVERTISEMENT