본문 바로가기

    뉴스

    ADVERTISEMENT

    국회 국방.건설위 12.12 평화의댐 의혹관련 증인신문계속

    • 공유
    • 댓글
    • 클린뷰
    • 프린트
    국회 국방위와 건설위는 9일 국회에서 12.12 쿠데타와 평화의댐 건설의혹
    규명을 위한 증인신문을 계속했다.

    국방위는 이날 오전 노태우전대통령 증인채택문제로 중단됐던 국정조사활
    동을 재개,12.12당시 피해자인 정승화전육군참모총장 장태완전수경사령관
    김진기전육본헌병감등 3명의 증인을 출석시킨 가운데 12.12진상규명작업을
    벌였다.

    국방위는 오후에는 12.12세력에 가담했던 황영시전1군단장 유학성전군수차
    관보 우경윤전육본범수단장과 문홍구전합참본부장 하소곤전육본작전참모부
    장 윤성민전육군참모차장등 관계자들을 각각 증인과 참고인으로 불러 12.12
    의 동기및 발단과 배경등을 집중 추궁한다.

    ADVERTISEMENT

    1. 1

      [GTC 2026]"추론 변곡점 왔다" 엔비디아, 추론 특화 그록 LPU3 공개

       엔비디아가 추론 특화 인공지능(AI) 가속기 '그록3 LPU(언어처리장치)'를 16일(현지시간) 공개했다.젠슨 황 엔비디아 최고경영자(CEO)는 이날 미국 캘리포니아주 새너제이에서 열린 회사 연례 최대 컨퍼런스 GTC2026에서 "그록3 LPU를 처음으로 공개한다"라고 밝혔다. 이 반도체는 엔비디아가 지난해 12월 그록(Groq) 핵심 인재와 기술을 영입한지 3개월 만에 내놓은 첫 성과다. 그록 LPU는 대형언어모델(LLM)을 실행하는 추론에 특화한 반도체다. 핵심은 메모리 병목을 최소화했다는 점이다. 기존 엔비디아 AI칩은 계산을 담당하는 그래픽처리장치(GPU)와 데이터를 저장하는 고대역폭메모리(HBM)가 분리돼있어 이를 오가는 데이터가 정체되는 현상이 발생한다. 그록 LPU는 연산 반도체 내에 SRAM을 탑재해 지연 시간을 최소화한다. 엔비디아의 최신형 AI칩 루빈에는 메모리 용량이 288기가바이트(GB)인 6세대 고대역폭메모리(HBM4)가 탑재되는데, 그록3 LPU에는 500분의1 수준인 500메가바이트(MB) SRAM이 들어간다. 반면 데이터 대역폭은 그록3 LPU가 초당 150테라바이트(Tb/s)로 루빈의 7배에 달한다. 작업 상황에 따라 동적으로 자원을 할당하는 GPU와 달리 LPU는 데이터의 이동 경로와 속도를 정해놓는 '결정론적 구조'를 택해 메모리 병목을 최소화했다.   데이터 지연을 극도로 최소화했지만 한계도 있다. 칩 하나 당 토큰(AI 처리의 기본단위) 생성 속도가 상대적으로 낮다. 이러한 단점을 보완하기 위해 엔비디아는 HBM의 높은 연산 성능과 LPU의 낮은 지연 속도를 결합한 새로운 AI칩을 개발 중이다. 엔비디아의 그록3 LPU 출시는 AI칩 시장의 무게 중심이 학습에서 추론으로 옮겨가는 상황에서

    2. 2

      삼성전자, HBM4E 최초 공개…"베라 루빈 메모리 유일 공급"

      삼성전자가 16일(현지시간) 미국 새너제이에서 열리는 엔비디아 GTC에 참가해 차세대 HBM4E 실물을 처음 공개했다고 밝혔다.삼성전자는 이날부터 19일까지 진행되는 이번 행사에서 HBM4 양산으로 축적한 1c D램 공정 기반 기술 경쟁력과 삼성 파운드리 4나노 베이스 다이 설계 역량을 앞세웠다. 특히 HBM4E 실물 칩과 코어 다이 웨이퍼를 최초로 공개했다. 삼성전자 HBM4E는 핀당 16Gbps 속도와 4.0TB/s 대역폭을 지원할 예정이다. 아울러 기존 TCB(열압착 접합) 대비 열 저항을 20% 이상 개선하고 16단 이상 고적층을 지원하는 HCB(하이브리드 구리 접합) 기술도 공개했다.삼성전자가 이번 전시에서 특히 부각한 것은 엔비디아 차세대 가속기 '베라 루빈' 플랫폼용 메모리를 전 세계에서 유일하게 공급할 수 있다는 점이다. 삼성전자는 이번 전시에서 '엔비디아 갤러리'를 별도 구성해 △루빈 GPU용 HBM4 △베라 CPU용 SOCAMM2 △스토리지 PM1763을 베라 루빈 플랫폼과 함께 전시했다. 소캠2(SOCAMM2)는 LPDDR 기반 서버용 메모리 모듈로 업계 최초로 양산 출하를 시작했으며, PCIe 6세대 기반 서버용 SSD PM1763은 부스 내에서 엔비디아 SCADA 워크로드를 직접 시연하며 성능을 현장에서 체감할 수 있도록 했다.삼성전자는 추론 성능과 전력 효율 개선을 위해 베라 루빈 플랫폼에 새롭게 도입된 CMX(AI 추론 과정에서 생성되는 KV 캐시 데이터를 GPU 메모리 밖의 스토리지로 확장해 활용하는 메모리 확장 기술) 플랫폼에 PCIe Gen5 기반 서버용 SSD PM1753을 공급할 계획이다. 부스 내 AI 팩토리 존에서 제품을 확인할 수 있다. 전시 공간은 AI 팩토리(AI 데이터센터), 로컬 AI(온디바이스 AI), 피지컬 AI 세 개 존으로 구성했다. 행사 둘째 날인 17일에는

    3. 3

      삼성, GTC서 차세대 HBM4E 최초 공개… 엔비디아와 AI 동맹 고도화

      삼성전자가 인공지능(AI) 반도체 시장의 판도를 바꿀 7세대 고대역폭메모리(HBM)인 HBM4E를 전격 공개하며 엔비디아와의 동맹을 한층 강화했다. 단순한 메모리 공급을 넘어 파운드리(반도체 수탁생산)와 첨단 패키징까지 아우르는 토털 솔루션 역량을 앞세워 차세대 AI 플랫폼 베라 루빈의 핵심 파트너 입지를 굳혔다는 평가다. ◆25년간 쌓아온 신뢰의 결과물삼성전자는 16일(현지시간) 미국 새너제이에서 열린 엔비디아 GTC 2026에서 10나노급 6새데(1c) D램 공정과 4㎚(나노미터·1㎚=10억분의 1m) 파운드리 공정을 결합한 HBM4E와 코어 다이 웨이퍼를 업계 최초로 공개했다.이번 HBM4E의 핵심은 삼성 파운드리의 4 공정을 베이스 다이 설계에 직접 적용했다는 점이다. 이를 통해 핀당 16G기가비트(Gbps)의 속도와 초당 4.0TB의 압도적 대역폭을 구현했다. 회사 관계자는 "메모리 업체가 직접 로직 설계와 파운드리까지 수행하는 원스톱 솔루션을 통해 성능은 높이고 전력 소모는 획기적으로 줄였다"고 설명했다. 삼성전자는 차세대 패키징 기술인 하이브리드 코퍼 본딩(HCB) 기술도 선보였다. HCB는 칩과 칩을 범프(돌기) 없이 직접 접합하는 기술로 차세대 패키징의 핵심으로 꼽힌다. 칩 두께를 얇게 하고 칩 간 거리를 줄여 데이터 교환 속도를 획기적으로 높이고 전력 효율성을 개선할 수 있다. 기존 방식보다 열 저항을 20% 이상 개선해 엔비디아가 요구하는 까다로운 열 관리 기준을 충족했다는 게 회사 측의 설명이다.이같은 긴밀한 협력 뒤에는 양사간 25년에 년에 걸친 신뢰가 자리 잡고 있다. 젠슨 황 엔비디아 CEO는 지난해 10월 한국 방문 당시 삼성동의 한 치킨집에서 이재용 삼성전자 회장, 정의선 현대차

    ADVERTISEMENT

    ADVERTISEMENT