본문 바로가기

    ADVERTISEMENT

    위성 DMB폰 공급물량 확대

    • 공유
    • 댓글
    • 클린뷰
    • 프린트
    이번 주부터 위성DMB(디지털멀티미디어방송)를 시청할 수 있는 휴대폰 공급량이 늘어난다. 이에 따라 용산전자상가 테크노마트 등 집단상가에서는 주초부터,지방 대도시에서는 금주 중반께부터 위성DMB폰을 볼 수 있게 된다. SK텔레콤은 자회사인 TU미디어가 지난 10일 위성DMB 시험방송을 시작한 후 위성DMB폰(모델명 SCH-B100)을 찾는 소비자가 의외로 많아 매일 1천여대를 일선 대리점으로 내려보내기로 했다고 16일 밝혔다. SK텔레콤은 문제점을 찾아내 보완해야 하는 시험방송 기간에는 가급적 위성DMB폰 공급에 적극 나서지 않을 예정이었으나 신제품을 남보다 빨리 사용하길 좋아하는 '얼리어답터'들의 구입문의가 많아 공급량을 늘리기로 했다. SK텔레콤은 시험방송 개시 후 삼성전자로부터 위성DMB폰 2백여대를 공급받아 대부분 내부 시험용으로 사용하고 일부 대리점에 극소량만 내려보냈다. 김태완 기자 twkim@hankyung.com

    ADVERTISEMENT

    1. 1

      SK하이닉스, 엔비디아 협력 과시…최태원·곽노정 총출동 [GTC 2026]

      SK하이닉스가 엔비디아의 연례 최대 행사 GTC 2026에서 글로벌 인공지능(AI) 인프라를 주도하는 최첨단 메모리 경쟁력을 과시한다. SK하이닉스는 16∼19일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 GTC 2026에서 'AI 메모리 스포트라이트'(Spotlight on AI Memory)를 주제로 전시 공간을 운영한다고 16일 밝혔다.  이번 행사에는 최태원 SK그룹 회장과 곽노정 SK하이닉스 사장 등 핵심 경영진이 총출동해 엔비디아를 비롯한 거대 기술기업들과 파트너십을 다질 계획이다. 또 SK하이닉스는 AI 학습과 추론 분야에서 데이터 병목 현상을 최소화하고 성능을 극대화할 수 있는 메모리 제품을 대거 공개할 예정이다. 이번 전시의 핵심은 '엔비디아 협업 존'이다. SK하이닉스는 이 공간에서 최신 6세대 고대역폭메모리(HBM4)를 비롯해 HBM3E, 소캠(SOCAMM·서버용 저전력 메모리 모듈)2 등의 모형과 실물을 선보인다. 또 엔비디아와 긴밀한 협업을 통해 개발한 수랭식(水冷式) 기업용 솔리드스테이트드라이브(eSSD)와, SK하이닉스의 모바일용 D램 'LPDDR5X'가 탑재된 엔비디아의 슈퍼컴퓨터 'DGX스파크'도 전시한다. '제품 포트폴리오 존'에서는 고용량 서버용 D램 모듈과 차세대 모바일용 D램인 'LPDDR6', 그래픽 D램 'GDDR7', 자동차용 메모리 설루션 등 AI 시대를 겨냥한 전체 제품군을 망라한다.참관객들이 조이스틱 등을 이용해 관심 제품의 특징과 적용 사례를 탐색하는 체험형 관람 환경과, 가상의 칩을 직접 쌓아 올려보는 'HBM 16단 쌓기 게임' 등도 마련됐다.특히 이번 행사 기간 최 회장과 곽 사장은 직접 현장을 발로 뛰며 주요 기업과 만남을 이어갈 계획이다.

    2. 2

      젠슨 황 "소프트웨어 르네상스 시작"…AI에이전트 플랫폼 '네모클로' 공개 [GTC 2026]

      젠슨 황 엔비디아 최고경영자(CEO)가 인공지능(AI) 에이전트 전용 플랫폼 네모클로를 16일(현지시간) 공개했다. AI에이전트 가동에 특화된 차세대 중앙처리장치(CPU) 베라 기반 신형 인프라도 공개했다. 황 CEO는 이날 미국 새너제이에서 열린 회사 연례 최대 컨퍼런스 GTC2026에서 "오픈클로는 AI의 새 지평을 열어 모든 사람에게 개방했으며, 역사상 가장 빠르게 성장하는 오픈 소스 프로젝트가 됐다"라고 밝혔다. 오픈클로는 지난 1월 출시된 완전 자율형 AI에이전트다. 사용자 권한을 얻어 직접 이메일을 쓰고, 상품을 결제하고 작업을 처리한다. 앞서 자율형 AI 에이전트 오픈클로를 역사상 가장 중요한 소프트웨어로 평가하기도 했다, 황 CEO는 "오픈클로는 개인용 AI를 위한 운영체제(OS)라며 "이는 업계가 기다려온 순간, 소프트웨어의 새로운 르네상스가 시작되는 순간"이라고 강조했다. 황 CEO는 오픈클로와 같은 AI에이전트를 안전하게 구동할 수 있는 기업용 플랫폼 네모클로를 선보였다. 네모클로는 사용자가 오픈클로에 파일과 개인정보 접근권을 제공할 때 발생할 수 있는 우려를 해소한다는 게 엔비디아의 설명이다. 네모클로에 탑재된 보안 장치인 '오픈셸'을 통해 기업 정책에 맞는 보안을 제공하고 개인정보 위협을 차단하는 역할을 수행한다.  AI 에이전트 시대의 도래에 따라 연산 인프라의 핵심 동력은 그래픽처리장치(GPU)에서 CPU로 확장될 전망이다. 기존 AI 챗봇은 단순 행렬 곱셈을 반복하는 GPU의 비중이 높았으나 에이전트는 도구 사용과 코드 작성 등 복잡한 실행 영역을 담당한다. 실제 조지아공대 연구에 따르면 AI 에이전트 기반 업무에

    3. 3

      젠슨 황 "삼성 고맙다"…2만명 앞에서 외친 이유는 [GTC 2026]

       엔비디아가 추론 특화 인공지능(AI) 가속기 '그록3 LPU(언어처리장치)'를 16일(현지시간) 공개했다.젠슨 황 엔비디아 최고경영자(CEO)는 이날 미국 캘리포니아주 새너제이에서 열린 회사 연례 최대 컨퍼런스 GTC2026에서 "그록3 LPU를 처음으로 공개한다"라고 밝혔다. 그록3 LPU는 대형언어모델(LLM)을 실행하는 추론에 특화한 반도체다. 이 반도체는 엔비디아가 지난해 12월 그록(Groq) 핵심 인재와 기술을 영입한지 3개월 만에 내놓은 첫 성과다. 핵심은 메모리 병목을 최소화했다는 점이다. 기존 엔비디아 AI칩은 계산을 담당하는 그래픽처리장치(GPU)와 데이터를 저장하는 고대역폭메모리(HBM)가 분리돼있어 이를 오가는 데이터가 정체되는 현상이 발생한다. 그록 LPU는 연산 반도체 내에 SRAM을 탑재해 지연 시간을 최소화한다. 엔비디아의 최신형 AI칩 루빈에는 메모리 용량이 288기가바이트(GB)인 6세대 고대역폭메모리(HBM4)가 탑재되는데, 그록3 LPU에는 500분의1 수준인 500메가바이트(MB) SRAM이 들어간다. 반면 데이터 대역폭은 그록3 LPU가 초당 150테라바이트(Tb/s)로 루빈의 7배에 달한다. 작업 상황에 따라 동적으로 자원을 할당하는 GPU와 달리 LPU는 데이터의 이동 경로와 속도를 정해놓는 '결정론적 구조'를 택해 메모리 병목을 최소화했다.   데이터 지연을 극도로 최소화했지만 한계도 있다. 칩 하나 당 토큰(AI 처리의 기본단위) 생성 속도가 상대적으로 낮다. 이러한 단점을 보완하기 위해 엔비디아는 HBM의 높은 연산 성능과 LPU의 낮은 지연 속도를 결합한 새로운 AI칩을 개발 중이다. 엔비디아의 그록3 LPU 출시는 AI칩 시장의 무게 중심이 학습에서 추론으로 옮겨가는 상황

    ADVERTISEMENT

    ADVERTISEMENT