포르쉐가 중국 내 딜러망 축소에 나선다. 급격하게 쪼그라드는 매출과 암울한 판매 전망 때문이다.10일 중국 경제지 차이신에 따르면 독일 럭셔리차 브랜드 포르쉐의 중국 법인 포르쉐차이나는 중국 내 딜러 네트워크에 속한 매장 수를 줄일 방침이다. 앞으로 2년 안에 현재 약 150개인 딜러 네트워크 매장을 100개로 감축한다는 계획이다.포르쉐 사업보고서를 보면 올해 들어 3분기까지 포르쉐의 중국 시장 누적 판매 대수는 4만3280대로, 지난해 동기보다 29% 감소했다. 같은 기간 포르쉐 글로벌 판매에서 중국 시장이 차지하는 비중은 18%로 6%포인트 급감했다. 포르쉐의 주요 글로벌 시장 가운데 중국에서 판매 감소 폭이 가장 컸다.포르쉐차이나는 시장 수요에 맞춰 딜러 네트워크 규모를 조정해야 한다는 입장인 것으로 알려졌다. 딜러 파트너사의 수익성을 보장하기 위해서라도 딜러 매장 감축이 불가피하다는 것이다. 포르쉐차이나 관계자는 차이신에 “온라인 서비스와 새로운 소매 형태를 늘릴 예정”이라고 밝혔다.포르쉐는 아직 중국 내 생산 시스템을 구축하지 못했다. 이 때문에 모든 차량을 수입 형태로 판매하는 구조다. 최근 몇 년간 중국 내수 침체로 최고급 차량 판매가 전반적으로 줄고 있다. 여기에 중국 자동차 업체들이 포르쉐 등에 도전하기 위해 자체적으로 최고급 모델을 공격적으로 출시 중이다.전문가들은 장기화하는 중국 경기 둔화에 중국 소비자의 취향 변화가 큰 영향을 미치고 있다고 본다. 지난 10월 중국 자동차 수입은 4만4000대로, 지난해 같은 달보다 45% 감소했다. 직전인 9월보다 21% 줄었다.김은정 기자
이디야커피가 국내 커피전문점 프랜차이즈 가운데 최초로 4000번째 매장을 냈다. 최근 가성비(가격 대비 성능)를 앞세운 메가MGC·커피컴포즈커피 등 저가 프랜차이즈들이 출점 속도를 끌어올리며 맹추격했으나 4000호 고지를 선점했다.10일 이디야에 따르면 이 회사는 충남 천안에 ‘천안대로DT(드라이브스루)점’을 오픈하며 4000번째 가맹점을 냈다. 베이커리 특화 콘셉트를 적용한 약 560㎡(170평) 규모 2층 매장으로 천안IC 인근 차량 통행이 활발한 상권 초입에 위치했으며 주차 공간도 30면가량 확보했다.이디야는 “국내 커피 업계 최초 4000호점 매장 오픈을 달성해 업계 선두주자 위상을 입증했다”고 자평하며 “설립 초기부터 꾸준히 본사와 가맹점 간 상생을 강조하며 전국 가맹점주들과 20년 넘게 신뢰를 쌓아온 결과물”이라고 강조했다.2022년 말 기준 이디야는 매장 수 3000여개로 선두를 달렸으나 공정거래위원회 가맹사업정보에 따르면 증가세가 정체 국면이었다. 메가MGC커피가 올해 5월 3000번째 매장을 내면서 1위 자리를 위협했으나 이디야는 2년 만에 매장을 약 1000개 늘려 추격을 따돌렸다.앞서 메가MGC커피는 축구선수 손흥민, 컴포즈커피는 방탄소년단(BTS) 뷔를 각각 얼굴로 삼아 사세를 크게 확장하자 이디야도 지난 10월 창사 23년 만에 처음 브랜드 모델을 기용하는 승부수를 띄웠다. 대세 배우 변우석을 앞세운 스타 마케팅으로 ‘맞불’을 놓은 것이다.이디야는 “지난해 커피 원두 무상 지원, 원자재 가격 인상 최소화 등을 통해 약 194억원 규모 가맹점주 지원 정책을 펼친 것을 비롯해 올해는 창사 이래 첫 브랜드 홍보모델로 배우 변우석을 발탁하면서 광고 및
IBM은 생성형 인공지능(AI) 모델의 학습 및 실행 방식을 획기적으로 개선할 수 있는 차세대 광학 기술을 10일 발표했다. 데이터센터 내부 연결 속도를 빛의 속도로 대폭 향상시킬 수 있는 새로운 공정이다. IBM은 기존의 전선 기반 단거리 통신을 보완하는 새로운 공동 패키지형 광학(CPO) 기술을 공개했다. 이 기술을 구동할 수 있는 폴리머 광학 도파관(PWG)을 성공적으로 설계, 조립했다. 현재 데이터센터의 내부 통신 네트워크는 대부분 구리선을 사용하고 있는데, 상당한 비용과 에너지가 소모된다. 광섬유 기술은 전기 대신 빛으로 장거리 데이터 전송을 빠르게 처리해 효율을 크게 높일 수 있다는 게 IBM 설명이다. IBM 연구진은 광학 속도와 처리 능력을 데이터센터 내부로 도입할 방법을 제시했다. 데이터센터 통신의 대역폭을 크게 확장하고, GPU의 유휴 시간을 줄이며, AI 처리 속도를 획기적으로 향상시킬 수 있다는 설명이다. 중급 전기 배선 대비 전력 소비를 5배 이상 줄여 생성형AI 확장 비용을 낮추고, 데이터센터 간 케이블 연결 길이를 기존 1 미터에서 수백 미터로 확장할 수 있다.IBM 측은 기존 전기 배선을 사용할 때보다 거대 언어 모델(LLM)의 학습 속도를 최대 5배까지 높일 수 있다고 강조했다. 일반적인 LLM 학습 시간이 3개월에서 3주로 단축될 수 있고, 더 큰 모델과 더 많은 GPU를 활용할 경우 성능 향상의 폭이 더욱 커진다. AI 모델 학습 시 모델 당 미국 가정 약 5000가구의 연간 전력 소비량에 해당하는 에너지를 절감한다는 설명이다. 고은이 기자 koko@hankyung.com