‒ 금리 인하 기대 속 시장은 지속적으로 원자재/경기소비재 업종에 베팅 중
‒ 2주 전과 동일하게 원자재(+0.8%), 경기소비재(+0.7%) 업종이 전주 업종 순유입 강도 1위와 2위를 기록
*유안타 김용구 위원님 자료 발췌(9/17)
‒ 2주 전과 동일하게 원자재(+0.8%), 경기소비재(+0.7%) 업종이 전주 업종 순유입 강도 1위와 2위를 기록
*유안타 김용구 위원님 자료 발췌(9/17)
모건스탠리는 인텔이 엔비디아와 PC 및 데이터 센터 칩을 공동 개발하기로 한 계약이 아스테라 랩스에 중대한 영향을 미칠 수 있지만, 현재로서는 그 구체적인 내용이 명확하지 않다고 밝힘
모건스탠리 애널리스트들은 고객 노트에서 “올해 초 처음 발표된 NVLink Fusion 보도자료에는 인텔이 포함되지 않았지만, 우리는 이를 엔비디아가 서버에 x86 CPU를 사용하는 거대한 시장을 더 많이 확보하는 방식으로 항상 인식했다. NVLink가 x86 영역으로 확장될 경우, 기존 x86 CPU와 엔비디아 GPU 간의 전통적인 PCIe 연결을 대체할 수 있다는 우려가 있다. 이는 의미 있는 PCIe 관련 사업을 보유하고 있다는 점에서 ALAB(아스테라 랩스)에 영향을 줄 수 있다. 하지만 아직 이 단계에서 단정적인 결론을 내리기는 어렵다."라고 언급
아스테라 랩스는 NVLink Fusion의 파트너로 등재되어 있고 여전히 관련 사업이 남아 있을 수 있지만, 구체적인 내용은 아직 불분명
또한 인텔·엔비디아 간 협력의 본격적인 가시화까지는 아직 몇 년이 남아 있음. 그럼에도 불구하고 반도체 시장의 대격변은 "네트워킹의 중요성과 랙스케일 컴퓨팅의 이점"을 보여준다고 모건스탠리 애널리스트들은 덧붙임
—
$ALAB 약세 배경
모건스탠리 애널리스트들은 고객 노트에서 “올해 초 처음 발표된 NVLink Fusion 보도자료에는 인텔이 포함되지 않았지만, 우리는 이를 엔비디아가 서버에 x86 CPU를 사용하는 거대한 시장을 더 많이 확보하는 방식으로 항상 인식했다. NVLink가 x86 영역으로 확장될 경우, 기존 x86 CPU와 엔비디아 GPU 간의 전통적인 PCIe 연결을 대체할 수 있다는 우려가 있다. 이는 의미 있는 PCIe 관련 사업을 보유하고 있다는 점에서 ALAB(아스테라 랩스)에 영향을 줄 수 있다. 하지만 아직 이 단계에서 단정적인 결론을 내리기는 어렵다."라고 언급
아스테라 랩스는 NVLink Fusion의 파트너로 등재되어 있고 여전히 관련 사업이 남아 있을 수 있지만, 구체적인 내용은 아직 불분명
또한 인텔·엔비디아 간 협력의 본격적인 가시화까지는 아직 몇 년이 남아 있음. 그럼에도 불구하고 반도체 시장의 대격변은 "네트워킹의 중요성과 랙스케일 컴퓨팅의 이점"을 보여준다고 모건스탠리 애널리스트들은 덧붙임
—
$ALAB 약세 배경
The Rise of Neocloud in the AI Landscape
✅ Neocloud의 정의와 시장 현황
‒ Neocloud는 GPU-as-a-Service(GPUaaS)를 기반으로 한 전문 클라우드 사업자로, AI·블록체인·게임·과학 연구 등 고성능 연산 워크로드에 최적화된 GPU 인프라를 온디맨드 형태로 제공.
‒ Hyperscaler가 종합 서비스 제공에 집중하는 반면, Neocloud는 GPU 고밀도 인프라와 맞춤형 오케스트레이션에 특화되어 있음. GPU 벤더와 직접 파트너십을 맺어 비용 경쟁력과 서비스 차별화를 달성.
‒ 주요 사업자로는 CoreWeave, Nebius, Crusoe 등이 있으며, 이 외에도 전 세계적으로 약 190개 이상의 운영사가 존재.
‒ 네오클라우드는 최근 5년간 매출 CAGR 82%라는 기록적 성장률을 달성.
✅ Neocloud가 부상하는 배경
‒ AI GPU 수요는 폭증하고 있으며, 랙당 100kW를 초과하는 고밀도 전력 수요와 첨단 냉각 시스템이 필요해 기존 데이터센터로는 대응이 어려움.
‒ Neocloud는 Hyperscaler 대비 훨씬 빠른 구축 속도(수년 vs 수개월)와 비용 효율성을 앞세워 시장 수요를 흡수하고 있음.
‒ Uptime Institute 분석에 따르면 Neocloud는 Hyperscaler 대비 최대 66% 비용 절감이 가능하며, 특히 간헐적·변동적 GPU 워크로드에 최적화됨.
‒ Hyperscaler와 경쟁적이라기보다 보완적 관계. Hyperscaler는 포괄적 서비스 제공에, Neocloud는 GPU 특화에 집중하며 최근 협력·파트너십을 통해 공존 구조 형성.
✅ 가격 구조와 경제성
‒ 다양한 요금제: Vast.ai의 스팟 가격, RunPod의 예약 인스턴스 할인, CoreWeave의 다년 계약 및 대량 구매 할인, Paperspace의 “Gradient Credits” 크레딧 기반 보상 프로그램 등.
‒ Hyperscaler(AWS, GCP, Azure)의 A100/H100 GPU 인스턴스는 고가 프리미엄 구조를 갖지만, Lambda Labs 등 Neocloud는 동일 하드웨어를 훨씬 저렴하게 제공.
‒ GPU 활용률이 낮거나 변동적인 기업에는 Neocloud가 경제적이지만, GPU 사용률이 65% 이상인 기업은 자체 인프라 구축이 더 유리.
✅ 데이터센터 인프라 및 금융 구조 변화
‒ 냉각 인프라: GB200 등 초고발열 GPU 클러스터 대응 위해 direct-to-chip 냉각 기술 확산, 데이터센터 구조적 하중 보강 필요. 폐열을 활용한 새로운 비즈니스 기회도 창출됨.
‒ 임대 구조: 기존 데이터센터 임대(10~15년)와 달리 Neocloud 계약은 2~5년 단기 → 자산 회수 기간(7~9년) 불일치로 금융 구조적 리스크 발생. 이를 보완하기 위해 하이브리드 리스, 리스크 공유 모델, 성과보장형 계약 등 혁신적 구조가 등장.
‒ 임대료: Neocloud는 고전력 밀도·고대역 네트워크 인프라가 구축된 한정 부지 확보를 위해 높은 프리미엄 지불. 이는 짧은 계약 기간과 신용 리스크를 반영.
‒ 투자 리스크: 짧은 계약·고CAPEX 구조로 불확실성 확대. 기관투자자는 높은 기대수익률 요구, 테넌트 신용평가가 필수화. 이에 대응해 Neocloud 전용 펀드와 전략적 투자 구조가 부상.
✅ 최근 시장 다이내믹스
‒ 에코시스템: Nvidia가 수백 개 파트너로 GPU 클라우드 생태계를 확장해 경쟁과 비용 절감을 이끌듯, Neocloud 역시 다수의 사업자 기반 경쟁체제로 확산.
‒ 고객 파트너십: OpenAI(Stargate), ByteDance(말레이시아 조호바루 허브)와 같은 전략적 대형 고객 유치가 글로벌 AI 허브 형성의 핵심.
‒ 제품 출시 타이밍: Nvidia H100(2023년 하반기) 대비 AMD MI300X(2024년 1Q) 출시 지연 사례에서 보듯, 신제품 출시 속도가 점유율 확보에 직결.
‒ Hybrid 모델: Hyperscaler와 Neocloud 중간 형태의 하이브리드 모델이 등장, ODM 직접 계약 및 네트워크 인프라 최적화 통해 가격 경쟁력 강화.
‒ 자본 비용: 투자등급 신용 확보 및 채권발행 능력을 갖춘 업체가 낮은 자본비용으로 공격적 확장 가능.
✅ 구조적 도전과 과제
‒ 자금조달: GPU 인프라 구축은 대규모 자본 소요, 투자자 신뢰 확보 위해 차별화된 사업모델·핵심 고객 확보 필요.
‒ 신용도: 금융기관들은 Neocloud 사업자의 신용등급·사업 모델·전문 밸류에이션 보고서를 중시.
‒ 운영: 신속한 인프라 구축, 전력 조달, 냉각 기술 확보, 유연한 리스 구조가 성공의 핵심.
‒ 투자자: 전력 풍부 지역과 GPU 특화 인프라에 집중해야 하며, 단기계약 대비 높은 기대수익률을 요구하고 신용평가 강화 필요.
‒ 운영사: 고객군 세분화, 차별화된 서비스 제공, 빠른 구축 역량 확보가 경쟁 우위 요인.
‒ 고객: 장기 전력 계약 선제 확보, 냉각 능력 검증, 한정된 적합 부지 경쟁 속 프리미엄 비용 감수 필요.
💡 정리:
» Neocloud는 기존 Hyperscaler가 갖는 전력·냉각·구축 속도 한계를 보완하며, AI GPU 수요 폭증 속에서 필수 인프라로 부상.
» 빠른 구축, 비용 절감, 맞춤형 서비스로 시장 점유율을 확대하고 있지만, 단기 계약과 고CAPEX 구조로 인해 금융·투자 리스크 동반.
» 이에 따라 새로운 임대 구조와 자금조달 모델이 필수적이며, 향후 Neocloud는 Hyperscaler와 공존하며 AI 생태계의 핵심 축으로 자리잡을 전망.
» 전력 자원·냉각 기술·전략적 파트너십 선점이 리더십 확보의 관건.
source: JLL
‒ Neocloud는 GPU-as-a-Service(GPUaaS)를 기반으로 한 전문 클라우드 사업자로, AI·블록체인·게임·과학 연구 등 고성능 연산 워크로드에 최적화된 GPU 인프라를 온디맨드 형태로 제공.
‒ Hyperscaler가 종합 서비스 제공에 집중하는 반면, Neocloud는 GPU 고밀도 인프라와 맞춤형 오케스트레이션에 특화되어 있음. GPU 벤더와 직접 파트너십을 맺어 비용 경쟁력과 서비스 차별화를 달성.
‒ 주요 사업자로는 CoreWeave, Nebius, Crusoe 등이 있으며, 이 외에도 전 세계적으로 약 190개 이상의 운영사가 존재.
‒ 네오클라우드는 최근 5년간 매출 CAGR 82%라는 기록적 성장률을 달성.
‒ AI GPU 수요는 폭증하고 있으며, 랙당 100kW를 초과하는 고밀도 전력 수요와 첨단 냉각 시스템이 필요해 기존 데이터센터로는 대응이 어려움.
‒ Neocloud는 Hyperscaler 대비 훨씬 빠른 구축 속도(수년 vs 수개월)와 비용 효율성을 앞세워 시장 수요를 흡수하고 있음.
‒ Uptime Institute 분석에 따르면 Neocloud는 Hyperscaler 대비 최대 66% 비용 절감이 가능하며, 특히 간헐적·변동적 GPU 워크로드에 최적화됨.
‒ Hyperscaler와 경쟁적이라기보다 보완적 관계. Hyperscaler는 포괄적 서비스 제공에, Neocloud는 GPU 특화에 집중하며 최근 협력·파트너십을 통해 공존 구조 형성.
‒ 다양한 요금제: Vast.ai의 스팟 가격, RunPod의 예약 인스턴스 할인, CoreWeave의 다년 계약 및 대량 구매 할인, Paperspace의 “Gradient Credits” 크레딧 기반 보상 프로그램 등.
‒ Hyperscaler(AWS, GCP, Azure)의 A100/H100 GPU 인스턴스는 고가 프리미엄 구조를 갖지만, Lambda Labs 등 Neocloud는 동일 하드웨어를 훨씬 저렴하게 제공.
‒ GPU 활용률이 낮거나 변동적인 기업에는 Neocloud가 경제적이지만, GPU 사용률이 65% 이상인 기업은 자체 인프라 구축이 더 유리.
‒ 냉각 인프라: GB200 등 초고발열 GPU 클러스터 대응 위해 direct-to-chip 냉각 기술 확산, 데이터센터 구조적 하중 보강 필요. 폐열을 활용한 새로운 비즈니스 기회도 창출됨.
‒ 임대 구조: 기존 데이터센터 임대(10~15년)와 달리 Neocloud 계약은 2~5년 단기 → 자산 회수 기간(7~9년) 불일치로 금융 구조적 리스크 발생. 이를 보완하기 위해 하이브리드 리스, 리스크 공유 모델, 성과보장형 계약 등 혁신적 구조가 등장.
‒ 임대료: Neocloud는 고전력 밀도·고대역 네트워크 인프라가 구축된 한정 부지 확보를 위해 높은 프리미엄 지불. 이는 짧은 계약 기간과 신용 리스크를 반영.
‒ 투자 리스크: 짧은 계약·고CAPEX 구조로 불확실성 확대. 기관투자자는 높은 기대수익률 요구, 테넌트 신용평가가 필수화. 이에 대응해 Neocloud 전용 펀드와 전략적 투자 구조가 부상.
‒ 에코시스템: Nvidia가 수백 개 파트너로 GPU 클라우드 생태계를 확장해 경쟁과 비용 절감을 이끌듯, Neocloud 역시 다수의 사업자 기반 경쟁체제로 확산.
‒ 고객 파트너십: OpenAI(Stargate), ByteDance(말레이시아 조호바루 허브)와 같은 전략적 대형 고객 유치가 글로벌 AI 허브 형성의 핵심.
‒ 제품 출시 타이밍: Nvidia H100(2023년 하반기) 대비 AMD MI300X(2024년 1Q) 출시 지연 사례에서 보듯, 신제품 출시 속도가 점유율 확보에 직결.
‒ Hybrid 모델: Hyperscaler와 Neocloud 중간 형태의 하이브리드 모델이 등장, ODM 직접 계약 및 네트워크 인프라 최적화 통해 가격 경쟁력 강화.
‒ 자본 비용: 투자등급 신용 확보 및 채권발행 능력을 갖춘 업체가 낮은 자본비용으로 공격적 확장 가능.
‒ 자금조달: GPU 인프라 구축은 대규모 자본 소요, 투자자 신뢰 확보 위해 차별화된 사업모델·핵심 고객 확보 필요.
‒ 신용도: 금융기관들은 Neocloud 사업자의 신용등급·사업 모델·전문 밸류에이션 보고서를 중시.
‒ 운영: 신속한 인프라 구축, 전력 조달, 냉각 기술 확보, 유연한 리스 구조가 성공의 핵심.
‒ 투자자: 전력 풍부 지역과 GPU 특화 인프라에 집중해야 하며, 단기계약 대비 높은 기대수익률을 요구하고 신용평가 강화 필요.
‒ 운영사: 고객군 세분화, 차별화된 서비스 제공, 빠른 구축 역량 확보가 경쟁 우위 요인.
‒ 고객: 장기 전력 계약 선제 확보, 냉각 능력 검증, 한정된 적합 부지 경쟁 속 프리미엄 비용 감수 필요.
» Neocloud는 기존 Hyperscaler가 갖는 전력·냉각·구축 속도 한계를 보완하며, AI GPU 수요 폭증 속에서 필수 인프라로 부상.
» 빠른 구축, 비용 절감, 맞춤형 서비스로 시장 점유율을 확대하고 있지만, 단기 계약과 고CAPEX 구조로 인해 금융·투자 리스크 동반.
» 이에 따라 새로운 임대 구조와 자금조달 모델이 필수적이며, 향후 Neocloud는 Hyperscaler와 공존하며 AI 생태계의 핵심 축으로 자리잡을 전망.
» 전력 자원·냉각 기술·전략적 파트너십 선점이 리더십 확보의 관건.
source: JLL
Please open Telegram to view this post
VIEW IN TELEGRAM
Jll
The rise of Neocloud in the AI landscape
Specialised GPU infrastructure providers transforming the data centre market
Forwarded from 酒주총회
[그림1] Labubu Global Social Media Interest
[그림2] Labubu TikTok Views
[그림3] Labubu YouTube Trends
[그림4] Pop Mart Global Social Interest
[그림5] Labubu China Consumer Interest
[그림2] Labubu TikTok Views
[그림3] Labubu YouTube Trends
[그림4] Pop Mart Global Social Interest
[그림5] Labubu China Consumer Interest
Gromit 공부방
[그림1] Labubu Global Social Media Interest [그림2] Labubu TikTok Views [그림3] Labubu YouTube Trends [그림4] Pop Mart Global Social Interest [그림5] Labubu China Consumer Interest
‒ Pop Mart의 간판 IP인 Labubu는 여전히 높은 인기를 유지하고 있지만, 최근 90일 동안 중고 거래가에서 sealed box와 풀세트가 정점 대비 약 80% 하락하며 2차 시장 가격 거품이 빠지고 있음
‒ 다만 거래량은 여전히 견조해 단순한 붕괴가 아니라 투기 수요가 정리되는 과정으로 볼 수 있고, 이는 회사가 의도적으로 2차 시장 가격을 희생하고 1차 시장 판매 확대를 노린 전략과도 맞물려 있음
‒ 글로벌 소셜 관심도는 정점 대비 Labubu -22.5%, Pop Mart -30.6%로 둔화했으나, 여전히 연초 대비 각각 +185%, +80% 수준을 유지하고 있어 절대적 수요는 높은 상태
‒ 특히 중국 내 소비자 관심도는 올해 내내 견조하게 유지되며 바닥 수요를 지탱하고 있고, 이는 글로벌 수요 둔화 속에서도 핵심 버팀목 역할을 하고 있음
‒ 경쟁사 대비 인형·컬렉터블 부문에서 Pop Mart의 지배력은 강화되는 중이며, Labubu 외 다른 시리즈로의 확장도 견조해 단일 IP 리스크를 완화
‒ 향후 관전 포인트는 4분기 연말 쇼핑시즌과 실적 발표로, 시즌성 수요 회복과 중국 수요 견조 여부가 매출 상단 서프라이즈 가능성을 좌우할 것
‒ 베이스 시나리오는 가이던스 소폭 하향과 단기 리레이팅 지연이지만, 불리한 시나리오는 소셜 관심도 급락(-50~60%)과 중국 수요 약화이며, 반대로 호실적·연말 회복 시 강한 반등 모멘텀 가능
source: TickerTrends
‒ 다만 거래량은 여전히 견조해 단순한 붕괴가 아니라 투기 수요가 정리되는 과정으로 볼 수 있고, 이는 회사가 의도적으로 2차 시장 가격을 희생하고 1차 시장 판매 확대를 노린 전략과도 맞물려 있음
‒ 글로벌 소셜 관심도는 정점 대비 Labubu -22.5%, Pop Mart -30.6%로 둔화했으나, 여전히 연초 대비 각각 +185%, +80% 수준을 유지하고 있어 절대적 수요는 높은 상태
‒ 특히 중국 내 소비자 관심도는 올해 내내 견조하게 유지되며 바닥 수요를 지탱하고 있고, 이는 글로벌 수요 둔화 속에서도 핵심 버팀목 역할을 하고 있음
‒ 경쟁사 대비 인형·컬렉터블 부문에서 Pop Mart의 지배력은 강화되는 중이며, Labubu 외 다른 시리즈로의 확장도 견조해 단일 IP 리스크를 완화
‒ 향후 관전 포인트는 4분기 연말 쇼핑시즌과 실적 발표로, 시즌성 수요 회복과 중국 수요 견조 여부가 매출 상단 서프라이즈 가능성을 좌우할 것
‒ 베이스 시나리오는 가이던스 소폭 하향과 단기 리레이팅 지연이지만, 불리한 시나리오는 소셜 관심도 급락(-50~60%)과 중국 수요 약화이며, 반대로 호실적·연말 회복 시 강한 반등 모멘텀 가능
source: TickerTrends
blog.tickertrends.io
Pop Mart Faces Cooling Secondary Market Labubu Demand but Maintains Strong Collectibles Momentum
Secondary market pricing and social interest show local deceleration, yet elevated absolute demand and sector strength suggest long-term growth resilience
Forwarded from 엄브렐라리서치 Jay의 주식투자교실
DRAM 현물가격의 장기 추세 (2000~2025년)
• 현재 주력 제품인 16Gb DDR5 가격이 약 7달러, 그리고 16Gb DDR4 가격이 10달러 수준으로, 사상 최고가 영역에 도달
• 과거 DRAM 사이클에서 나타났던 가격 피크(2000년대 초, 2017~2018년)보다도 높은 레벨
• 2023~2024년 저점(DDR5 약 4달러, DDR4 약 2.53.5달러) 대비 2배 이상 반등, 강력한 상승 사이클을 확인
• 가격 급등 배경에는
① 메모리 업체들의 HBM 전환으로 인한 DDR5 공급 부족
② 서버·PC 교체 주기와 AI 관련 수요 확대
③ 채널 재고 재축적
• 역사적 관점에서 볼 때, 주류 DRAM 제품군이 동시에 고점 갱신하는 경우는 드물며, 이는 업황의 구조적 전환 가능성을 의미
• 현재 주력 제품인 16Gb DDR5 가격이 약 7달러, 그리고 16Gb DDR4 가격이 10달러 수준으로, 사상 최고가 영역에 도달
• 과거 DRAM 사이클에서 나타났던 가격 피크(2000년대 초, 2017~2018년)보다도 높은 레벨
• 2023~2024년 저점(DDR5 약 4달러, DDR4 약 2.53.5달러) 대비 2배 이상 반등, 강력한 상승 사이클을 확인
• 가격 급등 배경에는
① 메모리 업체들의 HBM 전환으로 인한 DDR5 공급 부족
② 서버·PC 교체 주기와 AI 관련 수요 확대
③ 채널 재고 재축적
• 역사적 관점에서 볼 때, 주류 DRAM 제품군이 동시에 고점 갱신하는 경우는 드물며, 이는 업황의 구조적 전환 가능성을 의미
‘Stargate of China’ plan emerges to challenge US as AI superpower
✅ 중국, 데이터센터 자원 배분 전략 본격화
‒ 중국은 양쯔강 유역 우후(Wuhu)에 760에이커 규모의 ‘데이터 아일랜드’를 건설, 농지를 대규모 AI 서버팜으로 전환 중
‒ 이는 미국의 5,000억달러 규모 ‘Stargate’ 프로젝트(오픈AI·오라클·소프트뱅크가 추진 중인 세계 최대 AI 데이터센터)와 직접 비교되며, 규모는 작지만 중국의 국가적 AI 대응 전략의 상징적 사례
‒ 미국은 글로벌 AI 컴퓨팅 파워의 약 75%를 차지, 중국은 약 15% 수준에 머물러 있어 격차 축소가 시급한 상황
‒ 중국은 데이터센터를 단순히 분산 운영하는 것이 아니라, 국가 차원의 ‘컴퓨팅 자원 트리아지(triage)’를 통해 경제적 파급력이 큰 부문에 우선 배분하는 정책으로 전환 중
✅ 데이터센터 역할 분담: 학습 vs 추론
‒ 2025년 3월, 중국 정부는 서부 내륙(간쑤·내몽골 등)의 에너지 풍부한 지역에 이미 건설된 데이터센터를 대규모 언어모델 학습(Training)에 집중시키기로 발표
‒ 반대로 동부 주요 도시 인근(상하이·항저우·난징·쑤저우 등)에서는 신축 데이터센터를 ‘추론(Inference)’ 전용으로 설계, 사용자와의 물리적 거리를 최소화해 챗봇 등 AI 서비스 응답속도를 높이는 전략
‒ 우후(Wuhu), 울란차브(Ulanqab), 구이저우(Guizhou), 칭양(Qingyang) 등은 각각 상하이·베이징·광저우·청두 등 인구 밀집 지역을 커버하는 거점 역할을 수행
✅ 보조금·지방정부 드라이브
‒ 우후 데이터 아일랜드에는 화웨이, 차이나텔레콤, 차이나유니콤, 차이나모바일 등 4대 사업자가 모두 참여해 AI 전용 클러스터를 운영 중
‒ 현재까지 총 15개 기업이 우후에 데이터센터를 건설했으며, 누적 투자 규모는 약 2,700억위안(370억달러)에 달함
‒ 현지 정부는 AI 칩 조달 비용의 최대 30%를 보조하는 파격적인 인센티브를 제공, 이는 다른 지역 대비 훨씬 높은 수준으로 기업 유치 효과가 큼
✅ 미국 제재로 인한 병목과 대응
‒ 미국은 엔비디아의 최신 GPU(블랙웰 포함)와 같은 첨단 AI 칩의 대중국 수출을 전면 금지했고, TSMC와 삼성도 중국 고객을 위한 첨단 칩 생산을 중단하도록 제한
‒ 화웨이·캠브리콘 같은 중국 로컬 팹리스 업체들이 대체 제품을 내놓고 있으나, 제조 능력 부족과 기술 한계로 성능 격차가 존재
‒ 일부 중국 기업들은 암시장을 통해 엔비디아 서버와 GPU를 밀수입해 사용하고 있음. 예: 우후 기반 공급업체 ‘Gate of the Era’는 엔비디아 블랙웰 칩 서버를 확보했다는 보도가 있었으나, 이는 불법적이고 엔비디아의 기술 지원·수리를 받을 수 없는 구조적 리스크 큼
‒ 엔비디아는 “밀수품으로 대형 데이터센터를 꾸리는 것은 기술적·경제적으로 불가능에 가깝다”고 공식 입장을 밝힘
✅ 유휴 자원 활용과 네트워킹 솔루션
‒ 2022년 이후 중국 내륙(간쑤, 내몽골 등)에서는 값싼 전력에 기반한 대규모 데이터센터가 급증했으나, 기술 인력 부족과 수요 부재로 많은 GPU가 놀고 있는 상황
‒ 지방정부는 이 GPU를 매입해 지역 GDP를 부풀려 왔기 때문에, 물리적으로 서버를 이전하는 대신 네트워킹 기술을 활용해 자원을 동부로 연결하는 방식을 선택
‒ 중국 정부는 차이나텔레콤과 화웨이의 광전송·라우터·스위치 기술을 통해 서부와 동부 데이터센터를 하나의 대규모 컴퓨팅 클러스터처럼 통합하는 전략을 추진 중
‒ 이는 클라우드 서비스 기업들이 재해복구(레던던시) 목적에서 사용하는 기술을 확장해, 지역 간 유휴 자원까지 적극적으로 활용하는 방식
✅ 효율성 문제와 화웨이의 UB-Mesh
‒ 그러나 다수의 소규모·구형 데이터센터를 묶어 쓰는 방식은 단일 대규모 최신 센터보다 효율성이 크게 떨어지는 구조적 한계가 존재
‒ 데이터센터 컨설팅사 DC Byte는 “경제적 규모의 경제를 구현하기 어렵다”고 지적
‒ 이에 화웨이는 UB-Mesh라는 자체 네트워킹 기술을 개발, 여러 클러스터 간 연산 태스크를 효율적으로 분배해 LLM 학습 효율을 최대 2배까지 높일 수 있다고 주장
‒ 이는 단순히 연결을 넘어서, 중국의 분산·파편화된 인프라를 ‘통합된 AI 슈퍼컴퓨팅 자원’으로 전환하려는 시도의 핵심 기술
‒ 업계에서는 이를 중국 AI 인프라 경쟁력 확보의 중요한 돌파구로 평가
💡 정리:
» 중국은 미국 대비 컴퓨팅 자원·첨단 칩 접근성에서 구조적 열세를 안고 있지만, ‘데이터센터 최적화(학습·추론 분담) + 네트워크 연결(서부~동부 통합) + 정부 보조금(칩 구매 보조)’이라는 3중 전략으로 대응 중.
» 단기적으로는 미국이 최신 칩을 독점하며 격차가 유지될 가능성이 크지만, 장기적으로는 UB-Mesh 같은 화웨이 기술, 지방정부의 투자 유치 경쟁, 국가적 자원 배분 체계가 중국의 AI 패권 경쟁력 강화의 핵심 변수로 작용할 전망.
» 미국의 ‘Stargate’가 규모의 경제로 압도한다면, 중국은 ‘분산 네트워킹’과 ‘자원 최적화’라는 전략적 해법으로 대응하는 양상.
source: FT
‒ 중국은 양쯔강 유역 우후(Wuhu)에 760에이커 규모의 ‘데이터 아일랜드’를 건설, 농지를 대규모 AI 서버팜으로 전환 중
‒ 이는 미국의 5,000억달러 규모 ‘Stargate’ 프로젝트(오픈AI·오라클·소프트뱅크가 추진 중인 세계 최대 AI 데이터센터)와 직접 비교되며, 규모는 작지만 중국의 국가적 AI 대응 전략의 상징적 사례
‒ 미국은 글로벌 AI 컴퓨팅 파워의 약 75%를 차지, 중국은 약 15% 수준에 머물러 있어 격차 축소가 시급한 상황
‒ 중국은 데이터센터를 단순히 분산 운영하는 것이 아니라, 국가 차원의 ‘컴퓨팅 자원 트리아지(triage)’를 통해 경제적 파급력이 큰 부문에 우선 배분하는 정책으로 전환 중
‒ 2025년 3월, 중국 정부는 서부 내륙(간쑤·내몽골 등)의 에너지 풍부한 지역에 이미 건설된 데이터센터를 대규모 언어모델 학습(Training)에 집중시키기로 발표
‒ 반대로 동부 주요 도시 인근(상하이·항저우·난징·쑤저우 등)에서는 신축 데이터센터를 ‘추론(Inference)’ 전용으로 설계, 사용자와의 물리적 거리를 최소화해 챗봇 등 AI 서비스 응답속도를 높이는 전략
‒ 우후(Wuhu), 울란차브(Ulanqab), 구이저우(Guizhou), 칭양(Qingyang) 등은 각각 상하이·베이징·광저우·청두 등 인구 밀집 지역을 커버하는 거점 역할을 수행
‒ 우후 데이터 아일랜드에는 화웨이, 차이나텔레콤, 차이나유니콤, 차이나모바일 등 4대 사업자가 모두 참여해 AI 전용 클러스터를 운영 중
‒ 현재까지 총 15개 기업이 우후에 데이터센터를 건설했으며, 누적 투자 규모는 약 2,700억위안(370억달러)에 달함
‒ 현지 정부는 AI 칩 조달 비용의 최대 30%를 보조하는 파격적인 인센티브를 제공, 이는 다른 지역 대비 훨씬 높은 수준으로 기업 유치 효과가 큼
‒ 미국은 엔비디아의 최신 GPU(블랙웰 포함)와 같은 첨단 AI 칩의 대중국 수출을 전면 금지했고, TSMC와 삼성도 중국 고객을 위한 첨단 칩 생산을 중단하도록 제한
‒ 화웨이·캠브리콘 같은 중국 로컬 팹리스 업체들이 대체 제품을 내놓고 있으나, 제조 능력 부족과 기술 한계로 성능 격차가 존재
‒ 일부 중국 기업들은 암시장을 통해 엔비디아 서버와 GPU를 밀수입해 사용하고 있음. 예: 우후 기반 공급업체 ‘Gate of the Era’는 엔비디아 블랙웰 칩 서버를 확보했다는 보도가 있었으나, 이는 불법적이고 엔비디아의 기술 지원·수리를 받을 수 없는 구조적 리스크 큼
‒ 엔비디아는 “밀수품으로 대형 데이터센터를 꾸리는 것은 기술적·경제적으로 불가능에 가깝다”고 공식 입장을 밝힘
‒ 2022년 이후 중국 내륙(간쑤, 내몽골 등)에서는 값싼 전력에 기반한 대규모 데이터센터가 급증했으나, 기술 인력 부족과 수요 부재로 많은 GPU가 놀고 있는 상황
‒ 지방정부는 이 GPU를 매입해 지역 GDP를 부풀려 왔기 때문에, 물리적으로 서버를 이전하는 대신 네트워킹 기술을 활용해 자원을 동부로 연결하는 방식을 선택
‒ 중국 정부는 차이나텔레콤과 화웨이의 광전송·라우터·스위치 기술을 통해 서부와 동부 데이터센터를 하나의 대규모 컴퓨팅 클러스터처럼 통합하는 전략을 추진 중
‒ 이는 클라우드 서비스 기업들이 재해복구(레던던시) 목적에서 사용하는 기술을 확장해, 지역 간 유휴 자원까지 적극적으로 활용하는 방식
‒ 그러나 다수의 소규모·구형 데이터센터를 묶어 쓰는 방식은 단일 대규모 최신 센터보다 효율성이 크게 떨어지는 구조적 한계가 존재
‒ 데이터센터 컨설팅사 DC Byte는 “경제적 규모의 경제를 구현하기 어렵다”고 지적
‒ 이에 화웨이는 UB-Mesh라는 자체 네트워킹 기술을 개발, 여러 클러스터 간 연산 태스크를 효율적으로 분배해 LLM 학습 효율을 최대 2배까지 높일 수 있다고 주장
‒ 이는 단순히 연결을 넘어서, 중국의 분산·파편화된 인프라를 ‘통합된 AI 슈퍼컴퓨팅 자원’으로 전환하려는 시도의 핵심 기술
‒ 업계에서는 이를 중국 AI 인프라 경쟁력 확보의 중요한 돌파구로 평가
» 중국은 미국 대비 컴퓨팅 자원·첨단 칩 접근성에서 구조적 열세를 안고 있지만, ‘데이터센터 최적화(학습·추론 분담) + 네트워크 연결(서부~동부 통합) + 정부 보조금(칩 구매 보조)’이라는 3중 전략으로 대응 중.
» 단기적으로는 미국이 최신 칩을 독점하며 격차가 유지될 가능성이 크지만, 장기적으로는 UB-Mesh 같은 화웨이 기술, 지방정부의 투자 유치 경쟁, 국가적 자원 배분 체계가 중국의 AI 패권 경쟁력 강화의 핵심 변수로 작용할 전망.
» 미국의 ‘Stargate’가 규모의 경제로 압도한다면, 중국은 ‘분산 네트워킹’과 ‘자원 최적화’라는 전략적 해법으로 대응하는 양상.
source: FT
Please open Telegram to view this post
VIEW IN TELEGRAM
Ft
‘Stargate of China’ plan emerges to challenge US as AI superpower
Beijing increases oversight of its data centres to make better use of limited computing resources
Forwarded from Pluto Research
개인적으로 주목하는 부분은 자민당 총재 선거(10/4)입니다. 추석연휴 끼여있을때인데...
다카이치 당선시 확대재정 + 금리인하 선호 + 현금살포 등으로 인플레 우려 및 BOJ 금리인상 우려가 좀 있을수도 있습니다
https://n.news.naver.com/mnews/article/056/0012033595?sid=104
다카이치 당선시 확대재정 + 금리인하 선호 + 현금살포 등으로 인플레 우려 및 BOJ 금리인상 우려가 좀 있을수도 있습니다
https://n.news.naver.com/mnews/article/056/0012033595?sid=104
Naver
일본 자민당 총재 선거 5파전…‘양강 구도’ 속 내일부터 본격 레이스
이시바 시게루 일본 총리의 후임자를 선출하는 집권 자민당 총재 선거가 내일(22일) 후보자 추천서 접수와 정견 발표를 시작으로 본격 일정에 들어갑니다. 이번 선거에는 다카이치 사나에 전 경제안보담당상, 고이즈미 신지
Forwarded from News Feed 🇰🇷(ko)
일본의 타카이치 최고 선택, 아사히 여론조사 28%로 자민당 경선 선두... link