Gromit 공부방
ClusterMAX 2.0 Rankings & Market View
ClusterMAX™ 2.0: The Industry Standard GPU Cloud Rating System
✅ AI 인프라의 ‘표준 지침서’로 자리 잡은 ClusterMAX 2.0
‒ GPU 클라우드(‘Neocloud’)는 AI 학습·추론의 핵심 인프라로, AI 붐 속에서 가장 중요한 거래 플랫폼으로 부상.
‒ SemiAnalysis가 발표한 ClusterMAX 2.0은 전 세계 209개 클라우드 사업자 중 84곳을 직접 평가했으며, 140개 이상의 엔터프라이즈·AI 스타트업 이용자를 인터뷰함.
‒ 평가 기준은 10개 핵심 카테고리(보안, 수명주기, 오케스트레이션, 스토리지, 네트워크, 신뢰성, 모니터링, 가격, 파트너십, 가용성)이며, GPU 클라우드 서비스의 기술 완성도와 운영 품질을 종합적으로 등급화.
‒ ClusterMAX는 독립된 제3자 기준으로 인정받으며, 실제 AI 연구소·하이퍼스케일러들의 구매·계약 의사결정에 반영되는 사실상 산업 표준으로 자리.
‒ 전작 1.0 발표 이후 6개월 만에 평가 대상이 26곳→84곳으로 세 배 이상 확대되며, 시장 커버리지가 95%까지 확대됨.
✅ CoreWeave, 유일한 Platinum 등급 — 업계의 품질 벤치마크
‒ CoreWeave는 ClusterMAX 2.0에서 유일하게 Platinum Tier를 유지하며, “기술·신뢰성·서비스 품질 모든 면에서 업계 표준을 제시하는 사업자”로 평가.
‒ CoreWeave는 자체 개발한 SUNK(Slurm on Kubernetes) 기술을 통해 SLURM·Kubernetes 혼합 환경을 완벽히 통합했고, 사용자 접근성·자동화된 헬스체크·성능 모니터링 모두 최상급 수준.
‒ Gold Tier에는 Nebius, Oracle, Azure, Crusoe, Fluidstack이 포함되며, 이들 사업자는 기능·성능이 우수하나 일부 자동화나 지원 품질에서 간헐적 불안정성 존재.
‒ Silver Tier에는 Google, AWS, Together.ai, Lambda가 포함되어 있으나, Kubernetes 기반 트레이닝 환경이나 네트워크 성능에서 상위 티어 대비 개선 여지가 있음.
‒ Bronze Tier 이하에서는 관리형 모니터링, SLURM 구성, Health Check 부재 등으로 실사용자 만족도가 급격히 떨어짐.
✅ ClusterMAX 평가체계: 단순 가격이 아닌 운영 효율성과 안정성 중심
‒ GPU당 시간단가($/GPU-hr)는 하나의 지표일 뿐, 실제 평가는 신뢰성·보안·자동화 수준 등 종합 점수로 결정됨.
‒ SemiAnalysis는 각 클라우드를 동일 워크로드 환경에서 5일간 직접 테스트하며, SLURM과 Kubernetes 환경의 네트워크 설정·GPU Direct RDMA 활성화 여부까지 점검.
‒ 테스트 항목에는 PyTorch 설치속도, NGC 컨테이너 다운로드(22GB), NCCL 성능, Hugging Face 모델(15B 파라미터) 다운로드 및 GPU 메모리 로드 속도 등이 포함.
‒ CoreWeave는 PyTorch 설치 3.2초, 컨테이너 풀링 10초 이내로 완료하며 최상위권을 기록했으나, Bronze급 사업자는 4분 이상 소요.
‒ 네트워크 속도 테스트에서 상위권 사업자는 6Gbps 이상 WAN 대역폭을 안정적으로 유지했으나, 하위 사업자는 트래픽 셰이핑으로 실제 성능이 크게 저하됨.
✅ 10개 평가항목 상세 구조: GPU 클라우드의 품질체계를 구체화
‒ 보안(Security): SOC2 Type II, ISO27001 인증, 멀티테넌시 네트워크 격리(InfiniBand Pkey/VLAN) 및 취약점 패치 프로세스.
‒ 수명주기(Lifecycle): 클러스터 생성·확장·철회 간소화, 지원 대응 속도, 숨은 비용 여부, 업로드/다운로드 효율.
‒ 오케스트레이션(Orchestration): SLURM 구성 정확성(pyxis/enroot, hpcx, RDMA, prolog/epilog 등)과 Kubernetes 연동(kubeconfig, Helm, GPUOperator, StorageClass 등).
‒ 스토리지(Storage): POSIX 호환(Weka, VAST 등), S3 호환 오브젝트 스토리지, 캐싱 로컬 드라이브, 멀티노드 확장성.
‒ 네트워크(Networking): InfiniBand·RoCEv2 지원, NCCL·RCCL 성능, SHARP 기능, NCCL 모니터링·straggler 감지.
‒ 신뢰성(Reliability): 99.9% 노드 가동률, 24x7 지원, GPU/CPU 에러 감지·자동 드레인 시스템, 링크 안정성.
‒ 모니터링(Monitoring): Grafana 기반 실시간 대시보드, DCGM 통합, TFLOPs·SM Active·PCIe·NVLink·온도 등 세부 항목 모니터링.
‒ 가격(Pricing): GPU-hr 단가, 소비모델(월·분기·연간 계약), 네트워크/스토리지 비용, 확장 옵션 등 종합 비교.
‒ 파트너십(Partnership): NVIDIA NCP·SchedMD 협력 여부, AMD Cloud Alliance 참여, 산업행사 참여도.
‒ 가용성(Availability): GPU 수량·온디맨드 접근성·최신 모델(H100·H200·B200·MI300X 등) 확보율.
✅ 핵심 기술 트렌드: Slurm-on-Kubernetes, Bare Metal vs VM, Blackwell 전환
‒ CoreWeave의 SUNK, Nebius의 SOperator, SchedMD의 Slinky 세 가지 모델이 시장 표준으로 부상.
‒ SUNK는 유일하게 SLURM과 Kubernetes 워크로드를 동일 클러스터에서 병행 운용 가능, 자동화 수준이 가장 높음.
‒ SOperator는 KubeVirt 기반으로, 보안적 장점(하이퍼바이저 수준 격리)을 가지지만 유연성은 낮음.
‒ Bare Metal(직접접속형)과 VM 기반(경량화 하이퍼바이저형)의 경계가 희미해지며, 성능 격차보다 관리철학이 경쟁 요인이 됨.
‒ Blackwell(GB200 NVL72) 세대 도입으로 노드가 아닌 랙 단위로 장애를 정의하는 구조 전환이 일어남.
‒ NVL36x2 구조는 백플레인·ACC 케이블 신호무결성 문제로 안정성 저하, 이를 해결하기 위해 NVIDIA가 Firmware 1.3을 긴급 배포.
‒ 상위 사업자(CoreWeave, Oracle)는 이미 랙 단위 SLA(99%)를 제공하며, NVL72 교체·리페어 프로세스 자동화 시스템 구축 중.
✅ AMD 대비 NVIDIA 생태계의 품질 격차 지속
‒ NVIDIA 기반 클라우드는 SLURM·RDMA·NCCL 최적화 등 엔터프라이즈 스택과 완전 호환되는 반면, AMD는 모니터링 및 커널 관리 도구 미비로 품질 격차 큼.
‒ 일부 사업자가 AMD GPU 인프라를 병행 도입했지만, 성능·안정성·도구 지원 부족으로 상용화 비중은 여전히 제한적.
✅ 시장 영향력 및 산업 반응
‒ OpenAI, Meta, Dell, Supermicro, Snowflake 등 주요 AI 인프라 기업들이 ClusterMAX를 “GPU 클라우드 계약의 사실상 기준”으로 인정.
‒ 특히 OpenAI는 Stargate 프로젝트의 클라우드 계약 시 ClusterMAX 지표를 직접 참고하며, Meta·HPE 등도 내부 벤치마크 도입 중.
‒ 브룩필드·Altimeter 등 기관투자자들도 GPU 클라우드 평가의 공정 기준으로 ClusterMAX 데이터를 활용.
‒ SemiAnalysis는 향후 6개월 단위로 ClusterMAX 3.0을 업데이트해 Blackwell 이후 세대(GB300, MI450X 등)를 반영할 예정.
‒ GPU 클라우드(‘Neocloud’)는 AI 학습·추론의 핵심 인프라로, AI 붐 속에서 가장 중요한 거래 플랫폼으로 부상.
‒ SemiAnalysis가 발표한 ClusterMAX 2.0은 전 세계 209개 클라우드 사업자 중 84곳을 직접 평가했으며, 140개 이상의 엔터프라이즈·AI 스타트업 이용자를 인터뷰함.
‒ 평가 기준은 10개 핵심 카테고리(보안, 수명주기, 오케스트레이션, 스토리지, 네트워크, 신뢰성, 모니터링, 가격, 파트너십, 가용성)이며, GPU 클라우드 서비스의 기술 완성도와 운영 품질을 종합적으로 등급화.
‒ ClusterMAX는 독립된 제3자 기준으로 인정받으며, 실제 AI 연구소·하이퍼스케일러들의 구매·계약 의사결정에 반영되는 사실상 산업 표준으로 자리.
‒ 전작 1.0 발표 이후 6개월 만에 평가 대상이 26곳→84곳으로 세 배 이상 확대되며, 시장 커버리지가 95%까지 확대됨.
‒ CoreWeave는 ClusterMAX 2.0에서 유일하게 Platinum Tier를 유지하며, “기술·신뢰성·서비스 품질 모든 면에서 업계 표준을 제시하는 사업자”로 평가.
‒ CoreWeave는 자체 개발한 SUNK(Slurm on Kubernetes) 기술을 통해 SLURM·Kubernetes 혼합 환경을 완벽히 통합했고, 사용자 접근성·자동화된 헬스체크·성능 모니터링 모두 최상급 수준.
‒ Gold Tier에는 Nebius, Oracle, Azure, Crusoe, Fluidstack이 포함되며, 이들 사업자는 기능·성능이 우수하나 일부 자동화나 지원 품질에서 간헐적 불안정성 존재.
‒ Silver Tier에는 Google, AWS, Together.ai, Lambda가 포함되어 있으나, Kubernetes 기반 트레이닝 환경이나 네트워크 성능에서 상위 티어 대비 개선 여지가 있음.
‒ Bronze Tier 이하에서는 관리형 모니터링, SLURM 구성, Health Check 부재 등으로 실사용자 만족도가 급격히 떨어짐.
‒ GPU당 시간단가($/GPU-hr)는 하나의 지표일 뿐, 실제 평가는 신뢰성·보안·자동화 수준 등 종합 점수로 결정됨.
‒ SemiAnalysis는 각 클라우드를 동일 워크로드 환경에서 5일간 직접 테스트하며, SLURM과 Kubernetes 환경의 네트워크 설정·GPU Direct RDMA 활성화 여부까지 점검.
‒ 테스트 항목에는 PyTorch 설치속도, NGC 컨테이너 다운로드(22GB), NCCL 성능, Hugging Face 모델(15B 파라미터) 다운로드 및 GPU 메모리 로드 속도 등이 포함.
‒ CoreWeave는 PyTorch 설치 3.2초, 컨테이너 풀링 10초 이내로 완료하며 최상위권을 기록했으나, Bronze급 사업자는 4분 이상 소요.
‒ 네트워크 속도 테스트에서 상위권 사업자는 6Gbps 이상 WAN 대역폭을 안정적으로 유지했으나, 하위 사업자는 트래픽 셰이핑으로 실제 성능이 크게 저하됨.
‒ 보안(Security): SOC2 Type II, ISO27001 인증, 멀티테넌시 네트워크 격리(InfiniBand Pkey/VLAN) 및 취약점 패치 프로세스.
‒ 수명주기(Lifecycle): 클러스터 생성·확장·철회 간소화, 지원 대응 속도, 숨은 비용 여부, 업로드/다운로드 효율.
‒ 오케스트레이션(Orchestration): SLURM 구성 정확성(pyxis/enroot, hpcx, RDMA, prolog/epilog 등)과 Kubernetes 연동(kubeconfig, Helm, GPUOperator, StorageClass 등).
‒ 스토리지(Storage): POSIX 호환(Weka, VAST 등), S3 호환 오브젝트 스토리지, 캐싱 로컬 드라이브, 멀티노드 확장성.
‒ 네트워크(Networking): InfiniBand·RoCEv2 지원, NCCL·RCCL 성능, SHARP 기능, NCCL 모니터링·straggler 감지.
‒ 신뢰성(Reliability): 99.9% 노드 가동률, 24x7 지원, GPU/CPU 에러 감지·자동 드레인 시스템, 링크 안정성.
‒ 모니터링(Monitoring): Grafana 기반 실시간 대시보드, DCGM 통합, TFLOPs·SM Active·PCIe·NVLink·온도 등 세부 항목 모니터링.
‒ 가격(Pricing): GPU-hr 단가, 소비모델(월·분기·연간 계약), 네트워크/스토리지 비용, 확장 옵션 등 종합 비교.
‒ 파트너십(Partnership): NVIDIA NCP·SchedMD 협력 여부, AMD Cloud Alliance 참여, 산업행사 참여도.
‒ 가용성(Availability): GPU 수량·온디맨드 접근성·최신 모델(H100·H200·B200·MI300X 등) 확보율.
‒ CoreWeave의 SUNK, Nebius의 SOperator, SchedMD의 Slinky 세 가지 모델이 시장 표준으로 부상.
‒ SUNK는 유일하게 SLURM과 Kubernetes 워크로드를 동일 클러스터에서 병행 운용 가능, 자동화 수준이 가장 높음.
‒ SOperator는 KubeVirt 기반으로, 보안적 장점(하이퍼바이저 수준 격리)을 가지지만 유연성은 낮음.
‒ Bare Metal(직접접속형)과 VM 기반(경량화 하이퍼바이저형)의 경계가 희미해지며, 성능 격차보다 관리철학이 경쟁 요인이 됨.
‒ Blackwell(GB200 NVL72) 세대 도입으로 노드가 아닌 랙 단위로 장애를 정의하는 구조 전환이 일어남.
‒ NVL36x2 구조는 백플레인·ACC 케이블 신호무결성 문제로 안정성 저하, 이를 해결하기 위해 NVIDIA가 Firmware 1.3을 긴급 배포.
‒ 상위 사업자(CoreWeave, Oracle)는 이미 랙 단위 SLA(99%)를 제공하며, NVL72 교체·리페어 프로세스 자동화 시스템 구축 중.
‒ NVIDIA 기반 클라우드는 SLURM·RDMA·NCCL 최적화 등 엔터프라이즈 스택과 완전 호환되는 반면, AMD는 모니터링 및 커널 관리 도구 미비로 품질 격차 큼.
‒ 일부 사업자가 AMD GPU 인프라를 병행 도입했지만, 성능·안정성·도구 지원 부족으로 상용화 비중은 여전히 제한적.
‒ OpenAI, Meta, Dell, Supermicro, Snowflake 등 주요 AI 인프라 기업들이 ClusterMAX를 “GPU 클라우드 계약의 사실상 기준”으로 인정.
‒ 특히 OpenAI는 Stargate 프로젝트의 클라우드 계약 시 ClusterMAX 지표를 직접 참고하며, Meta·HPE 등도 내부 벤치마크 도입 중.
‒ 브룩필드·Altimeter 등 기관투자자들도 GPU 클라우드 평가의 공정 기준으로 ClusterMAX 데이터를 활용.
‒ SemiAnalysis는 향후 6개월 단위로 ClusterMAX 3.0을 업데이트해 Blackwell 이후 세대(GB300, MI450X 등)를 반영할 예정.
Please open Telegram to view this post
VIEW IN TELEGRAM
» ClusterMAX는 단순한 기술리포트가 아니라, 클라우드 생태계의 품질 표준이자 RPO 계약 지표로 작동.
» CoreWeave는 관리형 GPU 클라우드의 최고 모델로, 기술적 완성도와 운영자동화 수준에서 압도적 격차를 유지 중.
» NVL72 랙 스케일 시대에 들어서며, GPU 클라우드는 하드웨어보다 운영신뢰성·모니터링 인프라가 경쟁력의 핵심으로 부상.
» AMD는 성능·비용 경쟁력은 확보했으나, SLURM/Kubernetes 완성도에서 여전히 후행 중.
» 장기적으로는 Blackwell·MI400 세대 전환과 랙 단위 SLA·자동화 유지보수 기술이 상위 티어 사업자의 핵심 차별화 요소가 될 전망.
» GPU 클라우드 시장은 이미 ‘가격경쟁’에서 ‘품질·운영효율 경쟁’ 시대로 진입했으며, CoreWeave·Oracle·Nebius 등이 이 질서를 이끌고 있음.
source: SemiAnalysis
Please open Telegram to view this post
VIEW IN TELEGRAM
Semianalysis
ClusterMAX™ 2.0: The Industry Standard GPU Cloud Rating System
95% Coverage By Volume, 84 Providers Rated, 209 Providers Tracked, 140+ Customers Surveyed, 46,000 Words For Your Enjoyment
Gromit 공부방
Photo
Thoughts on the Hyperscalers (Q3 '25 Update)
✅ AI 파운데이션 모델 기업이 클라우드 가치사슬의 중심으로 부상
‒ 불과 2년 전까지만 해도 OpenAI는 연구 중심 스타트업이었으나, 현재는 하이퍼스케일러들과 초대형 계약을 맺으며 클라우드 산업 구조를 완전히 바꿔놓음.
‒ OpenAI는 Microsoft(2,500억달러), Oracle(3,000억달러), Amazon(380억달러), Google, Nvidia(1,000억달러), AMD 등과 잇따라 초대형 협약 체결.
‒ Anthropic 또한 Google과 전략적 협력, Amazon으로부터 수십억달러 규모 데이터센터 투자를 유도하며 핵심 파트너로 부상.
‒ 이로써 OpenAI와 Anthropic은 ‘AI 인프라 중심의 새로운 가치사슬(Greenfield Value Chain)’을 창출했고, 하이퍼스케일러들은 이제 이들에게 매출과 성장의 상당 부분을 의존하는 구조로 전환됨.
‒ 기존에는 클라우드가 수십만 중소고객에게 서비스를 분산 제공하는 구조였지만, 이제는 OpenAI·Anthropic이라는 소수 초대형 고객 중심의 집중 구조로 바뀌며, 파워 밸런스가 하이퍼스케일러에서 AI 기업 쪽으로 이동함.
✅ AI 수요 폭증으로 클라우드 시장이 다시 성장국면 진입
‒ AWS는 Anthropic과의 파트너십을 계기로 매출 성장률이 뚜렷하게 반등함. 3Q25 기준 매출 러닝레이트는 1,320억달러에 달하며, 여전히 YoY 성장세를 유지.
‒ Semianalysis에 따르면 AWS는 현재 앵커 고객(Anthropic)을 위해 1GW 이상의 데이터센터 용량을 신규로 건설 중이며, 이는 역사상 가장 빠른 속도임.
‒ Google Cloud 또한 Anthropic 관련 수요가 본격 반영되며 백로그가 전년 대비 82% 증가한 1,550억달러에 달함.
‒ Microsoft Azure는 OpenAI의 트레이닝 및 추론 워크로드 유입으로 수십억달러 규모의 신규 매출 창출. Azure의 최근 점유율 확대 대부분이 OpenAI 영향으로 분석.
‒ 결과적으로, OpenAI·Anthropic의 AI 수요는 클라우드 역사상 가장 큰 신규 매출 풀을 형성했고, “AI가 클라우드 시장의 2차 성장 엔진이 된 첫 분기”라는 평가가 나옴.
✅ 하이퍼스케일러 CapEx 폭증 — ‘용량부족(capacity constraint)’이 여전한 상황
‒ 3Q25 기준 4대 하이퍼스케일러(MS·AMZN·GOOG·META)의 총 CapEx는 1,000억달러에 근접.
‒ Microsoft의 리스 형태 CapEx(데이터센터 임대 포함)는 110억달러 이상으로, 실제 투자액은 이를 훨씬 상회.
‒ AWS·Google·Oracle 모두 전력 인프라와 부지 확보에 경쟁적으로 투자 중이며, GPU·CPU·냉각·전력망 확보전이 심화.
‒ 현재까지의 투자 속도는 팬데믹 이후 클라우드 붐 때보다 훨씬 빠르며, AI 인프라 수요를 충족시키기 위한 ‘초과투자 국면’ 진입.
‒ 다만 Sam Altman은 “2~3년 내 과잉공급(glut)이 올 수 있다. 하지만 지금은 수요가 공급을 초과하고 있으며, 이 과정에서 여러 번의 미니버블이 생길 것”이라 언급.
✅ RPO(잔여계약의무) 급증 — 4사 총합 1.2조달러 규모
‒ Oracle: 4,550억달러(+359%, 달러 및 고정환율 기준 동일 증가율)
‒ Microsoft: 4,000억달러(+50%), 상업용 RPO의 평균 만기는 약 2년으로 짧아 빠른 매출 전환 가능
‒ Google Cloud: 1,550억달러(+82% YoY, +46% QoQ), AI·SaaS 관련 수주 급증
‒ Amazon: 2,000억달러로 추정되며, 10월 이후 미공개 신규 계약을 포함하면 3Q 전체 계약규모를 상회
‒ 이들 총합 약 1.2조달러로 사상 최대치. 이는 클라우드 산업 역사상 최대 규모의 백로그이며, 현재 공급보다 수요가 압도적으로 큰 상태.
‒ 하이퍼스케일러는 수요-공급 균형이 맞춰질 때까지 CapEx를 지속 확대할 것으로 전망.
✅ Microsoft: 리스크 최소화하며 구조적 수요 포착 전략
‒ 사티아 나델라는 “GPU·CPU 모두 단수명(short-lived) 자산 투자로 회계상 리스크를 최소화하고, 리스 중심으로 장기 부채를 줄이고 있다”고 언급.
‒ 이는 ‘AI 버블 논란’ 속에서도 Microsoft가 밸런스시트 안정성을 유지하면서 AI 수요를 선제적으로 흡수하는 전략.
‒ 실제로 Microsoft는 AI 인프라 투자에서 15~20년 수명의 데이터센터 자산과 1~3년 수명의 GPU 자산을 병행 운용하며, 자본구조 유연성을 확보.
‒ 나델라는 “몇 분기 동안 공급부족 상태가 지속되고 있으며, 오히려 수요가 더 빠르게 증가 중”이라고 언급, 당분간 추가 CapEx 확대를 시사.
‒ 또한 “OpenAI가 요청한 단일 지역 내 멀티 기가와트급 전용 클러스터는 Azure 장기 인프라 설계에 비효율적이라 일부 거절했다”고 언급 — 이는 Oracle이 수용한 것으로 해석됨.
✅ Oracle: 레버리지를 통한 ‘클라우드 4강 진입’ 도전
‒ Oracle은 OpenAI와의 대규모 계약으로 4,550억달러 규모의 RPO를 확보하며, 클라우드 3강(MS·GOOG·AMZN)에 도전 중.
‒ 문제는 현금흐름으로 이를 감당하기 어렵다는 점. Oracle은 수십~수백억달러 규모의 부채와 주식 발행을 통해 AI 인프라 투자를 추진 중.
‒ 이는 기존 하이퍼스케일러들이 ‘현금흐름 기반 자기자본 투자’를 유지하는 것과 달리, ‘레버리지 전략으로 시장지위를 재정립’하려는 시도.
‒ Doug O’Laughlin은 “Oracle은 단순한 기대수익(Expected Value) 계산이 아니라, 지위 상승에서 오는 기대효용(Expected Utility)을 선택했다”고 평가.
‒ 즉, 이미 시장점유율이 높은 MS·GOOG·AMZN은 추가 위험 감수로 얻을 효용이 크지 않지만, Oracle은 성공 시 ‘4대 클라우드 벤더’로 격상되는 효용이 매우 큼.
‒ Larry Ellison은 “안전하게 4위로 남는 것보다, 리스크를 감수해 상위권에 진입할 수 있다면 그 베팅을 항상 할 것”이라는 입장을 명확히 함.
✅ Foundation Model 수요가 시장점유율 변화의 핵심 요인으로 작용 중
‒ 최근 4분기 기준 신규 클라우드 매출 증가분 중 상당 부분이 AI 파운데이션 모델 고객에서 발생.
‒ Azure는 OpenAI 수요 덕에 순증매출 점유율이 급상승, AWS는 Anthropic 수요로 점유율 회복세, Google도 Anthropic 효과가 가시화.
‒ 특히 OpenAI와 Anthropic이 제공하는 ‘트레이닝·추론 수요’는 GPU·스토리지·네트워크 전반에 걸쳐 장기적인 매출 지속성을 보장.
‒ 다만 각사가 확보한 매출의 ‘수익성 구조’는 차이가 있음. Microsoft는 수익성 높은 하이브리드형 모델(자체 AI 서비스 + Azure 인프라)을, Oracle은 낮은 마진의 인프라형 모델을 선택.
‒ 결국 시장점유율 경쟁은 단기 매출보다 “수익성과 내구성을 갖춘 매출을 얼마나 확보하느냐”로 귀결될 전망.
💡 정리: AI 파운데이션 모델이 하이퍼스케일러의 성장축을 완전히 재편 중
» OpenAI·Anthropic 중심의 ‘AI 중심 가치사슬’이 등장하며, 클라우드 기업이 AI 기업의 공급망 하위단으로 재배치됨.
» 하이퍼스케일러 CapEx는 1,000억달러를 돌파했고, RPO는 1.2조달러로 사상 최고. 수요 초과 상태는 최소 2026년까지 지속될 가능성.
» Microsoft는 리스크 통제형 선제투자, Amazon·Google은 파트너 확장형, Oracle은 레버리지형 고위험 전략으로 포지션 구분.
» 단기적으로 과잉투자 가능성이 있으나, 중장기적으로는 AI 트레이닝·추론·에이전트 워크로드가 이를 흡수할 전망.
» 향후 2~3년간 클라우드 시장 경쟁의 본질은 ‘규모의 경쟁’에서 ‘전략적 동맹·자본 구조·리스크 감내력’으로 진화할 것으로 보임.
source: Generative Value
‒ 불과 2년 전까지만 해도 OpenAI는 연구 중심 스타트업이었으나, 현재는 하이퍼스케일러들과 초대형 계약을 맺으며 클라우드 산업 구조를 완전히 바꿔놓음.
‒ OpenAI는 Microsoft(2,500억달러), Oracle(3,000억달러), Amazon(380억달러), Google, Nvidia(1,000억달러), AMD 등과 잇따라 초대형 협약 체결.
‒ Anthropic 또한 Google과 전략적 협력, Amazon으로부터 수십억달러 규모 데이터센터 투자를 유도하며 핵심 파트너로 부상.
‒ 이로써 OpenAI와 Anthropic은 ‘AI 인프라 중심의 새로운 가치사슬(Greenfield Value Chain)’을 창출했고, 하이퍼스케일러들은 이제 이들에게 매출과 성장의 상당 부분을 의존하는 구조로 전환됨.
‒ 기존에는 클라우드가 수십만 중소고객에게 서비스를 분산 제공하는 구조였지만, 이제는 OpenAI·Anthropic이라는 소수 초대형 고객 중심의 집중 구조로 바뀌며, 파워 밸런스가 하이퍼스케일러에서 AI 기업 쪽으로 이동함.
‒ AWS는 Anthropic과의 파트너십을 계기로 매출 성장률이 뚜렷하게 반등함. 3Q25 기준 매출 러닝레이트는 1,320억달러에 달하며, 여전히 YoY 성장세를 유지.
‒ Semianalysis에 따르면 AWS는 현재 앵커 고객(Anthropic)을 위해 1GW 이상의 데이터센터 용량을 신규로 건설 중이며, 이는 역사상 가장 빠른 속도임.
‒ Google Cloud 또한 Anthropic 관련 수요가 본격 반영되며 백로그가 전년 대비 82% 증가한 1,550억달러에 달함.
‒ Microsoft Azure는 OpenAI의 트레이닝 및 추론 워크로드 유입으로 수십억달러 규모의 신규 매출 창출. Azure의 최근 점유율 확대 대부분이 OpenAI 영향으로 분석.
‒ 결과적으로, OpenAI·Anthropic의 AI 수요는 클라우드 역사상 가장 큰 신규 매출 풀을 형성했고, “AI가 클라우드 시장의 2차 성장 엔진이 된 첫 분기”라는 평가가 나옴.
‒ 3Q25 기준 4대 하이퍼스케일러(MS·AMZN·GOOG·META)의 총 CapEx는 1,000억달러에 근접.
‒ Microsoft의 리스 형태 CapEx(데이터센터 임대 포함)는 110억달러 이상으로, 실제 투자액은 이를 훨씬 상회.
‒ AWS·Google·Oracle 모두 전력 인프라와 부지 확보에 경쟁적으로 투자 중이며, GPU·CPU·냉각·전력망 확보전이 심화.
‒ 현재까지의 투자 속도는 팬데믹 이후 클라우드 붐 때보다 훨씬 빠르며, AI 인프라 수요를 충족시키기 위한 ‘초과투자 국면’ 진입.
‒ 다만 Sam Altman은 “2~3년 내 과잉공급(glut)이 올 수 있다. 하지만 지금은 수요가 공급을 초과하고 있으며, 이 과정에서 여러 번의 미니버블이 생길 것”이라 언급.
‒ Oracle: 4,550억달러(+359%, 달러 및 고정환율 기준 동일 증가율)
‒ Microsoft: 4,000억달러(+50%), 상업용 RPO의 평균 만기는 약 2년으로 짧아 빠른 매출 전환 가능
‒ Google Cloud: 1,550억달러(+82% YoY, +46% QoQ), AI·SaaS 관련 수주 급증
‒ Amazon: 2,000억달러로 추정되며, 10월 이후 미공개 신규 계약을 포함하면 3Q 전체 계약규모를 상회
‒ 이들 총합 약 1.2조달러로 사상 최대치. 이는 클라우드 산업 역사상 최대 규모의 백로그이며, 현재 공급보다 수요가 압도적으로 큰 상태.
‒ 하이퍼스케일러는 수요-공급 균형이 맞춰질 때까지 CapEx를 지속 확대할 것으로 전망.
‒ 사티아 나델라는 “GPU·CPU 모두 단수명(short-lived) 자산 투자로 회계상 리스크를 최소화하고, 리스 중심으로 장기 부채를 줄이고 있다”고 언급.
‒ 이는 ‘AI 버블 논란’ 속에서도 Microsoft가 밸런스시트 안정성을 유지하면서 AI 수요를 선제적으로 흡수하는 전략.
‒ 실제로 Microsoft는 AI 인프라 투자에서 15~20년 수명의 데이터센터 자산과 1~3년 수명의 GPU 자산을 병행 운용하며, 자본구조 유연성을 확보.
‒ 나델라는 “몇 분기 동안 공급부족 상태가 지속되고 있으며, 오히려 수요가 더 빠르게 증가 중”이라고 언급, 당분간 추가 CapEx 확대를 시사.
‒ 또한 “OpenAI가 요청한 단일 지역 내 멀티 기가와트급 전용 클러스터는 Azure 장기 인프라 설계에 비효율적이라 일부 거절했다”고 언급 — 이는 Oracle이 수용한 것으로 해석됨.
‒ Oracle은 OpenAI와의 대규모 계약으로 4,550억달러 규모의 RPO를 확보하며, 클라우드 3강(MS·GOOG·AMZN)에 도전 중.
‒ 문제는 현금흐름으로 이를 감당하기 어렵다는 점. Oracle은 수십~수백억달러 규모의 부채와 주식 발행을 통해 AI 인프라 투자를 추진 중.
‒ 이는 기존 하이퍼스케일러들이 ‘현금흐름 기반 자기자본 투자’를 유지하는 것과 달리, ‘레버리지 전략으로 시장지위를 재정립’하려는 시도.
‒ Doug O’Laughlin은 “Oracle은 단순한 기대수익(Expected Value) 계산이 아니라, 지위 상승에서 오는 기대효용(Expected Utility)을 선택했다”고 평가.
‒ 즉, 이미 시장점유율이 높은 MS·GOOG·AMZN은 추가 위험 감수로 얻을 효용이 크지 않지만, Oracle은 성공 시 ‘4대 클라우드 벤더’로 격상되는 효용이 매우 큼.
‒ Larry Ellison은 “안전하게 4위로 남는 것보다, 리스크를 감수해 상위권에 진입할 수 있다면 그 베팅을 항상 할 것”이라는 입장을 명확히 함.
‒ 최근 4분기 기준 신규 클라우드 매출 증가분 중 상당 부분이 AI 파운데이션 모델 고객에서 발생.
‒ Azure는 OpenAI 수요 덕에 순증매출 점유율이 급상승, AWS는 Anthropic 수요로 점유율 회복세, Google도 Anthropic 효과가 가시화.
‒ 특히 OpenAI와 Anthropic이 제공하는 ‘트레이닝·추론 수요’는 GPU·스토리지·네트워크 전반에 걸쳐 장기적인 매출 지속성을 보장.
‒ 다만 각사가 확보한 매출의 ‘수익성 구조’는 차이가 있음. Microsoft는 수익성 높은 하이브리드형 모델(자체 AI 서비스 + Azure 인프라)을, Oracle은 낮은 마진의 인프라형 모델을 선택.
‒ 결국 시장점유율 경쟁은 단기 매출보다 “수익성과 내구성을 갖춘 매출을 얼마나 확보하느냐”로 귀결될 전망.
» OpenAI·Anthropic 중심의 ‘AI 중심 가치사슬’이 등장하며, 클라우드 기업이 AI 기업의 공급망 하위단으로 재배치됨.
» 하이퍼스케일러 CapEx는 1,000억달러를 돌파했고, RPO는 1.2조달러로 사상 최고. 수요 초과 상태는 최소 2026년까지 지속될 가능성.
» Microsoft는 리스크 통제형 선제투자, Amazon·Google은 파트너 확장형, Oracle은 레버리지형 고위험 전략으로 포지션 구분.
» 단기적으로 과잉투자 가능성이 있으나, 중장기적으로는 AI 트레이닝·추론·에이전트 워크로드가 이를 흡수할 전망.
» 향후 2~3년간 클라우드 시장 경쟁의 본질은 ‘규모의 경쟁’에서 ‘전략적 동맹·자본 구조·리스크 감내력’으로 진화할 것으로 보임.
source: Generative Value
Please open Telegram to view this post
VIEW IN TELEGRAM
Generativevalue
Thoughts on the Hyperscalers (Q3 '25 Update)
A shifting value chain (OpenAI and Anthropic gaining importance) and what it means for the cloud providers; also market share, CapEx, and revenue growth updates.
‒ 노무라의 Charlie McElligott은 최근 시장 조정의 핵심이 ‘기계적 수급(Vol Control·CTA)’에서 비롯된다고 분석함. 10월 10일 이후 변동성 급등(rVol spike)으로 인해 Vol Control 전략 자금이 지난 한 달간 약 1,178억 달러 규모의 미국 주식 익스포저를 강제 축소.
‒ 이는 시스템상 리스크 관리 규칙에 따라 포트폴리오 변동성이 높아지면 자동으로 주식 비중을 줄이는 ‘기계적 디레버리징’이며, 변동성 완화 시점까지는 추가 매도 압력이 지속될 수 있음.
‒ 다만 향후 몇 주간 S&P 등 주요 지수가 하루 ±1% 범위 내에서 안정적으로 움직일 경우, Vol Control 모델들이 자동적으로 재매수(Reallocation) 플로우를 낼 가능성이 높다고 분석.
‒ CTA(추세추종형) 자금은 현재도 하락에 반응 중이지만, 실질적인 대규모 매도(Real Notional Supply)는 -2~4% 추가 조정 구간에서 본격화될 것으로 전망.
‒ 즉, 현 시점은 CTA가 완전히 ‘Sell Mode’에 들어간 단계는 아니며, 아직 단기적 변동성 폭이 다음 단계의 자동 매도 트리거를 자극할 수준에는 미치지 못함.
‒ 따라서 시장이 단기간 변동성 완화 구간으로 들어가면 기계적 재매수(Vol Control Buyback) 흐름이 반대로 시장 하단을 지지할 수도 있음.
‒ 결론적으로, 현재 시장은 ‘Not Hedged Enough(하방 대비 부족)’ 상태에서 CTA·Vol Control 간 수급 밸런스가 불안정하게 흔들리고 있으며, 향후 변동성 궤적이 이 자동 매매 플로우의 방향(하방 가속 vs 반등 전환)을 결정할 핵심 변수로 작용할 전망.
‒ 이는 시스템상 리스크 관리 규칙에 따라 포트폴리오 변동성이 높아지면 자동으로 주식 비중을 줄이는 ‘기계적 디레버리징’이며, 변동성 완화 시점까지는 추가 매도 압력이 지속될 수 있음.
‒ 다만 향후 몇 주간 S&P 등 주요 지수가 하루 ±1% 범위 내에서 안정적으로 움직일 경우, Vol Control 모델들이 자동적으로 재매수(Reallocation) 플로우를 낼 가능성이 높다고 분석.
‒ CTA(추세추종형) 자금은 현재도 하락에 반응 중이지만, 실질적인 대규모 매도(Real Notional Supply)는 -2~4% 추가 조정 구간에서 본격화될 것으로 전망.
‒ 즉, 현 시점은 CTA가 완전히 ‘Sell Mode’에 들어간 단계는 아니며, 아직 단기적 변동성 폭이 다음 단계의 자동 매도 트리거를 자극할 수준에는 미치지 못함.
‒ 따라서 시장이 단기간 변동성 완화 구간으로 들어가면 기계적 재매수(Vol Control Buyback) 흐름이 반대로 시장 하단을 지지할 수도 있음.
‒ 결론적으로, 현재 시장은 ‘Not Hedged Enough(하방 대비 부족)’ 상태에서 CTA·Vol Control 간 수급 밸런스가 불안정하게 흔들리고 있으며, 향후 변동성 궤적이 이 자동 매매 플로우의 방향(하방 가속 vs 반등 전환)을 결정할 핵심 변수로 작용할 전망.
‒ 골드만 헤지펀드 담당 Tony Pasquariello는 이번 주를 “tricky week”로 표현하며, 시장이 과열된 10월 랠리의 속도를 되돌리는 조정 국면에 진입했다고 평가.
‒ 특히 한국 AI 바스켓(GSXAKRAI)이 10월 한 달 동안 +45% 급등하는 등 일부 섹터의 상승 속도가 비정상적으로 빠르며, 11월 들어 그 과열분이 빠르게 되돌려지는 상황이라고 분석.
‒ Pasquariello는 이번 하락이 구조적 리스크보다는 “단기 차익실현 및 포지션 정리”의 성격이 강하다고 보며, 대형주 중심의 펀더멘털(성장, 유동성, 자금 흐름)은 여전히 상방 요인이라고 평가.
‒ 그는 “연준이 금리를 인하하고 기업이 두 자릿수 이익 성장을 기록하는 국면에서 강세장이 끝나는 경우는 드물다”고 언급하며, 중기적으로 주가 상승 여력은 여전히 있다고 판단.
‒ 동사의 Ben Snider는 S&P500이 내년 중반 7200 수준까지 상승할 것으로 전망하며, 이번 실적시즌은 사상 최대 수준의 어닝 서프라이즈 빈도를 보였음에도 불구하고 주가 반응은 약했다고 설명.
‒ Snider는 그 이유로 높은 거시 불확실성과 기관투자자 포지션의 과밀화를 지목했으며, 실제로 ‘과도한 롱’이라기보다 ‘혼잡한 롱’ 구조가 리스크 요인이라고 지적.
‒ 2026년 전망과 관련해 그는 기업들의 자사주 매입이 강세를 유지하되 성장률은 정체되어 있고, 반면 설비투자(CapEx)는 증가세로 전환 중이라며 이는 비용 대비 수익률 개선 기대에 따른 합리적 재배분이라 평가.
‒ Fed 정책에 대해서는 향후 금리인하 폭 논의는 시장에 긍정적 영향을 미칠 것이며, 과거처럼 긴축 국면이 아닌 완화 기조에서 버블이 붕괴된 사례는 없다고 언급함.
‒ 골드만의 월간 포지셔닝 조사에 따르면 현재 트레이더들은 여전히 롱 포지션을 유지하고 있지만 전반적으로 경계심이 높고, 강세·약세 비중의 스큐는 과거 피크(2021년 등) 대비 완화된 상태.
‒ Pasquariello는 결론적으로 “세상은 리스크를 감수하는 사람의 것이다(The world belongs to risk takers)”라는 켄 랭고운의 말을 인용하며, 현재 조정은 위험관리 과정이지 강세장의 종말이 아니라고 정리.
‒ 특히 한국 AI 바스켓(GSXAKRAI)이 10월 한 달 동안 +45% 급등하는 등 일부 섹터의 상승 속도가 비정상적으로 빠르며, 11월 들어 그 과열분이 빠르게 되돌려지는 상황이라고 분석.
‒ Pasquariello는 이번 하락이 구조적 리스크보다는 “단기 차익실현 및 포지션 정리”의 성격이 강하다고 보며, 대형주 중심의 펀더멘털(성장, 유동성, 자금 흐름)은 여전히 상방 요인이라고 평가.
‒ 그는 “연준이 금리를 인하하고 기업이 두 자릿수 이익 성장을 기록하는 국면에서 강세장이 끝나는 경우는 드물다”고 언급하며, 중기적으로 주가 상승 여력은 여전히 있다고 판단.
‒ 동사의 Ben Snider는 S&P500이 내년 중반 7200 수준까지 상승할 것으로 전망하며, 이번 실적시즌은 사상 최대 수준의 어닝 서프라이즈 빈도를 보였음에도 불구하고 주가 반응은 약했다고 설명.
‒ Snider는 그 이유로 높은 거시 불확실성과 기관투자자 포지션의 과밀화를 지목했으며, 실제로 ‘과도한 롱’이라기보다 ‘혼잡한 롱’ 구조가 리스크 요인이라고 지적.
‒ 2026년 전망과 관련해 그는 기업들의 자사주 매입이 강세를 유지하되 성장률은 정체되어 있고, 반면 설비투자(CapEx)는 증가세로 전환 중이라며 이는 비용 대비 수익률 개선 기대에 따른 합리적 재배분이라 평가.
‒ Fed 정책에 대해서는 향후 금리인하 폭 논의는 시장에 긍정적 영향을 미칠 것이며, 과거처럼 긴축 국면이 아닌 완화 기조에서 버블이 붕괴된 사례는 없다고 언급함.
‒ 골드만의 월간 포지셔닝 조사에 따르면 현재 트레이더들은 여전히 롱 포지션을 유지하고 있지만 전반적으로 경계심이 높고, 강세·약세 비중의 스큐는 과거 피크(2021년 등) 대비 완화된 상태.
‒ Pasquariello는 결론적으로 “세상은 리스크를 감수하는 사람의 것이다(The world belongs to risk takers)”라는 켄 랭고운의 말을 인용하며, 현재 조정은 위험관리 과정이지 강세장의 종말이 아니라고 정리.
Gromit 공부방
테마주의 펀더는 오직 시세 뿐, 개별주 내용이 이러니 저러니 해도 걍 테마주는 시세 센 놈이 대장이라는 생각을 또 다시 하게 되는.. 시세에 대한 그럴듯한, 합리적인 분석은 결국 다 후행적일 수밖에 최근에 좀 정상화(?) 되나 싶어서 깔짝 베팅해봤다가 허약한 시세 보고 바로 후퇴했기 때문에 종목에 대한 조롱은 아니고 테마주 투기 원칙을 어긴 스스로에 대한 #반성 차원서 기록 시세에 저항하려 들지 말자!
테마주의 펀더멘털은 오직 시세 뿐. 주가가 오르면 좋은 투기 주식이고 내리면 쓰레기에 불과하다는 생각. 모든 테마주는 그렇게 접근하는 중.
내용과 미래 비전이 어떻고를 떠나 이 주식은 투기 픽으로서는 매력이 없다는 생각 (차라리 온갖 희망찬 내러와 추정치 상향이 뒷받침되며 ATH 60불 뚫어줄 때 사는 게 낫지 않을까)
#SMR
내용과 미래 비전이 어떻고를 떠나 이 주식은 투기 픽으로서는 매력이 없다는 생각 (차라리 온갖 희망찬 내러와 추정치 상향이 뒷받침되며 ATH 60불 뚫어줄 때 사는 게 낫지 않을까)
#SMR
Gromit 공부방
버블을 많이들 찾고 있다고 함
TS Lombard, When Will the AI ‘Bubble’ Burst? (25.11.03)
✅ AI는 역사적으로 반복된 버블의 전형적 조건을 모두 충족
‒ TS Lombard의 Dario Perkins는 “AI 버블은 이미 고전적 투기 사이클의 후기 국면에 있다”고 분석.
‒ 17세기 네덜란드 튤립, 1720년 남해·미시시피, 1840년대 철도, 1990년대 닷컴처럼, AI 역시 ‘세상을 바꿀 기술’이라는 단순하고 매혹적인 서사가 대중 심리를 자극하고 있음.
‒ 기술의 파괴력은 크지만 미래 수익 불확실성이 극단적으로 높고, 투자자들은 수익성보다 ‘규모 경쟁(AGI 레이스)’에 몰입 중.
‒ 대형 기술사들은 CapEx를 EBITDA의 60~80% 수준까지 끌어올리며 “디지털 신(Digital God)” 구축을 위해 무차별적 투자를 단행 중.
‒ 과거 Cisco가 닷컴 시절 네트워크 장비로 수익을 냈지만, 2000년 고점 매수자는 20년이 지나도 손실을 만회하지 못했듯, AI 인프라 기업들의 실질적 수익화 시점이 예상보다 훨씬 늦을 수 있음.
✅ 중앙은행의 정책 전환은 버블 붕괴의 ‘고전적 시그널’
‒ 과거 사례상 버블의 정점은 중앙은행의 ‘매파 전환(hawkish pivot)’ 시점과 일치.
‒ 1845년 영국철도 버블은 금리 100bp 인상 직후 붕괴, 1929년 Fed의 6% 인상 전환, 2000년 그린스펀의 ‘부의효과(wealth effect)’ 통제 시도가 모두 시장 붕괴로 이어짐.
‒ 현재 트럼프 정부는 완화정책을 지속하겠다는 입장이지만, TS Lombard는 “이민 제한으로 공급이 억제된 미국 경제는 2026년에 다시 인플레 재상승 리스크가 있다”고 경고.
‒ 만약 채권시장이 Fed의 독립성에 의문을 제기하면, 시장발 긴축(금리 상승, 프리미엄 확대)이 버블의 ‘마지막 방아쇠’가 될 수 있음.
‒ Perkins는 “현 사이클은 남은 12개월 내 정점을 찍을 확률이 높다”고 언급.
✅ AI 버블의 ‘경고 신호(Markers)’ 7가지
‒ (1) 통화긴축: 예상 밖 인플레이션 반등이나 채권시장 불안이 Fed를 매파로 전환시키면, 과거 모든 버블처럼 급격한 조정 가능.
‒ (2) 실적 실망: NVIDIA·TSMC·마이크로소프트 등 핵심 기업의 매출 성장 둔화 시점이 버블의 ‘현실 점검’ 계기. 데이터센터 CapEx가 2025 수준에서 멈추면 NVIDIA 매출도 정체될 수 있음.
‒ (3) 내부자 매도(Insider selling): 1720년 남해·미시시피 버블 당시 경영진은 정점에 자사주를 매도했고, 닷컴 버블 당시 락업 해제(1999~2000년) 이후 대규모 매도가 급락을 유발함. NVIDIA는 2024년 이후 내부자 매도 지속 중이며, OpenAI 직원들도 최근 매각 기회를 일부 활용.
‒ (4) 벤더 파이낸싱(Vendor Financing): NVIDIA가 클라우드 기업에 칩을 판매 후 리스 형태로 되사들이거나, 마이크로소프트가 OpenAI에 컴퓨팅을 ‘판매하고 지분으로 보상받는’ 구조가 확산. 이는 과거 Cisco·WorldCom이 닷컴 정점에서 했던 회계 왜곡 구조와 유사함.
‒ (5) 개인투자자 과열(Dumb Money): 해방일(Liberation Day) 이후 개인투자자의 대형 기술주 매수가 폭발적 증가. 기관은 신중한 반면, 리테일 자금이 후반부 버블의 주도세력으로 부상.
‒ (6) 사기(Fraud): 버블 말기엔 회계조작·부당거래 빈발. 남해버블의 뇌물, 1849년 철도버블의 ‘허위배당’, 닷컴의 엔론·월드컴 사례처럼 ‘숫자 맞추기’가 시작되면 말기 신호.
‒ (7) 거래량 감소(Volume Peak): 버블 중반엔 거래량 급증, 후반엔 피로감으로 급감. 거래량 둔화는 버블의 ‘피크 전조’로 평가.
✅ ‘Easy Money’는 원인보다 ‘폭발의 타이밍’을 결정
‒ Perkins는 “완화정책이 버블을 만드는 게 아니라, 중앙은행의 타이밍이 붕괴를 만든다”고 분석.
‒ 금본위제 시대에도 버블은 존재했고, 자금유동성보단 ‘리스크 감수 성향과 기대 수익률의 변동’이 핵심 요인.
‒ 결국 정책금리 자체보다 금융시스템의 레버리지와 자산가격 간 선순환이 얼마나 길게 지속되는가가 중요.
‒ 이 선순환이 한계에 도달하면, 중앙은행의 조그만 긴축만으로도 시스템이 급격히 수축.
‒ Dotcom 당시 실질금리는 오히려 높았지만, 기대수익률 하락이 버블 붕괴를 촉발했음.
✅ 버블의 파괴력은 ‘레버리지’와 ‘자원 오배분’에 달려 있음
‒ AI 버블은 아직까지는 비(非)레버리지형 자산버블, 즉 금융시스템 위험은 낮은 편.
‒ 그러나 CapEx가 점차 사모신용시장(private credit)으로 이동하고 있어, 향후 몇 년간 ‘그림자 레버리지’ 확산 가능성 경고.
‒ 과거 사례처럼 실물투자 규모가 GDP 대비 일정 수준을 넘어서면, 붕괴 시 고용·소비·신용순환에 연쇄 충격.
‒ 현재 미국 디지털경제 투자 비중은 GDP의 3.4%로, 1999년 통신투자 정점(3.2%)과 유사한 수준.
‒ Perkins는 “지금은 2000년과 비슷한 시점이지만, 금융 시스템의 복잡성은 2008년보다 높다”고 지적.
✅ AI 버블의 지속 가능성과 타임라인
‒ 단기(2025~26): 시장은 여전히 확장 국면이지만, 인플레 반등·Fed 긴축·CapEx 둔화가 맞물릴 경우 급전환 위험.
‒ 중기(2027~29): CapEx의 부채화, 민간 신용시장 확대, 벤더파이낸싱 심화 시 ‘시스테믹 리스크’ 가능.
‒ Perkins는 “AI 버블이 1년 내 꺼지면 시스템 충격은 제한적이지만, 3~4년 더 지속될 경우 2008년형 위기 가능성”을 언급함.
‒ 그는 “현재의 과열은 1999년 닷컴보단 1845년 철도버블과 유사하다”고 평가 – 막대한 자본투입은 인프라를 남기지만, 투자수익은 남기지 않는다.
✅ 경제 충격 시나리오: 주가는 급락, 경기침체는 완만
‒ TS Lombard는 “AI 버블 붕괴가 닷컴보다 시스템 충격은 작고, 경기 충격은 완만할 것”으로 전망.
‒ 현재 AI 투자가 GDP 성장의 대부분을 차지한다는 주장은 과장으로, AI 투자 축소 시 미국 경제는 완만한 침체(mild recession) 가능성.
‒ 다만 레버리지 증가와 CapEx의 비공개화가 빠르게 진행될 경우, 사모시장 내 신용 리스크가 폭발할 수 있음.
‒ Perkins는 “AI 붕괴는 ‘Old Testament 스타일(1873년·1929년·2008년급)’ 위기보다는, ‘시장 밸류 조정형’ 조정일 가능성이 높다”고 평가.
‒ TS Lombard의 Dario Perkins는 “AI 버블은 이미 고전적 투기 사이클의 후기 국면에 있다”고 분석.
‒ 17세기 네덜란드 튤립, 1720년 남해·미시시피, 1840년대 철도, 1990년대 닷컴처럼, AI 역시 ‘세상을 바꿀 기술’이라는 단순하고 매혹적인 서사가 대중 심리를 자극하고 있음.
‒ 기술의 파괴력은 크지만 미래 수익 불확실성이 극단적으로 높고, 투자자들은 수익성보다 ‘규모 경쟁(AGI 레이스)’에 몰입 중.
‒ 대형 기술사들은 CapEx를 EBITDA의 60~80% 수준까지 끌어올리며 “디지털 신(Digital God)” 구축을 위해 무차별적 투자를 단행 중.
‒ 과거 Cisco가 닷컴 시절 네트워크 장비로 수익을 냈지만, 2000년 고점 매수자는 20년이 지나도 손실을 만회하지 못했듯, AI 인프라 기업들의 실질적 수익화 시점이 예상보다 훨씬 늦을 수 있음.
‒ 과거 사례상 버블의 정점은 중앙은행의 ‘매파 전환(hawkish pivot)’ 시점과 일치.
‒ 1845년 영국철도 버블은 금리 100bp 인상 직후 붕괴, 1929년 Fed의 6% 인상 전환, 2000년 그린스펀의 ‘부의효과(wealth effect)’ 통제 시도가 모두 시장 붕괴로 이어짐.
‒ 현재 트럼프 정부는 완화정책을 지속하겠다는 입장이지만, TS Lombard는 “이민 제한으로 공급이 억제된 미국 경제는 2026년에 다시 인플레 재상승 리스크가 있다”고 경고.
‒ 만약 채권시장이 Fed의 독립성에 의문을 제기하면, 시장발 긴축(금리 상승, 프리미엄 확대)이 버블의 ‘마지막 방아쇠’가 될 수 있음.
‒ Perkins는 “현 사이클은 남은 12개월 내 정점을 찍을 확률이 높다”고 언급.
‒ (1) 통화긴축: 예상 밖 인플레이션 반등이나 채권시장 불안이 Fed를 매파로 전환시키면, 과거 모든 버블처럼 급격한 조정 가능.
‒ (2) 실적 실망: NVIDIA·TSMC·마이크로소프트 등 핵심 기업의 매출 성장 둔화 시점이 버블의 ‘현실 점검’ 계기. 데이터센터 CapEx가 2025 수준에서 멈추면 NVIDIA 매출도 정체될 수 있음.
‒ (3) 내부자 매도(Insider selling): 1720년 남해·미시시피 버블 당시 경영진은 정점에 자사주를 매도했고, 닷컴 버블 당시 락업 해제(1999~2000년) 이후 대규모 매도가 급락을 유발함. NVIDIA는 2024년 이후 내부자 매도 지속 중이며, OpenAI 직원들도 최근 매각 기회를 일부 활용.
‒ (4) 벤더 파이낸싱(Vendor Financing): NVIDIA가 클라우드 기업에 칩을 판매 후 리스 형태로 되사들이거나, 마이크로소프트가 OpenAI에 컴퓨팅을 ‘판매하고 지분으로 보상받는’ 구조가 확산. 이는 과거 Cisco·WorldCom이 닷컴 정점에서 했던 회계 왜곡 구조와 유사함.
‒ (5) 개인투자자 과열(Dumb Money): 해방일(Liberation Day) 이후 개인투자자의 대형 기술주 매수가 폭발적 증가. 기관은 신중한 반면, 리테일 자금이 후반부 버블의 주도세력으로 부상.
‒ (6) 사기(Fraud): 버블 말기엔 회계조작·부당거래 빈발. 남해버블의 뇌물, 1849년 철도버블의 ‘허위배당’, 닷컴의 엔론·월드컴 사례처럼 ‘숫자 맞추기’가 시작되면 말기 신호.
‒ (7) 거래량 감소(Volume Peak): 버블 중반엔 거래량 급증, 후반엔 피로감으로 급감. 거래량 둔화는 버블의 ‘피크 전조’로 평가.
‒ Perkins는 “완화정책이 버블을 만드는 게 아니라, 중앙은행의 타이밍이 붕괴를 만든다”고 분석.
‒ 금본위제 시대에도 버블은 존재했고, 자금유동성보단 ‘리스크 감수 성향과 기대 수익률의 변동’이 핵심 요인.
‒ 결국 정책금리 자체보다 금융시스템의 레버리지와 자산가격 간 선순환이 얼마나 길게 지속되는가가 중요.
‒ 이 선순환이 한계에 도달하면, 중앙은행의 조그만 긴축만으로도 시스템이 급격히 수축.
‒ Dotcom 당시 실질금리는 오히려 높았지만, 기대수익률 하락이 버블 붕괴를 촉발했음.
‒ AI 버블은 아직까지는 비(非)레버리지형 자산버블, 즉 금융시스템 위험은 낮은 편.
‒ 그러나 CapEx가 점차 사모신용시장(private credit)으로 이동하고 있어, 향후 몇 년간 ‘그림자 레버리지’ 확산 가능성 경고.
‒ 과거 사례처럼 실물투자 규모가 GDP 대비 일정 수준을 넘어서면, 붕괴 시 고용·소비·신용순환에 연쇄 충격.
‒ 현재 미국 디지털경제 투자 비중은 GDP의 3.4%로, 1999년 통신투자 정점(3.2%)과 유사한 수준.
‒ Perkins는 “지금은 2000년과 비슷한 시점이지만, 금융 시스템의 복잡성은 2008년보다 높다”고 지적.
‒ 단기(2025~26): 시장은 여전히 확장 국면이지만, 인플레 반등·Fed 긴축·CapEx 둔화가 맞물릴 경우 급전환 위험.
‒ 중기(2027~29): CapEx의 부채화, 민간 신용시장 확대, 벤더파이낸싱 심화 시 ‘시스테믹 리스크’ 가능.
‒ Perkins는 “AI 버블이 1년 내 꺼지면 시스템 충격은 제한적이지만, 3~4년 더 지속될 경우 2008년형 위기 가능성”을 언급함.
‒ 그는 “현재의 과열은 1999년 닷컴보단 1845년 철도버블과 유사하다”고 평가 – 막대한 자본투입은 인프라를 남기지만, 투자수익은 남기지 않는다.
‒ TS Lombard는 “AI 버블 붕괴가 닷컴보다 시스템 충격은 작고, 경기 충격은 완만할 것”으로 전망.
‒ 현재 AI 투자가 GDP 성장의 대부분을 차지한다는 주장은 과장으로, AI 투자 축소 시 미국 경제는 완만한 침체(mild recession) 가능성.
‒ 다만 레버리지 증가와 CapEx의 비공개화가 빠르게 진행될 경우, 사모시장 내 신용 리스크가 폭발할 수 있음.
‒ Perkins는 “AI 붕괴는 ‘Old Testament 스타일(1873년·1929년·2008년급)’ 위기보다는, ‘시장 밸류 조정형’ 조정일 가능성이 높다”고 평가.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 카이에 de market
"SK하이닉스가 PER 7배라는게 정말인가요?"
- "다음 1조달러가 될 주식"
- "사실입니다. 하지만 미국인들은 젠장 살 수가 없어요"
- "다음 1조달러가 될 주식"
- "사실입니다. 하지만 미국인들은 젠장 살 수가 없어요"