Gromit 공부방
ClusterMAX 2.0 Rankings & Market View
ClusterMAX™ 2.0: The Industry Standard GPU Cloud Rating System
✅ AI 인프라의 ‘표준 지침서’로 자리 잡은 ClusterMAX 2.0
‒ GPU 클라우드(‘Neocloud’)는 AI 학습·추론의 핵심 인프라로, AI 붐 속에서 가장 중요한 거래 플랫폼으로 부상.
‒ SemiAnalysis가 발표한 ClusterMAX 2.0은 전 세계 209개 클라우드 사업자 중 84곳을 직접 평가했으며, 140개 이상의 엔터프라이즈·AI 스타트업 이용자를 인터뷰함.
‒ 평가 기준은 10개 핵심 카테고리(보안, 수명주기, 오케스트레이션, 스토리지, 네트워크, 신뢰성, 모니터링, 가격, 파트너십, 가용성)이며, GPU 클라우드 서비스의 기술 완성도와 운영 품질을 종합적으로 등급화.
‒ ClusterMAX는 독립된 제3자 기준으로 인정받으며, 실제 AI 연구소·하이퍼스케일러들의 구매·계약 의사결정에 반영되는 사실상 산업 표준으로 자리.
‒ 전작 1.0 발표 이후 6개월 만에 평가 대상이 26곳→84곳으로 세 배 이상 확대되며, 시장 커버리지가 95%까지 확대됨.
✅ CoreWeave, 유일한 Platinum 등급 — 업계의 품질 벤치마크
‒ CoreWeave는 ClusterMAX 2.0에서 유일하게 Platinum Tier를 유지하며, “기술·신뢰성·서비스 품질 모든 면에서 업계 표준을 제시하는 사업자”로 평가.
‒ CoreWeave는 자체 개발한 SUNK(Slurm on Kubernetes) 기술을 통해 SLURM·Kubernetes 혼합 환경을 완벽히 통합했고, 사용자 접근성·자동화된 헬스체크·성능 모니터링 모두 최상급 수준.
‒ Gold Tier에는 Nebius, Oracle, Azure, Crusoe, Fluidstack이 포함되며, 이들 사업자는 기능·성능이 우수하나 일부 자동화나 지원 품질에서 간헐적 불안정성 존재.
‒ Silver Tier에는 Google, AWS, Together.ai, Lambda가 포함되어 있으나, Kubernetes 기반 트레이닝 환경이나 네트워크 성능에서 상위 티어 대비 개선 여지가 있음.
‒ Bronze Tier 이하에서는 관리형 모니터링, SLURM 구성, Health Check 부재 등으로 실사용자 만족도가 급격히 떨어짐.
✅ ClusterMAX 평가체계: 단순 가격이 아닌 운영 효율성과 안정성 중심
‒ GPU당 시간단가($/GPU-hr)는 하나의 지표일 뿐, 실제 평가는 신뢰성·보안·자동화 수준 등 종합 점수로 결정됨.
‒ SemiAnalysis는 각 클라우드를 동일 워크로드 환경에서 5일간 직접 테스트하며, SLURM과 Kubernetes 환경의 네트워크 설정·GPU Direct RDMA 활성화 여부까지 점검.
‒ 테스트 항목에는 PyTorch 설치속도, NGC 컨테이너 다운로드(22GB), NCCL 성능, Hugging Face 모델(15B 파라미터) 다운로드 및 GPU 메모리 로드 속도 등이 포함.
‒ CoreWeave는 PyTorch 설치 3.2초, 컨테이너 풀링 10초 이내로 완료하며 최상위권을 기록했으나, Bronze급 사업자는 4분 이상 소요.
‒ 네트워크 속도 테스트에서 상위권 사업자는 6Gbps 이상 WAN 대역폭을 안정적으로 유지했으나, 하위 사업자는 트래픽 셰이핑으로 실제 성능이 크게 저하됨.
✅ 10개 평가항목 상세 구조: GPU 클라우드의 품질체계를 구체화
‒ 보안(Security): SOC2 Type II, ISO27001 인증, 멀티테넌시 네트워크 격리(InfiniBand Pkey/VLAN) 및 취약점 패치 프로세스.
‒ 수명주기(Lifecycle): 클러스터 생성·확장·철회 간소화, 지원 대응 속도, 숨은 비용 여부, 업로드/다운로드 효율.
‒ 오케스트레이션(Orchestration): SLURM 구성 정확성(pyxis/enroot, hpcx, RDMA, prolog/epilog 등)과 Kubernetes 연동(kubeconfig, Helm, GPUOperator, StorageClass 등).
‒ 스토리지(Storage): POSIX 호환(Weka, VAST 등), S3 호환 오브젝트 스토리지, 캐싱 로컬 드라이브, 멀티노드 확장성.
‒ 네트워크(Networking): InfiniBand·RoCEv2 지원, NCCL·RCCL 성능, SHARP 기능, NCCL 모니터링·straggler 감지.
‒ 신뢰성(Reliability): 99.9% 노드 가동률, 24x7 지원, GPU/CPU 에러 감지·자동 드레인 시스템, 링크 안정성.
‒ 모니터링(Monitoring): Grafana 기반 실시간 대시보드, DCGM 통합, TFLOPs·SM Active·PCIe·NVLink·온도 등 세부 항목 모니터링.
‒ 가격(Pricing): GPU-hr 단가, 소비모델(월·분기·연간 계약), 네트워크/스토리지 비용, 확장 옵션 등 종합 비교.
‒ 파트너십(Partnership): NVIDIA NCP·SchedMD 협력 여부, AMD Cloud Alliance 참여, 산업행사 참여도.
‒ 가용성(Availability): GPU 수량·온디맨드 접근성·최신 모델(H100·H200·B200·MI300X 등) 확보율.
✅ 핵심 기술 트렌드: Slurm-on-Kubernetes, Bare Metal vs VM, Blackwell 전환
‒ CoreWeave의 SUNK, Nebius의 SOperator, SchedMD의 Slinky 세 가지 모델이 시장 표준으로 부상.
‒ SUNK는 유일하게 SLURM과 Kubernetes 워크로드를 동일 클러스터에서 병행 운용 가능, 자동화 수준이 가장 높음.
‒ SOperator는 KubeVirt 기반으로, 보안적 장점(하이퍼바이저 수준 격리)을 가지지만 유연성은 낮음.
‒ Bare Metal(직접접속형)과 VM 기반(경량화 하이퍼바이저형)의 경계가 희미해지며, 성능 격차보다 관리철학이 경쟁 요인이 됨.
‒ Blackwell(GB200 NVL72) 세대 도입으로 노드가 아닌 랙 단위로 장애를 정의하는 구조 전환이 일어남.
‒ NVL36x2 구조는 백플레인·ACC 케이블 신호무결성 문제로 안정성 저하, 이를 해결하기 위해 NVIDIA가 Firmware 1.3을 긴급 배포.
‒ 상위 사업자(CoreWeave, Oracle)는 이미 랙 단위 SLA(99%)를 제공하며, NVL72 교체·리페어 프로세스 자동화 시스템 구축 중.
✅ AMD 대비 NVIDIA 생태계의 품질 격차 지속
‒ NVIDIA 기반 클라우드는 SLURM·RDMA·NCCL 최적화 등 엔터프라이즈 스택과 완전 호환되는 반면, AMD는 모니터링 및 커널 관리 도구 미비로 품질 격차 큼.
‒ 일부 사업자가 AMD GPU 인프라를 병행 도입했지만, 성능·안정성·도구 지원 부족으로 상용화 비중은 여전히 제한적.
✅ 시장 영향력 및 산업 반응
‒ OpenAI, Meta, Dell, Supermicro, Snowflake 등 주요 AI 인프라 기업들이 ClusterMAX를 “GPU 클라우드 계약의 사실상 기준”으로 인정.
‒ 특히 OpenAI는 Stargate 프로젝트의 클라우드 계약 시 ClusterMAX 지표를 직접 참고하며, Meta·HPE 등도 내부 벤치마크 도입 중.
‒ 브룩필드·Altimeter 등 기관투자자들도 GPU 클라우드 평가의 공정 기준으로 ClusterMAX 데이터를 활용.
‒ SemiAnalysis는 향후 6개월 단위로 ClusterMAX 3.0을 업데이트해 Blackwell 이후 세대(GB300, MI450X 등)를 반영할 예정.
‒ GPU 클라우드(‘Neocloud’)는 AI 학습·추론의 핵심 인프라로, AI 붐 속에서 가장 중요한 거래 플랫폼으로 부상.
‒ SemiAnalysis가 발표한 ClusterMAX 2.0은 전 세계 209개 클라우드 사업자 중 84곳을 직접 평가했으며, 140개 이상의 엔터프라이즈·AI 스타트업 이용자를 인터뷰함.
‒ 평가 기준은 10개 핵심 카테고리(보안, 수명주기, 오케스트레이션, 스토리지, 네트워크, 신뢰성, 모니터링, 가격, 파트너십, 가용성)이며, GPU 클라우드 서비스의 기술 완성도와 운영 품질을 종합적으로 등급화.
‒ ClusterMAX는 독립된 제3자 기준으로 인정받으며, 실제 AI 연구소·하이퍼스케일러들의 구매·계약 의사결정에 반영되는 사실상 산업 표준으로 자리.
‒ 전작 1.0 발표 이후 6개월 만에 평가 대상이 26곳→84곳으로 세 배 이상 확대되며, 시장 커버리지가 95%까지 확대됨.
‒ CoreWeave는 ClusterMAX 2.0에서 유일하게 Platinum Tier를 유지하며, “기술·신뢰성·서비스 품질 모든 면에서 업계 표준을 제시하는 사업자”로 평가.
‒ CoreWeave는 자체 개발한 SUNK(Slurm on Kubernetes) 기술을 통해 SLURM·Kubernetes 혼합 환경을 완벽히 통합했고, 사용자 접근성·자동화된 헬스체크·성능 모니터링 모두 최상급 수준.
‒ Gold Tier에는 Nebius, Oracle, Azure, Crusoe, Fluidstack이 포함되며, 이들 사업자는 기능·성능이 우수하나 일부 자동화나 지원 품질에서 간헐적 불안정성 존재.
‒ Silver Tier에는 Google, AWS, Together.ai, Lambda가 포함되어 있으나, Kubernetes 기반 트레이닝 환경이나 네트워크 성능에서 상위 티어 대비 개선 여지가 있음.
‒ Bronze Tier 이하에서는 관리형 모니터링, SLURM 구성, Health Check 부재 등으로 실사용자 만족도가 급격히 떨어짐.
‒ GPU당 시간단가($/GPU-hr)는 하나의 지표일 뿐, 실제 평가는 신뢰성·보안·자동화 수준 등 종합 점수로 결정됨.
‒ SemiAnalysis는 각 클라우드를 동일 워크로드 환경에서 5일간 직접 테스트하며, SLURM과 Kubernetes 환경의 네트워크 설정·GPU Direct RDMA 활성화 여부까지 점검.
‒ 테스트 항목에는 PyTorch 설치속도, NGC 컨테이너 다운로드(22GB), NCCL 성능, Hugging Face 모델(15B 파라미터) 다운로드 및 GPU 메모리 로드 속도 등이 포함.
‒ CoreWeave는 PyTorch 설치 3.2초, 컨테이너 풀링 10초 이내로 완료하며 최상위권을 기록했으나, Bronze급 사업자는 4분 이상 소요.
‒ 네트워크 속도 테스트에서 상위권 사업자는 6Gbps 이상 WAN 대역폭을 안정적으로 유지했으나, 하위 사업자는 트래픽 셰이핑으로 실제 성능이 크게 저하됨.
‒ 보안(Security): SOC2 Type II, ISO27001 인증, 멀티테넌시 네트워크 격리(InfiniBand Pkey/VLAN) 및 취약점 패치 프로세스.
‒ 수명주기(Lifecycle): 클러스터 생성·확장·철회 간소화, 지원 대응 속도, 숨은 비용 여부, 업로드/다운로드 효율.
‒ 오케스트레이션(Orchestration): SLURM 구성 정확성(pyxis/enroot, hpcx, RDMA, prolog/epilog 등)과 Kubernetes 연동(kubeconfig, Helm, GPUOperator, StorageClass 등).
‒ 스토리지(Storage): POSIX 호환(Weka, VAST 등), S3 호환 오브젝트 스토리지, 캐싱 로컬 드라이브, 멀티노드 확장성.
‒ 네트워크(Networking): InfiniBand·RoCEv2 지원, NCCL·RCCL 성능, SHARP 기능, NCCL 모니터링·straggler 감지.
‒ 신뢰성(Reliability): 99.9% 노드 가동률, 24x7 지원, GPU/CPU 에러 감지·자동 드레인 시스템, 링크 안정성.
‒ 모니터링(Monitoring): Grafana 기반 실시간 대시보드, DCGM 통합, TFLOPs·SM Active·PCIe·NVLink·온도 등 세부 항목 모니터링.
‒ 가격(Pricing): GPU-hr 단가, 소비모델(월·분기·연간 계약), 네트워크/스토리지 비용, 확장 옵션 등 종합 비교.
‒ 파트너십(Partnership): NVIDIA NCP·SchedMD 협력 여부, AMD Cloud Alliance 참여, 산업행사 참여도.
‒ 가용성(Availability): GPU 수량·온디맨드 접근성·최신 모델(H100·H200·B200·MI300X 등) 확보율.
‒ CoreWeave의 SUNK, Nebius의 SOperator, SchedMD의 Slinky 세 가지 모델이 시장 표준으로 부상.
‒ SUNK는 유일하게 SLURM과 Kubernetes 워크로드를 동일 클러스터에서 병행 운용 가능, 자동화 수준이 가장 높음.
‒ SOperator는 KubeVirt 기반으로, 보안적 장점(하이퍼바이저 수준 격리)을 가지지만 유연성은 낮음.
‒ Bare Metal(직접접속형)과 VM 기반(경량화 하이퍼바이저형)의 경계가 희미해지며, 성능 격차보다 관리철학이 경쟁 요인이 됨.
‒ Blackwell(GB200 NVL72) 세대 도입으로 노드가 아닌 랙 단위로 장애를 정의하는 구조 전환이 일어남.
‒ NVL36x2 구조는 백플레인·ACC 케이블 신호무결성 문제로 안정성 저하, 이를 해결하기 위해 NVIDIA가 Firmware 1.3을 긴급 배포.
‒ 상위 사업자(CoreWeave, Oracle)는 이미 랙 단위 SLA(99%)를 제공하며, NVL72 교체·리페어 프로세스 자동화 시스템 구축 중.
‒ NVIDIA 기반 클라우드는 SLURM·RDMA·NCCL 최적화 등 엔터프라이즈 스택과 완전 호환되는 반면, AMD는 모니터링 및 커널 관리 도구 미비로 품질 격차 큼.
‒ 일부 사업자가 AMD GPU 인프라를 병행 도입했지만, 성능·안정성·도구 지원 부족으로 상용화 비중은 여전히 제한적.
‒ OpenAI, Meta, Dell, Supermicro, Snowflake 등 주요 AI 인프라 기업들이 ClusterMAX를 “GPU 클라우드 계약의 사실상 기준”으로 인정.
‒ 특히 OpenAI는 Stargate 프로젝트의 클라우드 계약 시 ClusterMAX 지표를 직접 참고하며, Meta·HPE 등도 내부 벤치마크 도입 중.
‒ 브룩필드·Altimeter 등 기관투자자들도 GPU 클라우드 평가의 공정 기준으로 ClusterMAX 데이터를 활용.
‒ SemiAnalysis는 향후 6개월 단위로 ClusterMAX 3.0을 업데이트해 Blackwell 이후 세대(GB300, MI450X 등)를 반영할 예정.
Please open Telegram to view this post
VIEW IN TELEGRAM
» ClusterMAX는 단순한 기술리포트가 아니라, 클라우드 생태계의 품질 표준이자 RPO 계약 지표로 작동.
» CoreWeave는 관리형 GPU 클라우드의 최고 모델로, 기술적 완성도와 운영자동화 수준에서 압도적 격차를 유지 중.
» NVL72 랙 스케일 시대에 들어서며, GPU 클라우드는 하드웨어보다 운영신뢰성·모니터링 인프라가 경쟁력의 핵심으로 부상.
» AMD는 성능·비용 경쟁력은 확보했으나, SLURM/Kubernetes 완성도에서 여전히 후행 중.
» 장기적으로는 Blackwell·MI400 세대 전환과 랙 단위 SLA·자동화 유지보수 기술이 상위 티어 사업자의 핵심 차별화 요소가 될 전망.
» GPU 클라우드 시장은 이미 ‘가격경쟁’에서 ‘품질·운영효율 경쟁’ 시대로 진입했으며, CoreWeave·Oracle·Nebius 등이 이 질서를 이끌고 있음.
source: SemiAnalysis
Please open Telegram to view this post
VIEW IN TELEGRAM
Semianalysis
ClusterMAX™ 2.0: The Industry Standard GPU Cloud Rating System
95% Coverage By Volume, 84 Providers Rated, 209 Providers Tracked, 140+ Customers Surveyed, 46,000 Words For Your Enjoyment
Gromit 공부방
Photo
Thoughts on the Hyperscalers (Q3 '25 Update)
✅ AI 파운데이션 모델 기업이 클라우드 가치사슬의 중심으로 부상
‒ 불과 2년 전까지만 해도 OpenAI는 연구 중심 스타트업이었으나, 현재는 하이퍼스케일러들과 초대형 계약을 맺으며 클라우드 산업 구조를 완전히 바꿔놓음.
‒ OpenAI는 Microsoft(2,500억달러), Oracle(3,000억달러), Amazon(380억달러), Google, Nvidia(1,000억달러), AMD 등과 잇따라 초대형 협약 체결.
‒ Anthropic 또한 Google과 전략적 협력, Amazon으로부터 수십억달러 규모 데이터센터 투자를 유도하며 핵심 파트너로 부상.
‒ 이로써 OpenAI와 Anthropic은 ‘AI 인프라 중심의 새로운 가치사슬(Greenfield Value Chain)’을 창출했고, 하이퍼스케일러들은 이제 이들에게 매출과 성장의 상당 부분을 의존하는 구조로 전환됨.
‒ 기존에는 클라우드가 수십만 중소고객에게 서비스를 분산 제공하는 구조였지만, 이제는 OpenAI·Anthropic이라는 소수 초대형 고객 중심의 집중 구조로 바뀌며, 파워 밸런스가 하이퍼스케일러에서 AI 기업 쪽으로 이동함.
✅ AI 수요 폭증으로 클라우드 시장이 다시 성장국면 진입
‒ AWS는 Anthropic과의 파트너십을 계기로 매출 성장률이 뚜렷하게 반등함. 3Q25 기준 매출 러닝레이트는 1,320억달러에 달하며, 여전히 YoY 성장세를 유지.
‒ Semianalysis에 따르면 AWS는 현재 앵커 고객(Anthropic)을 위해 1GW 이상의 데이터센터 용량을 신규로 건설 중이며, 이는 역사상 가장 빠른 속도임.
‒ Google Cloud 또한 Anthropic 관련 수요가 본격 반영되며 백로그가 전년 대비 82% 증가한 1,550억달러에 달함.
‒ Microsoft Azure는 OpenAI의 트레이닝 및 추론 워크로드 유입으로 수십억달러 규모의 신규 매출 창출. Azure의 최근 점유율 확대 대부분이 OpenAI 영향으로 분석.
‒ 결과적으로, OpenAI·Anthropic의 AI 수요는 클라우드 역사상 가장 큰 신규 매출 풀을 형성했고, “AI가 클라우드 시장의 2차 성장 엔진이 된 첫 분기”라는 평가가 나옴.
✅ 하이퍼스케일러 CapEx 폭증 — ‘용량부족(capacity constraint)’이 여전한 상황
‒ 3Q25 기준 4대 하이퍼스케일러(MS·AMZN·GOOG·META)의 총 CapEx는 1,000억달러에 근접.
‒ Microsoft의 리스 형태 CapEx(데이터센터 임대 포함)는 110억달러 이상으로, 실제 투자액은 이를 훨씬 상회.
‒ AWS·Google·Oracle 모두 전력 인프라와 부지 확보에 경쟁적으로 투자 중이며, GPU·CPU·냉각·전력망 확보전이 심화.
‒ 현재까지의 투자 속도는 팬데믹 이후 클라우드 붐 때보다 훨씬 빠르며, AI 인프라 수요를 충족시키기 위한 ‘초과투자 국면’ 진입.
‒ 다만 Sam Altman은 “2~3년 내 과잉공급(glut)이 올 수 있다. 하지만 지금은 수요가 공급을 초과하고 있으며, 이 과정에서 여러 번의 미니버블이 생길 것”이라 언급.
✅ RPO(잔여계약의무) 급증 — 4사 총합 1.2조달러 규모
‒ Oracle: 4,550억달러(+359%, 달러 및 고정환율 기준 동일 증가율)
‒ Microsoft: 4,000억달러(+50%), 상업용 RPO의 평균 만기는 약 2년으로 짧아 빠른 매출 전환 가능
‒ Google Cloud: 1,550억달러(+82% YoY, +46% QoQ), AI·SaaS 관련 수주 급증
‒ Amazon: 2,000억달러로 추정되며, 10월 이후 미공개 신규 계약을 포함하면 3Q 전체 계약규모를 상회
‒ 이들 총합 약 1.2조달러로 사상 최대치. 이는 클라우드 산업 역사상 최대 규모의 백로그이며, 현재 공급보다 수요가 압도적으로 큰 상태.
‒ 하이퍼스케일러는 수요-공급 균형이 맞춰질 때까지 CapEx를 지속 확대할 것으로 전망.
✅ Microsoft: 리스크 최소화하며 구조적 수요 포착 전략
‒ 사티아 나델라는 “GPU·CPU 모두 단수명(short-lived) 자산 투자로 회계상 리스크를 최소화하고, 리스 중심으로 장기 부채를 줄이고 있다”고 언급.
‒ 이는 ‘AI 버블 논란’ 속에서도 Microsoft가 밸런스시트 안정성을 유지하면서 AI 수요를 선제적으로 흡수하는 전략.
‒ 실제로 Microsoft는 AI 인프라 투자에서 15~20년 수명의 데이터센터 자산과 1~3년 수명의 GPU 자산을 병행 운용하며, 자본구조 유연성을 확보.
‒ 나델라는 “몇 분기 동안 공급부족 상태가 지속되고 있으며, 오히려 수요가 더 빠르게 증가 중”이라고 언급, 당분간 추가 CapEx 확대를 시사.
‒ 또한 “OpenAI가 요청한 단일 지역 내 멀티 기가와트급 전용 클러스터는 Azure 장기 인프라 설계에 비효율적이라 일부 거절했다”고 언급 — 이는 Oracle이 수용한 것으로 해석됨.
✅ Oracle: 레버리지를 통한 ‘클라우드 4강 진입’ 도전
‒ Oracle은 OpenAI와의 대규모 계약으로 4,550억달러 규모의 RPO를 확보하며, 클라우드 3강(MS·GOOG·AMZN)에 도전 중.
‒ 문제는 현금흐름으로 이를 감당하기 어렵다는 점. Oracle은 수십~수백억달러 규모의 부채와 주식 발행을 통해 AI 인프라 투자를 추진 중.
‒ 이는 기존 하이퍼스케일러들이 ‘현금흐름 기반 자기자본 투자’를 유지하는 것과 달리, ‘레버리지 전략으로 시장지위를 재정립’하려는 시도.
‒ Doug O’Laughlin은 “Oracle은 단순한 기대수익(Expected Value) 계산이 아니라, 지위 상승에서 오는 기대효용(Expected Utility)을 선택했다”고 평가.
‒ 즉, 이미 시장점유율이 높은 MS·GOOG·AMZN은 추가 위험 감수로 얻을 효용이 크지 않지만, Oracle은 성공 시 ‘4대 클라우드 벤더’로 격상되는 효용이 매우 큼.
‒ Larry Ellison은 “안전하게 4위로 남는 것보다, 리스크를 감수해 상위권에 진입할 수 있다면 그 베팅을 항상 할 것”이라는 입장을 명확히 함.
✅ Foundation Model 수요가 시장점유율 변화의 핵심 요인으로 작용 중
‒ 최근 4분기 기준 신규 클라우드 매출 증가분 중 상당 부분이 AI 파운데이션 모델 고객에서 발생.
‒ Azure는 OpenAI 수요 덕에 순증매출 점유율이 급상승, AWS는 Anthropic 수요로 점유율 회복세, Google도 Anthropic 효과가 가시화.
‒ 특히 OpenAI와 Anthropic이 제공하는 ‘트레이닝·추론 수요’는 GPU·스토리지·네트워크 전반에 걸쳐 장기적인 매출 지속성을 보장.
‒ 다만 각사가 확보한 매출의 ‘수익성 구조’는 차이가 있음. Microsoft는 수익성 높은 하이브리드형 모델(자체 AI 서비스 + Azure 인프라)을, Oracle은 낮은 마진의 인프라형 모델을 선택.
‒ 결국 시장점유율 경쟁은 단기 매출보다 “수익성과 내구성을 갖춘 매출을 얼마나 확보하느냐”로 귀결될 전망.
💡 정리: AI 파운데이션 모델이 하이퍼스케일러의 성장축을 완전히 재편 중
» OpenAI·Anthropic 중심의 ‘AI 중심 가치사슬’이 등장하며, 클라우드 기업이 AI 기업의 공급망 하위단으로 재배치됨.
» 하이퍼스케일러 CapEx는 1,000억달러를 돌파했고, RPO는 1.2조달러로 사상 최고. 수요 초과 상태는 최소 2026년까지 지속될 가능성.
» Microsoft는 리스크 통제형 선제투자, Amazon·Google은 파트너 확장형, Oracle은 레버리지형 고위험 전략으로 포지션 구분.
» 단기적으로 과잉투자 가능성이 있으나, 중장기적으로는 AI 트레이닝·추론·에이전트 워크로드가 이를 흡수할 전망.
» 향후 2~3년간 클라우드 시장 경쟁의 본질은 ‘규모의 경쟁’에서 ‘전략적 동맹·자본 구조·리스크 감내력’으로 진화할 것으로 보임.
source: Generative Value
‒ 불과 2년 전까지만 해도 OpenAI는 연구 중심 스타트업이었으나, 현재는 하이퍼스케일러들과 초대형 계약을 맺으며 클라우드 산업 구조를 완전히 바꿔놓음.
‒ OpenAI는 Microsoft(2,500억달러), Oracle(3,000억달러), Amazon(380억달러), Google, Nvidia(1,000억달러), AMD 등과 잇따라 초대형 협약 체결.
‒ Anthropic 또한 Google과 전략적 협력, Amazon으로부터 수십억달러 규모 데이터센터 투자를 유도하며 핵심 파트너로 부상.
‒ 이로써 OpenAI와 Anthropic은 ‘AI 인프라 중심의 새로운 가치사슬(Greenfield Value Chain)’을 창출했고, 하이퍼스케일러들은 이제 이들에게 매출과 성장의 상당 부분을 의존하는 구조로 전환됨.
‒ 기존에는 클라우드가 수십만 중소고객에게 서비스를 분산 제공하는 구조였지만, 이제는 OpenAI·Anthropic이라는 소수 초대형 고객 중심의 집중 구조로 바뀌며, 파워 밸런스가 하이퍼스케일러에서 AI 기업 쪽으로 이동함.
‒ AWS는 Anthropic과의 파트너십을 계기로 매출 성장률이 뚜렷하게 반등함. 3Q25 기준 매출 러닝레이트는 1,320억달러에 달하며, 여전히 YoY 성장세를 유지.
‒ Semianalysis에 따르면 AWS는 현재 앵커 고객(Anthropic)을 위해 1GW 이상의 데이터센터 용량을 신규로 건설 중이며, 이는 역사상 가장 빠른 속도임.
‒ Google Cloud 또한 Anthropic 관련 수요가 본격 반영되며 백로그가 전년 대비 82% 증가한 1,550억달러에 달함.
‒ Microsoft Azure는 OpenAI의 트레이닝 및 추론 워크로드 유입으로 수십억달러 규모의 신규 매출 창출. Azure의 최근 점유율 확대 대부분이 OpenAI 영향으로 분석.
‒ 결과적으로, OpenAI·Anthropic의 AI 수요는 클라우드 역사상 가장 큰 신규 매출 풀을 형성했고, “AI가 클라우드 시장의 2차 성장 엔진이 된 첫 분기”라는 평가가 나옴.
‒ 3Q25 기준 4대 하이퍼스케일러(MS·AMZN·GOOG·META)의 총 CapEx는 1,000억달러에 근접.
‒ Microsoft의 리스 형태 CapEx(데이터센터 임대 포함)는 110억달러 이상으로, 실제 투자액은 이를 훨씬 상회.
‒ AWS·Google·Oracle 모두 전력 인프라와 부지 확보에 경쟁적으로 투자 중이며, GPU·CPU·냉각·전력망 확보전이 심화.
‒ 현재까지의 투자 속도는 팬데믹 이후 클라우드 붐 때보다 훨씬 빠르며, AI 인프라 수요를 충족시키기 위한 ‘초과투자 국면’ 진입.
‒ 다만 Sam Altman은 “2~3년 내 과잉공급(glut)이 올 수 있다. 하지만 지금은 수요가 공급을 초과하고 있으며, 이 과정에서 여러 번의 미니버블이 생길 것”이라 언급.
‒ Oracle: 4,550억달러(+359%, 달러 및 고정환율 기준 동일 증가율)
‒ Microsoft: 4,000억달러(+50%), 상업용 RPO의 평균 만기는 약 2년으로 짧아 빠른 매출 전환 가능
‒ Google Cloud: 1,550억달러(+82% YoY, +46% QoQ), AI·SaaS 관련 수주 급증
‒ Amazon: 2,000억달러로 추정되며, 10월 이후 미공개 신규 계약을 포함하면 3Q 전체 계약규모를 상회
‒ 이들 총합 약 1.2조달러로 사상 최대치. 이는 클라우드 산업 역사상 최대 규모의 백로그이며, 현재 공급보다 수요가 압도적으로 큰 상태.
‒ 하이퍼스케일러는 수요-공급 균형이 맞춰질 때까지 CapEx를 지속 확대할 것으로 전망.
‒ 사티아 나델라는 “GPU·CPU 모두 단수명(short-lived) 자산 투자로 회계상 리스크를 최소화하고, 리스 중심으로 장기 부채를 줄이고 있다”고 언급.
‒ 이는 ‘AI 버블 논란’ 속에서도 Microsoft가 밸런스시트 안정성을 유지하면서 AI 수요를 선제적으로 흡수하는 전략.
‒ 실제로 Microsoft는 AI 인프라 투자에서 15~20년 수명의 데이터센터 자산과 1~3년 수명의 GPU 자산을 병행 운용하며, 자본구조 유연성을 확보.
‒ 나델라는 “몇 분기 동안 공급부족 상태가 지속되고 있으며, 오히려 수요가 더 빠르게 증가 중”이라고 언급, 당분간 추가 CapEx 확대를 시사.
‒ 또한 “OpenAI가 요청한 단일 지역 내 멀티 기가와트급 전용 클러스터는 Azure 장기 인프라 설계에 비효율적이라 일부 거절했다”고 언급 — 이는 Oracle이 수용한 것으로 해석됨.
‒ Oracle은 OpenAI와의 대규모 계약으로 4,550억달러 규모의 RPO를 확보하며, 클라우드 3강(MS·GOOG·AMZN)에 도전 중.
‒ 문제는 현금흐름으로 이를 감당하기 어렵다는 점. Oracle은 수십~수백억달러 규모의 부채와 주식 발행을 통해 AI 인프라 투자를 추진 중.
‒ 이는 기존 하이퍼스케일러들이 ‘현금흐름 기반 자기자본 투자’를 유지하는 것과 달리, ‘레버리지 전략으로 시장지위를 재정립’하려는 시도.
‒ Doug O’Laughlin은 “Oracle은 단순한 기대수익(Expected Value) 계산이 아니라, 지위 상승에서 오는 기대효용(Expected Utility)을 선택했다”고 평가.
‒ 즉, 이미 시장점유율이 높은 MS·GOOG·AMZN은 추가 위험 감수로 얻을 효용이 크지 않지만, Oracle은 성공 시 ‘4대 클라우드 벤더’로 격상되는 효용이 매우 큼.
‒ Larry Ellison은 “안전하게 4위로 남는 것보다, 리스크를 감수해 상위권에 진입할 수 있다면 그 베팅을 항상 할 것”이라는 입장을 명확히 함.
‒ 최근 4분기 기준 신규 클라우드 매출 증가분 중 상당 부분이 AI 파운데이션 모델 고객에서 발생.
‒ Azure는 OpenAI 수요 덕에 순증매출 점유율이 급상승, AWS는 Anthropic 수요로 점유율 회복세, Google도 Anthropic 효과가 가시화.
‒ 특히 OpenAI와 Anthropic이 제공하는 ‘트레이닝·추론 수요’는 GPU·스토리지·네트워크 전반에 걸쳐 장기적인 매출 지속성을 보장.
‒ 다만 각사가 확보한 매출의 ‘수익성 구조’는 차이가 있음. Microsoft는 수익성 높은 하이브리드형 모델(자체 AI 서비스 + Azure 인프라)을, Oracle은 낮은 마진의 인프라형 모델을 선택.
‒ 결국 시장점유율 경쟁은 단기 매출보다 “수익성과 내구성을 갖춘 매출을 얼마나 확보하느냐”로 귀결될 전망.
» OpenAI·Anthropic 중심의 ‘AI 중심 가치사슬’이 등장하며, 클라우드 기업이 AI 기업의 공급망 하위단으로 재배치됨.
» 하이퍼스케일러 CapEx는 1,000억달러를 돌파했고, RPO는 1.2조달러로 사상 최고. 수요 초과 상태는 최소 2026년까지 지속될 가능성.
» Microsoft는 리스크 통제형 선제투자, Amazon·Google은 파트너 확장형, Oracle은 레버리지형 고위험 전략으로 포지션 구분.
» 단기적으로 과잉투자 가능성이 있으나, 중장기적으로는 AI 트레이닝·추론·에이전트 워크로드가 이를 흡수할 전망.
» 향후 2~3년간 클라우드 시장 경쟁의 본질은 ‘규모의 경쟁’에서 ‘전략적 동맹·자본 구조·리스크 감내력’으로 진화할 것으로 보임.
source: Generative Value
Please open Telegram to view this post
VIEW IN TELEGRAM
Generativevalue
Thoughts on the Hyperscalers (Q3 '25 Update)
A shifting value chain (OpenAI and Anthropic gaining importance) and what it means for the cloud providers; also market share, CapEx, and revenue growth updates.
‒ 노무라의 Charlie McElligott은 최근 시장 조정의 핵심이 ‘기계적 수급(Vol Control·CTA)’에서 비롯된다고 분석함. 10월 10일 이후 변동성 급등(rVol spike)으로 인해 Vol Control 전략 자금이 지난 한 달간 약 1,178억 달러 규모의 미국 주식 익스포저를 강제 축소.
‒ 이는 시스템상 리스크 관리 규칙에 따라 포트폴리오 변동성이 높아지면 자동으로 주식 비중을 줄이는 ‘기계적 디레버리징’이며, 변동성 완화 시점까지는 추가 매도 압력이 지속될 수 있음.
‒ 다만 향후 몇 주간 S&P 등 주요 지수가 하루 ±1% 범위 내에서 안정적으로 움직일 경우, Vol Control 모델들이 자동적으로 재매수(Reallocation) 플로우를 낼 가능성이 높다고 분석.
‒ CTA(추세추종형) 자금은 현재도 하락에 반응 중이지만, 실질적인 대규모 매도(Real Notional Supply)는 -2~4% 추가 조정 구간에서 본격화될 것으로 전망.
‒ 즉, 현 시점은 CTA가 완전히 ‘Sell Mode’에 들어간 단계는 아니며, 아직 단기적 변동성 폭이 다음 단계의 자동 매도 트리거를 자극할 수준에는 미치지 못함.
‒ 따라서 시장이 단기간 변동성 완화 구간으로 들어가면 기계적 재매수(Vol Control Buyback) 흐름이 반대로 시장 하단을 지지할 수도 있음.
‒ 결론적으로, 현재 시장은 ‘Not Hedged Enough(하방 대비 부족)’ 상태에서 CTA·Vol Control 간 수급 밸런스가 불안정하게 흔들리고 있으며, 향후 변동성 궤적이 이 자동 매매 플로우의 방향(하방 가속 vs 반등 전환)을 결정할 핵심 변수로 작용할 전망.
‒ 이는 시스템상 리스크 관리 규칙에 따라 포트폴리오 변동성이 높아지면 자동으로 주식 비중을 줄이는 ‘기계적 디레버리징’이며, 변동성 완화 시점까지는 추가 매도 압력이 지속될 수 있음.
‒ 다만 향후 몇 주간 S&P 등 주요 지수가 하루 ±1% 범위 내에서 안정적으로 움직일 경우, Vol Control 모델들이 자동적으로 재매수(Reallocation) 플로우를 낼 가능성이 높다고 분석.
‒ CTA(추세추종형) 자금은 현재도 하락에 반응 중이지만, 실질적인 대규모 매도(Real Notional Supply)는 -2~4% 추가 조정 구간에서 본격화될 것으로 전망.
‒ 즉, 현 시점은 CTA가 완전히 ‘Sell Mode’에 들어간 단계는 아니며, 아직 단기적 변동성 폭이 다음 단계의 자동 매도 트리거를 자극할 수준에는 미치지 못함.
‒ 따라서 시장이 단기간 변동성 완화 구간으로 들어가면 기계적 재매수(Vol Control Buyback) 흐름이 반대로 시장 하단을 지지할 수도 있음.
‒ 결론적으로, 현재 시장은 ‘Not Hedged Enough(하방 대비 부족)’ 상태에서 CTA·Vol Control 간 수급 밸런스가 불안정하게 흔들리고 있으며, 향후 변동성 궤적이 이 자동 매매 플로우의 방향(하방 가속 vs 반등 전환)을 결정할 핵심 변수로 작용할 전망.
‒ 골드만 헤지펀드 담당 Tony Pasquariello는 이번 주를 “tricky week”로 표현하며, 시장이 과열된 10월 랠리의 속도를 되돌리는 조정 국면에 진입했다고 평가.
‒ 특히 한국 AI 바스켓(GSXAKRAI)이 10월 한 달 동안 +45% 급등하는 등 일부 섹터의 상승 속도가 비정상적으로 빠르며, 11월 들어 그 과열분이 빠르게 되돌려지는 상황이라고 분석.
‒ Pasquariello는 이번 하락이 구조적 리스크보다는 “단기 차익실현 및 포지션 정리”의 성격이 강하다고 보며, 대형주 중심의 펀더멘털(성장, 유동성, 자금 흐름)은 여전히 상방 요인이라고 평가.
‒ 그는 “연준이 금리를 인하하고 기업이 두 자릿수 이익 성장을 기록하는 국면에서 강세장이 끝나는 경우는 드물다”고 언급하며, 중기적으로 주가 상승 여력은 여전히 있다고 판단.
‒ 동사의 Ben Snider는 S&P500이 내년 중반 7200 수준까지 상승할 것으로 전망하며, 이번 실적시즌은 사상 최대 수준의 어닝 서프라이즈 빈도를 보였음에도 불구하고 주가 반응은 약했다고 설명.
‒ Snider는 그 이유로 높은 거시 불확실성과 기관투자자 포지션의 과밀화를 지목했으며, 실제로 ‘과도한 롱’이라기보다 ‘혼잡한 롱’ 구조가 리스크 요인이라고 지적.
‒ 2026년 전망과 관련해 그는 기업들의 자사주 매입이 강세를 유지하되 성장률은 정체되어 있고, 반면 설비투자(CapEx)는 증가세로 전환 중이라며 이는 비용 대비 수익률 개선 기대에 따른 합리적 재배분이라 평가.
‒ Fed 정책에 대해서는 향후 금리인하 폭 논의는 시장에 긍정적 영향을 미칠 것이며, 과거처럼 긴축 국면이 아닌 완화 기조에서 버블이 붕괴된 사례는 없다고 언급함.
‒ 골드만의 월간 포지셔닝 조사에 따르면 현재 트레이더들은 여전히 롱 포지션을 유지하고 있지만 전반적으로 경계심이 높고, 강세·약세 비중의 스큐는 과거 피크(2021년 등) 대비 완화된 상태.
‒ Pasquariello는 결론적으로 “세상은 리스크를 감수하는 사람의 것이다(The world belongs to risk takers)”라는 켄 랭고운의 말을 인용하며, 현재 조정은 위험관리 과정이지 강세장의 종말이 아니라고 정리.
‒ 특히 한국 AI 바스켓(GSXAKRAI)이 10월 한 달 동안 +45% 급등하는 등 일부 섹터의 상승 속도가 비정상적으로 빠르며, 11월 들어 그 과열분이 빠르게 되돌려지는 상황이라고 분석.
‒ Pasquariello는 이번 하락이 구조적 리스크보다는 “단기 차익실현 및 포지션 정리”의 성격이 강하다고 보며, 대형주 중심의 펀더멘털(성장, 유동성, 자금 흐름)은 여전히 상방 요인이라고 평가.
‒ 그는 “연준이 금리를 인하하고 기업이 두 자릿수 이익 성장을 기록하는 국면에서 강세장이 끝나는 경우는 드물다”고 언급하며, 중기적으로 주가 상승 여력은 여전히 있다고 판단.
‒ 동사의 Ben Snider는 S&P500이 내년 중반 7200 수준까지 상승할 것으로 전망하며, 이번 실적시즌은 사상 최대 수준의 어닝 서프라이즈 빈도를 보였음에도 불구하고 주가 반응은 약했다고 설명.
‒ Snider는 그 이유로 높은 거시 불확실성과 기관투자자 포지션의 과밀화를 지목했으며, 실제로 ‘과도한 롱’이라기보다 ‘혼잡한 롱’ 구조가 리스크 요인이라고 지적.
‒ 2026년 전망과 관련해 그는 기업들의 자사주 매입이 강세를 유지하되 성장률은 정체되어 있고, 반면 설비투자(CapEx)는 증가세로 전환 중이라며 이는 비용 대비 수익률 개선 기대에 따른 합리적 재배분이라 평가.
‒ Fed 정책에 대해서는 향후 금리인하 폭 논의는 시장에 긍정적 영향을 미칠 것이며, 과거처럼 긴축 국면이 아닌 완화 기조에서 버블이 붕괴된 사례는 없다고 언급함.
‒ 골드만의 월간 포지셔닝 조사에 따르면 현재 트레이더들은 여전히 롱 포지션을 유지하고 있지만 전반적으로 경계심이 높고, 강세·약세 비중의 스큐는 과거 피크(2021년 등) 대비 완화된 상태.
‒ Pasquariello는 결론적으로 “세상은 리스크를 감수하는 사람의 것이다(The world belongs to risk takers)”라는 켄 랭고운의 말을 인용하며, 현재 조정은 위험관리 과정이지 강세장의 종말이 아니라고 정리.
Gromit 공부방
테마주의 펀더는 오직 시세 뿐, 개별주 내용이 이러니 저러니 해도 걍 테마주는 시세 센 놈이 대장이라는 생각을 또 다시 하게 되는.. 시세에 대한 그럴듯한, 합리적인 분석은 결국 다 후행적일 수밖에 최근에 좀 정상화(?) 되나 싶어서 깔짝 베팅해봤다가 허약한 시세 보고 바로 후퇴했기 때문에 종목에 대한 조롱은 아니고 테마주 투기 원칙을 어긴 스스로에 대한 #반성 차원서 기록 시세에 저항하려 들지 말자!
테마주의 펀더멘털은 오직 시세 뿐. 주가가 오르면 좋은 투기 주식이고 내리면 쓰레기에 불과하다는 생각. 모든 테마주는 그렇게 접근하는 중.
내용과 미래 비전이 어떻고를 떠나 이 주식은 투기 픽으로서는 매력이 없다는 생각 (차라리 온갖 희망찬 내러와 추정치 상향이 뒷받침되며 ATH 60불 뚫어줄 때 사는 게 낫지 않을까)
#SMR
내용과 미래 비전이 어떻고를 떠나 이 주식은 투기 픽으로서는 매력이 없다는 생각 (차라리 온갖 희망찬 내러와 추정치 상향이 뒷받침되며 ATH 60불 뚫어줄 때 사는 게 낫지 않을까)
#SMR
Gromit 공부방
버블을 많이들 찾고 있다고 함
TS Lombard, When Will the AI ‘Bubble’ Burst? (25.11.03)
✅ AI는 역사적으로 반복된 버블의 전형적 조건을 모두 충족
‒ TS Lombard의 Dario Perkins는 “AI 버블은 이미 고전적 투기 사이클의 후기 국면에 있다”고 분석.
‒ 17세기 네덜란드 튤립, 1720년 남해·미시시피, 1840년대 철도, 1990년대 닷컴처럼, AI 역시 ‘세상을 바꿀 기술’이라는 단순하고 매혹적인 서사가 대중 심리를 자극하고 있음.
‒ 기술의 파괴력은 크지만 미래 수익 불확실성이 극단적으로 높고, 투자자들은 수익성보다 ‘규모 경쟁(AGI 레이스)’에 몰입 중.
‒ 대형 기술사들은 CapEx를 EBITDA의 60~80% 수준까지 끌어올리며 “디지털 신(Digital God)” 구축을 위해 무차별적 투자를 단행 중.
‒ 과거 Cisco가 닷컴 시절 네트워크 장비로 수익을 냈지만, 2000년 고점 매수자는 20년이 지나도 손실을 만회하지 못했듯, AI 인프라 기업들의 실질적 수익화 시점이 예상보다 훨씬 늦을 수 있음.
✅ 중앙은행의 정책 전환은 버블 붕괴의 ‘고전적 시그널’
‒ 과거 사례상 버블의 정점은 중앙은행의 ‘매파 전환(hawkish pivot)’ 시점과 일치.
‒ 1845년 영국철도 버블은 금리 100bp 인상 직후 붕괴, 1929년 Fed의 6% 인상 전환, 2000년 그린스펀의 ‘부의효과(wealth effect)’ 통제 시도가 모두 시장 붕괴로 이어짐.
‒ 현재 트럼프 정부는 완화정책을 지속하겠다는 입장이지만, TS Lombard는 “이민 제한으로 공급이 억제된 미국 경제는 2026년에 다시 인플레 재상승 리스크가 있다”고 경고.
‒ 만약 채권시장이 Fed의 독립성에 의문을 제기하면, 시장발 긴축(금리 상승, 프리미엄 확대)이 버블의 ‘마지막 방아쇠’가 될 수 있음.
‒ Perkins는 “현 사이클은 남은 12개월 내 정점을 찍을 확률이 높다”고 언급.
✅ AI 버블의 ‘경고 신호(Markers)’ 7가지
‒ (1) 통화긴축: 예상 밖 인플레이션 반등이나 채권시장 불안이 Fed를 매파로 전환시키면, 과거 모든 버블처럼 급격한 조정 가능.
‒ (2) 실적 실망: NVIDIA·TSMC·마이크로소프트 등 핵심 기업의 매출 성장 둔화 시점이 버블의 ‘현실 점검’ 계기. 데이터센터 CapEx가 2025 수준에서 멈추면 NVIDIA 매출도 정체될 수 있음.
‒ (3) 내부자 매도(Insider selling): 1720년 남해·미시시피 버블 당시 경영진은 정점에 자사주를 매도했고, 닷컴 버블 당시 락업 해제(1999~2000년) 이후 대규모 매도가 급락을 유발함. NVIDIA는 2024년 이후 내부자 매도 지속 중이며, OpenAI 직원들도 최근 매각 기회를 일부 활용.
‒ (4) 벤더 파이낸싱(Vendor Financing): NVIDIA가 클라우드 기업에 칩을 판매 후 리스 형태로 되사들이거나, 마이크로소프트가 OpenAI에 컴퓨팅을 ‘판매하고 지분으로 보상받는’ 구조가 확산. 이는 과거 Cisco·WorldCom이 닷컴 정점에서 했던 회계 왜곡 구조와 유사함.
‒ (5) 개인투자자 과열(Dumb Money): 해방일(Liberation Day) 이후 개인투자자의 대형 기술주 매수가 폭발적 증가. 기관은 신중한 반면, 리테일 자금이 후반부 버블의 주도세력으로 부상.
‒ (6) 사기(Fraud): 버블 말기엔 회계조작·부당거래 빈발. 남해버블의 뇌물, 1849년 철도버블의 ‘허위배당’, 닷컴의 엔론·월드컴 사례처럼 ‘숫자 맞추기’가 시작되면 말기 신호.
‒ (7) 거래량 감소(Volume Peak): 버블 중반엔 거래량 급증, 후반엔 피로감으로 급감. 거래량 둔화는 버블의 ‘피크 전조’로 평가.
✅ ‘Easy Money’는 원인보다 ‘폭발의 타이밍’을 결정
‒ Perkins는 “완화정책이 버블을 만드는 게 아니라, 중앙은행의 타이밍이 붕괴를 만든다”고 분석.
‒ 금본위제 시대에도 버블은 존재했고, 자금유동성보단 ‘리스크 감수 성향과 기대 수익률의 변동’이 핵심 요인.
‒ 결국 정책금리 자체보다 금융시스템의 레버리지와 자산가격 간 선순환이 얼마나 길게 지속되는가가 중요.
‒ 이 선순환이 한계에 도달하면, 중앙은행의 조그만 긴축만으로도 시스템이 급격히 수축.
‒ Dotcom 당시 실질금리는 오히려 높았지만, 기대수익률 하락이 버블 붕괴를 촉발했음.
✅ 버블의 파괴력은 ‘레버리지’와 ‘자원 오배분’에 달려 있음
‒ AI 버블은 아직까지는 비(非)레버리지형 자산버블, 즉 금융시스템 위험은 낮은 편.
‒ 그러나 CapEx가 점차 사모신용시장(private credit)으로 이동하고 있어, 향후 몇 년간 ‘그림자 레버리지’ 확산 가능성 경고.
‒ 과거 사례처럼 실물투자 규모가 GDP 대비 일정 수준을 넘어서면, 붕괴 시 고용·소비·신용순환에 연쇄 충격.
‒ 현재 미국 디지털경제 투자 비중은 GDP의 3.4%로, 1999년 통신투자 정점(3.2%)과 유사한 수준.
‒ Perkins는 “지금은 2000년과 비슷한 시점이지만, 금융 시스템의 복잡성은 2008년보다 높다”고 지적.
✅ AI 버블의 지속 가능성과 타임라인
‒ 단기(2025~26): 시장은 여전히 확장 국면이지만, 인플레 반등·Fed 긴축·CapEx 둔화가 맞물릴 경우 급전환 위험.
‒ 중기(2027~29): CapEx의 부채화, 민간 신용시장 확대, 벤더파이낸싱 심화 시 ‘시스테믹 리스크’ 가능.
‒ Perkins는 “AI 버블이 1년 내 꺼지면 시스템 충격은 제한적이지만, 3~4년 더 지속될 경우 2008년형 위기 가능성”을 언급함.
‒ 그는 “현재의 과열은 1999년 닷컴보단 1845년 철도버블과 유사하다”고 평가 – 막대한 자본투입은 인프라를 남기지만, 투자수익은 남기지 않는다.
✅ 경제 충격 시나리오: 주가는 급락, 경기침체는 완만
‒ TS Lombard는 “AI 버블 붕괴가 닷컴보다 시스템 충격은 작고, 경기 충격은 완만할 것”으로 전망.
‒ 현재 AI 투자가 GDP 성장의 대부분을 차지한다는 주장은 과장으로, AI 투자 축소 시 미국 경제는 완만한 침체(mild recession) 가능성.
‒ 다만 레버리지 증가와 CapEx의 비공개화가 빠르게 진행될 경우, 사모시장 내 신용 리스크가 폭발할 수 있음.
‒ Perkins는 “AI 붕괴는 ‘Old Testament 스타일(1873년·1929년·2008년급)’ 위기보다는, ‘시장 밸류 조정형’ 조정일 가능성이 높다”고 평가.
‒ TS Lombard의 Dario Perkins는 “AI 버블은 이미 고전적 투기 사이클의 후기 국면에 있다”고 분석.
‒ 17세기 네덜란드 튤립, 1720년 남해·미시시피, 1840년대 철도, 1990년대 닷컴처럼, AI 역시 ‘세상을 바꿀 기술’이라는 단순하고 매혹적인 서사가 대중 심리를 자극하고 있음.
‒ 기술의 파괴력은 크지만 미래 수익 불확실성이 극단적으로 높고, 투자자들은 수익성보다 ‘규모 경쟁(AGI 레이스)’에 몰입 중.
‒ 대형 기술사들은 CapEx를 EBITDA의 60~80% 수준까지 끌어올리며 “디지털 신(Digital God)” 구축을 위해 무차별적 투자를 단행 중.
‒ 과거 Cisco가 닷컴 시절 네트워크 장비로 수익을 냈지만, 2000년 고점 매수자는 20년이 지나도 손실을 만회하지 못했듯, AI 인프라 기업들의 실질적 수익화 시점이 예상보다 훨씬 늦을 수 있음.
‒ 과거 사례상 버블의 정점은 중앙은행의 ‘매파 전환(hawkish pivot)’ 시점과 일치.
‒ 1845년 영국철도 버블은 금리 100bp 인상 직후 붕괴, 1929년 Fed의 6% 인상 전환, 2000년 그린스펀의 ‘부의효과(wealth effect)’ 통제 시도가 모두 시장 붕괴로 이어짐.
‒ 현재 트럼프 정부는 완화정책을 지속하겠다는 입장이지만, TS Lombard는 “이민 제한으로 공급이 억제된 미국 경제는 2026년에 다시 인플레 재상승 리스크가 있다”고 경고.
‒ 만약 채권시장이 Fed의 독립성에 의문을 제기하면, 시장발 긴축(금리 상승, 프리미엄 확대)이 버블의 ‘마지막 방아쇠’가 될 수 있음.
‒ Perkins는 “현 사이클은 남은 12개월 내 정점을 찍을 확률이 높다”고 언급.
‒ (1) 통화긴축: 예상 밖 인플레이션 반등이나 채권시장 불안이 Fed를 매파로 전환시키면, 과거 모든 버블처럼 급격한 조정 가능.
‒ (2) 실적 실망: NVIDIA·TSMC·마이크로소프트 등 핵심 기업의 매출 성장 둔화 시점이 버블의 ‘현실 점검’ 계기. 데이터센터 CapEx가 2025 수준에서 멈추면 NVIDIA 매출도 정체될 수 있음.
‒ (3) 내부자 매도(Insider selling): 1720년 남해·미시시피 버블 당시 경영진은 정점에 자사주를 매도했고, 닷컴 버블 당시 락업 해제(1999~2000년) 이후 대규모 매도가 급락을 유발함. NVIDIA는 2024년 이후 내부자 매도 지속 중이며, OpenAI 직원들도 최근 매각 기회를 일부 활용.
‒ (4) 벤더 파이낸싱(Vendor Financing): NVIDIA가 클라우드 기업에 칩을 판매 후 리스 형태로 되사들이거나, 마이크로소프트가 OpenAI에 컴퓨팅을 ‘판매하고 지분으로 보상받는’ 구조가 확산. 이는 과거 Cisco·WorldCom이 닷컴 정점에서 했던 회계 왜곡 구조와 유사함.
‒ (5) 개인투자자 과열(Dumb Money): 해방일(Liberation Day) 이후 개인투자자의 대형 기술주 매수가 폭발적 증가. 기관은 신중한 반면, 리테일 자금이 후반부 버블의 주도세력으로 부상.
‒ (6) 사기(Fraud): 버블 말기엔 회계조작·부당거래 빈발. 남해버블의 뇌물, 1849년 철도버블의 ‘허위배당’, 닷컴의 엔론·월드컴 사례처럼 ‘숫자 맞추기’가 시작되면 말기 신호.
‒ (7) 거래량 감소(Volume Peak): 버블 중반엔 거래량 급증, 후반엔 피로감으로 급감. 거래량 둔화는 버블의 ‘피크 전조’로 평가.
‒ Perkins는 “완화정책이 버블을 만드는 게 아니라, 중앙은행의 타이밍이 붕괴를 만든다”고 분석.
‒ 금본위제 시대에도 버블은 존재했고, 자금유동성보단 ‘리스크 감수 성향과 기대 수익률의 변동’이 핵심 요인.
‒ 결국 정책금리 자체보다 금융시스템의 레버리지와 자산가격 간 선순환이 얼마나 길게 지속되는가가 중요.
‒ 이 선순환이 한계에 도달하면, 중앙은행의 조그만 긴축만으로도 시스템이 급격히 수축.
‒ Dotcom 당시 실질금리는 오히려 높았지만, 기대수익률 하락이 버블 붕괴를 촉발했음.
‒ AI 버블은 아직까지는 비(非)레버리지형 자산버블, 즉 금융시스템 위험은 낮은 편.
‒ 그러나 CapEx가 점차 사모신용시장(private credit)으로 이동하고 있어, 향후 몇 년간 ‘그림자 레버리지’ 확산 가능성 경고.
‒ 과거 사례처럼 실물투자 규모가 GDP 대비 일정 수준을 넘어서면, 붕괴 시 고용·소비·신용순환에 연쇄 충격.
‒ 현재 미국 디지털경제 투자 비중은 GDP의 3.4%로, 1999년 통신투자 정점(3.2%)과 유사한 수준.
‒ Perkins는 “지금은 2000년과 비슷한 시점이지만, 금융 시스템의 복잡성은 2008년보다 높다”고 지적.
‒ 단기(2025~26): 시장은 여전히 확장 국면이지만, 인플레 반등·Fed 긴축·CapEx 둔화가 맞물릴 경우 급전환 위험.
‒ 중기(2027~29): CapEx의 부채화, 민간 신용시장 확대, 벤더파이낸싱 심화 시 ‘시스테믹 리스크’ 가능.
‒ Perkins는 “AI 버블이 1년 내 꺼지면 시스템 충격은 제한적이지만, 3~4년 더 지속될 경우 2008년형 위기 가능성”을 언급함.
‒ 그는 “현재의 과열은 1999년 닷컴보단 1845년 철도버블과 유사하다”고 평가 – 막대한 자본투입은 인프라를 남기지만, 투자수익은 남기지 않는다.
‒ TS Lombard는 “AI 버블 붕괴가 닷컴보다 시스템 충격은 작고, 경기 충격은 완만할 것”으로 전망.
‒ 현재 AI 투자가 GDP 성장의 대부분을 차지한다는 주장은 과장으로, AI 투자 축소 시 미국 경제는 완만한 침체(mild recession) 가능성.
‒ 다만 레버리지 증가와 CapEx의 비공개화가 빠르게 진행될 경우, 사모시장 내 신용 리스크가 폭발할 수 있음.
‒ Perkins는 “AI 붕괴는 ‘Old Testament 스타일(1873년·1929년·2008년급)’ 위기보다는, ‘시장 밸류 조정형’ 조정일 가능성이 높다”고 평가.
Please open Telegram to view this post
VIEW IN TELEGRAM