Gromit 공부방 – Telegram
Gromit 공부방
2.47K subscribers
6.08K photos
57 videos
197 files
1.63K links
그때는 맞고 지금은 틀리다. 그때그때 되는 것에 투기

시장은 항상 옳다. 시장을 평가하지 말고 비난하지 마라. 시장을 추종하라.

* 면책 조항
- 본 채널은 개인적인 스터디와 매매 복기, 자료 수집 등으로 사용되며 매수나 매도에 대한 추천을 하는 것이 아님.
- 본 채널에서 언급되는 모든 내용은 개인적인 견해일 뿐, 그 정확성이나 완전성을 보장할 수 없음.
Download Telegram
Wartsila: 데이터센터 수요 수혜 + 가스터빈 대체 수단 부상 (Morgan Stanley, Oct 2025)

유연형 발전·에너지저장(Double Engine Strategy) 기업
‒ Wartsila는 가스·이중연료 엔진 기반 분산형 발전설비와 에너지저장 솔루션을 제공하는 기업임.
‒ 전통적으로 신흥국 시장 중심(불안정한 전력망 보완용)으로 성장했으나, 최근 선진국 데이터센터향 수주 본격화.
‒ 2025년 기준 미국 287MW·유럽 1건의 데이터센터용 엔진 수주 확보.

시장 구조: Thermal Balancing 4배 성장, ESS 3.5배 성장 전망
‒ Exhibit 104 기준, Wartsila는 Thermal Balancing Addressable Market이 2023년 4GW → 2030년 22GW (+29% CAGR)로 확대될 것으로 전망.
‒ 에너지저장시장(ESS) 역시 2022년 24GWh → 2030년 83GWh (+17% CAGR)로 성장 예상.
‒ 간헐성(intermittency)이 높은 재생에너지 확대에 따라 단기 부하조정용(thermal balancing) 엔진 수요 급증이 핵심 성장축.

가스터빈 대체 수혜 + 납기 경쟁력
‒ 글로벌 가스터빈 시장이 공급제약(2027~28년 65GW 한정)에 직면한 가운데,
 Wartsila는 가스터빈 대비 납기 12개월 내외로 짧고, 중간급 부하 대응에 적합한 대체 수단으로 부각.
‒ CEO는 2025년 9월 전략 콜에서 “주문 포텐셜은 사실상 무한(The sky is the limit)”이라 언급,
 Vaasa 공장 생산능력 +30% 확대 중 (정확한 수치는 비공개).
‒ 일부 엔진 라인은 2027년 중반까지 풀북(booked out) 상태로, 중기적으로 데이터센터향 신규 수주 추가 가능성 큼.

애프터마켓(Aftermarket) 비중이 절대적
‒ 애프터마켓 EBIT 비중 78% (2024E)로 동종사 대비 압도적 수준(Exhibit 105).
‒ 설치 베이스 내 서비스 침투율(Service Penetration) 31%까지 상승,
 Energy·Marine 부문 모두 스페어파트·정비 매출 +10% 성장.
‒ 신규 수요 증가가 곧 정비·부품 매출의 구조적 확대로 이어지는 선순환 구조 형성.

에너지저장(ESS) 부문: 단기 불확실성
‒ 미국 시장 수요 둔화로 글로벌 경쟁 심화, 일부 배터리 OEM의 수직계열화가 압박요인.
‒ 경영진은 ESS 부문 EBITA 마진 3~5% 유지 불확실,
 모건스탠리는 2026년 BEP(손익분기) 수준, 2025년 영업이익 €18m(그룹의 2%) 전망.
‒ 2021년 저점(-6%) 마진으로 되돌아갈 경우 그룹 EBITA 약 -7.6% 하향 리스크 존재.

밸류에이션 및 투자 시사점
‒ 2026E EV/EBITA 16x (Alfa Laval과 동일, 유럽 자본재 섹터 평균 소폭 상회).
‒ 리스크·리워드 균형적이라 Equal-weight 유지.
‒ 핵심 모멘텀은 ① 데이터센터향 추가 수주, ② 가스터빈 공급제약 장기화, ③ 서비스 매출 고성장.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from infinityhedge
GTA 6 DELAYED AGAIN TO 19 NOV, 2026: INFINITYHEDGE
Forwarded from Bunny
RESTART THE GOVERNMENT RIGHT NOW
This media is not supported in your browser
VIEW IN TELEGRAM
잡주/테마주들의 변동성이 다시 커지고 있는 상황
Japan’s Largest Tech Fund Says AI Stocks Not at Bubble Stage

‒ 노무라자산운용 일본 최대 기술주 펀드의 후쿠다 야스유키 매니저는 “AI 시장은 이제 2막에 진입했으며 아직 버블 단계가 아니다”라고 밝히며, 현 주가 수준이 과열이 아닌 성장의 중간 국면이라 평가.

‒ 해당 펀드는 올해 11월 6일 기준 연초 이후 수익률 49%로, TOPIX(22%)와 나스닥(30%)을 모두 상회하며 일본 기술주 펀드 중 최고 성과를 기록.

‒ 후쿠다는 현재 AI 투자가 25년 전 닷컴버블 당시와는 전혀 다른 양상이라고 지적했으며, 당시와 달리 지금은 메타·구글·아마존 등 현금흐름이 탄탄한 대형 IT 기업들이 중심이 되어 인프라 투자를 주도하고 있어 자본구조가 훨씬 견고하다고 설명.

‒ 그는 데이터센터 및 클라우드 인프라 투자가 AI 성장 스토리의 ‘1막’이었다면, 앞으로는 통신·전력 등 전통 인프라 기업들의 AI 관련 설비투자 확대가 2막을 이끌 것이라며, 일본의 전자부품·전선·케이블 제조업체들이 수혜를 받을 것으로 전망.

‒ 대표 수혜 종목으로는 후루카와전기, 후지쿠라, 도쿄일렉트론, 소니그룹 등을 제시했으며, 펀드의 주요 보유 종목에는 소프트뱅크그룹이 포함됨.

‒ 그는 특히 2024년 5월 주가 1만 엔 이하일 때 소프트뱅크 비중을 확대한 것이 최고의 투자 판단 중 하나였다 고 평가했으며, 해당 주가는 10월 말 2만7천 엔대까지 상승한 후 2만1천 엔 수준으로 조정 중.

‒ 후쿠다는 “일본 증시 또한 소프트뱅크·어드반테스트·패스트리테일링 등 일부 종목 편중 현상이 나타나 품질 저하가 우려된다”고 지적하며, AI 붐이 확산되는 과정에서 균형 잡힌 성장과 실질 투자 확대가 중요하다고 강조.

source: Bloomberg
Donald Trump enters his lame duck era

‒ 공화당은 최근 선거에서 6년 만의 최악의 참패를 겪으며 트럼프의 영향력이 약화되고 있고, 상·하원 의원들 사이에서는 그가 곧 정치적 ‘레임덕(lame duck)’ 국면에 진입할 것이라는 인식이 확산되고 있음.

‒ 트럼프는 선거 다음날 백악관에서 공화당 상원의원들에게 필리버스터(60표 제도) 폐지를 요구했지만, 상원 다수는 이를 공개적으로 거부하며 사실상 대통령의 요구를 무시하는 분위기.

‒ 다수 의원들은 트럼프가 여전히 공화당 지지층 내에서는 강력한 영향력을 갖지만, 그가 3년 뒤에는 퇴임할 인물이라는 현실을 인식하며 점차 독자 노선을 모색하고 있음.

‒ 일부 하원의원들은 트럼프의 일방적 예산 취소(pocket rescission) 결정이 37일째 이어지는 연방정부 셧다운의 원인이라 비판했고, 오바마케어 보조금 연장 문제 등에서 타협을 막는 대통령에게 피로감을 표시.

‒ 은퇴 예정인 공화당 하원의원 Don Bacon은 “트럼프는 민주당과 협상할 능력이 전혀 없다”며, 이번 선거 결과는 공화당이 현실을 직시해야 한다는 ‘경고등’이라고 지적.

‒ 민주당은 뉴저지·버지니아뿐 아니라 조지아, 미시시피, 펜실베이니아 등에서도 예상 밖 대승을 거두며, 트럼프 중심 정치에 대한 반감이 공화당 내 균열을 가속화하고 있다고 평가.

‒ 트럼프는 “우리의 싸움은 이제 시작일 뿐”이라며 결집을 시도했으나, 공화당 지도부는 이번 참패를 ‘블루스테이트 한정 손실’로 축소하며 내부 균열을 봉합하려 애쓰는 중.

source: POLITICO
ClusterMAX 2.0 Rankings & Market View
Gromit 공부방
ClusterMAX 2.0 Rankings & Market View
ClusterMAX 2.0: The Industry Standard GPU Cloud Rating System

AI 인프라의 ‘표준 지침서’로 자리 잡은 ClusterMAX 2.0
‒ GPU 클라우드(‘Neocloud’)는 AI 학습·추론의 핵심 인프라로, AI 붐 속에서 가장 중요한 거래 플랫폼으로 부상.
‒ SemiAnalysis가 발표한 ClusterMAX 2.0은 전 세계 209개 클라우드 사업자 중 84곳을 직접 평가했으며, 140개 이상의 엔터프라이즈·AI 스타트업 이용자를 인터뷰함.
‒ 평가 기준은 10개 핵심 카테고리(보안, 수명주기, 오케스트레이션, 스토리지, 네트워크, 신뢰성, 모니터링, 가격, 파트너십, 가용성)이며, GPU 클라우드 서비스의 기술 완성도와 운영 품질을 종합적으로 등급화.
‒ ClusterMAX는 독립된 제3자 기준으로 인정받으며, 실제 AI 연구소·하이퍼스케일러들의 구매·계약 의사결정에 반영되는 사실상 산업 표준으로 자리.
‒ 전작 1.0 발표 이후 6개월 만에 평가 대상이 26곳→84곳으로 세 배 이상 확대되며, 시장 커버리지가 95%까지 확대됨.

CoreWeave, 유일한 Platinum 등급 — 업계의 품질 벤치마크
‒ CoreWeave는 ClusterMAX 2.0에서 유일하게 Platinum Tier를 유지하며, “기술·신뢰성·서비스 품질 모든 면에서 업계 표준을 제시하는 사업자”로 평가.
‒ CoreWeave는 자체 개발한 SUNK(Slurm on Kubernetes) 기술을 통해 SLURM·Kubernetes 혼합 환경을 완벽히 통합했고, 사용자 접근성·자동화된 헬스체크·성능 모니터링 모두 최상급 수준.
‒ Gold Tier에는 Nebius, Oracle, Azure, Crusoe, Fluidstack이 포함되며, 이들 사업자는 기능·성능이 우수하나 일부 자동화나 지원 품질에서 간헐적 불안정성 존재.
‒ Silver Tier에는 Google, AWS, Together.ai, Lambda가 포함되어 있으나, Kubernetes 기반 트레이닝 환경이나 네트워크 성능에서 상위 티어 대비 개선 여지가 있음.
‒ Bronze Tier 이하에서는 관리형 모니터링, SLURM 구성, Health Check 부재 등으로 실사용자 만족도가 급격히 떨어짐.

ClusterMAX 평가체계: 단순 가격이 아닌 운영 효율성과 안정성 중심
‒ GPU당 시간단가($/GPU-hr)는 하나의 지표일 뿐, 실제 평가는 신뢰성·보안·자동화 수준 등 종합 점수로 결정됨.
‒ SemiAnalysis는 각 클라우드를 동일 워크로드 환경에서 5일간 직접 테스트하며, SLURM과 Kubernetes 환경의 네트워크 설정·GPU Direct RDMA 활성화 여부까지 점검.
‒ 테스트 항목에는 PyTorch 설치속도, NGC 컨테이너 다운로드(22GB), NCCL 성능, Hugging Face 모델(15B 파라미터) 다운로드 및 GPU 메모리 로드 속도 등이 포함.
‒ CoreWeave는 PyTorch 설치 3.2초, 컨테이너 풀링 10초 이내로 완료하며 최상위권을 기록했으나, Bronze급 사업자는 4분 이상 소요.
‒ 네트워크 속도 테스트에서 상위권 사업자는 6Gbps 이상 WAN 대역폭을 안정적으로 유지했으나, 하위 사업자는 트래픽 셰이핑으로 실제 성능이 크게 저하됨.

10개 평가항목 상세 구조: GPU 클라우드의 품질체계를 구체화
보안(Security): SOC2 Type II, ISO27001 인증, 멀티테넌시 네트워크 격리(InfiniBand Pkey/VLAN) 및 취약점 패치 프로세스.
수명주기(Lifecycle): 클러스터 생성·확장·철회 간소화, 지원 대응 속도, 숨은 비용 여부, 업로드/다운로드 효율.
오케스트레이션(Orchestration): SLURM 구성 정확성(pyxis/enroot, hpcx, RDMA, prolog/epilog 등)과 Kubernetes 연동(kubeconfig, Helm, GPUOperator, StorageClass 등).
스토리지(Storage): POSIX 호환(Weka, VAST 등), S3 호환 오브젝트 스토리지, 캐싱 로컬 드라이브, 멀티노드 확장성.
네트워크(Networking): InfiniBand·RoCEv2 지원, NCCL·RCCL 성능, SHARP 기능, NCCL 모니터링·straggler 감지.
신뢰성(Reliability): 99.9% 노드 가동률, 24x7 지원, GPU/CPU 에러 감지·자동 드레인 시스템, 링크 안정성.
모니터링(Monitoring): Grafana 기반 실시간 대시보드, DCGM 통합, TFLOPs·SM Active·PCIe·NVLink·온도 등 세부 항목 모니터링.
가격(Pricing): GPU-hr 단가, 소비모델(월·분기·연간 계약), 네트워크/스토리지 비용, 확장 옵션 등 종합 비교.
파트너십(Partnership): NVIDIA NCP·SchedMD 협력 여부, AMD Cloud Alliance 참여, 산업행사 참여도.
가용성(Availability): GPU 수량·온디맨드 접근성·최신 모델(H100·H200·B200·MI300X 등) 확보율.

핵심 기술 트렌드: Slurm-on-Kubernetes, Bare Metal vs VM, Blackwell 전환
‒ CoreWeave의 SUNK, Nebius의 SOperator, SchedMD의 Slinky 세 가지 모델이 시장 표준으로 부상.
‒ SUNK는 유일하게 SLURM과 Kubernetes 워크로드를 동일 클러스터에서 병행 운용 가능, 자동화 수준이 가장 높음.
‒ SOperator는 KubeVirt 기반으로, 보안적 장점(하이퍼바이저 수준 격리)을 가지지만 유연성은 낮음.
‒ Bare Metal(직접접속형)과 VM 기반(경량화 하이퍼바이저형)의 경계가 희미해지며, 성능 격차보다 관리철학이 경쟁 요인이 됨.
‒ Blackwell(GB200 NVL72) 세대 도입으로 노드가 아닌 랙 단위로 장애를 정의하는 구조 전환이 일어남.
‒ NVL36x2 구조는 백플레인·ACC 케이블 신호무결성 문제로 안정성 저하, 이를 해결하기 위해 NVIDIA가 Firmware 1.3을 긴급 배포.
‒ 상위 사업자(CoreWeave, Oracle)는 이미 랙 단위 SLA(99%)를 제공하며, NVL72 교체·리페어 프로세스 자동화 시스템 구축 중.

AMD 대비 NVIDIA 생태계의 품질 격차 지속
‒ NVIDIA 기반 클라우드는 SLURM·RDMA·NCCL 최적화 등 엔터프라이즈 스택과 완전 호환되는 반면, AMD는 모니터링 및 커널 관리 도구 미비로 품질 격차 큼.
‒ 일부 사업자가 AMD GPU 인프라를 병행 도입했지만, 성능·안정성·도구 지원 부족으로 상용화 비중은 여전히 제한적.

시장 영향력 및 산업 반응
‒ OpenAI, Meta, Dell, Supermicro, Snowflake 등 주요 AI 인프라 기업들이 ClusterMAX를 “GPU 클라우드 계약의 사실상 기준”으로 인정.
‒ 특히 OpenAI는 Stargate 프로젝트의 클라우드 계약 시 ClusterMAX 지표를 직접 참고하며, Meta·HPE 등도 내부 벤치마크 도입 중.
‒ 브룩필드·Altimeter 등 기관투자자들도 GPU 클라우드 평가의 공정 기준으로 ClusterMAX 데이터를 활용.
‒ SemiAnalysis는 향후 6개월 단위로 ClusterMAX 3.0을 업데이트해 Blackwell 이후 세대(GB300, MI450X 등)를 반영할 예정.
Please open Telegram to view this post
VIEW IN TELEGRAM
💡 정리: GPU 클라우드 산업은 ‘Compute 임대’에서 ‘운영기술 경쟁’으로 전환 중
» ClusterMAX는 단순한 기술리포트가 아니라, 클라우드 생태계의 품질 표준이자 RPO 계약 지표로 작동.
» CoreWeave는 관리형 GPU 클라우드의 최고 모델로, 기술적 완성도와 운영자동화 수준에서 압도적 격차를 유지 중.
» NVL72 랙 스케일 시대에 들어서며, GPU 클라우드는 하드웨어보다 운영신뢰성·모니터링 인프라가 경쟁력의 핵심으로 부상.
» AMD는 성능·비용 경쟁력은 확보했으나, SLURM/Kubernetes 완성도에서 여전히 후행 중.
» 장기적으로는 Blackwell·MI400 세대 전환과 랙 단위 SLA·자동화 유지보수 기술이 상위 티어 사업자의 핵심 차별화 요소가 될 전망.
» GPU 클라우드 시장은 이미 ‘가격경쟁’에서 ‘품질·운영효율 경쟁’ 시대로 진입했으며, CoreWeave·Oracle·Nebius 등이 이 질서를 이끌고 있음.

source: SemiAnalysis
Please open Telegram to view this post
VIEW IN TELEGRAM
ChatGPT가 출시된 이후 AI 테마 ETF에 상당한 자금이 유입되고 있음
Gromit 공부방
Photo
Thoughts on the Hyperscalers (Q3 '25 Update)

AI 파운데이션 모델 기업이 클라우드 가치사슬의 중심으로 부상
‒ 불과 2년 전까지만 해도 OpenAI는 연구 중심 스타트업이었으나, 현재는 하이퍼스케일러들과 초대형 계약을 맺으며 클라우드 산업 구조를 완전히 바꿔놓음.
‒ OpenAI는 Microsoft(2,500억달러), Oracle(3,000억달러), Amazon(380억달러), Google, Nvidia(1,000억달러), AMD 등과 잇따라 초대형 협약 체결.
‒ Anthropic 또한 Google과 전략적 협력, Amazon으로부터 수십억달러 규모 데이터센터 투자를 유도하며 핵심 파트너로 부상.
‒ 이로써 OpenAI와 Anthropic은 ‘AI 인프라 중심의 새로운 가치사슬(Greenfield Value Chain)’을 창출했고, 하이퍼스케일러들은 이제 이들에게 매출과 성장의 상당 부분을 의존하는 구조로 전환됨.
‒ 기존에는 클라우드가 수십만 중소고객에게 서비스를 분산 제공하는 구조였지만, 이제는 OpenAI·Anthropic이라는 소수 초대형 고객 중심의 집중 구조로 바뀌며, 파워 밸런스가 하이퍼스케일러에서 AI 기업 쪽으로 이동함.

AI 수요 폭증으로 클라우드 시장이 다시 성장국면 진입
‒ AWS는 Anthropic과의 파트너십을 계기로 매출 성장률이 뚜렷하게 반등함. 3Q25 기준 매출 러닝레이트는 1,320억달러에 달하며, 여전히 YoY 성장세를 유지.
‒ Semianalysis에 따르면 AWS는 현재 앵커 고객(Anthropic)을 위해 1GW 이상의 데이터센터 용량을 신규로 건설 중이며, 이는 역사상 가장 빠른 속도임.
‒ Google Cloud 또한 Anthropic 관련 수요가 본격 반영되며 백로그가 전년 대비 82% 증가한 1,550억달러에 달함.
‒ Microsoft Azure는 OpenAI의 트레이닝 및 추론 워크로드 유입으로 수십억달러 규모의 신규 매출 창출. Azure의 최근 점유율 확대 대부분이 OpenAI 영향으로 분석.
‒ 결과적으로, OpenAI·Anthropic의 AI 수요는 클라우드 역사상 가장 큰 신규 매출 풀을 형성했고, “AI가 클라우드 시장의 2차 성장 엔진이 된 첫 분기”라는 평가가 나옴.

하이퍼스케일러 CapEx 폭증 — ‘용량부족(capacity constraint)’이 여전한 상황
‒ 3Q25 기준 4대 하이퍼스케일러(MS·AMZN·GOOG·META)의 총 CapEx는 1,000억달러에 근접.
‒ Microsoft의 리스 형태 CapEx(데이터센터 임대 포함)는 110억달러 이상으로, 실제 투자액은 이를 훨씬 상회.
‒ AWS·Google·Oracle 모두 전력 인프라와 부지 확보에 경쟁적으로 투자 중이며, GPU·CPU·냉각·전력망 확보전이 심화.
‒ 현재까지의 투자 속도는 팬데믹 이후 클라우드 붐 때보다 훨씬 빠르며, AI 인프라 수요를 충족시키기 위한 ‘초과투자 국면’ 진입.
‒ 다만 Sam Altman은 “2~3년 내 과잉공급(glut)이 올 수 있다. 하지만 지금은 수요가 공급을 초과하고 있으며, 이 과정에서 여러 번의 미니버블이 생길 것”이라 언급.

RPO(잔여계약의무) 급증 — 4사 총합 1.2조달러 규모
‒ Oracle: 4,550억달러(+359%, 달러 및 고정환율 기준 동일 증가율)
‒ Microsoft: 4,000억달러(+50%), 상업용 RPO의 평균 만기는 약 2년으로 짧아 빠른 매출 전환 가능
‒ Google Cloud: 1,550억달러(+82% YoY, +46% QoQ), AI·SaaS 관련 수주 급증
‒ Amazon: 2,000억달러로 추정되며, 10월 이후 미공개 신규 계약을 포함하면 3Q 전체 계약규모를 상회
‒ 이들 총합 약 1.2조달러로 사상 최대치. 이는 클라우드 산업 역사상 최대 규모의 백로그이며, 현재 공급보다 수요가 압도적으로 큰 상태.
‒ 하이퍼스케일러는 수요-공급 균형이 맞춰질 때까지 CapEx를 지속 확대할 것으로 전망.

Microsoft: 리스크 최소화하며 구조적 수요 포착 전략
‒ 사티아 나델라는 “GPU·CPU 모두 단수명(short-lived) 자산 투자로 회계상 리스크를 최소화하고, 리스 중심으로 장기 부채를 줄이고 있다”고 언급.
‒ 이는 ‘AI 버블 논란’ 속에서도 Microsoft가 밸런스시트 안정성을 유지하면서 AI 수요를 선제적으로 흡수하는 전략.
‒ 실제로 Microsoft는 AI 인프라 투자에서 15~20년 수명의 데이터센터 자산과 1~3년 수명의 GPU 자산을 병행 운용하며, 자본구조 유연성을 확보.
‒ 나델라는 “몇 분기 동안 공급부족 상태가 지속되고 있으며, 오히려 수요가 더 빠르게 증가 중”이라고 언급, 당분간 추가 CapEx 확대를 시사.
‒ 또한 “OpenAI가 요청한 단일 지역 내 멀티 기가와트급 전용 클러스터는 Azure 장기 인프라 설계에 비효율적이라 일부 거절했다”고 언급 — 이는 Oracle이 수용한 것으로 해석됨.

Oracle: 레버리지를 통한 ‘클라우드 4강 진입’ 도전
‒ Oracle은 OpenAI와의 대규모 계약으로 4,550억달러 규모의 RPO를 확보하며, 클라우드 3강(MS·GOOG·AMZN)에 도전 중.
‒ 문제는 현금흐름으로 이를 감당하기 어렵다는 점. Oracle은 수십~수백억달러 규모의 부채와 주식 발행을 통해 AI 인프라 투자를 추진 중.
‒ 이는 기존 하이퍼스케일러들이 ‘현금흐름 기반 자기자본 투자’를 유지하는 것과 달리, ‘레버리지 전략으로 시장지위를 재정립’하려는 시도.
‒ Doug O’Laughlin은 “Oracle은 단순한 기대수익(Expected Value) 계산이 아니라, 지위 상승에서 오는 기대효용(Expected Utility)을 선택했다”고 평가.
‒ 즉, 이미 시장점유율이 높은 MS·GOOG·AMZN은 추가 위험 감수로 얻을 효용이 크지 않지만, Oracle은 성공 시 ‘4대 클라우드 벤더’로 격상되는 효용이 매우 큼.
‒ Larry Ellison은 “안전하게 4위로 남는 것보다, 리스크를 감수해 상위권에 진입할 수 있다면 그 베팅을 항상 할 것”이라는 입장을 명확히 함.

Foundation Model 수요가 시장점유율 변화의 핵심 요인으로 작용 중
‒ 최근 4분기 기준 신규 클라우드 매출 증가분 중 상당 부분이 AI 파운데이션 모델 고객에서 발생.
‒ Azure는 OpenAI 수요 덕에 순증매출 점유율이 급상승, AWS는 Anthropic 수요로 점유율 회복세, Google도 Anthropic 효과가 가시화.
‒ 특히 OpenAI와 Anthropic이 제공하는 ‘트레이닝·추론 수요’는 GPU·스토리지·네트워크 전반에 걸쳐 장기적인 매출 지속성을 보장.
‒ 다만 각사가 확보한 매출의 ‘수익성 구조’는 차이가 있음. Microsoft는 수익성 높은 하이브리드형 모델(자체 AI 서비스 + Azure 인프라)을, Oracle은 낮은 마진의 인프라형 모델을 선택.
‒ 결국 시장점유율 경쟁은 단기 매출보다 “수익성과 내구성을 갖춘 매출을 얼마나 확보하느냐”로 귀결될 전망.

💡 정리: AI 파운데이션 모델이 하이퍼스케일러의 성장축을 완전히 재편 중
» OpenAI·Anthropic 중심의 ‘AI 중심 가치사슬’이 등장하며, 클라우드 기업이 AI 기업의 공급망 하위단으로 재배치됨.
» 하이퍼스케일러 CapEx는 1,000억달러를 돌파했고, RPO는 1.2조달러로 사상 최고. 수요 초과 상태는 최소 2026년까지 지속될 가능성.
» Microsoft는 리스크 통제형 선제투자, Amazon·Google은 파트너 확장형, Oracle은 레버리지형 고위험 전략으로 포지션 구분.
» 단기적으로 과잉투자 가능성이 있으나, 중장기적으로는 AI 트레이닝·추론·에이전트 워크로드가 이를 흡수할 전망.
» 향후 2~3년간 클라우드 시장 경쟁의 본질은 ‘규모의 경쟁’에서 ‘전략적 동맹·자본 구조·리스크 감내력’으로 진화할 것으로 보임.


source: Generative Value
Please open Telegram to view this post
VIEW IN TELEGRAM
‒ 노무라의 Charlie McElligott은 최근 시장 조정의 핵심이 ‘기계적 수급(Vol Control·CTA)’에서 비롯된다고 분석함. 10월 10일 이후 변동성 급등(rVol spike)으로 인해 Vol Control 전략 자금이 지난 한 달간 약 1,178억 달러 규모의 미국 주식 익스포저를 강제 축소.

‒ 이는 시스템상 리스크 관리 규칙에 따라 포트폴리오 변동성이 높아지면 자동으로 주식 비중을 줄이는 ‘기계적 디레버리징’이며, 변동성 완화 시점까지는 추가 매도 압력이 지속될 수 있음.

‒ 다만 향후 몇 주간 S&P 등 주요 지수가 하루 ±1% 범위 내에서 안정적으로 움직일 경우, Vol Control 모델들이 자동적으로 재매수(Reallocation) 플로우를 낼 가능성이 높다고 분석.

‒ CTA(추세추종형) 자금은 현재도 하락에 반응 중이지만, 실질적인 대규모 매도(Real Notional Supply)는 -2~4% 추가 조정 구간에서 본격화될 것으로 전망.

‒ 즉, 현 시점은 CTA가 완전히 ‘Sell Mode’에 들어간 단계는 아니며, 아직 단기적 변동성 폭이 다음 단계의 자동 매도 트리거를 자극할 수준에는 미치지 못함.

‒ 따라서 시장이 단기간 변동성 완화 구간으로 들어가면 기계적 재매수(Vol Control Buyback) 흐름이 반대로 시장 하단을 지지할 수도 있음.

‒ 결론적으로, 현재 시장은 ‘Not Hedged Enough(하방 대비 부족)’ 상태에서 CTA·Vol Control 간 수급 밸런스가 불안정하게 흔들리고 있으며, 향후 변동성 궤적이 이 자동 매매 플로우의 방향(하방 가속 vs 반등 전환)을 결정할 핵심 변수로 작용할 전망.