Gromit 공부방
헬스케어 섹터는 헤지펀드가 5일 연속 순매수, 최근 17일 중 15일 순매수를 기록할 정도로 지속적 자금 유입이 이어지며, 총액 기준 Gross·Net 모두 지난 5년 중 98%ile 고점 수준까지 올라온 상태.
골드만 PBS 고객들이 지난주 가장 많이 순매수한 업종 헬스케어
Gromit 공부방
Non-Profitable Tech는 순매수 없이 오히려 숏이 5거래일 연속 증가하는 등 질적 선호에서 ‘퀄리티·수익성 중심 로테이션’이 유지된 흐름
= 아직 영웅호걸(a.k.a 모멘텀 카미카제)들의 시간은 아니라는
MS, What Could GOOGL Selling TPUs Externally Mean for GOOGL and Semis? (25.11.26)
‒ Google이 Meta 등 외부 고객에게 TPU를 직접 판매·임대하는 방안을 논의 중이며, Meta는 2027년 수십억 달러 규모 도입과 2026년 GCP 기반 TPU 임대까지 고려하는 등 TPU를 inference가 아닌 training용으로 활용하려는 움직임이 나타남.
‒ Google은 PyTorch 기반으로 TPU 클러스터를 제어할 수 있는 TPU Command Center를 개발해 기존 약점이던 개발자 친화도를 개선했고, Anthropic은 이미 약 100만 개 TPU 접근 계약을 맺어 외부 생태계 확산이 진행 중.
‒ Broadcom은 Google에 공급하는 TPU가 2025년 180만 개에서 2027년 300만 개로 늘어날 것으로 추정되며, 이는 Google이 외부 판매 여력을 확보하기 시작했다는 신호로 해석.
‒ Google이 외부 고객에게 TPU 50만 개를 판매할 경우 2027년 Cloud 매출은 약 +130억 달러(+11%), EPS는 +0.37달러(+3%) 개선되며 gross margin 30~60% 시나리오에서 TPU 매출의 상당 부분이 직접 이익으로 이어지는 구조.
‒ TPU 판매 모델은 직접 판매, 렌탈, 라이선스, GCP 연동 등 다양한 방식이 있을 수 있어 매출 인식·마진·CAPEX 영향이 아직 명확하지 않으며, 단품이 아닌 랙 스케일 판매 시 가격 구조는 더욱 달라질 수 있음.
‒ Meta가 TPU를 Llama 같은 LLM training 전체에 적용할지 일부 스테이지만 사용할지는 아직 불확실하지만, TPU의 비용 대비 성능 효율이 높아 CAPEX 부담을 완화할 수 있는 옵션으로 고려되고 있음.
‒ Meta는 NVDA GPU 100만 개 이상 구매가 예상되는 상황에서도 TPU·내부 ASIC(MTIA)·외부 ASIC·AMD GPU까지 compute 스택을 다변화하는 전략을 유지하며, TPU는 비용 효율 영역을 담당하는 보완축 역할을 할 가능성이 큼.
‒ Broadcom은 Google·Meta·ByteDance·Anthropic·OpenAI 등 XPU 고객군 확대의 직접 수혜를 보지만, ASIC 전략의 고객 의존도 변화는 리스크이기도 하며 TPU 외부 확산은 AVGO 공급망 가속을 의미.
‒ NVIDIA는 TPU 확산이 단기적으로 내러티브 노이즈는 되겠지만 실제로는 AI 수요·공급망 모두 강화되고 있으며 rack-scale·NVLink·InfiniBand 등에서 가장 성숙한 생태계를 유지해 구조적 영향은 제한적이라는 분석.
‒ AMD는 TPU·ASIC 확산으로 MI450 경쟁력이 상대적으로 약화될 수 있고, “어디서나 쓸 수 있는 중립 옵션”이라는 기존 장점이 희석되며, ROI를 입증하지 못하면 대규모 점유율 확보가 어려운 국면에 직면해 있음.
‒ Google이 Meta 등 외부 고객에게 TPU를 직접 판매·임대하는 방안을 논의 중이며, Meta는 2027년 수십억 달러 규모 도입과 2026년 GCP 기반 TPU 임대까지 고려하는 등 TPU를 inference가 아닌 training용으로 활용하려는 움직임이 나타남.
‒ Google은 PyTorch 기반으로 TPU 클러스터를 제어할 수 있는 TPU Command Center를 개발해 기존 약점이던 개발자 친화도를 개선했고, Anthropic은 이미 약 100만 개 TPU 접근 계약을 맺어 외부 생태계 확산이 진행 중.
‒ Broadcom은 Google에 공급하는 TPU가 2025년 180만 개에서 2027년 300만 개로 늘어날 것으로 추정되며, 이는 Google이 외부 판매 여력을 확보하기 시작했다는 신호로 해석.
‒ Google이 외부 고객에게 TPU 50만 개를 판매할 경우 2027년 Cloud 매출은 약 +130억 달러(+11%), EPS는 +0.37달러(+3%) 개선되며 gross margin 30~60% 시나리오에서 TPU 매출의 상당 부분이 직접 이익으로 이어지는 구조.
‒ TPU 판매 모델은 직접 판매, 렌탈, 라이선스, GCP 연동 등 다양한 방식이 있을 수 있어 매출 인식·마진·CAPEX 영향이 아직 명확하지 않으며, 단품이 아닌 랙 스케일 판매 시 가격 구조는 더욱 달라질 수 있음.
‒ Meta가 TPU를 Llama 같은 LLM training 전체에 적용할지 일부 스테이지만 사용할지는 아직 불확실하지만, TPU의 비용 대비 성능 효율이 높아 CAPEX 부담을 완화할 수 있는 옵션으로 고려되고 있음.
‒ Meta는 NVDA GPU 100만 개 이상 구매가 예상되는 상황에서도 TPU·내부 ASIC(MTIA)·외부 ASIC·AMD GPU까지 compute 스택을 다변화하는 전략을 유지하며, TPU는 비용 효율 영역을 담당하는 보완축 역할을 할 가능성이 큼.
‒ Broadcom은 Google·Meta·ByteDance·Anthropic·OpenAI 등 XPU 고객군 확대의 직접 수혜를 보지만, ASIC 전략의 고객 의존도 변화는 리스크이기도 하며 TPU 외부 확산은 AVGO 공급망 가속을 의미.
‒ NVIDIA는 TPU 확산이 단기적으로 내러티브 노이즈는 되겠지만 실제로는 AI 수요·공급망 모두 강화되고 있으며 rack-scale·NVLink·InfiniBand 등에서 가장 성숙한 생태계를 유지해 구조적 영향은 제한적이라는 분석.
‒ AMD는 TPU·ASIC 확산으로 MI450 경쟁력이 상대적으로 약화될 수 있고, “어디서나 쓸 수 있는 중립 옵션”이라는 기존 장점이 희석되며, ROI를 입증하지 못하면 대규모 점유율 확보가 어려운 국면에 직면해 있음.
Looming US Power Crunch to Impair AI Abilities, Schneider Says
‒ 슈나이더 일렉트릭은 미국 전력망이 노후 인프라와 데이터센터·공장·EV 확산으로 이미 한계에 근접했으며, 2028년부터는 피크 수요를 기존 설비로 감당하지 못해 비상예비력(Reserve Margin)을 일상적으로 소진하기 시작할 것이라 경고.
‒ NERC 데이터를 기반으로 한 자체 분석에서 2033년에는 최대 175GW의 전력 부족이 발생해 광범위한 정전·블랙아웃 위험이 현실화될 수 있다고 보며, 이는 미국의 AI 산업 경쟁력에도 직접적 타격이 될 것으로 전망.
‒ 데이터센터 전력 수요는 2035년까지 두 배로 증가해 미국 전체 수요의 약 9%를 차지하게 되고, 이미 일부 지역에서는 겨울철 피크 수요가 전년 대비 약 20GW 증가하며 전력망 취약성을 높이고 있음.
‒ 이러한 피크 수요 증가는 예비력 고갈로 이어져 극한 기상·사이버공격 등 비상 상황 대응 여력을 크게 떨어뜨리며, 예비력을 매일 사용하는 구조는 전력 시스템 신뢰도를 급격히 악화시키는 요인이 된다고 강조.
‒ 미국 그리드는 배터리 보급이 증가하고 있지만 전체 저장용량은 여전히 제한적이며, 실시간 수요·공급 균형을 맞추기 위해서는 기존 예비력 의존도가 구조적으로 더욱 높아지는 상황.
‒ 슈나이더는 NERC 전망과 자사 고객(Nvidia, Vantage, Compass, Microsoft, Google, Meta 등)의 실제 전력 수요 데이터를 비교해 동일한 증가 추세가 확인된다고 밝혀, AI·빅테크 전력 수요가 모델링보다 훨씬 과소평가되어 있다고 지적.
‒ 해결책으로 단기간 내 공급 확장이 어려운 만큼, 대규모 발전·송전 신설보다 그리드 용량을 즉시 늘릴 수 있는 Grid-Enhancing Technologies 우선 도입이 가장 현실적 대응이라고 결론지음.
source: Bloomberg
‒ 슈나이더 일렉트릭은 미국 전력망이 노후 인프라와 데이터센터·공장·EV 확산으로 이미 한계에 근접했으며, 2028년부터는 피크 수요를 기존 설비로 감당하지 못해 비상예비력(Reserve Margin)을 일상적으로 소진하기 시작할 것이라 경고.
‒ NERC 데이터를 기반으로 한 자체 분석에서 2033년에는 최대 175GW의 전력 부족이 발생해 광범위한 정전·블랙아웃 위험이 현실화될 수 있다고 보며, 이는 미국의 AI 산업 경쟁력에도 직접적 타격이 될 것으로 전망.
‒ 데이터센터 전력 수요는 2035년까지 두 배로 증가해 미국 전체 수요의 약 9%를 차지하게 되고, 이미 일부 지역에서는 겨울철 피크 수요가 전년 대비 약 20GW 증가하며 전력망 취약성을 높이고 있음.
‒ 이러한 피크 수요 증가는 예비력 고갈로 이어져 극한 기상·사이버공격 등 비상 상황 대응 여력을 크게 떨어뜨리며, 예비력을 매일 사용하는 구조는 전력 시스템 신뢰도를 급격히 악화시키는 요인이 된다고 강조.
‒ 미국 그리드는 배터리 보급이 증가하고 있지만 전체 저장용량은 여전히 제한적이며, 실시간 수요·공급 균형을 맞추기 위해서는 기존 예비력 의존도가 구조적으로 더욱 높아지는 상황.
‒ 슈나이더는 NERC 전망과 자사 고객(Nvidia, Vantage, Compass, Microsoft, Google, Meta 등)의 실제 전력 수요 데이터를 비교해 동일한 증가 추세가 확인된다고 밝혀, AI·빅테크 전력 수요가 모델링보다 훨씬 과소평가되어 있다고 지적.
‒ 해결책으로 단기간 내 공급 확장이 어려운 만큼, 대규모 발전·송전 신설보다 그리드 용량을 즉시 늘릴 수 있는 Grid-Enhancing Technologies 우선 도입이 가장 현실적 대응이라고 결론지음.
source: Bloomberg
BofA, Why did memory prices spike late in the year? A technical deep dive (25.11.25)
✅ AI 수요 폭발 + CUDA 진화 + 컨텍스트 대형화가 복합적으로 만든 ‘비정상적 메모리 슈퍼사이클’
‒ 최근 2개월간 DRAM과 NAND 모두 전례 없이 강한 상승세를 보였는데(특히 NAND는 Q4에 15~20% 계약가격 상승), 핵심 요인은 AI 인프라 수요가 기존 인프라 설계를 압도했기 때문’
‒ 단순히 GPU 늘리기 때문이 아니라 CUDA 12.8~13.0으로 GPU가 직접 접근·활용 가능한 메모리 총량이 폭증한 점이 가장 큰 구조적 변화로 지목됨.
‒ Unified Memory(UVM) 확장, Host Memory Integration, GPUDirect·DirectStorage 강화, Tile-based programming 등은 GPU가 VRAM을 넘어 DRAM·NAND까지 사실상 하나의 메모리 풀처럼 활용하게 만드는 기반이 됨.
‒ 여기에 LLM 컨텍스트 윈도우가 2K → 32K → 100K → 400K → 최대 1M tokens까지 확대되며, AI 시스템의 병목이 compute에서 memory·I/O로 이동.
‒ 동시에 PC·폰 수요 회복까지 겹쳐 기존 DDR·NAND 재고가 빠르게 축소되며 “AI + 일반 IT 수요 동시 회복”이라는 드문 조합이 발생함 → 실질적 메모리 공급 타이트닝이 심화됨.
✅ CUDA 12.8~13.0: GPU의 메모리 사용량을 구조적으로 키워버린 핵심 트리거
‒ CUDA 12.8 주요 변화:
» UVM 기반 Extended GPU Memory 지원 → 대규모 메모리 풀을 하나의 주소 공간처럼 사용 가능.
» Batch Async Copy API로 다양한 버퍼 이동을 병렬화 → GPU에 선적재되는 데이터 규모가 커짐.
» Checkpoint/Restore 기능으로 긴 LLM 파인튜닝 시 메모리 스냅샷 저장이 증가 → 메모리 사용량 추가 확대.
» LM Studio 등 로컬 inference 앱의 긴 프롬프트 로딩 속도가 개선되며 대형 모델·길어진 입력 처리 트렌드 가속.
‒ CUDA 13.0 주요 변화:
» Host Memory Integration(예: cuMemCreate)으로 CPU DRAM을 GPU 주소 공간에 직접 매핑 → GPU 메모리 초과 할당(Oversubnoscription)이 사실상 기본값이 됨.
» UVM 일관성(coherence) 향상으로 CPU+GPU 메모리를 하나의 공동 풀처럼 인식 → 더 큰 워킹셋을 부담 없이 구성.
» Tile-based programming·CUDA Graph Memory Node는 성능 최적화를 위해 초기부터 거대한 연속 버퍼를 예약하도록 요구 → 대형 모델·대용량 context 채택을 가속.
» 이 조합은 “GPU가 더 많은 데이터를 읽고 쓸 수 있어지고, 더 큰 모델·더 긴 context를 쓸 수 있게 됨” → 결과적으로 메모리/스토리지 총수요가 훨씬 커지는 방향으로 작동함.
✅ LLM 컨텍스트 윈도우 대형화가 메모리·스토리지 병목을 직접적으로 유발
‒ 컨텍스트 윈도우는 모델이 한 번에 처리할 수 있는 입력 길이로, 100K token은 75k 단어(200페이지 분량 책 1권)와 유사한 규모.
‒ Transformer self-attention은 context 길이가 2배 늘면 메모리 사용량이 최대 4배 필요해 VRAM 한계를 매우 빠르게 초과함.
‒ BofA는 예시로 12B 모델 + 128K context inference 시 attention cache만 약 20GB, 모델 weight 14GB, 오버헤드 포함 총 VRAM 37GB가 소모된다고 제시 → 단일 GPU로는 감당 불가.
‒ 이런 구조적 한계 때문에 GPU VRAM 부족 시 데이터는 자동으로 DRAM 또는 NVMe SSD로 spill-over됨.
‒ 최신 엔진(vLLM, ZeRO-Infinity)은 KV-cache, 모델 파라미터, 액티베이션을 NVMe에 저장하고 GPU는 현재 필요한 부분만 가져오도록 설계됨 → 실질적으로 SSD가 ‘확장 메모리’ 역할을 수행.
✅ NAND 플래시 가격 폭등: AI 인프라 구축이 스토리지 계층을 ‘총체적으로’ 바꿔버림
‒ Q4∙2025 NAND 계약가격이 오히려 비수기임에도 15~20% 상승했으며, 하이퍼스케일러의 aggressive한 NVMe 조달이 직접 원인.
‒ GPU oversubnoscription과 paging이 많아지면서 서버당 NVMe SSD 탑재량은 8TB → 16~32TB로 증가하는 추세.
‒ AI inference는 random read가 매우 많아 HDD는 아예 맞지 않고, SSD는 수백 배의 IOPS·마이크로초 단위 지연시간으로 적합 → hyperscaler는 flash pool로 빠르게 전환 중.
‒ DirectStorage·GPUDirect Storage 활용이 늘어나면서 GPU→SSD DMA 경로가 강화됨 → SSD에 더 낮은 레이턴시·더 큰 DRAM cache가 요구되며 NAND BOM 증가가 필수적.
✅ 멀티-GPU 아키텍처(NVLink·NVSwitch·MIG)가 메모리 수요를 기하급수적으로 키우는 방식
‒ NVSwitch 기반 NVL72·GB200 구조는 여러 GPU가 한 몸처럼 동작해 단일 super-GPU 형태로 모델+컨텍스트를 분산 적재함 → 전체 메모리 필요량은 단순 합산보다 더 큼.
‒ MIG(Multi-Instance GPU)는 한 GPU를 7개 VM처럼 쪼개 다수 유저 요청 등을 병렬 처리 → 컨텍스트·KV cache가 GPU당 7배 가까이 적재될 수 있음.
‒ 스케일업·스케일아웃 환경 모두 SSD·DRAM 대역폭 요구가 폭발하며 NAND/DRAM 조달 압력이 커짐.
✅ Flash가 메모리 계층으로 직접 편입되는 기술 혁신: High Bandwidth Flash(HBF)
‒ 2025년 SanDisk의 High Bandwidth Flash(HBF)는 “수 TB의 NAND를 HBM 보조 메모리처럼 쓰는” 새로운 구조를 제안.
‒ HBF 기반 GPU는 ‘unlimited HBF vs unlimited HBM’ 비교에서 읽기 기반 inference 워크로드 기준 성능 차이가 3% 이내라고 발표 → 읽기 위주 AI에는 매우 매력적.
‒ NAND는 HBM 대비 훨씬 저렴하고 훨씬 더 고밀도를 구성할 수 있어, 대규모 AI inference 인프라에서 사실상 ‘확장형 메모리 계층’으로 변모할 가능성이 높음.
‒ 이는 AI 인프라가 DRAM/HBM 중심 구조 → DRAM+NAND+플래시 캐시가 결합된 다층 구조로 전환되는 흐름을 의미.
💡 정리: 이번 메모리 가격 급등은 단순 수요 증가가 아니라 ‘AI 아키텍처 전반의 대전환’이 만든 기술 기반 수요 쇼크
» CUDA 진화로 GPU의 메모리 활용 범위가 확대되며 시스템 전체 메모리 요구치가 레벨업됨.
» LLM 컨텍스트 대형화가 DRAM·HBM·SSD 모두의 사용량을 구조적으로 끌어올리는 핵심 트리거.
» NVMe SSD는 이제 GPU의 사실상 필수 메모리 계층으로 편입되며 NAND 가격 탄력성은 과거 대비 훨씬 커짐.
» PC·폰·DC 일반 수요 회복까지 겹치며 DRAM/NAND 공급 타이트닝이 심각해졌고, 이번 가격 상승은 ‘AI + 전통 IT 회복’의 결합효과로 설명됨.
» 장단기적으로 메모리 수요는 구조적 체력 상승 국면에 진입했으며, 미래 AI 인프라에서는 NAND가 ‘메모리’로 재정의될 가능성이 높음.
‒ 최근 2개월간 DRAM과 NAND 모두 전례 없이 강한 상승세를 보였는데(특히 NAND는 Q4에 15~20% 계약가격 상승), 핵심 요인은 AI 인프라 수요가 기존 인프라 설계를 압도했기 때문’
‒ 단순히 GPU 늘리기 때문이 아니라 CUDA 12.8~13.0으로 GPU가 직접 접근·활용 가능한 메모리 총량이 폭증한 점이 가장 큰 구조적 변화로 지목됨.
‒ Unified Memory(UVM) 확장, Host Memory Integration, GPUDirect·DirectStorage 강화, Tile-based programming 등은 GPU가 VRAM을 넘어 DRAM·NAND까지 사실상 하나의 메모리 풀처럼 활용하게 만드는 기반이 됨.
‒ 여기에 LLM 컨텍스트 윈도우가 2K → 32K → 100K → 400K → 최대 1M tokens까지 확대되며, AI 시스템의 병목이 compute에서 memory·I/O로 이동.
‒ 동시에 PC·폰 수요 회복까지 겹쳐 기존 DDR·NAND 재고가 빠르게 축소되며 “AI + 일반 IT 수요 동시 회복”이라는 드문 조합이 발생함 → 실질적 메모리 공급 타이트닝이 심화됨.
‒ CUDA 12.8 주요 변화:
» UVM 기반 Extended GPU Memory 지원 → 대규모 메모리 풀을 하나의 주소 공간처럼 사용 가능.
» Batch Async Copy API로 다양한 버퍼 이동을 병렬화 → GPU에 선적재되는 데이터 규모가 커짐.
» Checkpoint/Restore 기능으로 긴 LLM 파인튜닝 시 메모리 스냅샷 저장이 증가 → 메모리 사용량 추가 확대.
» LM Studio 등 로컬 inference 앱의 긴 프롬프트 로딩 속도가 개선되며 대형 모델·길어진 입력 처리 트렌드 가속.
‒ CUDA 13.0 주요 변화:
» Host Memory Integration(예: cuMemCreate)으로 CPU DRAM을 GPU 주소 공간에 직접 매핑 → GPU 메모리 초과 할당(Oversubnoscription)이 사실상 기본값이 됨.
» UVM 일관성(coherence) 향상으로 CPU+GPU 메모리를 하나의 공동 풀처럼 인식 → 더 큰 워킹셋을 부담 없이 구성.
» Tile-based programming·CUDA Graph Memory Node는 성능 최적화를 위해 초기부터 거대한 연속 버퍼를 예약하도록 요구 → 대형 모델·대용량 context 채택을 가속.
» 이 조합은 “GPU가 더 많은 데이터를 읽고 쓸 수 있어지고, 더 큰 모델·더 긴 context를 쓸 수 있게 됨” → 결과적으로 메모리/스토리지 총수요가 훨씬 커지는 방향으로 작동함.
‒ 컨텍스트 윈도우는 모델이 한 번에 처리할 수 있는 입력 길이로, 100K token은 75k 단어(200페이지 분량 책 1권)와 유사한 규모.
‒ Transformer self-attention은 context 길이가 2배 늘면 메모리 사용량이 최대 4배 필요해 VRAM 한계를 매우 빠르게 초과함.
‒ BofA는 예시로 12B 모델 + 128K context inference 시 attention cache만 약 20GB, 모델 weight 14GB, 오버헤드 포함 총 VRAM 37GB가 소모된다고 제시 → 단일 GPU로는 감당 불가.
‒ 이런 구조적 한계 때문에 GPU VRAM 부족 시 데이터는 자동으로 DRAM 또는 NVMe SSD로 spill-over됨.
‒ 최신 엔진(vLLM, ZeRO-Infinity)은 KV-cache, 모델 파라미터, 액티베이션을 NVMe에 저장하고 GPU는 현재 필요한 부분만 가져오도록 설계됨 → 실질적으로 SSD가 ‘확장 메모리’ 역할을 수행.
‒ Q4∙2025 NAND 계약가격이 오히려 비수기임에도 15~20% 상승했으며, 하이퍼스케일러의 aggressive한 NVMe 조달이 직접 원인.
‒ GPU oversubnoscription과 paging이 많아지면서 서버당 NVMe SSD 탑재량은 8TB → 16~32TB로 증가하는 추세.
‒ AI inference는 random read가 매우 많아 HDD는 아예 맞지 않고, SSD는 수백 배의 IOPS·마이크로초 단위 지연시간으로 적합 → hyperscaler는 flash pool로 빠르게 전환 중.
‒ DirectStorage·GPUDirect Storage 활용이 늘어나면서 GPU→SSD DMA 경로가 강화됨 → SSD에 더 낮은 레이턴시·더 큰 DRAM cache가 요구되며 NAND BOM 증가가 필수적.
‒ NVSwitch 기반 NVL72·GB200 구조는 여러 GPU가 한 몸처럼 동작해 단일 super-GPU 형태로 모델+컨텍스트를 분산 적재함 → 전체 메모리 필요량은 단순 합산보다 더 큼.
‒ MIG(Multi-Instance GPU)는 한 GPU를 7개 VM처럼 쪼개 다수 유저 요청 등을 병렬 처리 → 컨텍스트·KV cache가 GPU당 7배 가까이 적재될 수 있음.
‒ 스케일업·스케일아웃 환경 모두 SSD·DRAM 대역폭 요구가 폭발하며 NAND/DRAM 조달 압력이 커짐.
‒ 2025년 SanDisk의 High Bandwidth Flash(HBF)는 “수 TB의 NAND를 HBM 보조 메모리처럼 쓰는” 새로운 구조를 제안.
‒ HBF 기반 GPU는 ‘unlimited HBF vs unlimited HBM’ 비교에서 읽기 기반 inference 워크로드 기준 성능 차이가 3% 이내라고 발표 → 읽기 위주 AI에는 매우 매력적.
‒ NAND는 HBM 대비 훨씬 저렴하고 훨씬 더 고밀도를 구성할 수 있어, 대규모 AI inference 인프라에서 사실상 ‘확장형 메모리 계층’으로 변모할 가능성이 높음.
‒ 이는 AI 인프라가 DRAM/HBM 중심 구조 → DRAM+NAND+플래시 캐시가 결합된 다층 구조로 전환되는 흐름을 의미.
» CUDA 진화로 GPU의 메모리 활용 범위가 확대되며 시스템 전체 메모리 요구치가 레벨업됨.
» LLM 컨텍스트 대형화가 DRAM·HBM·SSD 모두의 사용량을 구조적으로 끌어올리는 핵심 트리거.
» NVMe SSD는 이제 GPU의 사실상 필수 메모리 계층으로 편입되며 NAND 가격 탄력성은 과거 대비 훨씬 커짐.
» PC·폰·DC 일반 수요 회복까지 겹치며 DRAM/NAND 공급 타이트닝이 심각해졌고, 이번 가격 상승은 ‘AI + 전통 IT 회복’의 결합효과로 설명됨.
» 장단기적으로 메모리 수요는 구조적 체력 상승 국면에 진입했으며, 미래 AI 인프라에서는 NAND가 ‘메모리’로 재정의될 가능성이 높음.
Please open Telegram to view this post
VIEW IN TELEGRAM
Gromit 공부방
BofA, Why did memory prices spike late in the year? A technical deep dive (25.11.25) ✅ AI 수요 폭발 + CUDA 진화 + 컨텍스트 대형화가 복합적으로 만든 ‘비정상적 메모리 슈퍼사이클’ ‒ 최근 2개월간 DRAM과 NAND 모두 전례 없이 강한 상승세를 보였는데(특히 NAND는 Q4에 15~20% 계약가격 상승), 핵심 요인은 AI 인프라 수요가 기존 인프라 설계를 압도했기 때문’…
세 줄 요약
1. AI 모델 대형화·컨텍스트 확장·CUDA 업그레이드로 GPU가 DRAM·NAND까지 통합 메모리처럼 쓰기 시작하면서 시스템 전체 메모리 요구량이 구조적으로 폭증.
2. 이로 인해 서버당 NVMe 탑재량이 급격히 늘고 하이퍼스케일러의 SSD 조달이 과열되며 Q4 NAND 계약가격이 비수기에도 15~20% 급등하는 이례적 수급 쇼크 발생.
3. 결국 이번 메모리 급등은 단순한 단기 수요 회복이나 사이클 요인 때문이 아니라, AI 아키텍처가 DRAM+NAND 중심의 다층 메모리 구조로 재편되면서 발생한 기술적 전환 기반의 실질 수요 폭증이 핵심.
1. AI 모델 대형화·컨텍스트 확장·CUDA 업그레이드로 GPU가 DRAM·NAND까지 통합 메모리처럼 쓰기 시작하면서 시스템 전체 메모리 요구량이 구조적으로 폭증.
2. 이로 인해 서버당 NVMe 탑재량이 급격히 늘고 하이퍼스케일러의 SSD 조달이 과열되며 Q4 NAND 계약가격이 비수기에도 15~20% 급등하는 이례적 수급 쇼크 발생.
3. 결국 이번 메모리 급등은 단순한 단기 수요 회복이나 사이클 요인 때문이 아니라, AI 아키텍처가 DRAM+NAND 중심의 다층 메모리 구조로 재편되면서 발생한 기술적 전환 기반의 실질 수요 폭증이 핵심.
Forwarded from 서화백의 그림놀이 🚀
#JPM헬스케어컨퍼런스
- T=0 을 JPM헬스케어컨퍼런스 시작일로 두고
- 최근 10개년도 동안 제약바이오와 코스닥 지수의 60일전과 30일후 퍼포먼스에 대해서 보았는데
- 제바 지수는 평균적으로 시작일 전까지 코스닥 대비해서 더 많이 오르다가 시작한 다음부터는 코스닥을 언더퍼폼하는것을 보였습니다
- 30일 전부터가 기대수익률이 제일 높았고 JPMHC컨퍼런스 시작일에는 일단 파는것이 확률이 높다는 !
- 당연히 평균의 함정이 있기 떄문에 투자판단은 알아서
thx to 로제like퀀트
- T=0 을 JPM헬스케어컨퍼런스 시작일로 두고
- 최근 10개년도 동안 제약바이오와 코스닥 지수의 60일전과 30일후 퍼포먼스에 대해서 보았는데
- 제바 지수는 평균적으로 시작일 전까지 코스닥 대비해서 더 많이 오르다가 시작한 다음부터는 코스닥을 언더퍼폼하는것을 보였습니다
- 30일 전부터가 기대수익률이 제일 높았고 JPMHC컨퍼런스 시작일에는 일단 파는것이 확률이 높다는 !
- 당연히 평균의 함정이 있기 떄문에 투자판단은 알아서
thx to 로제like퀀트
Forwarded from 선수촌
Naver
[속보] 최수연 "네이버파이낸셜, 나스닥 상장 추진 정해진 것 없다"
"연말이었다."
가 떠오르는
내용은 곧 빅테크에 수주한다도르라고 함
https://www.wowtv.co.kr/NewsCenter/News/Read?articleId=A202511260383&t=NNv
내용도(곧 머시기 나온다도르) 차트도 K-바이오텍과 유사
내년 연초까지 개투햄들의 자산 증식이 이루어지는 시즌인가보다
#삼현
가 떠오르는
내용은 곧 빅테크에 수주한다도르라고 함
https://www.wowtv.co.kr/NewsCenter/News/Read?articleId=A202511260383&t=NNv
내용도(곧 머시기 나온다도르) 차트도 K-바이오텍과 유사
내년 연초까지 개투햄들의 자산 증식이 이루어지는 시즌인가보다
#삼현
Robinhood의 파생거래소 수직통합 전략에 대한 주요 기관 뷰 정리
- - - - -
➤ Goldman Sachs – “Prediction Markets 수직통합을 통한 단가·통제력·스케일 확보”, TP $175
✅ 핵심 메시지
‒ HOOD가 SIG(서스퀘하나 인터내셔널)와 JV를 만들어 MIAXdx(DCM+DCO+SEF) 지분 90%를 인수하면서, 예측시장 전용 파생상품 거래소·청산소를 직접 보유하는 구조로 진화.
‒ 이는 HOOD의 예측시장 비즈니스가 1년 만에 9bn 계약·100만 고객·연환산 매출 3억 달러로 급성장한 데 대한 수직 통합형 대응으로 평가.
✅ GS가 본 전략적 의미
‒ ① 계약(Product) 통제권 강화: 기존 Kalshi 같은 외부 DCM을 통하던 구조 → 이제 HOOD 스스로 어떤 Prediction·Event Contract를 만들지 결정 가능.
‒ ② SIG의 유동성(시장조성) 투입: 예측시장은 종목 수가 많고 이벤트 생성 주기가 빠르기 때문에 원래 유동성이 낮은 시장. SIG가 JV 참여함으로써 초기부터 안정적인 유동성 확보 가능.
‒ ③ Value Chain 양방향 Monetization: 현재 HOOD는 브로커/FCM 수수료로 건당 1센트만 벌지만, JV 거래소도 1센트 수준 수수료 구조이므로 브로커 + 거래소 양측에서 동시 수익화 가능.
‒ ④ Investment 부담은 제한적: MIAXdx가 이미 규제 라이선스·인프라를 갖고 있어 신규 구축비용은 낮을 것으로 판단.
✅ GS 결론
‒ Prediction markets의 폭발적 확장 속에서 HOOD가 완전한 파생상품 인프라(DCM+DCO+SEF) 를 가진 플랫폼으로 진화하는 과정으로 평가.
‒ 과거 crypto도 브로커→Bitstamp 인수로 거래소까지 확장한 전례와 동일한 전략적 패턴.
- - - - -
➤ Barclays – “예측시장·스포츠베팅 영역까지 적극 확장, 규제 리스크는 여전히 핵심 변수”, TP $168
✅ 핵심 메시지
‒ Robinhood는 이번 JV를 통해 자체 Futures/Derivatives 거래소를 인수, Prediction·Sports 경기를 포함한 Event Contracts를 직접 상장·관리하는 방향으로 더 깊숙이 들어가는 전략.
‒ 빠르게 폭증 중인 Prediction 거래량(0.5bn → 1bn → 2.3bn → 2.5bn)을 감안하면 자연스러운 확장.
✅ Barclays가 본 전략적 효과
‒ ① Contract Launch 속도 개선: Futures 거래소는 CEA(Self-Certification)로 제품 출시 제한이 약해 신규 이벤트 계약 상장 속도가 증권/옵션 대비 훨씬 빠름.
‒ ② Kalshi 대비 경쟁력 강화: 지금은 Kalshi의 상품이 먼저 Kalshi 플랫폼에서 나오고 나중에 HOOD에 붙는 구조.
→ 향후에는 HOOD가 직접 원하는 계약을 원하는 시점에 출시 가능.
‒ ③ Economics 개선: 브로커 수익 + 거래소 수익 동시에 확보, 마진 구조가 크게 개선될 수 있다고 평가.
✅ 하지만 Barclays가 강조한 리스크
‒ Sports Contracts 규제 리스크가 매우 큼:
» Nevada 판결에서 Kalshi가 gaming regulation 적용 대상이라고 판단됨.
» Crypto.com도 유사 판결.
» MA/OH/MD/NV/NJ/NY 등 다수 주에서 스포츠 이벤트 계약 규제 이슈 진행 중.
→ 스포츠 영역은 불확실성이 매우 높고, 케이스별로 결과가 갈릴 가능성.
‒ CME가 수년간 이벤트 계약을 운영해왔지만 스포츠는 별개의 규제 영역이라 위험도 다름.
✅ Barclays 결론
‒ HOOD는 예측시장·스포츠·파생상품을 포함한 차세대 이벤트 트레이딩 Exchange로 포지션 강화 중.
‒ 단, 규제 리스크가 단기 밸류에이션 디스카운트 요인으로 지속될 전망.
- - - - -
➤ Cantor – “HOOD의 제품 확장 속도·분배력 자체가 진짜 경쟁력”, TP $155
✅ 핵심 메시지
‒ Prediction markets는 HOOD 역사상 가장 빠르게 성장한 신규 제품군이며, 런칭 1년 만에 9bn 계약·100만 고객 확보.
‒ 이번 JV는 HOOD가 Institutional-grade 거래소로 확장하면서, 기존 Kalshi 중심 구조에서 라이선스 기반 독립 플랫폼으로 이동하는 과정.
✅ Cantor가 주목한 포인트
‒ ① DCM/DCO/SEF 풀스택 인프라 확보:
» Futures 및 Options on Futures
» Swaps(금리·크레딧 등)
→ Prediction을 넘어 광범위한 파생상품 인프라 소유.
‒ ② SIG가 Day-1 유동성 공급자 역할: 유동성 부족이 예측시장의 병목이었는데 이를 단번에 해결하는 구조.
‒ ③ Kalshi와의 관계 불투명: Kalshi와 계속 협업할지, 혹은 경쟁 구조로 갈지는 아직 명확하지 않음.
‒ ④ HOOD의 고유 경쟁력 = Product Velocity + Distribution Power:
» HOOD는 신규 상품을 출시하면 즉시 수백만 유저에게 배포 가능.
» 예측시장·파생·Advisory·암호화폐 등 신사업에서 계속 시장 점유율 높이는 핵심 요인으로 평가.
- - - - -
💡 세 기관 비교 핵심 정리
① 전략적 해석
‒ GS: 수직 통합을 통한 Value Chain 확보에 초점.
‒ Barclays: 예측시장·스포츠·이벤트 거래소로의 확장을 강조, 다만 규제가 최대 이슈.
‒ Cantor: HOOD의 ‘제품 개발 속도 + 유저베이스 분배력’을 핵심 경쟁력으로 분석.
② 핵심 모멘텀
‒ 예측시장은 HOOD 역사상 가장 빠른 성장 → 9bn 계약, 100만 유저
‒ SIG 참여로 유동성 문제 해결
‒ MIAXdx 인수로 DCM+DCO+SEF 풀스택 확보
‒ 기존 Kalshi 구조를 벗어나 HOOD 자체 거래소 시대 개막
③ 리스크 포인트
‒ 규제(특히 스포츠): Barclays가 가장 강도 높게 강조
‒ 기관향 유동성·스왑 시장 진입 성공 여부(Cantor)
‒ 투자 규모 및 실행력/제품화 속도(GS는 상대적으로 우려 낮게 봄)
#HOOD
- - - - -
➤ Goldman Sachs – “Prediction Markets 수직통합을 통한 단가·통제력·스케일 확보”, TP $175
‒ HOOD가 SIG(서스퀘하나 인터내셔널)와 JV를 만들어 MIAXdx(DCM+DCO+SEF) 지분 90%를 인수하면서, 예측시장 전용 파생상품 거래소·청산소를 직접 보유하는 구조로 진화.
‒ 이는 HOOD의 예측시장 비즈니스가 1년 만에 9bn 계약·100만 고객·연환산 매출 3억 달러로 급성장한 데 대한 수직 통합형 대응으로 평가.
‒ ① 계약(Product) 통제권 강화: 기존 Kalshi 같은 외부 DCM을 통하던 구조 → 이제 HOOD 스스로 어떤 Prediction·Event Contract를 만들지 결정 가능.
‒ ② SIG의 유동성(시장조성) 투입: 예측시장은 종목 수가 많고 이벤트 생성 주기가 빠르기 때문에 원래 유동성이 낮은 시장. SIG가 JV 참여함으로써 초기부터 안정적인 유동성 확보 가능.
‒ ③ Value Chain 양방향 Monetization: 현재 HOOD는 브로커/FCM 수수료로 건당 1센트만 벌지만, JV 거래소도 1센트 수준 수수료 구조이므로 브로커 + 거래소 양측에서 동시 수익화 가능.
‒ ④ Investment 부담은 제한적: MIAXdx가 이미 규제 라이선스·인프라를 갖고 있어 신규 구축비용은 낮을 것으로 판단.
‒ Prediction markets의 폭발적 확장 속에서 HOOD가 완전한 파생상품 인프라(DCM+DCO+SEF) 를 가진 플랫폼으로 진화하는 과정으로 평가.
‒ 과거 crypto도 브로커→Bitstamp 인수로 거래소까지 확장한 전례와 동일한 전략적 패턴.
- - - - -
➤ Barclays – “예측시장·스포츠베팅 영역까지 적극 확장, 규제 리스크는 여전히 핵심 변수”, TP $168
‒ Robinhood는 이번 JV를 통해 자체 Futures/Derivatives 거래소를 인수, Prediction·Sports 경기를 포함한 Event Contracts를 직접 상장·관리하는 방향으로 더 깊숙이 들어가는 전략.
‒ 빠르게 폭증 중인 Prediction 거래량(0.5bn → 1bn → 2.3bn → 2.5bn)을 감안하면 자연스러운 확장.
‒ ① Contract Launch 속도 개선: Futures 거래소는 CEA(Self-Certification)로 제품 출시 제한이 약해 신규 이벤트 계약 상장 속도가 증권/옵션 대비 훨씬 빠름.
‒ ② Kalshi 대비 경쟁력 강화: 지금은 Kalshi의 상품이 먼저 Kalshi 플랫폼에서 나오고 나중에 HOOD에 붙는 구조.
→ 향후에는 HOOD가 직접 원하는 계약을 원하는 시점에 출시 가능.
‒ ③ Economics 개선: 브로커 수익 + 거래소 수익 동시에 확보, 마진 구조가 크게 개선될 수 있다고 평가.
‒ Sports Contracts 규제 리스크가 매우 큼:
» Nevada 판결에서 Kalshi가 gaming regulation 적용 대상이라고 판단됨.
» Crypto.com도 유사 판결.
» MA/OH/MD/NV/NJ/NY 등 다수 주에서 스포츠 이벤트 계약 규제 이슈 진행 중.
→ 스포츠 영역은 불확실성이 매우 높고, 케이스별로 결과가 갈릴 가능성.
‒ CME가 수년간 이벤트 계약을 운영해왔지만 스포츠는 별개의 규제 영역이라 위험도 다름.
‒ HOOD는 예측시장·스포츠·파생상품을 포함한 차세대 이벤트 트레이딩 Exchange로 포지션 강화 중.
‒ 단, 규제 리스크가 단기 밸류에이션 디스카운트 요인으로 지속될 전망.
- - - - -
➤ Cantor – “HOOD의 제품 확장 속도·분배력 자체가 진짜 경쟁력”, TP $155
‒ Prediction markets는 HOOD 역사상 가장 빠르게 성장한 신규 제품군이며, 런칭 1년 만에 9bn 계약·100만 고객 확보.
‒ 이번 JV는 HOOD가 Institutional-grade 거래소로 확장하면서, 기존 Kalshi 중심 구조에서 라이선스 기반 독립 플랫폼으로 이동하는 과정.
‒ ① DCM/DCO/SEF 풀스택 인프라 확보:
» Futures 및 Options on Futures
» Swaps(금리·크레딧 등)
→ Prediction을 넘어 광범위한 파생상품 인프라 소유.
‒ ② SIG가 Day-1 유동성 공급자 역할: 유동성 부족이 예측시장의 병목이었는데 이를 단번에 해결하는 구조.
‒ ③ Kalshi와의 관계 불투명: Kalshi와 계속 협업할지, 혹은 경쟁 구조로 갈지는 아직 명확하지 않음.
‒ ④ HOOD의 고유 경쟁력 = Product Velocity + Distribution Power:
» HOOD는 신규 상품을 출시하면 즉시 수백만 유저에게 배포 가능.
» 예측시장·파생·Advisory·암호화폐 등 신사업에서 계속 시장 점유율 높이는 핵심 요인으로 평가.
- - - - -
① 전략적 해석
‒ GS: 수직 통합을 통한 Value Chain 확보에 초점.
‒ Barclays: 예측시장·스포츠·이벤트 거래소로의 확장을 강조, 다만 규제가 최대 이슈.
‒ Cantor: HOOD의 ‘제품 개발 속도 + 유저베이스 분배력’을 핵심 경쟁력으로 분석.
② 핵심 모멘텀
‒ 예측시장은 HOOD 역사상 가장 빠른 성장 → 9bn 계약, 100만 유저
‒ SIG 참여로 유동성 문제 해결
‒ MIAXdx 인수로 DCM+DCO+SEF 풀스택 확보
‒ 기존 Kalshi 구조를 벗어나 HOOD 자체 거래소 시대 개막
③ 리스크 포인트
‒ 규제(특히 스포츠): Barclays가 가장 강도 높게 강조
‒ 기관향 유동성·스왑 시장 진입 성공 여부(Cantor)
‒ 투자 규모 및 실행력/제품화 속도(GS는 상대적으로 우려 낮게 봄)
#HOOD
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 루팡
Google TPU v6e vs AMD MI300X vs NVIDIA H100/B200: Artificial Analysis 하드웨어 벤치마킹 결과
Artificial Analysis의 벤치마킹에 따르면, 당사의 핵심 추론 비용 지표에서 NVIDIA가 Google TPU v6e(Trillium) 대비 약 5배, AMD MI300X 대비 약 2배 더 높은 '달러당 토큰(tokens-per-dollar)' 효율을 달성했습니다.
'기준 속도에서의 입력 및 출력 100만 토큰당 비용(Cost Per Million Input and Output Tokens at Reference Speed)'이라는 지표를 기준으로 볼 때, NVIDIA H100 및 B200 시스템이 TPU v6e나 MI300X보다 전반적으로 더 낮은 비용을 기록했습니다.
[Llama 3.3 70B 모델 (vLLM 구동, 쿼리당 초당 30 출력 토큰 속도 기준) 비교]
NVIDIA H100: $1.06 (100만 토큰당)
AMD MI300X: $2.24
Google TPU v6e: $5.13
이 분석은 다양한 동시성(Concurrency) 수준에서의 시스템 추론 처리량(Throughput)에 대한 'Artificial Analysis 시스템 부하 테스트' 결과와 여러 GPU 클라우드 제공업체에서 수집한 가격 데이터를 기반으로 합니다. 해당 비용 지표는 시스템이 '쿼리당 초당 30 출력 토큰'의 속도를 유지하면서 달성할 수 있는 처리량을 기준으로, 시스템 대여 비용을 그 처리량(100만 토큰 단위로 환산)으로 나누어 산출했습니다.
Artificial Analysis의 벤치마킹에 따르면, 당사의 핵심 추론 비용 지표에서 NVIDIA가 Google TPU v6e(Trillium) 대비 약 5배, AMD MI300X 대비 약 2배 더 높은 '달러당 토큰(tokens-per-dollar)' 효율을 달성했습니다.
'기준 속도에서의 입력 및 출력 100만 토큰당 비용(Cost Per Million Input and Output Tokens at Reference Speed)'이라는 지표를 기준으로 볼 때, NVIDIA H100 및 B200 시스템이 TPU v6e나 MI300X보다 전반적으로 더 낮은 비용을 기록했습니다.
[Llama 3.3 70B 모델 (vLLM 구동, 쿼리당 초당 30 출력 토큰 속도 기준) 비교]
NVIDIA H100: $1.06 (100만 토큰당)
AMD MI300X: $2.24
Google TPU v6e: $5.13
이 분석은 다양한 동시성(Concurrency) 수준에서의 시스템 추론 처리량(Throughput)에 대한 'Artificial Analysis 시스템 부하 테스트' 결과와 여러 GPU 클라우드 제공업체에서 수집한 가격 데이터를 기반으로 합니다. 해당 비용 지표는 시스템이 '쿼리당 초당 30 출력 토큰'의 속도를 유지하면서 달성할 수 있는 처리량을 기준으로, 시스템 대여 비용을 그 처리량(100만 토큰 단위로 환산)으로 나누어 산출했습니다.
Nomura, Asia PC & Smartphone - 2026F outlook: surging cost is a concern (25.11.26)
‒ 노무라는 2026년 IT 전방(PC·스마트폰)에서 메모리 가격 급등이 핵심 리스크로 작용하며 완제품 가격 인상 → 수요 둔화 → OEM 마진 압박이 동시에 진행되는 ‘원가발 충격 사이클’이 본격화될 것으로 판단.
‒ PC는 Windows 11 교체수요가 2025년에 선반영되면서 2026년 전체 출하 -2.8%, 데스크톱 -5%, 노트북 -2%로 역성장 전환이 확정적이며, 수요 둔화 국면에서 가격 전가 여력이 낮아짐.
‒ 메모리 가격은 2025년 4Q +15%, 2026년 1Q +25% 등 급등세가 이어지며 분기 단위 시차로 OEM 원가에 반영돼 2026년 1Q~2Q가 가장 강한 마진 하락 구간이 될 것.
‒ PC BOM에서 CPU 30%, DRAM/NAND 합산 15~25%로 고비중인데, 두 영역 모두 공급 제약·단가 인상이 동시에 발생해 OEM이 취할 수 있는 대응은 가격 인상 외 거의 존재하지 않음.
‒ Intel은 Raptor Lake 공급 부족에 이어 Panther Lake 및 차세대 라인업 가격 인상을 예고해 OEM 단가 부담이 분기당 추가 20~30달러 증가할 수 있으며, 이는 저가형 모델 수익성에 특히 타격.
‒ 메모리 가격이 50% 상승할 경우 PC OEM GPM은 약 -2%p 축소되며, 소매가를 약 9% 인상해도 원가 상승을 완전히 상쇄하지 못해 수익성 악화가 불가피.
‒ 스마트폰 출하량은 2026년 -1.7% 역성장 전망이며, DRAM·NAND 가격 급등이 USD 450 이하 중저가 시장에 집중 타격을 주면서 출하 가이던스를 달성하기 어려운 업체가 증가할 가능성이 높음.
‒ 중국은 2025년 보조금 효과 소멸로 Android 수요 둔화가 심화되는 가운데, iPhone 17이 4Q25에 강한 사이클을 보이더라도 2026년 전반 시장 둔화를 상쇄하기엔 역부족이라고 판단.
‒ Apple·삼성은 고가 센서·Face ID·카메라 등 프리미엄 부품 비중 및 메모리 내재화 구조 덕에 비용 상승의 체감 강도가 낮지만, 비삼성 Android OEM은 AP·DRAM·NAND 가격 상승이 동시에 맞물려 가장 취약한 포지션에 놓임.
‒ 종합하면 2026년은 PC·스마트폰 모두에서 부품 가격 상승 압력이 정점을 형성하며 수요·마진에 광범위한 부정적 영향이 예상되고, 메모리·CPU(AP)의 공급·가격이 전체 실적 변동의 중심 변수가 될 전망.
‒ 노무라는 2026년 IT 전방(PC·스마트폰)에서 메모리 가격 급등이 핵심 리스크로 작용하며 완제품 가격 인상 → 수요 둔화 → OEM 마진 압박이 동시에 진행되는 ‘원가발 충격 사이클’이 본격화될 것으로 판단.
‒ PC는 Windows 11 교체수요가 2025년에 선반영되면서 2026년 전체 출하 -2.8%, 데스크톱 -5%, 노트북 -2%로 역성장 전환이 확정적이며, 수요 둔화 국면에서 가격 전가 여력이 낮아짐.
‒ 메모리 가격은 2025년 4Q +15%, 2026년 1Q +25% 등 급등세가 이어지며 분기 단위 시차로 OEM 원가에 반영돼 2026년 1Q~2Q가 가장 강한 마진 하락 구간이 될 것.
‒ PC BOM에서 CPU 30%, DRAM/NAND 합산 15~25%로 고비중인데, 두 영역 모두 공급 제약·단가 인상이 동시에 발생해 OEM이 취할 수 있는 대응은 가격 인상 외 거의 존재하지 않음.
‒ Intel은 Raptor Lake 공급 부족에 이어 Panther Lake 및 차세대 라인업 가격 인상을 예고해 OEM 단가 부담이 분기당 추가 20~30달러 증가할 수 있으며, 이는 저가형 모델 수익성에 특히 타격.
‒ 메모리 가격이 50% 상승할 경우 PC OEM GPM은 약 -2%p 축소되며, 소매가를 약 9% 인상해도 원가 상승을 완전히 상쇄하지 못해 수익성 악화가 불가피.
‒ 스마트폰 출하량은 2026년 -1.7% 역성장 전망이며, DRAM·NAND 가격 급등이 USD 450 이하 중저가 시장에 집중 타격을 주면서 출하 가이던스를 달성하기 어려운 업체가 증가할 가능성이 높음.
‒ 중국은 2025년 보조금 효과 소멸로 Android 수요 둔화가 심화되는 가운데, iPhone 17이 4Q25에 강한 사이클을 보이더라도 2026년 전반 시장 둔화를 상쇄하기엔 역부족이라고 판단.
‒ Apple·삼성은 고가 센서·Face ID·카메라 등 프리미엄 부품 비중 및 메모리 내재화 구조 덕에 비용 상승의 체감 강도가 낮지만, 비삼성 Android OEM은 AP·DRAM·NAND 가격 상승이 동시에 맞물려 가장 취약한 포지션에 놓임.
‒ 종합하면 2026년은 PC·스마트폰 모두에서 부품 가격 상승 압력이 정점을 형성하며 수요·마진에 광범위한 부정적 영향이 예상되고, 메모리·CPU(AP)의 공급·가격이 전체 실적 변동의 중심 변수가 될 전망.
Gromit 공부방
Discretionary vs Systematic Equity Positioning 업뎃
Discretionary vs Systematic Equity Positioning 업뎃
Forwarded from 선수촌
유가증권시장에 쏠려 있는 연기금의 코스닥 투자 비중을 높이는 것도 주요 과제 중 하나로 꼽힌다. 정부는 3%대인 연기금의 코스닥 투자 비중을 5% 안팎으로 높이도록 유도하는 방안을 검토 중이다.
https://n.news.naver.com/mnews/article/015/0005217155
국민연금 3대 목적 완성
1. 내돈으로 옆집부모에게 효도하기
2. 환율방어
3. 코스닥방어
Naver
[단독] 이번엔 코스닥 띄운다…稅 당근, 연기금 등판, 모험자본 투입
49.78% vs 20.96%. 최근 6개월 새 유가증권시장과 코스닥시장 상승률이다. 정부가 ‘코스피지수 5000 시대’를 공약으로 내건 뒤 코스닥시장은 정부는 물론 투자자에게서 외면받는 모양새가 됐다. 정부가 지지