Gromit 공부방 – Telegram
Gromit 공부방
2.47K subscribers
6.08K photos
57 videos
197 files
1.63K links
그때는 맞고 지금은 틀리다. 그때그때 되는 것에 투기

시장은 항상 옳다. 시장을 평가하지 말고 비난하지 마라. 시장을 추종하라.

* 면책 조항
- 본 채널은 개인적인 스터디와 매매 복기, 자료 수집 등으로 사용되며 매수나 매도에 대한 추천을 하는 것이 아님.
- 본 채널에서 언급되는 모든 내용은 개인적인 견해일 뿐, 그 정확성이나 완전성을 보장할 수 없음.
Download Telegram
BofA, Why did memory prices spike late in the year? A technical deep dive (25.11.25)

AI 수요 폭발 + CUDA 진화 + 컨텍스트 대형화가 복합적으로 만든 ‘비정상적 메모리 슈퍼사이클’
‒ 최근 2개월간 DRAM과 NAND 모두 전례 없이 강한 상승세를 보였는데(특히 NAND는 Q4에 15~20% 계약가격 상승), 핵심 요인은 AI 인프라 수요가 기존 인프라 설계를 압도했기 때문’
‒ 단순히 GPU 늘리기 때문이 아니라 CUDA 12.8~13.0으로 GPU가 직접 접근·활용 가능한 메모리 총량이 폭증한 점이 가장 큰 구조적 변화로 지목됨.
‒ Unified Memory(UVM) 확장, Host Memory Integration, GPUDirect·DirectStorage 강화, Tile-based programming 등은 GPU가 VRAM을 넘어 DRAM·NAND까지 사실상 하나의 메모리 풀처럼 활용하게 만드는 기반이 됨.
‒ 여기에 LLM 컨텍스트 윈도우가 2K → 32K → 100K → 400K → 최대 1M tokens까지 확대되며, AI 시스템의 병목이 compute에서 memory·I/O로 이동.
‒ 동시에 PC·폰 수요 회복까지 겹쳐 기존 DDR·NAND 재고가 빠르게 축소되며 “AI + 일반 IT 수요 동시 회복”이라는 드문 조합이 발생함 → 실질적 메모리 공급 타이트닝이 심화됨.

CUDA 12.8~13.0: GPU의 메모리 사용량을 구조적으로 키워버린 핵심 트리거
‒ CUDA 12.8 주요 변화:
» UVM 기반 Extended GPU Memory 지원 → 대규모 메모리 풀을 하나의 주소 공간처럼 사용 가능.
» Batch Async Copy API로 다양한 버퍼 이동을 병렬화 → GPU에 선적재되는 데이터 규모가 커짐.
» Checkpoint/Restore 기능으로 긴 LLM 파인튜닝 시 메모리 스냅샷 저장이 증가 → 메모리 사용량 추가 확대.
» LM Studio 등 로컬 inference 앱의 긴 프롬프트 로딩 속도가 개선되며 대형 모델·길어진 입력 처리 트렌드 가속.
‒ CUDA 13.0 주요 변화:
» Host Memory Integration(예: cuMemCreate)으로 CPU DRAM을 GPU 주소 공간에 직접 매핑 → GPU 메모리 초과 할당(Oversubnoscription)이 사실상 기본값이 됨.
» UVM 일관성(coherence) 향상으로 CPU+GPU 메모리를 하나의 공동 풀처럼 인식 → 더 큰 워킹셋을 부담 없이 구성.
» Tile-based programming·CUDA Graph Memory Node는 성능 최적화를 위해 초기부터 거대한 연속 버퍼를 예약하도록 요구 → 대형 모델·대용량 context 채택을 가속.
» 이 조합은 “GPU가 더 많은 데이터를 읽고 쓸 수 있어지고, 더 큰 모델·더 긴 context를 쓸 수 있게 됨” → 결과적으로 메모리/스토리지 총수요가 훨씬 커지는 방향으로 작동함.

LLM 컨텍스트 윈도우 대형화가 메모리·스토리지 병목을 직접적으로 유발
‒ 컨텍스트 윈도우는 모델이 한 번에 처리할 수 있는 입력 길이로, 100K token은 75k 단어(200페이지 분량 책 1권)와 유사한 규모.
‒ Transformer self-attention은 context 길이가 2배 늘면 메모리 사용량이 최대 4배 필요해 VRAM 한계를 매우 빠르게 초과함.
‒ BofA는 예시로 12B 모델 + 128K context inference 시 attention cache만 약 20GB, 모델 weight 14GB, 오버헤드 포함 총 VRAM 37GB가 소모된다고 제시 → 단일 GPU로는 감당 불가.
‒ 이런 구조적 한계 때문에 GPU VRAM 부족 시 데이터는 자동으로 DRAM 또는 NVMe SSD로 spill-over됨.
‒ 최신 엔진(vLLM, ZeRO-Infinity)은 KV-cache, 모델 파라미터, 액티베이션을 NVMe에 저장하고 GPU는 현재 필요한 부분만 가져오도록 설계됨 → 실질적으로 SSD가 ‘확장 메모리’ 역할을 수행.

NAND 플래시 가격 폭등: AI 인프라 구축이 스토리지 계층을 ‘총체적으로’ 바꿔버림
‒ Q4∙2025 NAND 계약가격이 오히려 비수기임에도 15~20% 상승했으며, 하이퍼스케일러의 aggressive한 NVMe 조달이 직접 원인.
‒ GPU oversubnoscription과 paging이 많아지면서 서버당 NVMe SSD 탑재량은 8TB → 16~32TB로 증가하는 추세.
‒ AI inference는 random read가 매우 많아 HDD는 아예 맞지 않고, SSD는 수백 배의 IOPS·마이크로초 단위 지연시간으로 적합 → hyperscaler는 flash pool로 빠르게 전환 중.
‒ DirectStorage·GPUDirect Storage 활용이 늘어나면서 GPU→SSD DMA 경로가 강화됨 → SSD에 더 낮은 레이턴시·더 큰 DRAM cache가 요구되며 NAND BOM 증가가 필수적.

멀티-GPU 아키텍처(NVLink·NVSwitch·MIG)가 메모리 수요를 기하급수적으로 키우는 방식
‒ NVSwitch 기반 NVL72·GB200 구조는 여러 GPU가 한 몸처럼 동작해 단일 super-GPU 형태로 모델+컨텍스트를 분산 적재함 → 전체 메모리 필요량은 단순 합산보다 더 큼.
‒ MIG(Multi-Instance GPU)는 한 GPU를 7개 VM처럼 쪼개 다수 유저 요청 등을 병렬 처리 → 컨텍스트·KV cache가 GPU당 7배 가까이 적재될 수 있음.
‒ 스케일업·스케일아웃 환경 모두 SSD·DRAM 대역폭 요구가 폭발하며 NAND/DRAM 조달 압력이 커짐.

Flash가 메모리 계층으로 직접 편입되는 기술 혁신: High Bandwidth Flash(HBF)
‒ 2025년 SanDisk의 High Bandwidth Flash(HBF)는 “수 TB의 NAND를 HBM 보조 메모리처럼 쓰는” 새로운 구조를 제안.
‒ HBF 기반 GPU는 ‘unlimited HBF vs unlimited HBM’ 비교에서 읽기 기반 inference 워크로드 기준 성능 차이가 3% 이내라고 발표 → 읽기 위주 AI에는 매우 매력적.
‒ NAND는 HBM 대비 훨씬 저렴하고 훨씬 더 고밀도를 구성할 수 있어, 대규모 AI inference 인프라에서 사실상 ‘확장형 메모리 계층’으로 변모할 가능성이 높음.
‒ 이는 AI 인프라가 DRAM/HBM 중심 구조 → DRAM+NAND+플래시 캐시가 결합된 다층 구조로 전환되는 흐름을 의미.

💡 정리: 이번 메모리 가격 급등은 단순 수요 증가가 아니라 ‘AI 아키텍처 전반의 대전환’이 만든 기술 기반 수요 쇼크
» CUDA 진화로 GPU의 메모리 활용 범위가 확대되며 시스템 전체 메모리 요구치가 레벨업됨.
» LLM 컨텍스트 대형화가 DRAM·HBM·SSD 모두의 사용량을 구조적으로 끌어올리는 핵심 트리거.
» NVMe SSD는 이제 GPU의 사실상 필수 메모리 계층으로 편입되며 NAND 가격 탄력성은 과거 대비 훨씬 커짐.
» PC·폰·DC 일반 수요 회복까지 겹치며 DRAM/NAND 공급 타이트닝이 심각해졌고, 이번 가격 상승은 ‘AI + 전통 IT 회복’의 결합효과로 설명됨.
» 장단기적으로 메모리 수요는 구조적 체력 상승 국면에 진입했으며, 미래 AI 인프라에서는 NAND가 ‘메모리’로 재정의될 가능성이 높음.
Please open Telegram to view this post
VIEW IN TELEGRAM
Gromit 공부방
BofA, Why did memory prices spike late in the year? A technical deep dive (25.11.25) AI 수요 폭발 + CUDA 진화 + 컨텍스트 대형화가 복합적으로 만든 ‘비정상적 메모리 슈퍼사이클’ ‒ 최근 2개월간 DRAM과 NAND 모두 전례 없이 강한 상승세를 보였는데(특히 NAND는 Q4에 15~20% 계약가격 상승), 핵심 요인은 AI 인프라 수요가 기존 인프라 설계를 압도했기 때문’…
세 줄 요약

1. AI 모델 대형화·컨텍스트 확장·CUDA 업그레이드로 GPU가 DRAM·NAND까지 통합 메모리처럼 쓰기 시작하면서 시스템 전체 메모리 요구량이 구조적으로 폭증.

2. 이로 인해 서버당 NVMe 탑재량이 급격히 늘고 하이퍼스케일러의 SSD 조달이 과열되며 Q4 NAND 계약가격이 비수기에도 15~20% 급등하는 이례적 수급 쇼크 발생.

3. 결국 이번 메모리 급등은 단순한 단기 수요 회복이나 사이클 요인 때문이 아니라, AI 아키텍처가 DRAM+NAND 중심의 다층 메모리 구조로 재편되면서 발생한 기술적 전환 기반의 실질 수요 폭증이 핵심.
#SPX 아주 나이스하게 추세 복귀
#JPM헬스케어컨퍼런스
- T=0 을 JPM헬스케어컨퍼런스 시작일로 두고
- 최근 10개년도 동안 제약바이오와 코스닥 지수의 60일전과 30일후 퍼포먼스에 대해서 보았는데
- 제바 지수는 평균적으로 시작일 전까지 코스닥 대비해서 더 많이 오르다가 시작한 다음부터는 코스닥을 언더퍼폼하는것을 보였습니다
- 30일 전부터가 기대수익률이 제일 높았고 JPMHC컨퍼런스 시작일에는 일단 파는것이 확률이 높다는 !
- 당연히 평균의 함정이 있기 떄문에 투자판단은 알아서
thx to 로제like퀀트
#NAVER 일봉 어지러운 것 좀 보소,,

다들 대체 어떤 싸움을 하고 계신 건지
"연말이었다."

가 떠오르는

내용은 곧 빅테크에 수주한다도르라고 함

https://www.wowtv.co.kr/NewsCenter/News/Read?articleId=A202511260383&t=NNv

내용도(곧 머시기 나온다도르) 차트도 K-바이오텍과 유사

내년 연초까지 개투햄들의 자산 증식이 이루어지는 시즌인가보다

#삼현
Robinhood의 파생거래소 수직통합 전략에 대한 주요 기관 뷰 정리

- - - - -

➤ Goldman Sachs – “Prediction Markets 수직통합을 통한 단가·통제력·스케일 확보”, TP $175

핵심 메시지
‒ HOOD가 SIG(서스퀘하나 인터내셔널)와 JV를 만들어 MIAXdx(DCM+DCO+SEF) 지분 90%를 인수하면서, 예측시장 전용 파생상품 거래소·청산소를 직접 보유하는 구조로 진화.
‒ 이는 HOOD의 예측시장 비즈니스가 1년 만에 9bn 계약·100만 고객·연환산 매출 3억 달러로 급성장한 데 대한 수직 통합형 대응으로 평가.

GS가 본 전략적 의미
① 계약(Product) 통제권 강화: 기존 Kalshi 같은 외부 DCM을 통하던 구조 → 이제 HOOD 스스로 어떤 Prediction·Event Contract를 만들지 결정 가능.
② SIG의 유동성(시장조성) 투입: 예측시장은 종목 수가 많고 이벤트 생성 주기가 빠르기 때문에 원래 유동성이 낮은 시장. SIG가 JV 참여함으로써 초기부터 안정적인 유동성 확보 가능.
③ Value Chain 양방향 Monetization: 현재 HOOD는 브로커/FCM 수수료로 건당 1센트만 벌지만, JV 거래소도 1센트 수준 수수료 구조이므로 브로커 + 거래소 양측에서 동시 수익화 가능.
④ Investment 부담은 제한적: MIAXdx가 이미 규제 라이선스·인프라를 갖고 있어 신규 구축비용은 낮을 것으로 판단.

GS 결론
‒ Prediction markets의 폭발적 확장 속에서 HOOD가 완전한 파생상품 인프라(DCM+DCO+SEF) 를 가진 플랫폼으로 진화하는 과정으로 평가.
‒ 과거 crypto도 브로커→Bitstamp 인수로 거래소까지 확장한 전례와 동일한 전략적 패턴.


- - - - -

➤ Barclays – “예측시장·스포츠베팅 영역까지 적극 확장, 규제 리스크는 여전히 핵심 변수”, TP $168

핵심 메시지
‒ Robinhood는 이번 JV를 통해 자체 Futures/Derivatives 거래소를 인수, Prediction·Sports 경기를 포함한 Event Contracts를 직접 상장·관리하는 방향으로 더 깊숙이 들어가는 전략.
‒ 빠르게 폭증 중인 Prediction 거래량(0.5bn → 1bn → 2.3bn → 2.5bn)을 감안하면 자연스러운 확장.

Barclays가 본 전략적 효과
① Contract Launch 속도 개선: Futures 거래소는 CEA(Self-Certification)로 제품 출시 제한이 약해 신규 이벤트 계약 상장 속도가 증권/옵션 대비 훨씬 빠름.
② Kalshi 대비 경쟁력 강화: 지금은 Kalshi의 상품이 먼저 Kalshi 플랫폼에서 나오고 나중에 HOOD에 붙는 구조.
→ 향후에는 HOOD가 직접 원하는 계약을 원하는 시점에 출시 가능.
③ Economics 개선: 브로커 수익 + 거래소 수익 동시에 확보, 마진 구조가 크게 개선될 수 있다고 평가.

하지만 Barclays가 강조한 리스크
Sports Contracts 규제 리스크가 매우 큼:
» Nevada 판결에서 Kalshi가 gaming regulation 적용 대상이라고 판단됨.
» Crypto.com도 유사 판결.
» MA/OH/MD/NV/NJ/NY 등 다수 주에서 스포츠 이벤트 계약 규제 이슈 진행 중.
스포츠 영역은 불확실성이 매우 높고, 케이스별로 결과가 갈릴 가능성.
‒ CME가 수년간 이벤트 계약을 운영해왔지만 스포츠는 별개의 규제 영역이라 위험도 다름.

Barclays 결론
‒ HOOD는 예측시장·스포츠·파생상품을 포함한 차세대 이벤트 트레이딩 Exchange로 포지션 강화 중.
‒ 단, 규제 리스크가 단기 밸류에이션 디스카운트 요인으로 지속될 전망.

- - - - -

➤ Cantor – “HOOD의 제품 확장 속도·분배력 자체가 진짜 경쟁력”
, TP $155

핵심 메시지
‒ Prediction markets는 HOOD 역사상 가장 빠르게 성장한 신규 제품군이며, 런칭 1년 만에 9bn 계약·100만 고객 확보.
‒ 이번 JV는 HOOD가 Institutional-grade 거래소로 확장하면서, 기존 Kalshi 중심 구조에서 라이선스 기반 독립 플랫폼으로 이동하는 과정.

Cantor가 주목한 포인트
① DCM/DCO/SEF 풀스택 인프라 확보:
» Futures 및 Options on Futures
» Swaps(금리·크레딧 등)
→ Prediction을 넘어 광범위한 파생상품 인프라 소유.
② SIG가 Day-1 유동성 공급자 역할: 유동성 부족이 예측시장의 병목이었는데 이를 단번에 해결하는 구조.
③ Kalshi와의 관계 불투명: Kalshi와 계속 협업할지, 혹은 경쟁 구조로 갈지는 아직 명확하지 않음.
④ HOOD의 고유 경쟁력 = Product Velocity + Distribution Power:
» HOOD는 신규 상품을 출시하면 즉시 수백만 유저에게 배포 가능.
» 예측시장·파생·Advisory·암호화폐 등 신사업에서 계속 시장 점유율 높이는 핵심 요인으로 평가.

- - - - -

💡 세 기관 비교 핵심 정리

① 전략적 해석
GS: 수직 통합을 통한 Value Chain 확보에 초점.
Barclays: 예측시장·스포츠·이벤트 거래소로의 확장을 강조, 다만 규제가 최대 이슈.
Cantor: HOOD의 ‘제품 개발 속도 + 유저베이스 분배력’을 핵심 경쟁력으로 분석.

② 핵심 모멘텀
‒ 예측시장은 HOOD 역사상 가장 빠른 성장 → 9bn 계약, 100만 유저
‒ SIG 참여로 유동성 문제 해결
‒ MIAXdx 인수로 DCM+DCO+SEF 풀스택 확보
‒ 기존 Kalshi 구조를 벗어나 HOOD 자체 거래소 시대 개막

③ 리스크 포인트
규제(특히 스포츠): Barclays가 가장 강도 높게 강조
‒ 기관향 유동성·스왑 시장 진입 성공 여부(Cantor)
‒ 투자 규모 및 실행력/제품화 속도(GS는 상대적으로 우려 낮게 봄)

#HOOD
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 루팡
Google TPU v6e vs AMD MI300X vs NVIDIA H100/B200: Artificial Analysis 하드웨어 벤치마킹 결과

Artificial Analysis의 벤치마킹에 따르면, 당사의 핵심 추론 비용 지표에서 NVIDIA가 Google TPU v6e(Trillium) 대비 약 5배, AMD MI300X 대비 약 2배 더 높은 '달러당 토큰(tokens-per-dollar)' 효율을 달성했습니다.

'기준 속도에서의 입력 및 출력 100만 토큰당 비용(Cost Per Million Input and Output Tokens at Reference Speed)'이라는 지표를 기준으로 볼 때, NVIDIA H100 및 B200 시스템이 TPU v6e나 MI300X보다 전반적으로 더 낮은 비용을 기록했습니다.


[Llama 3.3 70B 모델 (vLLM 구동, 쿼리당 초당 30 출력 토큰 속도 기준) 비교]

NVIDIA H100: $1.06 (100만 토큰당)

AMD MI300X: $2.24

Google TPU v6e: $5.13

이 분석은 다양한 동시성(Concurrency) 수준에서의 시스템 추론 처리량(Throughput)에 대한 'Artificial Analysis 시스템 부하 테스트' 결과와 여러 GPU 클라우드 제공업체에서 수집한 가격 데이터를 기반으로 합니다. 해당 비용 지표는 시스템이 '쿼리당 초당 30 출력 토큰'의 속도를 유지하면서 달성할 수 있는 처리량을 기준으로, 시스템 대여 비용을 그 처리량(100만 토큰 단위로 환산)으로 나누어 산출했습니다.
Nomura, Asia PC & Smartphone - 2026F outlook: surging cost is a concern (25.11.26)

‒ 노무라는 2026년 IT 전방(PC·스마트폰)에서 메모리 가격 급등이 핵심 리스크로 작용하며 완제품 가격 인상 → 수요 둔화 → OEM 마진 압박이 동시에 진행되는 ‘원가발 충격 사이클’이 본격화될 것으로 판단.

‒ PC는 Windows 11 교체수요가 2025년에 선반영되면서 2026년 전체 출하 -2.8%, 데스크톱 -5%, 노트북 -2%로 역성장 전환이 확정적이며, 수요 둔화 국면에서 가격 전가 여력이 낮아짐.

‒ 메모리 가격은 2025년 4Q +15%, 2026년 1Q +25% 등 급등세가 이어지며 분기 단위 시차로 OEM 원가에 반영돼 2026년 1Q~2Q가 가장 강한 마진 하락 구간이 될 것.

‒ PC BOM에서 CPU 30%, DRAM/NAND 합산 15~25%로 고비중인데, 두 영역 모두 공급 제약·단가 인상이 동시에 발생해 OEM이 취할 수 있는 대응은 가격 인상 외 거의 존재하지 않음.

‒ Intel은 Raptor Lake 공급 부족에 이어 Panther Lake 및 차세대 라인업 가격 인상을 예고해 OEM 단가 부담이 분기당 추가 20~30달러 증가할 수 있으며, 이는 저가형 모델 수익성에 특히 타격.

‒ 메모리 가격이 50% 상승할 경우 PC OEM GPM은 약 -2%p 축소되며, 소매가를 약 9% 인상해도 원가 상승을 완전히 상쇄하지 못해 수익성 악화가 불가피.

‒ 스마트폰 출하량은 2026년 -1.7% 역성장 전망이며, DRAM·NAND 가격 급등이 USD 450 이하 중저가 시장에 집중 타격을 주면서 출하 가이던스를 달성하기 어려운 업체가 증가할 가능성이 높음.

‒ 중국은 2025년 보조금 효과 소멸로 Android 수요 둔화가 심화되는 가운데, iPhone 17이 4Q25에 강한 사이클을 보이더라도 2026년 전반 시장 둔화를 상쇄하기엔 역부족이라고 판단.

‒ Apple·삼성은 고가 센서·Face ID·카메라 등 프리미엄 부품 비중 및 메모리 내재화 구조 덕에 비용 상승의 체감 강도가 낮지만, 비삼성 Android OEM은 AP·DRAM·NAND 가격 상승이 동시에 맞물려 가장 취약한 포지션에 놓임.

‒ 종합하면 2026년은 PC·스마트폰 모두에서 부품 가격 상승 압력이 정점을 형성하며 수요·마진에 광범위한 부정적 영향이 예상되고, 메모리·CPU(AP)의 공급·가격이 전체 실적 변동의 중심 변수가 될 전망.
Gromit 공부방
Discretionary vs Systematic Equity Positioning 업뎃
Discretionary vs Systematic Equity Positioning 업뎃
GS SPX CTA 추정치
Gromit 공부방
GS SPX CTA 추정치
‒ GS S&T 코멘트에 따르면 11월 초 시장은 연준의 완화 기조·2026년 EPS 개선 기대·강한 계절성 등에 기반해 과도하게 낙관 포지션을 쌓았고, 이 기대감이 뒤늦게 되돌려지며 비수익 기술주·모멘텀 종목 중심으로 강한 숏 압력과 포지션 클리어링이 발생.

‒ 29일 FOMC 이후 non-profitable tech 바스켓(GSXUNPTC)과 롤링 most shorted(GSXUMSAL)가 각각 약 23%·29% 급락했으며, Mag7 옵션 스큐는 콜>풋으로 전환될 정도로 과도한 군집 매수 심리가 쌓였다가 최근에서야 정상화 단계로 회귀.

‒ 표면적 S&P 변동성은 크지 않았으나, 20일 스타일 팩터 변동성이 20을 넘길 만큼 스타일·테마 중심 내면 변동성이 폭발했고, 성장·모멘텀 vs 가치·스몰캡, AI 수혜주 vs 기타 종목 간 포트 성과 차이가 지수보다 훨씬 격렬했음.

‒ 중순에는 S&P 5일 Advancers–Decliners가 -150까지 붕괴될 정도로 광범위한 내부 훼손이 있었지만, 추수감사절 직전 +150까지 반등하며 breadth가 회복되고 시장이 중순의 스트레스 구간을 일정 부분 통과한 모습이 확인됨.

‒ Goldman Vol Panic Index는 고점 대비 크게 식으며 구성 요소(IV, vol-of-vol, term slope, skew)가 일제히 정상화되고, 지난 한 달간 약 160억 달러의 시스템매크로 매도가 이미 시장에 반영되면서 향후 1개월 베이스라인은 약 47억 달러 순매수로 전환.

‒ AI 트레이드는 ‘AI를 파는 기업’에서 ‘AI를 활용해 생산성을 내는 기업’으로 확장되고 있으며, 기존 산업들도 비용 절감·마진 개선을 실현하는 실제 제품·툴을 도입하기 시작해 GSXUPROD 같은 ‘AI 활용 기업’ 바스켓의 구조적 모멘텀이 강화되고 있음.

‒ 미국은 무형투자·자본배분 효율·경영역량·스케일링 측면에서 여전히 구조적 우위를 갖고 있으며, 여기에 Applied AI가 결합되면서 생산성 주기가 강화되고 있어 11월 말~12월 초 현재 시장은 몇 주 전보다 훨씬 ‘정리된 포지션·완화된 리스크’ 상태에서 새 달을 맞이하는 국면임.
코스닥의 유쾌한 반란이 시작된다 (아님말고)
Gromit 공부방
GS SPX CTA 추정치
Leonardo Unveils AI-Driven Dome System to Defend Cities

‒ Leonardo는 AI 기반 통합 방어체계 ‘Michelangelo Dome’을 공개했으며, 이는 수중~지상~공중~우주 영역까지 모든 전장을 하나의 네트워크로 묶어 초음속·드론 스웜·해상 위협·사이버공격 등 복합위협을 자동으로 탐지·예측·대응하도록 설계된 시스템임.

‒ 해당 시스템은 다양한 센서 데이터를 융합하고 예측형 AI로 방어자산 배치를 최적화해 대응 속도를 획기적으로 단축시키는 것을 목표로 하며, 특히 주요 인프라·도심 방호를 위한 멀티도메인 방어체계로 포지셔닝됨.

‒ CEO 친골라니는 빠르게 진화하는 위협 환경에서 방어 비용이 공격 비용보다 급격히 커지고 있다며, 유럽 안보 경쟁력 확보를 위해 방위산업의 기술혁신과 국제 협력이 필수라고 강조.

‒ Leonardo는 최근 유럽 내 국방비 증가와 나토 회원국 중심의 재무장 흐름을 타고 첨단 군사기술 기업으로의 전환을 가속해왔으며, 위성·우주·센서·C2 분야에서의 컨소시엄 참여 등 산업 통합에도 적극적임.

‒ Michelangelo Dome은 나토 회원국의 기존 방공/방위 시스템과 호환되도록 설계됐으며, 향후 10년간 약 2,030억 유로 규모의 시장 잠재력을 가진 것으로 제시됨(지휘통제·센서·효과기·위성 등 포함).

‒ 사이버·우주·전자전까지 포함하는 ‘유럽형 디지털 백본’ 구축은 Leonardo가 올해 3월 사업계획에서 이미 제시한 장기 전략의 핵심 축으로, Dome 프로젝트는 그 비전의 구체적 실행 단계로 언급.

source: Bloomberg
#바이오 섹터 투자포인트

이런 애도 7조인데,

~
10월 30일에 5.56조 달러로 수년 만의 최저치를 찍은 이후, 미국 시장 유동성이 드디어 반등하고 있습니다.

6주간의 연방정부 셧다운으로 6,210억 달러의 유동성이 빠져나갔지만, 정부 재가동으로 이미 700억 달러가 시장에 다시 공급되었고, 향후 5~6주 동안 재무부 일반계정(TGA)이 정상화되면서 추가로 약 3,000억 달러가 시장에 돌아올 가능성이 있습니다.

이러한 유동성 개선 흐름은 연준의 비둘기파적 전환과 맞물리고 있습니다. 뉴욕 연준 윌리엄스 총재에 이어 월러 이사, 샌프란시스코 연준 데일리 총재까지 금리 인하를 지지하는 신호를 보내면서, 시장이 반영하는 단기 금리 인하 확률은 약 90% 수준까지 상승했습니다.

한편, 재무부 일반계정(TGA)은 현재 8,920억 달러로 여전히 높은 수준에 있으며, 정상화된 수준인 약 6,000억 달러 대비 크게 높습니다. 이는 상당한 규모의 유동성이 앞으로도 시장에 추가로 풀릴 여지가 남아있다는 의미입니다.

최근 거시 지표들은 완화(금리 인하) 가능성을 더욱 강화하고 있습니다. 9월 고용보고서 기준 실업률은 4.44%로 상승했고, ADP 데이터는 지난주 1만 3,500개의 일자리 감소를 보여주었으며, 소매판매는 부진했고 근원 PPI도 예상보다 낮게 나왔습니다.

ARK의 견해:
유동성이 돌아오고, 양적긴축(QT)이 12월 1일 종료되며, 통화정책도 완화적으로 전환되는 가운데, 최근의 조정(낙폭)을 시장이 되돌릴 수 있는 환경이 형성되고 있다고 보고 있습니다.

https://x.com/arkinvest/status/1993797871259255230?s=52