BofA, China Equity Strategy: Will Christmas come early? – Singapore investors’ feedback (25.12.01)
‒ 싱가포르 투자자들은 소비 회복, 정책부양, 가계예금 유입 등 A-share 중심 모멘텀을 근거로 중국·아시아 연말 랠리 가능성을 본토 투자자보다 훨씬 강하게 보고 있으며, 일부는 “전반적인 1H26 랠리보다 먼저 연말 프런트런이 나올 수도 있다”는 기대를 갖고 있음.
‒ 중국 AI는 DeepSeek 이후 투자자 인식이 ‘뒤처짐’에서 ‘선도’로 바뀌었고, 전력·인재·비용 경쟁력 등을 이유로 미국보다 더 나은 포지션이라는 주장까지 등장하면서 인터넷 대형주와 IT 하드웨어, 로컬라이제이션(장비·칩) 테마에 대한 선호가 크게 유지됨.
‒ 미국 시장 변동성과 알리바바 Qwen LLM 채택 확산이 이러한 AI 낙관론을 더욱 강화하며, 일부 투자자는 “미국 AI가 전력·현금흐름 문제로 조정돼도 중국은 경쟁력 강화에 따라 독자적 상승이 가능하다”고 평가.
‒ 동시에 장기 투자자들은 AI 대형 기술주 쏠림 리스크를 경계하며, 대만·한국 시장의 파생적 성격과 낮은 분산효과를 지적하고, 중국 은행·전통 소비·아세안 주식 등 AI 밖 대안을 탐색하는 움직임을 본격화함.
‒ 반중 정서는 8월과 달리 거의 제기되지 않았고, 싱가포르 L/O 중심으로 금·구리 등 광물 관련 종목 선호가 강했으며 이는 broader materials 랠리를 놓친 데 따른 후행 수요로 설명.
‒ 중국-일본 긴장 고조는 새로운 관심 요인으로 떠올랐고, 중국주는 탐색 범위가 제한적인 반면 일본 소비·여행, 한국·마카오/태국 대체 소비주 등 주변국 리오프닝·관광 테마가 적극 검토됨.
‒ 전체적으로 투자자들은 중국·AI 중심의 메인 베팅은 유지하되, 집중 리스크를 피하기 위해 금속·은행·소비·아세안 등 보조 테마를 병행하며 다층적 포트폴리오를 구축하려는 경향을 보였음.
‒ 싱가포르 투자자들은 소비 회복, 정책부양, 가계예금 유입 등 A-share 중심 모멘텀을 근거로 중국·아시아 연말 랠리 가능성을 본토 투자자보다 훨씬 강하게 보고 있으며, 일부는 “전반적인 1H26 랠리보다 먼저 연말 프런트런이 나올 수도 있다”는 기대를 갖고 있음.
‒ 중국 AI는 DeepSeek 이후 투자자 인식이 ‘뒤처짐’에서 ‘선도’로 바뀌었고, 전력·인재·비용 경쟁력 등을 이유로 미국보다 더 나은 포지션이라는 주장까지 등장하면서 인터넷 대형주와 IT 하드웨어, 로컬라이제이션(장비·칩) 테마에 대한 선호가 크게 유지됨.
‒ 미국 시장 변동성과 알리바바 Qwen LLM 채택 확산이 이러한 AI 낙관론을 더욱 강화하며, 일부 투자자는 “미국 AI가 전력·현금흐름 문제로 조정돼도 중국은 경쟁력 강화에 따라 독자적 상승이 가능하다”고 평가.
‒ 동시에 장기 투자자들은 AI 대형 기술주 쏠림 리스크를 경계하며, 대만·한국 시장의 파생적 성격과 낮은 분산효과를 지적하고, 중국 은행·전통 소비·아세안 주식 등 AI 밖 대안을 탐색하는 움직임을 본격화함.
‒ 반중 정서는 8월과 달리 거의 제기되지 않았고, 싱가포르 L/O 중심으로 금·구리 등 광물 관련 종목 선호가 강했으며 이는 broader materials 랠리를 놓친 데 따른 후행 수요로 설명.
‒ 중국-일본 긴장 고조는 새로운 관심 요인으로 떠올랐고, 중국주는 탐색 범위가 제한적인 반면 일본 소비·여행, 한국·마카오/태국 대체 소비주 등 주변국 리오프닝·관광 테마가 적극 검토됨.
‒ 전체적으로 투자자들은 중국·AI 중심의 메인 베팅은 유지하되, 집중 리스크를 피하기 위해 금속·은행·소비·아세안 등 보조 테마를 병행하며 다층적 포트폴리오를 구축하려는 경향을 보였음.
Gromit 공부방
중국-일본 긴장 고조는 새로운 관심 요인으로 떠올랐고, 중국주는 탐색 범위가 제한적인 반면 일본 소비·여행, 한국·마카오/태국 대체 소비주 등 주변국 리오프닝·관광 테마가 적극 검토됨.
Most see limited impact on Chinese stocks, but are exploring shorts in Japanese consumer/tourism and longs in Korea/Macau/Thailand substitutes
K-인바운드 수혜주 주주들이 설레할 (*물론 설레"발"일 가능성도)
Gromit 공부방
[그림 1] 2025e 대비 2026e CoWoS 수요 변화 [그림 2] 고객사별 2026년 CoWoS 수요 전망 조정
MS, AI Supply Chain: TSMC CoWoS Expansion; ASIC Dynamics; Asia Field Trip (25.12.01)
✅ TSMC CoWoS 전망 대폭 상향: 2026년 캐파 증가율을 79%로 재산정
‒ TSMC 2026년 CoWoS 캐파 전망을 기존 20~30% 증가 → 79% 증가(70kwpm → 125kwpm)로 대폭 상향. AI GPU·ASIC 양쪽 모두에서 구조적 수요가 폭발적으로 증가하고 있음을 반영.
‒ 증설된 물량은 NVIDIA·Broadcom 중심으로 배분되며, MediaTek도 일부 할당을 받는 것으로 파악.
‒ NVIDIA는 CoWoS-L 할당이 590k → 700k wafer로 상향되며, 26년까지 AI GPU 매출 5,000억달러 가이던스를 뒷받침하는 핵심 공급 기반이 될 것.
‒ Broadcom은 Meta ASIC 일부 지연에도 Google TPU 관련 CoWoS-S 수요가 155k → 200k wafer로 확대되며 총 CoWoS 예약이 210k → 230k로 증가.
‒ MediaTek도 Google TPU 관련 고객사(P.1~3)의 프로젝트 초입단 배치로 CoWoS-S 10k → 20k로 증가.
✅ AI GPU·ASIC 수요는 초강세: 중국 B40 둔화에도 Blackwell·TPU가 수요 견인
‒ 아시아 밸류체인 미팅에서 확인된 핵심 메시지는 “AI GPU·AI ASIC 수요는 생각보다 더 강하다”는 점.
‒ 다만 NVIDIA B40(=RTX Pro 6000, China향)은 가격/성능 매력이 낮아 당초 2H25 150~200만대 예상 → 실제 90만대 수준으로 하향되며 중국향 매력이 떨어진 것으로 파악됨. 중국 inference 시장은 5090 게이밍 GPU + 개선된 Hopper + 일부 로컬 칩이 주력.
‒ 반면 AI Training용 Blackwell과 Google TPU 시리즈는 전방 hyperscaler capex 및 10~20GW급 데이터센터 건설 프로젝트에서 Material하게 수요가 발생하는 구간으로 진입.
✅ Broadcom TPU와 MediaTek TPU 설계 역량이 ASIC 업사이드의 핵심 축
‒ Broadcom TPU는 Google의 대규모 AI 클러스터 확장에 결정적 역할을 하며, TSMC CoWoS-S 65nm 인터포저 증설(추가 20kwpm)은 Google TPU 전용일 가능성이 높다고 판단.
‒ MediaTek 관련해서는 한 글로벌 빅테크 고객사가 3nm TPU 생산 일정을 당겨오는(pull-in) 현상이 포착되며, 향후 CoWoS-S 기반 TPU 설계 서비스 수요가 빠르게 증가할 것으로 관측됨.
‒ Amazon의 Trainium3 역시 Broadcom/Marvell이 TSMC 3nm 캐파 확보를 통한 지원 역할을 할 가능성이 있으며, 이는 추가적인 디자인 서비스 없이 capacity 지원 중심일 것이라 판단.
✅ TSMC 3nm 캐파가 2026 AI 공급의 병목: 최대 +20kwpm 추가 증설 가능성
‒ TSMC 3nm은 2025년 110~120kwpm → 2026년 기존 전망 140~150kwpm → 수정전망 160~170kwpm으로 확장 가능성이 감지됨.
‒ 이유는 NVIDIA·AMD·Alchip 모두 3nm 수급 확보에 어려움을 호소하고 있기 때문.
‒ TSMC는 clean room 공간 부족으로 Fab15 기존 22/28nm 라인을 유럽으로 이전하는 방안을 검토 중이며, 이는 2026 CapEx가 최대 480~500억달러까지 상승할 가능성.
✅ 2026년 AI 칩 생산이 요구하는 HBM은 30bn Gb, Wafer TAM은 250억달러 규모
‒ 2026년 주요 GPU·ASIC 별 CoWoS 물량 → 칩 수량 → 필요 HBM 용량을 산출해 HBM 총 수요가 3만억 Gb(=30bn Gb) 규모에 달할 것으로 추산.
‒ Blackwell(B300), Rubin(R200), TPU v7/v8, Trainium3 등은 모두 288GB~432GB 등 고용량 HBM을 요구해 HBM3E·HBM4로의 빠른 전환을 가속화.
‒ Wafer 측면에서는 AI 칩이 약 981k wafer → 238억달러 TAM을 형성, CoWoS와 함께 프런트엔드(3nm/4nm/5nm) 캐파도 병목으로 진입하고 있음.
✅ Power Deployment 분석: mega·hyper-scale DC의 CoWoS 수요는 연 681k wafer
‒ MS는 OpenAI(Abilene, Memphis), Google, AWS, Meta 등 1GW~5GW급 DC 프로젝트의 랙 구성·칩 구성·전력 사용량을 기반으로 CoWoS 수요를 역산.
‒ 결과적으로 총 124만 wafer → 연간 68만 wafer의 CoWoS 수요가 발생할 것으로 추정해, TSMC+타사(Amkor/ASE)의 연간 공급(110만 wafer 상당)과 대체로 균형적.
‒ 이는 곧 CoWoS 자체가 병목은 아니며, 3nm와 T-glass 같은 소재, 인터포저 등에서 병목 가능성이 더 크다는 의미.
✅ OpenAI·Google·Anthropic 계약 기준으로 보면 2027 CoWoS는 TSMC 245k·Non-TSMC 37k
‒ 10GW(OPENAI×NVIDIA), 6GW(OPENAI×AMD), 1GW(Google×Anthropic) 계약 기준으로 CoWoS 수요를 추정하면,
» TSMC: 629k wafer 총수요 중 연간 245k
» Non-TSMC: 110k wafer 총수요 중 연간 37k
‒ 3nm wafer 기준 NVIDIA(260k), Broadcom TPU(70k), AMD(81k)의 2nm/3nm 소모량이 도출되며, 앞으로 성장은 결정적으로 3nm 캐파 확보 여부에 좌우됨을 재확인.
💡 정리: AI 반도체 공급망의 진짜 병목은 CoWoS가 아니라 프런트엔드(3nm)와 HBM
» 2026년 TSMC CoWoS 캐파 전망이 크게 상향되며 병목 우려가 완화됐지만, 실제 제약은 3nm 프런트엔드 캐파가 AI GPU·ASIC 공급을 가르는 핵심 병목으로 떠오른 상황.
» Google TPU·Amazon Trainium·OpenAI 전용 GPU 등 고객들의 3nm 수요가 동시다발적으로 급증하며, Fab15 구조조정·유럽 이전 등 TSMC CapEx 의사결정이 산업 전체 AI CapEx 사이클을 좌우.
» 2026년 HBM 수요는 실질적으로 30bn Gb를 요구하며, 모든 AI 칩이 고용량 HBM3E/4 중심으로 이동함에 따라 메모리도 구조적 쇼티지 국면 지속.
» Mega-DC 전력배치 → 랙 구성 → 칩 수량 → CoWoS 물량으로 계산한 결과, CoWoS는 공급이 따라가는 수준이나 T-glass·3nm wafer·HBM이 더욱 심각한 병목 요인이 될 가능성이 높음.
» 결국 2026~2027년 AI 공급망의 Key는 TSMC 3nm 확장 속도 + HBM 증설 속도로 요약됨.
‒ TSMC 2026년 CoWoS 캐파 전망을 기존 20~30% 증가 → 79% 증가(70kwpm → 125kwpm)로 대폭 상향. AI GPU·ASIC 양쪽 모두에서 구조적 수요가 폭발적으로 증가하고 있음을 반영.
‒ 증설된 물량은 NVIDIA·Broadcom 중심으로 배분되며, MediaTek도 일부 할당을 받는 것으로 파악.
‒ NVIDIA는 CoWoS-L 할당이 590k → 700k wafer로 상향되며, 26년까지 AI GPU 매출 5,000억달러 가이던스를 뒷받침하는 핵심 공급 기반이 될 것.
‒ Broadcom은 Meta ASIC 일부 지연에도 Google TPU 관련 CoWoS-S 수요가 155k → 200k wafer로 확대되며 총 CoWoS 예약이 210k → 230k로 증가.
‒ MediaTek도 Google TPU 관련 고객사(P.1~3)의 프로젝트 초입단 배치로 CoWoS-S 10k → 20k로 증가.
‒ 아시아 밸류체인 미팅에서 확인된 핵심 메시지는 “AI GPU·AI ASIC 수요는 생각보다 더 강하다”는 점.
‒ 다만 NVIDIA B40(=RTX Pro 6000, China향)은 가격/성능 매력이 낮아 당초 2H25 150~200만대 예상 → 실제 90만대 수준으로 하향되며 중국향 매력이 떨어진 것으로 파악됨. 중국 inference 시장은 5090 게이밍 GPU + 개선된 Hopper + 일부 로컬 칩이 주력.
‒ 반면 AI Training용 Blackwell과 Google TPU 시리즈는 전방 hyperscaler capex 및 10~20GW급 데이터센터 건설 프로젝트에서 Material하게 수요가 발생하는 구간으로 진입.
‒ Broadcom TPU는 Google의 대규모 AI 클러스터 확장에 결정적 역할을 하며, TSMC CoWoS-S 65nm 인터포저 증설(추가 20kwpm)은 Google TPU 전용일 가능성이 높다고 판단.
‒ MediaTek 관련해서는 한 글로벌 빅테크 고객사가 3nm TPU 생산 일정을 당겨오는(pull-in) 현상이 포착되며, 향후 CoWoS-S 기반 TPU 설계 서비스 수요가 빠르게 증가할 것으로 관측됨.
‒ Amazon의 Trainium3 역시 Broadcom/Marvell이 TSMC 3nm 캐파 확보를 통한 지원 역할을 할 가능성이 있으며, 이는 추가적인 디자인 서비스 없이 capacity 지원 중심일 것이라 판단.
‒ TSMC 3nm은 2025년 110~120kwpm → 2026년 기존 전망 140~150kwpm → 수정전망 160~170kwpm으로 확장 가능성이 감지됨.
‒ 이유는 NVIDIA·AMD·Alchip 모두 3nm 수급 확보에 어려움을 호소하고 있기 때문.
‒ TSMC는 clean room 공간 부족으로 Fab15 기존 22/28nm 라인을 유럽으로 이전하는 방안을 검토 중이며, 이는 2026 CapEx가 최대 480~500억달러까지 상승할 가능성.
‒ 2026년 주요 GPU·ASIC 별 CoWoS 물량 → 칩 수량 → 필요 HBM 용량을 산출해 HBM 총 수요가 3만억 Gb(=30bn Gb) 규모에 달할 것으로 추산.
‒ Blackwell(B300), Rubin(R200), TPU v7/v8, Trainium3 등은 모두 288GB~432GB 등 고용량 HBM을 요구해 HBM3E·HBM4로의 빠른 전환을 가속화.
‒ Wafer 측면에서는 AI 칩이 약 981k wafer → 238억달러 TAM을 형성, CoWoS와 함께 프런트엔드(3nm/4nm/5nm) 캐파도 병목으로 진입하고 있음.
‒ MS는 OpenAI(Abilene, Memphis), Google, AWS, Meta 등 1GW~5GW급 DC 프로젝트의 랙 구성·칩 구성·전력 사용량을 기반으로 CoWoS 수요를 역산.
‒ 결과적으로 총 124만 wafer → 연간 68만 wafer의 CoWoS 수요가 발생할 것으로 추정해, TSMC+타사(Amkor/ASE)의 연간 공급(110만 wafer 상당)과 대체로 균형적.
‒ 이는 곧 CoWoS 자체가 병목은 아니며, 3nm와 T-glass 같은 소재, 인터포저 등에서 병목 가능성이 더 크다는 의미.
‒ 10GW(OPENAI×NVIDIA), 6GW(OPENAI×AMD), 1GW(Google×Anthropic) 계약 기준으로 CoWoS 수요를 추정하면,
» TSMC: 629k wafer 총수요 중 연간 245k
» Non-TSMC: 110k wafer 총수요 중 연간 37k
‒ 3nm wafer 기준 NVIDIA(260k), Broadcom TPU(70k), AMD(81k)의 2nm/3nm 소모량이 도출되며, 앞으로 성장은 결정적으로 3nm 캐파 확보 여부에 좌우됨을 재확인.
» 2026년 TSMC CoWoS 캐파 전망이 크게 상향되며 병목 우려가 완화됐지만, 실제 제약은 3nm 프런트엔드 캐파가 AI GPU·ASIC 공급을 가르는 핵심 병목으로 떠오른 상황.
» Google TPU·Amazon Trainium·OpenAI 전용 GPU 등 고객들의 3nm 수요가 동시다발적으로 급증하며, Fab15 구조조정·유럽 이전 등 TSMC CapEx 의사결정이 산업 전체 AI CapEx 사이클을 좌우.
» 2026년 HBM 수요는 실질적으로 30bn Gb를 요구하며, 모든 AI 칩이 고용량 HBM3E/4 중심으로 이동함에 따라 메모리도 구조적 쇼티지 국면 지속.
» Mega-DC 전력배치 → 랙 구성 → 칩 수량 → CoWoS 물량으로 계산한 결과, CoWoS는 공급이 따라가는 수준이나 T-glass·3nm wafer·HBM이 더욱 심각한 병목 요인이 될 가능성이 높음.
» 결국 2026~2027년 AI 공급망의 Key는 TSMC 3nm 확장 속도 + HBM 증설 속도로 요약됨.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DYOR - 아는 것이 힘이다
- 예측시장 칼시 11월 거래량 역대 최고치 $5.8b 32% m/m. https://x.com/kalshidata/status/1995850850539868492?s=20
- 칼시 거래량의 약 절반은 로빈후드. 칼시는 탈로빈후드 추진하고, 로빈후드는 자체 예측시장 플랫폼 설립 (로빈후드 & 서스퀘하나, 자체 예측 시장 진출 시사점 https://news.1rj.ru/str/therealdyor/583)
- 칼시는 $11b 밸류에 $1b 자금 조달. 이는 수 개월전 대비 기업 가치 2배 이상 늘어난 수준 https://www.reuters.com/business/kalshi-valued-11-billion-latest-financing-round-2025-12-02/
- 12/16 로빈후드 AI & 예측시장 이벤트에 주목 https://robinhood.com/us/en/newsroom/robinhood-presents-yes-no/
- 칼시 거래량의 약 절반은 로빈후드. 칼시는 탈로빈후드 추진하고, 로빈후드는 자체 예측시장 플랫폼 설립 (로빈후드 & 서스퀘하나, 자체 예측 시장 진출 시사점 https://news.1rj.ru/str/therealdyor/583)
- 칼시는 $11b 밸류에 $1b 자금 조달. 이는 수 개월전 대비 기업 가치 2배 이상 늘어난 수준 https://www.reuters.com/business/kalshi-valued-11-billion-latest-financing-round-2025-12-02/
- 12/16 로빈후드 AI & 예측시장 이벤트에 주목 https://robinhood.com/us/en/newsroom/robinhood-presents-yes-no/
Forwarded from [메리츠 Tech 김선우, 양승수, 김동관]
[메리츠증권 전기전자/IT부품 양승수]
두산(000150): 견고한 지배력 유지 + 고객사 확대 시동
- 전자BG 4Q25 실적은 매출액 5,386억원(+60.4% YoY), 영업이익 1,600억원(+257.1%, Opm: 29.7%)을 전망
- GB300 NVL72 출하 급증 효과로 분기 최고 실적 달성 예상
- NVL72 서버랙 제품은 출시 초기에는 생산 수율 문제와 높은 가격 대비 효용성에 대한 의문이 존재
- 그러나 최근 수율 개선으로 공급 병목이 해소되었고, 다양한 지표를 통해 학습뿐 아니라 추론 영역에서도 비용 대비 최고 성능이 입증
- AI 시장이 사실상 군비 경쟁으로 전개되고 있기 때문에, 성능 우위를 확보한 NVL72로의 수요 집중이 더욱 가속화되는 국면으로 판단
- AI 수요의 낙수 효과로 CCL 업황 전반의 공급부족이 가속화되고 있으며, 우호적인 업황을 기반으로 다수의 CCL 업체들이 원재료 가격 상승을 판가에 성공적으로 전가 중
- 특히 하이엔드 CCL의 공급 부족이 심화되면서 동사 역시 이를 기회로 활용, 신규 고객사로의 공급 확대가 본격화되는 것으로 파악
- 1. 기존 GPU 고객사가 아닌 신규 GPU 고객사로의 공급 시작을 전망
- 해당 고객사의 수요가 내년부터 확대됨과 동시에 서버랙 단위 제품 출시가 예정되어 있어 CCL 기준 콘텐츠 증가 폭이 상당할 것으로 기대
- 2. 북미 CSP A사향 스위치용 CCL 공급도 시작
- 이 역시 내년 Trainium3 출하가 본격화되는 시점에서 큰 폭의 공급 물량 증가를 예상
- 특히 Trainium3는 전송 지연 문제를 해소하기 위해 800G 기술을 핵심으로 채택할 예정이며, 800G 도입은 기존 대비 높은 사양의 CCL 채용이 필수적이라는 점에서 긍정적
- 그 외 시장 관심이 높은 G사향 ASIC용 CCL 역시 국내 기판 업체와의 공동 퀄을 마무리한 상태로, 내년 상반기 신규 세대 전환 시점에 맞춰 본격 양산을 예상
- 동사에 대한 투자의견 Buy와 적정주가 135만원을 유지
https://vo.la/5IZC7pl (링크)
*동 자료는 Compliance 규정을 준수하여 사전 공표된 자료이며, 고객의 증권투자결과에 대한 법적 책임소재의 증빙자료로 사용될 수 없습니다.
두산(000150): 견고한 지배력 유지 + 고객사 확대 시동
- 전자BG 4Q25 실적은 매출액 5,386억원(+60.4% YoY), 영업이익 1,600억원(+257.1%, Opm: 29.7%)을 전망
- GB300 NVL72 출하 급증 효과로 분기 최고 실적 달성 예상
- NVL72 서버랙 제품은 출시 초기에는 생산 수율 문제와 높은 가격 대비 효용성에 대한 의문이 존재
- 그러나 최근 수율 개선으로 공급 병목이 해소되었고, 다양한 지표를 통해 학습뿐 아니라 추론 영역에서도 비용 대비 최고 성능이 입증
- AI 시장이 사실상 군비 경쟁으로 전개되고 있기 때문에, 성능 우위를 확보한 NVL72로의 수요 집중이 더욱 가속화되는 국면으로 판단
- AI 수요의 낙수 효과로 CCL 업황 전반의 공급부족이 가속화되고 있으며, 우호적인 업황을 기반으로 다수의 CCL 업체들이 원재료 가격 상승을 판가에 성공적으로 전가 중
- 특히 하이엔드 CCL의 공급 부족이 심화되면서 동사 역시 이를 기회로 활용, 신규 고객사로의 공급 확대가 본격화되는 것으로 파악
- 1. 기존 GPU 고객사가 아닌 신규 GPU 고객사로의 공급 시작을 전망
- 해당 고객사의 수요가 내년부터 확대됨과 동시에 서버랙 단위 제품 출시가 예정되어 있어 CCL 기준 콘텐츠 증가 폭이 상당할 것으로 기대
- 2. 북미 CSP A사향 스위치용 CCL 공급도 시작
- 이 역시 내년 Trainium3 출하가 본격화되는 시점에서 큰 폭의 공급 물량 증가를 예상
- 특히 Trainium3는 전송 지연 문제를 해소하기 위해 800G 기술을 핵심으로 채택할 예정이며, 800G 도입은 기존 대비 높은 사양의 CCL 채용이 필수적이라는 점에서 긍정적
- 그 외 시장 관심이 높은 G사향 ASIC용 CCL 역시 국내 기판 업체와의 공동 퀄을 마무리한 상태로, 내년 상반기 신규 세대 전환 시점에 맞춰 본격 양산을 예상
- 동사에 대한 투자의견 Buy와 적정주가 135만원을 유지
https://vo.la/5IZC7pl (링크)
*동 자료는 Compliance 규정을 준수하여 사전 공표된 자료이며, 고객의 증권투자결과에 대한 법적 책임소재의 증빙자료로 사용될 수 없습니다.
Forwarded from BK Tech Insight - 바바리안 리서치
[ AWS Re:Invent 2025 에서 Trainium 3, 4 발표 - 예상보다 높은 성능에 TPU 밸류체인 주가 소폭 부진 ]
- AWS가 라스베이거스 행사에서 자체 AI 칩 라인업을 대거 공개
- 엔비디아의 기술(NVLink)을 흡수하여 성능 개선
1. Trainium4 (2026년 출시 예정)
- 특징: 엔비디아 NVLink Fusion 기술을 세계 최초로 커스텀 칩에 적용
- 효과: AWS 칩, CPU, 네트워크가 하나의 거대한 GPU처럼 동작
- 성능(전작 대비): FP8 연산 3배, FP4 연산 6배, 메모리 대역폭 4배 증가
- 전망: 랙 단위 기준 2 엑사플롭스급 성능, 대형 모델 추론 속도 획기적 개선 예상
2. Trainium3 (정식 출시, 즉시 사용 가능)
- 스펙: HBM3E 144GB, 메모리 대역폭 4.9 TB/s
- 성능: 칩 하나당 최대 10 페타플롭스 (희소성 활용 시)
- 랙 구성: 칩 144개 탑재 (전작 대비 2.25배 증가), 총 메모리 20.7 TB
- 연결성: 올-투-올(All-to-All) 스위치 패브릭 도입으로 칩 간 대역폭 2배 향상
- 규모: 최대 100만 개 칩 클러스터 구축 가능
3. 엔비디아 Blackwell과의 공존
- 엔비디아 GB300 NVL72 인스턴스도 동시 출시
- 비교: 학습 성능(FP8)은 Trainium3와 대등하나, 추론(FP4)은 엔비디아가 우세
- 전략: 학습은 Trainium3(가성비), 추론은 엔비디아를 섞어 쓰는 하이브리드 방식 유효
요약
- AWS가 자체 칩만으로 엑사스케일 학습이 가능함을 선언
- 당장은 Trainium3로 가성비를 잡고,
- 2026년에는 NVLink를 탑재한 Trainium4로 엔비디아 의존도를 낮추고 다른 ASIC 들과도 경쟁하려는 전략
바바리안 결론
- 예상보다 빠르고 강력한 Trainium 3, 4 가 공개되었음
- 아마존이 자체 ASIC 을 통해 AI 향 클라우드 시장을 돌파하려는 의지가 느껴졌음
- 다만, 구글 처럼 강력한 AI 모델이 존재하지 않는 것은 한계
- 그럼에도 예상보다 뛰어난 스펙(실제로 테스트는 돌려보아야겠지만) 과 빠른 출시 시기로 TPU 밸류체인 주가 약세
- 그렇다고 해서 TPU 성장 스토리가 훼손될 정도라고 생각되지는 않음
- 가장 흥미로웠던 점은 NV Link Fusion 도입이며… 스케일업 시장에서 UA Link 대비 호환성, 이미 검증된 기술, 더 빠른 속도, 클라우드 기업에게 포기할 수 없는 Nvidiai GPU 라는 점이 NV Link Fusion 의 채택 이유라고 생각됨
- 엔비디아가 AI 용 이더넷 시장을 먹었듯이 스케일 업 시장도 자사의 장점을 잘 활용하여 지켜낼 가능성
- 이에 Astera Labs 13% 넘게 급락
- 클라우드 행사였던 AWS Re:Invent 에서 가장 주목 받은 뉴스는 ASIC 이었던 점도 흥미로웠던 점
- AWS가 라스베이거스 행사에서 자체 AI 칩 라인업을 대거 공개
- 엔비디아의 기술(NVLink)을 흡수하여 성능 개선
1. Trainium4 (2026년 출시 예정)
- 특징: 엔비디아 NVLink Fusion 기술을 세계 최초로 커스텀 칩에 적용
- 효과: AWS 칩, CPU, 네트워크가 하나의 거대한 GPU처럼 동작
- 성능(전작 대비): FP8 연산 3배, FP4 연산 6배, 메모리 대역폭 4배 증가
- 전망: 랙 단위 기준 2 엑사플롭스급 성능, 대형 모델 추론 속도 획기적 개선 예상
2. Trainium3 (정식 출시, 즉시 사용 가능)
- 스펙: HBM3E 144GB, 메모리 대역폭 4.9 TB/s
- 성능: 칩 하나당 최대 10 페타플롭스 (희소성 활용 시)
- 랙 구성: 칩 144개 탑재 (전작 대비 2.25배 증가), 총 메모리 20.7 TB
- 연결성: 올-투-올(All-to-All) 스위치 패브릭 도입으로 칩 간 대역폭 2배 향상
- 규모: 최대 100만 개 칩 클러스터 구축 가능
3. 엔비디아 Blackwell과의 공존
- 엔비디아 GB300 NVL72 인스턴스도 동시 출시
- 비교: 학습 성능(FP8)은 Trainium3와 대등하나, 추론(FP4)은 엔비디아가 우세
- 전략: 학습은 Trainium3(가성비), 추론은 엔비디아를 섞어 쓰는 하이브리드 방식 유효
요약
- AWS가 자체 칩만으로 엑사스케일 학습이 가능함을 선언
- 당장은 Trainium3로 가성비를 잡고,
- 2026년에는 NVLink를 탑재한 Trainium4로 엔비디아 의존도를 낮추고 다른 ASIC 들과도 경쟁하려는 전략
바바리안 결론
- 예상보다 빠르고 강력한 Trainium 3, 4 가 공개되었음
- 아마존이 자체 ASIC 을 통해 AI 향 클라우드 시장을 돌파하려는 의지가 느껴졌음
- 다만, 구글 처럼 강력한 AI 모델이 존재하지 않는 것은 한계
- 그럼에도 예상보다 뛰어난 스펙(실제로 테스트는 돌려보아야겠지만) 과 빠른 출시 시기로 TPU 밸류체인 주가 약세
- 그렇다고 해서 TPU 성장 스토리가 훼손될 정도라고 생각되지는 않음
- 가장 흥미로웠던 점은 NV Link Fusion 도입이며… 스케일업 시장에서 UA Link 대비 호환성, 이미 검증된 기술, 더 빠른 속도, 클라우드 기업에게 포기할 수 없는 Nvidiai GPU 라는 점이 NV Link Fusion 의 채택 이유라고 생각됨
- 엔비디아가 AI 용 이더넷 시장을 먹었듯이 스케일 업 시장도 자사의 장점을 잘 활용하여 지켜낼 가능성
- 이에 Astera Labs 13% 넘게 급락
- 클라우드 행사였던 AWS Re:Invent 에서 가장 주목 받은 뉴스는 ASIC 이었던 점도 흥미로웠던 점
Forwarded from [삼성 이영진] 글로벌 AI/SW
챗GPT vs Gemini 트래픽 경쟁 차트
1. 챗GPT의 숨 고르기(계절적 요인)
→ Gemini 3.0 Pro 출시(11/18) 직후 챗GPT 트래픽은 고점(2.03억) 대비 6% 감소(1.91억)
→ 미국 추수감사절(블랙프라이데이) 연휴에 따른 업무, 학업용 트래픽 감소가 하나의 원인(‘23~25년 모두 동일한 -16%~-21% 수준의 하락 패턴. 다만 미국 데이터)
2. Gemini의 구조적 성장(경쟁력 입증)
→ 전체 시장 파이가 줄어드는 연휴 기간임에도 Gemini 트래픽은 평균 5,300만 → 피크 6,400만으로 오히려 증가. 챗GPT 대비 트래픽 비율이 0.22에서 0.31로 약 41% 급등
3. 결론
→ 챗GPT 트래픽 하락은 '위기'라기보다 '계절성'에 가까움. 그러나 남들이 쉴 때 혼자 성장한 Gemini의 지표는 단순한 신규 모델 효과를 넘어, 시장 경쟁력을 확보하며 점유율을 뺏어오고 있음을 시사
1. 챗GPT의 숨 고르기(계절적 요인)
→ Gemini 3.0 Pro 출시(11/18) 직후 챗GPT 트래픽은 고점(2.03억) 대비 6% 감소(1.91억)
→ 미국 추수감사절(블랙프라이데이) 연휴에 따른 업무, 학업용 트래픽 감소가 하나의 원인(‘23~25년 모두 동일한 -16%~-21% 수준의 하락 패턴. 다만 미국 데이터)
2. Gemini의 구조적 성장(경쟁력 입증)
→ 전체 시장 파이가 줄어드는 연휴 기간임에도 Gemini 트래픽은 평균 5,300만 → 피크 6,400만으로 오히려 증가. 챗GPT 대비 트래픽 비율이 0.22에서 0.31로 약 41% 급등
3. 결론
→ 챗GPT 트래픽 하락은 '위기'라기보다 '계절성'에 가까움. 그러나 남들이 쉴 때 혼자 성장한 Gemini의 지표는 단순한 신규 모델 효과를 넘어, 시장 경쟁력을 확보하며 점유율을 뺏어오고 있음을 시사
The hunt for copper to wire the AI boom
‒ 미국 애리조나의 초대형 광산 프로젝트인 Resolution Copper는 2km 지하에서 1.8bn톤 규모의 거대 매장량을 갖고 있지만, 일부 지역이 아메리카 원주민의 성지와 겹치며 법적 분쟁이 계속돼 최소 2030년대 초반은 돼야 생산이 가능할 전망.
‒ AI 데이터센터·그린그리드·전기망 확충은 모두 대량의 구리를 필요로 하며, 특히 AI 데이터센터는 1MW당 27~33톤의 구리를 요구해 기존 데이터센터 대비 2배 이상이고, 이에 따라 BHP는 2050년까지 글로벌 DC향 구리 수요가 6배 증가한다고 추정.
‒ 글로벌 재무장 흐름 역시 구리 수요를 자극하고 있으나 군용 구리 소비량은 비공개로 숨겨진 수요가 크고, 2024년 전 세계 국방비는 2.7tn달러로 급증해 구조적 수요 압력을 더함.
‒ 반면 공급 측면에서는 100년 넘은 기존 대형 광산들의 광석 등급이 지속적으로 낮아지고 생산성이 악화되며, 지난 10년간 새로 발견된 대규모 구리 광상은 14개에 불과할 정도로 ‘신규 공급’이 사실상 정체.
‒ IEA는 2035년 기준 현재 가동·계획된 광산만으로는 예상 구리 수요의 70%밖에 충당하지 못한다고 평가하며, Wood Mackenzie는 2025년 304kt 부족 → 2026년 더 확대될 것으로 전망.
‒ 공급의 집중도도 위험요인으로, 전 세계 생산의 약 1/3이 상위 20개 광산에서 나오며 올해만도 Codelco 등 세계 최대 광산에서 다수의 큰 사고가 발생해 공급 리스크가 오히려 커지고 있음.
‒ 중국은 자국 내 광산 생산 비중은 9% 수준이지만 해외 투자 포함 시 20%에 달하며, 전 세계 제련(capacity)의 절반을 장악해 공급망 영향력이 막대하고 미국은 제련소가 2곳뿐이라 취약한 구조.
‒ 신규 광산 개발은 환경 갈등·물 부족·지역사회 반발·정치 리스크로 진척이 매우 느리고, 서방이 중국 의존도를 줄이고자 해도 제련소는 막대한 Capex·에너지비용·낮은 마진 때문에 단기간 내 신설되기 어려움.
‒ 최근 미국 수입관세 발표를 앞두고 ‘선제적 재고 쌓기’로 미국 내 정제 구리 재고는 인도 연간 소비량을 넘을 정도로 급증했지만, 글로벌적으로는 2030년 전후 구조적 공급 부족에 진입할 가능성이 높다는 분석이 지배적.
‒ 이처럼 데이터센터·그린 에너지·국방·신흥국 전력망 확충이 동시에 구리를 끌어당기는데, 신규 광산은 부족하고 기존 광산은 노후화되는 탓에 업계는 폐광 재가동·폐기물 더미 재채굴·스크랩 재활용 기술 확대까지 검토하며 ‘수명 연장’에 몰리고 있음.
source: FT
‒ 미국 애리조나의 초대형 광산 프로젝트인 Resolution Copper는 2km 지하에서 1.8bn톤 규모의 거대 매장량을 갖고 있지만, 일부 지역이 아메리카 원주민의 성지와 겹치며 법적 분쟁이 계속돼 최소 2030년대 초반은 돼야 생산이 가능할 전망.
‒ AI 데이터센터·그린그리드·전기망 확충은 모두 대량의 구리를 필요로 하며, 특히 AI 데이터센터는 1MW당 27~33톤의 구리를 요구해 기존 데이터센터 대비 2배 이상이고, 이에 따라 BHP는 2050년까지 글로벌 DC향 구리 수요가 6배 증가한다고 추정.
‒ 글로벌 재무장 흐름 역시 구리 수요를 자극하고 있으나 군용 구리 소비량은 비공개로 숨겨진 수요가 크고, 2024년 전 세계 국방비는 2.7tn달러로 급증해 구조적 수요 압력을 더함.
‒ 반면 공급 측면에서는 100년 넘은 기존 대형 광산들의 광석 등급이 지속적으로 낮아지고 생산성이 악화되며, 지난 10년간 새로 발견된 대규모 구리 광상은 14개에 불과할 정도로 ‘신규 공급’이 사실상 정체.
‒ IEA는 2035년 기준 현재 가동·계획된 광산만으로는 예상 구리 수요의 70%밖에 충당하지 못한다고 평가하며, Wood Mackenzie는 2025년 304kt 부족 → 2026년 더 확대될 것으로 전망.
‒ 공급의 집중도도 위험요인으로, 전 세계 생산의 약 1/3이 상위 20개 광산에서 나오며 올해만도 Codelco 등 세계 최대 광산에서 다수의 큰 사고가 발생해 공급 리스크가 오히려 커지고 있음.
‒ 중국은 자국 내 광산 생산 비중은 9% 수준이지만 해외 투자 포함 시 20%에 달하며, 전 세계 제련(capacity)의 절반을 장악해 공급망 영향력이 막대하고 미국은 제련소가 2곳뿐이라 취약한 구조.
‒ 신규 광산 개발은 환경 갈등·물 부족·지역사회 반발·정치 리스크로 진척이 매우 느리고, 서방이 중국 의존도를 줄이고자 해도 제련소는 막대한 Capex·에너지비용·낮은 마진 때문에 단기간 내 신설되기 어려움.
‒ 최근 미국 수입관세 발표를 앞두고 ‘선제적 재고 쌓기’로 미국 내 정제 구리 재고는 인도 연간 소비량을 넘을 정도로 급증했지만, 글로벌적으로는 2030년 전후 구조적 공급 부족에 진입할 가능성이 높다는 분석이 지배적.
‒ 이처럼 데이터센터·그린 에너지·국방·신흥국 전력망 확충이 동시에 구리를 끌어당기는데, 신규 광산은 부족하고 기존 광산은 노후화되는 탓에 업계는 폐광 재가동·폐기물 더미 재채굴·스크랩 재활용 기술 확대까지 검토하며 ‘수명 연장’에 몰리고 있음.
source: FT