LSKP CFO의 개인 공간❤️ – Telegram
LSKP CFO의 개인 공간❤️
1.09K subscribers
18.1K photos
148 videos
229 files
20.7K links
해외 / 국내 경제, 증시 및 다양한 이슈를 전달합니다!

협업 문의 : yeominyoon1981@gmail.com

Disclaimer

- 본 채널/유튜브에서 업로드 되는 모든 종목은 작성자 및 작성자와 연관된 사람들이 보유하고 있을 가능성이 있습니다. 또한, 해당 종목 및 상품은 언제든 매도할 수 있습니다.

- 본 게시물에 올라온 종목 및 상품에 대한 투자 의사 결정 시, 전적으로 투자자의 책임과 판단하에 진행됨을 알립니다.
Download Telegram
Forwarded from 요가하는증권맨
오픈AI의 CHAT GPT 유료 전환율 5%

개인적으로 AI모델을 잘 쓰는 입장에서 5%라는 수치는 생각보다 너무 낮은 수치입니다.

반대로 생각해보면 전반적으로 제미나이, GPT 등은 5%로 가정했을때 올라갈 여지가 20배나 남아있다보니 긍정적으로도 해석이 되구요.

한번 AI모델을 쓴 사람들은 구독을 끊을 수 없는 구조이다보니 이 부분도 결국 '정해진 미래'라고 생각합니다.


25.12.16.SK증권
Forwarded from [ IT는 SK ] (제민 박)
[SK증권 해외주식 박제민]

OpenAI, 우려의 크기는?

▶️ OpenAI 우려가 Infra로 확산 중
AI 버블 논란의 핵심은 '기대 비용 > 기대 매출'
비용 전망이 공격적인 핵심 주자가 OpenAI
관련 밸류체인(ORCL, CRWV) 주가 부진, CDS 금리 급등
풀스택 Google의 주가 랠리 또한 AI에 대한 확신 부족
OpenAI 매출 가시성에 따른 AI 투심 이동 전망

▶️ Cash Burn에 따른 추가 조달 불가피
2030E 매출액 $165B, 비용 $152B 전망
2029년까지 누적 Cash burn $91B 전망
내년 말 이내 $58B 조달 불가피
매출 민감도는 B2C 점유율, 유료 전환율, 무료 이용자 수익화 순

▶️ OpenAI Cash Burn 주요 가정
1) LLM 서비스 2030E WAU가 50억, 경쟁 심화 ChatGPT 점유율 55%로 축소
2) Agent 쇼핑, 앱 내 Application 도입, 광고 등 2026E 무료 사용자 수익화 시작
3) B2B 구독 판매, API 매출은 Agent 도입, 기존 기업 전환 비용으로 시장 점유율만큼 증가
4) 1GW당 $17.5B/연 서버 비용 임대 비용 추정, Stargate에 단기 2GW + 장기 5GW 서버 구동 전망

▶️ 보고서 원문: https://buly.kr/3j9PVtE

* SK증권 리서치 IT팀 채널 :
https://news.1rj.ru/str/skitteam
Forwarded from 요가하는증권맨
CHAT GPT WEB 점유율 추이

제미나이가 빠르게 올라오고는 있지만 GPT 73%, 제미나이 16% 수준입니다.


25.12.16.SK증권
Forwarded from 루팡
오라클, AI 수주 증거 제시하며 공매도 세력에 반격… 폭스콘·위스트론 등에 발주 확대

시장에서 오라클의 AI 사업 버블에 대한 우려가 제기되는 가운데, 오라클이 규제 당국에 제출한 최신 자료에 따르면 지난 11월까지 3개월 동안 약 1,500억 달러(약 215조 원) 규모의 신규 데이터센터 임대 계약을 체결한 것으로 나타났습니다. (로이터 통신)

시장이 오라클 AI 사업의 거품 붕괴 가능성을 우려하는 가운데, 회사 측이 규제 당국에 업로드한 최신 자료에 따르면 11월까지의 3개월간 약 1,500억 달러 규모의 신규 데이터센터 임대 계약이 확정되었습니다. 11월까지의 누적 계약 총액은 5,230억 달러(약 750조 원)에 달하며, 이는 향후 5년 내에 순차적으로 실적에 반영될 예정입니다.

이는 오라클에 AI 관련 업무 주문이 지속적으로 쇄도하고 있으며 그 금액 또한 막대함을 의미합니다. 오라클은 현재 오픈AI(OpenAI) 등 고객사와 협의된 클라우드 서비스 계약을 이행하기 위한 준비를 진행 중입니다. 최근 오라클을 둘러싼 악재가 잇따랐으나, 회사가 실제 계약 성과를 제시함에 따라 시장의 의구심을 해소하는 데 도움이 될 것으로 보입니다. 또한 막대한 계약 수요에 대응하기 위해 폭스콘(훙하이, 2317), 위스트론, 위윈 등 협력업체에 대한 발주도 확대할 전망입니다.

증권가에서는 주요 위탁생산(ODM) 업체들이 현재 수주한 AI 서버 물량이 2026년 말까지 꽉 차 있다고 지적합니다. 또한 주요 클라우드 서비스 제공업체(CSP)들의 메시지를 종합해 볼 때, 향후 5년 내 AI 서버 시장은 여전히 공급이 수요를 따라가지 못할 것으로 보여 관련 위탁생산 업체들의 실적 고공행진에 기여할 것으로 예상됩니다.

그중에서도 폭스콘(Hon Hai)이 대만 위탁생산 업체 중 가장 큰 수혜를 입을 것으로 보입니다. 현재 폭스콘의 글로벌 AI 서버 시장 점유율은 40%를 상회합니다. 올 연말 엔비디아의 GB300 AI 서버가 순차적으로 출하되고, 내년 하반기에는 엔비디아의 차세대 '베라 루빈(Vera Rubin)' 플랫폼 AI 서버도 출하 대열에 합류함에 따라 폭스콘의 시장 점유율은 더욱 상승할 것으로 기대됩니다.

류양웨이 폭스콘 회장은 앞서 "고객들의 컴퓨팅 파워 수요가 강력하다"며 "폭스콘은 내년에 새로운 GPU 플랫폼을 출시할 것이며 고객 수요에 맞춰 생산 능력을 제공할 것"이라고 밝힌 바 있습니다.

기술 뉴스 전문 매체 디 인포메이션(The Information)은 오라클이 지난주 후반 규제 당국에 제출한 문서를 인용해, 11월까지 3개월 동안 약 1,500억 달러 규모의 데이터센터 임대 약정을 새로 체결했다고 보도했습니다.

신고서에 따르면 11월 30일 기준, 오라클의 대차대조표에는 아직 계상되지 않았으나 지금부터 2028 회계연도 시작 전까지 유효한 임대 약정 규모는 2,480억 달러에 달하며, 이 약정들은 "거의 전적으로 데이터센터 및 클라우드 컴퓨팅 용량 확보와 관련된 것"입니다. 이는 지난 8월 31일 보고된 신규 임대 약정 998억 달러, 5월 말 기준 434억 달러와 비교해 급증한 수치입니다.

통계에 따르면 11월 말 기준 오라클의 고객 계약 약정 총액은 5,230억 달러이며, 이행 기간은 5년을 초과합니다. 오라클은 증권 신고서를 통해 "이 중 10%는 향후 12개월 내에 매출로 인식될 것이며, 나머지 65%는 그 이후 5년 동안 매출로 인식될 것"이라고 밝혔습니다.

https://money.udn.com/money/story/5612/9205243?from=edn_subcatelist_cate
Oracle (J.P. Morgan)
If You Build It, Will They Pay?

📉 F2Q 실적 및 시장 반응
• Oracle의 F2Q 실적은 대체로 예상치에 부합했으나, 투자자들이 기대했던 확실한 안도감을 주지는 못했음.
• 매출은 160.6억 달러(+13% y/y)를 기록했으며, 클라우드 매출은 전년 대비 33% 증가함.
• 그러나 전반적인 어조가 기대에 미치지 못했고, AI Capex 증가 및 수요 질에 대한 우려가 확대됨.
• 이에 따라 주가는 목요일 약 11%, 금요일 추가로 5% 하락하며 마감함.
• 신용 시장에서도 스프레드가 약 30bps 확대되고, 5년물 CDS는 20년 만에 최고치를 기록함.

───── ✦ ─────
⚠️ Capex 급증과 현금흐름 압박
• 수주잔고(RPO)는 523억 달러로 전년 대비 43% 급증하며 강력한 수요를 확인시켜 줌.
• 그러나 데이터센터 확장에 따른 Capex가 120억 달러로 예상치를 상회하며, 분기 FCF(잉여현금흐름)는 -100억 달러로 급락함.
• FY26 Capex 전망치가 5월 예상 250억 달러에서 불과 2개 분기 만에 500억 달러로 두 배 상향 조정됨.
• 투자자들은 이를 "성과를 증명해야 하는 단계(show me story)"로 인식하며 실행 리스크와 현금흐름 압박에 주목하고 있음.
• 서화백의그림놀이(@easobi)
• 경영진은 OpenAI에 대한 언급을 최소화하고 Meta와 NVIDIA를 주요 고객으로 강조하며 특정 기업 의존도 우려를 불식시키려 노력함.

───── ✦ ─────
💰 레버리지 및 리스 부채 우려
• J.P. Morgan은 Oracle에 대해 'Neutral' 의견을 유지하며, AI 투자의 확실한 ROI가 증명되기 전까지 스프레드 축소는 어려울 것으로 전망함.
• 투자자들의 주목을 끈 것은 재무상태표에 반영되지 않은(off-balance) 리스 약정액이 2,480억 달러로 전 분기 대비 약 1,500억 달러 폭증했다는 점임.
• 신용평가사들은 이러한 리스 부채를 조정 레버리지 계산에 포함할 가능성이 높음.
• 경영진은 AI 구축에 필요한 자금 조달 규모가 시장 우려(1,000억 달러 이상)보다 적을 것이라고 주장했으나, 구체적인 자금 조달 계획의 불확실성은 여전함.

───── ✦ ─────
📊 기존 관점 대비 변화 및 전망
• Capex 전망 변화: 지난 5월 FY26 Capex를 250억 달러로 예상했으나, 이번 발표에서 약 500억 달러로 대폭 상향함.
• 리스 약정: 향후 15~19년에 걸쳐 시작될 2,480억 달러 규모의 대규모 추가 리스 약정이 공개됨.
• 재무 가이던스:
o 올해(F3Q): 클라우드 매출 +39%, 전체 매출 +17% 성장 예상.
o 내년(FY26): 매출 목표 670억 달러 유지, Capex 약 500억 달러 예상.
o FY27: 최근 체결된 RPO를 통해 약 40억 달러의 추가 매출이 발생할 것으로 기대함.
• (본 보고서는 크레딧 리서치 자료로, 주당순이익(EPS)이나 PER/PBR 구체적 추정치는 포함되지 않음.)


===============

오,,, 꽤나 도발적인 제목
Forwarded from 루팡
​NVIDIA Nemotron 3: 에이전트 AI를 위한 고효율·고성능 오픈 모델
​NVIDIA는 복잡한 다중 에이전트(Multi-agent) 시스템을 위해 설계된 새로운 오픈 모델 제품군인 Nemotron 3 (Nano, Super, Ultra)를 공개했습니다. 이 모델은 빠른 처리 속도, 긴 문맥 이해, 높은 추론 정확도를 목표로 합니다.

1. 핵심 기술 혁신: 하이브리드 아키텍처
​Nemotron 3는 세 가지 아키텍처를 결합한 '하이브리드 맘바-트랜스포머 MoE(Mixture-of-Experts)' 백본을 사용합니다.
Mamba 레이어: 긴 시퀀스를 메모리 효율적으로 처리하여 수십만 토큰 처리 시에도 성능 유지.
Transformer 레이어: 코드 조작, 수학, 복잡한 계획 수립 등에 필요한 정밀한 추론 능력 제공.
MoE (전문가 혼합): 각 토큰마다 일부 전문가(파라미터)만 활성화하여, 연산 비용은 낮추고 처리량(Throughput)은 극대화.

2. 주요 기능 및 성능
100만(1M) 토큰 컨텍스트 윈도우: 파편화된 청크(chunk) 방식이 아니라, 전체 증거 세트, 긴 대화 기록, 대규모 코드베이스를 한 번에 처리하여 장기 기억과 심층 추론 가능.

다중 환경 강화 학습(RL): 'NeMo Gym'을 통해 실제 에이전트 작업(도구 사용, 코드 작성, 다단계 계획 등) 환경에서 훈련되어, 단순 대답을 넘어선 복잡한 워크플로우 수행 능력 강화.

성능 지표: Nemotron 3 Nano는 동급 모델 중 가장 높은 처리 효율성과 'Artificial Analysis Intelligence Index'에서 선도적인 정확도(점수 52)를 기록했습니다.

3. 모델 라인업 및 출시 일정
Nemotron 3 Nano (즉시 사용 가능):
​30B(300억) 전체 파라미터 중 3B(30억) 활성 파라미터 사용.
​DGX Spark, H100, B200 등 다양한 GPU에 최적화.
​현재 Hugging Face 등에서 바로 다운로드 및 사용 가능.

Nemotron 3 Super & Ultra (2026년 상반기 출시 예정):
Latent MoE: 전문가들이 잠재(Latent) 표현 공간에서 작동하여, 동일한 비용으로 4배 더 많은 전문가를 활용 가능.
MTP (Multi-token Prediction): 한 번의 패스로 미래의 여러 토큰을 예측하여 추론 속도 대폭 향상.
NVFP4 훈련: NVIDIA의 4비트 부동소수점 포맷으로 훈련되어 비용 대비 정확도 최적화.

4. 개방형 생태계 및 개발자 지원
​NVIDIA는 투명성과 개발자 역량 강화를 위해 모델뿐만 아니라 훈련 과정의 모든 자산을 공개했습니다.

오픈 데이터셋: * Pre-training: 3조 토큰 규모의 코드, 수학, 추론 데이터.
​Post-training: 1,300만 개의 지도 미세 조정(SFT) 및 RL 샘플.
​Safety: 1만 1천 개의 에이전트 워크플로우 트레이스.

개발 도구(Recipes & Cookbooks):
​vLLM, SGLang, TRT-LLM 등을 위한 추론 최적화 쿡북 제공.
​사전 훈련(Pre-training) 및 강화 학습(RL) 레시피(GitHub) 공개.
​Llama.cpp, LM Studio 등 주요 프레임워크 지원.

요약: Nemotron 3는 Mamba의 효율성Transformer의 정확성을 결합하고 MoE로 확장성을 더한 모델입니다. 특히 100만 토큰의 컨텍스트강화 학습을 통해 실제 에이전트 서비스(Agentic AI) 구현에 최적화되었습니다. 현재 Nano 모델은 즉시 사용 가능하며, 더 강력한 Super와 Ultra 모델은 내년 상반기에 출시됩니다.

https://developer.nvidia.com/blog/inside-nvidia-nemotron-3-techniques-tools-and-data-that-make-it-efficient-and-accurate/?nvid=nv-int-bnr-265049
NVIDIA, 오픈 모델 제품군 'Nemotron 3' 출시 (NVIDIA Debuts Nemotron 3 Family of Open Models)

- NVIDIA는 에이전트 AI 애플리케이션 구축을 위해 효율성과 정확성을 갖춘 새로운 오픈 모델 제품군인 'Nemotron 3'를 발표

- 이 제품군은 개발자가 대규모 멀티 에이전트 시스템을 구축할 수 있도록 지원하며, 관련 데이터셋과 라이브러리도 함께 공개

1. 3가지 모델 라인업 (Nano, Super, Ultra):
- Nemotron 3 Nano: 300억 파라미터(활성 파라미터 30억 개) 규모의 소형 모델
- 소프트웨어 디버깅, 요약, 정보 검색 등 효율성이 중요한 작업에 최적화
- 이전 세대(Nemotron 2 Nano) 대비 4배 높은 처리량을 제공(현재 사용 가능)
- Nemotron 3 Super: 약 1,000억 파라미터 규모의 고정확도 추론 모델로, 협업이 필요한 멀티 에이전트 애플리케이션에 적합(2026년 상반기 출시 예정)
- Nemotron 3 Ultra: 약 5,000억 파라미터 규모의 대형 추론 엔진으로, 심층 연구나 전략 기획 같은 복잡한 AI 워크플로우를 처리하도록 설계되었습니다. (2026년 상반기 출시 예정)

2. 기술적 혁신:
- 혁신적인 하이브리드 MoE(Mixture-of-Experts) 아키텍처를 도입하여 성능과 비용 효율성을 극대화
- Super와 Ultra 모델은 NVIDIA의 초효율적 4비트 NVFP4 학습 포맷을 사용하여 메모리 사용량을 줄이고 학습 속도 향상

3. 개발 도구 및 데이터 공개:
- 전문적인 AI 에이전트 개발을 지원하기 위해 3조 토큰 분량의 새로운 학습 데이터셋과 NeMo Gym, NeMo RL 등 강화 학습(RL) 라이브러리를 오픈소스로 공개

4. 도입 및 전망:
- Accenture, Deloitte, Oracle, Perplexity 등 주요 기업들이 이미 Nemotron 3를 도입하여 제조, 사이버 보안 등 다양한 산업 분야에서 AI 워크플로우를 구축
- NVIDIA는 이를 통해 기업들이 자체 데이터와 가치에 부합하는 '소버린 AI(Sovereign AI)'를 구축할 수 있도록 지원할 계획

https://nvidianews.nvidia.com/news/nvidia-debuts-nemotron-3-family-of-open-models
Forwarded from 에테르의 일본&미국 리서치 (Aether)
엔비디아에서 Nemotron 3 Nano LLM을 공개했습니다.

해당 LLM은 24GB의 램이 있으면 로컬에서 돌릴 수 있는 소형 모델로, GPT-OSS나 Qwen3-30B보다 2.2~3.3배 더 빠르면서도, 더 좋은 성능을 보여줍니다.

"Nemotron 3 Nano는 Nemotron 2 Nano 대비 4배 높은 처리량을 제공하며, 획기적인 하이브리드 전문가 혼합(Hybrid Mixture-of-Experts) 아키텍처를 통해 대규모 다중 에이전트 시스템에서 초당 최대 토큰 처리량을 실현합니다.
Nemotron은 대규모 동시 다중 환경 사후 훈련을 통한 고급 강화 학습 기법으로 탁월한 정확도를 달성합니다."
라고 엔비디아는 홍보합니다.

https://nvidianews.nvidia.com/news/nvidia-debuts-nemotron-3-family-of-open-models
Forwarded from 루팡
더욱 강력해지는 CUDA 해자(Moat)

오늘 엔비디아(NVIDIA)가 널리 사용되는 '오픈 소스' 워크로드 스케줄러인 SLURM의 제작사 SchedMD를 인수했습니다.

미스트랄(Mistral), 씽킹 머신(Thinking Machines), 메타(Meta)의 FAIR 연구소 일부, 그리고 수많은 대학 연구실 등 많은 AI 기업 및 기관들이 SLURM을 사용하고 있습니다.

AMD나 인텔 같은 대체 AI 가속기 칩을 도입하려는 많은 고객들 또한 SLURM에 의존하고 있기 때문에(물론 쿠버네티스(k8s)를 많이 쓰기도 합니다), 엔비디아의 이번 인수는 CUDA의 경제적 해자를 새로운 계층으로 확장하는 결과를 낳습니다. 사용자가 거의 없는 Run:AI나 DGX Lepton과는 달리, SLURM은 실제로 아주 많은 사람들이 사용하고 있는 소프트웨어입니다.
엔비디아, 스케드MD 인수 $NVDA

스케드MD는 고성능 컴퓨팅 워크로드 관리 시스템 개발사. 이 시스템은 리눅스 체제에서 오픈소스 '슬럼(Slurm)'에 기반해 GPU 클러스터 관리를 위한 스케줄링(자원할당) 기능을 지원함. 슬럼은 또다른 오픈소스 기술이자 클라우드 컨테이너 표준인 '쿠버네티스(K8s)'와 연동돼 AI인프라를 운영하는 소프트웨어 요소로 사용됨. 엔비디아는 스케드MD 인수로 고객의 GPU 자원 사용률을 끌어올리기 위한 소프트웨어 스택을 한층 강화하며 개방형 생태계를 확대하려고 함
엔비디아가 개방형 AI 모델을 내놓고, 개방형 관리 도구까지 인수해 고객들에게 제공하는 것은 자사 그래픽처리장치(GPU)의 장악력을 높이기 위한 것으로 풀이된다.

개방형이자 무료이면서도 성능은 최고 수준에 근접한 네모트론3와 슬럼을 자사 GPU에 최적화해 내놓으면 고객들이 다른 AI 칩에 눈을 돌리지 않고 지속해서 자사 제품을 사용하도록 할 수 있기 때문이다.

엔비디아, 개방형 AI모델·관리도구 공개…GPU 고객 '묶어두기'
- 네모트론3, 라마·딥시크 넘는 성능…개방형 AI 작업관리도구도 인수
https://n.news.naver.com/article/001/0015797375?sid=104
Forwarded from 루팡
모건 스탠리, 신규 테슬라 $TSLA 노트:

"자동차 산업은 AI가 주도하는 변곡점에 다가서고 있으며, 테슬라는 상당한 (그리고 계속 확대되고 있는) 선두를 달리고 있습니다.

자율 주행 역량을 성공적으로 개발하기 위해서는 데이터(운행 차량 규모/주행 거리), 컴퓨팅(연산 능력), 알고리즘(AI 모델)이라는 세 가지 요소가 필요합니다.

테슬라는 이 세 가지를 모두 갖추고 있을 뿐만 아니라, 다수의 전기차(EV) 경쟁사들보다 압도적으로 큰 규모를 자랑합니다. 그리고 그 격차는 명확히 드러나고 있습니다.

이 점을 강조하자면, 당사는 테슬라의 최첨단 자율 주행 솔루션이 전기차 경쟁사 대비 테슬라의 강력한 경쟁 우위로 지속될 것이라 확신합니다. 테슬라가 (핸즈오프, 아이즈오프 등) 자율 주행 단계를 높이며 플랫폼을 지속적으로 개선함에 따라 개인의 운전 경험은 혁명적으로 변화할 것입니다. 과연 다른 기업들이 그 속도를 따라갈 수 있을지는 두고 봐야 할 것입니다."
테슬라, 비지도 FSD 소식에 주가 상승 $TSLA

= 머스크, 운전자 감독 없는 Unsupervised FSD 언급
= 현재 검증(Validation) 단계. 초소형 모델로 구축
= 내년 1월 말~2월에 약간 큰 모델로 배포 예정
= AI추론 기법인 Chain of Thought(CoT), 강화학습(RL) 적용
= 2년 전 출시한 AI4 칩으로 최대 10배 성능 구현 가능
Pony.ai (Macquarie Equity Research)
Initiation: Turning robotaxi dreams into reality

🚀 커버리지 개시: 로보택시의 꿈을 현실로
• 맥쿼리는 Pony.ai에 대해 투자의견 'Outperform'과 목표주가 US$29/HK$227를 제시하며 커버리지를 개시함.
• 중국 모빌리티 시장의 세대교체 가능성을 증명하려는 선두 주자로 평가함.
• 2026년을 기점으로 차량 비용 20% 절감과 운영 규모 3배 확대를 통해 수익성 확보의 원년이 될 것으로 전망함.

───── ✦ ─────
💡 투자 포인트: 압도적 기술력과 규제 우위
• 규제 장벽과 선점 효과: 로보택시의 핵심 진입 장벽은 기술보다 규제이며, Pony.ai는 이 분야에서 확실한 우위를 점하고 있음.
• 운영 표준화: 대규모 확장의 병목은 자본이 아닌 주차, 충전 등 운영 절차의 표준화 여부에 달려있음.
• 단위 경제성 달성: 광저우의 7세대 로보택시 서비스는 이미 수십 대 규모에서 단위 경제성 손익분기점을 달성했음.
• 8세대 로보택시 출시 후 3년 내 연간 운영 마진이 65%를 상회할 것으로 추정됨.

───── ✦ ─────
📈 성장 전략: Tier-1 도시 집중 및 자산 경량화
• 베이징, 상하이, 광저우, 선전 등 중국 Tier-1 도시에 집중하여 높은 요금과 가동률을 확보하는 전략이 유효함.
• 파트너사들이 차량 투자비(Capex)를 분담하도록 유도하며 고수익 자산 경량화(Asset-light) 모델로 전환할 계획임.
• 서화백의그림놀이(@easobi)
• 2035년까지 중국 내 로보택시가 전체 모빌리티 수요의 45%를 차지할 것으로 가정함.

───── ✦ ─────
📊 밸류에이션 및 시나리오 분석
• 기본 시나리오: 2035년까지 중국 시장 점유율 20~25%를 확보하여 US$126억의 기업 가치를 달성할 것으로 예상함.
• 강세 시나리오: 로보택시가 저가형 승용차 소유를 대체할 경우 주가 US$38까지 상승 여력이 있음.
• 약세 시나리오: 네트워크 효과 확보 실패 시 시장 점유율 5~10%에 머물며 주가 US$12 수준에 그칠 수 있음.

───── ✦ ─────
📉 리스크 요인
• 규제 및 데이터 프라이버시: 미성숙한 자율주행 법규 및 급격한 정책 변화 가능성.
• 경쟁 심화: 자금력과 R&D 능력을 갖춘 경쟁사들과의 치열한 경쟁.
• 기술 및 안전: 사고 발생 시 평판 하락 및 규제 강화 위험.
• 서화백의그림놀이(@easobi)

───── ✦ ─────
🔢 실적 전망 (단위: 백만 USD)
• 2025년 예상: 매출 89.0, 영업이익 -282.3, 조정 순이익 -233.1.
• 2026년 예상: 매출 151.7, 영업이익 -288.5, 조정 순이익 -288.5.
• 2027년 예상: 매출 367.7, 영업이익 -339.0, 조정 순이익 -337.5.
• 밸류에이션: 2030년 예상 실적 기준 PER 40배, PSR 5.7배 수준이며 2029년 비회계기준(Non-GAAP) 흑자 전환을 예상함.
Gen 8 robotaxi could achieve >65%
operating margins
>275k robotaxis in China by 2030E
Forwarded from 에테르의 일본&미국 리서치 (Aether)
골드만삭스) 아시아 테크 투어 10대 핵심 시사점 — 2025년 12월
지난주 대만, 한국, 일본의 IT 공급망 전반에 걸쳐 25개 기업을 방문했습니다. 상위 10가지 핵심 시사점은 아래와 같으며, 기업 미팅에 대한 더 자세한 내용은 본 보고서 본문에 포함되어 있습니다.

1. AI 서버: 2026년에도 둔화 조짐 없이 견조한 수요가 지속될 것으로 예상됩니다. 풀랙(Full-rack) 출하량이 두 배 이상 증가하고 GPU와 ASIC(주문형 반도체)도 비슷한 수준으로 성장하겠지만, ASIC 출하량의 성장 속도가 더 빠를 것으로 보입니다.

2. AI 칩 벤더: 엔비디아의 '루빈(Rubin)' 아키텍처는 2026년 중반 생산 및 2026년 하반기 본격적인 물량 증대를 목표로 순항 중입니다. 공급업체들은 구글용 브로드컴 TPU에 대해 매우 강력한 반응이 있다고 언급했으나, 다른 공급업체들에 대해서는 엇갈린 추세를 보이고 있습니다.

3. 광 네트워크 (Optical Networking): 상당한 속도 업그레이드(800Gb로의 전환 및 향후 1.6T)와 가격 상승에 힘입어 수요가 매우 강력합니다. 특히 브로드컴 관련 지표가 돋보입니다.

4. 반도체 장비 (Semi Cap Equipment): D램과 선단 로직(Logic) 공정이 주도하며 2026년 및 2027년 WFE(웨이퍼 팹 장비) 기대치가 계속 상승하고 있습니다. 낸드 투자는 당분간 잠잠할 것으로 보이며, 레거시(구형) 로직 공정은 여전히 압박을 받고 있습니다.

5. 반도체 테스트: GPU, ASIC, HBM이 이끄는 AI 기반 애플리케이션에 대한 강력한 수요가 지속되고 있습니다. 테라다인(Teradyne)의 시장 점유율 입지가 개선될 것으로 예상합니다.

6. 아날로그 및 RF: 수요가 개선되고는 있으나 최종 시장별로 차이가 있습니다. 데이터센터는 강세를 보이고 산업용은 완만하게 개선되는 반면, 자동차 부문은 부진한 흐름을 보이고 있습니다.

7. D램: 공급 증가는 완만한 수준에 그치는 반면, 수요는 계속해서 공급을 크게 초과하고 있습니다. HBM 혼합 평균 가격은 일시적으로 조정받은 후 다시 상승할 것으로 예상되나, 일반(범용) D램 가격은 상당히 오를 것으로 전망됩니다.

8. 낸드: 수급 상황이 상당히 타이트해졌으며 중기적으로도 이러한 기조가 유지될 것으로 보입니다. 샌디스크(SanDisk)는 2026년 eSSD 부문에서 하이퍼스케일러 고객사를 추가로 확보한 것으로 보입니다.

9. PC: 2026년에는 출하량 성장이 매우 미미하거나 소폭 감소할 것으로 예상됩니다. AMD는 상업용 PC 시장에서 입지를 어느 정도 넓혀가고 있는 것으로 보입니다.

10. 스마트폰: 하이엔드 제품 출하량은 견조하지만, 저가형 시장 물량은 이미 상승하는 원가 부담으로 인해 상당한 압박을 받고 있습니다.
Forwarded from 에테르의 일본&미국 리서치 (Aether)
1. AI 서버: 2026년에도 둔화 조짐 없이 견조한 수요 지속 예상

대만의 AI 서버 ODM 업체들은 2026년 AI 서버 수요 수준에 대해 여전히 낙관적인 입장을 유지하고 있습니다. 시장에서는 2026년 풀 랙(Full rack) 시스템 출하량이 6만 대에서 10만 대 사이가 될 것으로 예상하는데(주로 2025년 하반기에 집중된 추정치 3만 대에서 증가), 이는 물량 기준으로 100%에서 200% 이상의 성장을 의미합니다.

그러나 고객 구성(CSP 및 OEM)과 특정 고객 프로그램의 차이로 인해 ODM별 서버 출하량의 구체적인 구성은 크게 다릅니다. 주목할 점은, 현장 신뢰성을 보장하기 위해 필요한 조립 및 연장된 테스트 시간으로 인해, 대부분의 경우 ODM들의 랙 출하 예상 시점이 보고된 GPU 및 ASIC 칩 판매 시점보다 10~24주 정도 후행한다는 것입니다.

지난 몇 분기 동안 전분기 대비 강력한 물량 성장세를 보이며 2025년에 매우 가파르게 출하량이 증가한 이후, 대다수 업체들은 2026년 내내 랙 출하량의 전분기 대비 성장세는 다소 둔화될 것으로 예상하고 있습니다.

현재로서는 GB300이 2026년에 가장 큰 물량 비중을 차지할 기회가 될 것으로 예상되며, 루빈(Rubin)은 2026년 하반기나 2027년에 본격적으로 늘어날 것으로 보입니다. 일반(범용) 서버의 경우, 2025년 한 자릿수 중반의 성장에 이어 2026년에도 또 한 번의 성장(한 자릿수 후반에서 두 자릿수 초반 사이의 물량 성장)을 기록하는 해가 될 것으로 예상됩니다.

2. AI 칩 벤더: 엔비디아 루빈 2026년 중반 생산 궤도, 브로드컴 TPU 강력한 반응 얻고 있으나 타 공급사는 혼조세

ODM 모듈 및 시스템 공급업체들은 2026년 GPU 및 ASIC(주문형 반도체) 기반 서버 출하량의 성장 전망에 대해 여전히 매우 긍정적인 입장을 유지하고 있습니다. 일부 공급업체는 GPU 기반 서버가 ASIC 기반 서버보다 더 성장할 것으로 예상하는 반면, 다른 업체들은 ASIC 기반 서버의 성장이 GPU 기반 서버를 상당히 앞지를 것으로 보고 있습니다. 그러나 전반적인 관측에 따르면, ODM들은 중장기적으로 ASIC 기반 솔루션의 출하량이 GPU 기반 솔루션을 넘어설 가능성이 높다고 보고 있습니다.

여러 벤더들은 다양한 프로그램(TPU v8, 트레이니엄 3 및 기타 솔루션)이 본격화됨에 따라 2026년 ASIC 기반 서버 출하량이 시장의 40%를 초과할 것으로 예상한다고 밝혔습니다. 엔비디아의 GB300 솔루션은 루빈(Rubin)의 생산 본격화가 하반기에 예정되어 있고 조립 및 테스트에 3개월 이상 소요된다는 점을 감안할 때, 2026년 랙 단위 출하량 측면에서 지배적인 플랫폼 지위를 유지할 것으로 예상됩니다. 루빈은 2026년 2분기부터 초기 칩 양산이 시작될 것으로 보이며, 풀 랙(Full rack) 솔루션은 2026년 3분기부터 유의미한 물량이 출하될 궤도에 올라 있습니다.

AMD의 MI450 시리즈 제품은 2026년 3분기 초기 생산을 시작하여 4분기에는 대량 생산에 들어갈 것으로 예상됩니다. 고객들의 관심은 높지만, 현 단계에서 초기 물량 전망치에 대한 상향 조정은 없는 것으로 보입니다.

ASIC 프로그램과 관련하여, 브로드컴이 공급하는 구글의 TPU 프로그램은 제미나이(Gemini)의 성공과 앤스로픽(Anthropic)을 포함한 다른 고객들의 사용 확대에 힘입어 전망치를 계속해서 상향시키고 있습니다. 미디어텍(MediaTek)은 현재 2026년 4분기부터 TPU 프로그램 생산을 본격화할 것으로 예상하며, 향후 몇 년 내에 생산을 늘릴 후속 제품에 대해 논의 중입니다.

아마존의 트레이니엄 3(Trainium 3) 프로그램은 2026년 3분기에 양산에 들어갈 것으로 예상되는데, 여기서 마벨(Marvell)은 트레이니엄 2 제품에서의 입지와 비교할 때 공급 점유율을 잃을 것으로 예상됩니다. 마이크로소프트의 마이아(Maia) ASIC 프로그램은 현재 2027년에 본격적인 물량 생산에 들어갈 것으로 예상되지만, 정확한 시기와 생산 물량 기대치에 대한 가시성은 비교적 낮은 상태입니다. 메타(Meta)의 ASIC 프로그램은 경영진의 의사결정 과정이 계속됨에 따라 추가 지연될 것으로 보입니다.