Buff – Telegram
Buff
28K subscribers
2.07K photos
12 videos
371 files
10.5K links
버프받고 투자하자
- 내용은 투자 판단의 근거로 활용할 수 없음
- 내용이 사실과 다를 수 있으며, 단순한 의견도 있음
- 언급된 종목을 보유하고 있을 수 있으며, 언제든 매도할 수 있음

문의: jelly@buf.kr
Download Telegram
* DRAM 수출가 (11월 1-20일)

- 최고가 경신. 수요 둔화 조짐 전무. 향후 상승 가속화 예상
15
Forwarded from 루팡
엔비디아 매출채권 노이즈 관련 고객사

Q3 FY26에 매출의 10% 이상을 차지한 직판 고객 4곳
22%, 15%, 13%, 11% → 합쳐서 61%


22·15·13·11%를 차지하는 4개 direct customer는
Foxconn, Quanta, Wistron/Wiwynn


AR 잔액도 연초 23.1B → Q2 27.8B → Q3 33.4B로, NVL72 램프업 타이밍과 거의 같이 증가

NVL72는 GPU, HBM, NVLink, 전원·냉각 등이 들어가는 초고가 랙이라 ODM 입장에서 재고·공정 중(WIP)·부품 선구매에 필요한 운전자본이 증가

실제로는 공급망 파트너들이 물량을 감당할 수 있게 엔비디아가 유동성을 공급해주고 있는 중

신용 리스크는 ODM이 아니라 사실상 그 뒤에 있는 하이퍼스케일러·AI 팩토리 풀의 수요 지속성에 연결돼 있기 때문에, 이렇게 AI 관련 수요가 많은 상황에서는 매출채권 우려는 할 필요 없는 상황

(아까 고객사를 최종 빅테크 기준으로 설명해서 내용 수정 좀 했습니다)
12🔥3
엔비디아 순이익 vs. FCF

회계적 이익과 잉여현금흐름, 둘 간의 차액 추이
2
엔비디아 순이익 vs. CFO

회계적 이익과 영업현금흐름, 둘 간의 차액 추이
5
엔비디아 FCF/CFO vs. CFI

- 투자활동 현금흐름 "CFI"에서 엔비디아는 케펙스가 차지하는 비중이 작은 편
- 대부분이 풍부한 현금 활용한 채권 투자
- 최근 증가분은 오픈AI, 코어위브 등 비상장 지분 투자 "Purchases of non-marketable equity securities"
👍4
• 중국 오픈소스 모델 선두: 알리바바 Qwen이 메타 Llama 넘어섬

中国开源模型领先:阿里千问超越Meta的Llama
6
[ 구글, AI 수요 폭발로 “6개월마다 처리 용량 2배씩 늘려야 한다” ]

– 구글 AI 인프라 총책임자 아민 바닷, 사내 전체 회의 발표 (2025.11.21 CNBC)

핵심 요약
• 앞으로 6개월마다 AI 서비스 제공 용량을 2배씩 증설해야 함
• 결과적으로 4~5년 안에 현재보다 1000배 많은 컴퓨팅 파워 필요
• 구글 올해 자본지출 910~930억 달러(약 130조 원), 2026년엔 더 큰 폭 증가 예정
• MS·아마존·메타·구글 4개사 합쳐 올해 3800억 달러(약 540조 원) 이상 투자

아민 바닷 부사장 발표 슬라이드 한 줄
“Now we must double every 6 months.... the next 1000x in 4-5 years”
→ “이제 6개월마다 2배… 4~5년 안에 1000배”

왜 이렇게 급한가?
1. AI 사용자가 폭발적으로 증가 (Gemini, Veo, Imagen 등)
2. 동영상·이미지 생성 하나에도 수천 대 GPU가 몇 분씩 풀가동
3. 하루 수억 건 요청 → 기존 데이터센터 금방 포화
4. 피차이 CEO: “Veo를 더 많은 사람에게 열어줬으면 사용자 훨씬 더 늘었을 텐데, 컴퓨팅 부족으로 못 했다”

구글 대응 전략 3가지
1. 데이터센터·서버 대규모 증설 (돈 많이 쓰기)
2. 자체 AI 칩 TPU 계속 고성능화
→ 7세대 Ironwood: 2018년 1세대보다 전력 효율 30배↑
3. AI 모델 자체를 더 가볍고 효율적으로 개선

피차이 CEO, ‘AI 버블’ 질문에 답변
직원 질문: “거액 투자하는데 시장이 기대만큼 안 크면 어떡하나요?”
피차이:
• 버블 우려 인정하지만, 투자 부족으로 기회 놓치는 게 더 무섭다
• 구글 클라우드 분기 매출 34% 성장, 150억 달러 돌파
• 미래 계약 잔고 1550억 달러 → 컴퓨팅만 더 있었으면 훨씬 더 좋았을 숫자
• “2026년은 정말 치열하다. 하지만 우리는 잘 준비되어 있다”

https://www.cnbc.com/2025/11/21/google-must-double-ai-serving-capacity-every-6-months-to-meet-demand.html
16
[메리츠증권 반도체/디스플레이 김선우]

메리츠 김선우입니다.

엔비디아가 최근 AI 버블론 및 동사 실적에 관한 우려사항 (매출채권 증가 등)에 대한 반박문을 주요 투자자들에게 발송했습니다.

IR팀 및 회사 차원에서 공식적으로 이러한 [우려사항 팩트체크 FAQ]를 송부하는 경우는 흔지 않습니다.

산업 내에서 견조한 성장 프로젝트를 진행하는 입장에서는, 오히려 가소롭고 답답한 상황이라고 보여집니다.

여전히 순환적 관점에서 15년 AI 사이클의 초입일 뿐입니다. 버블 입증을 위한 'RoIC 검증 및 AI 투자금액 하향조정'은 시기상조입니다.

** 엔비디아 FAQ 팩트시트 원문이 필요하신 분들은 요청 주시면 이메일로 송부 드리겠습니다.


[엔비디아 입장문 요약]

최근 제기된 시장 우려에 대해 당사는 데이터 오류 정정 및 펀더멘털 건전성을 아래와 같이 확인함

1. 자사주 매입 성과: 2018년 이후 평균 매입 단가는 $51로, 내재 가치 대비 저점에 매수하여 주주 이익을 극대화함

2. 재고 증가 사유: 수요 둔화가 아닌, 차세대 AI 칩 'Blackwell' 출시를 대비한 선제적 물량 확보임

3. 매출채권 건전성: 대금 회수 기간(DSO)은 53일로 장기 평균(52일)과 일치하며, 연체된 채권은 거의 없음

4. 현금흐름 오해 불식: 3분기 영업현금흐름은 $23.8B로 매우 양호함(비판 측은 $14.5B로 수치 오기)

5. 가공 매출(순환출자)설: 스타트업 투자는 전체 매출의 3~7% 수준으로 미미하여, 구조적으로 매출 부풀리기가 불가능함

6. 회계 투명성: 부채 은닉(SPE)이나 벤더 파이낸싱 등 과거 회계 부정 사례(엔론, 월드컴 등)와 전혀 무관함

7. 내부자 매도: 피터 틸, 손정의 등은 회사 내부자가 아니며, 그들의 매매는 회사 내부 사정과 무관


*본 내용은 당사의 코멘트 없이 국내외 언론사 뉴스 및 전자공시자료 등을 인용한 것으로 별도의 승인 절차 없이 제공합니다.
14
[반.전] AI GPU 중국 수출 재개 기대감?

안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.

미 정부가 엔비디아 H200의 중국 판매 허가를 검토 중이라는 보도가 나왔습니다.

두 세대 이전 제품이라지만, 나름 플래그십이었던 H200이라니요. Blackwell과 비교하면 우습겠지만, 나름 HBM3E 141GB나 탑재하는 제품입니다.

게다가 서플라이 체인이 준비된 상태인지도 고민해야 합니다.

이미 B300향 HBM3E 12단(288GB)이 주력이 된 지 오래고, 그마저도 내년 Rubin향 HBM4 전환을 서두르고 있습니다.

CoWoS도 고민해야 하죠. Hopper 시리즈는 CoWoS-S 방식이었지만, TSMC는 현재 Blackwell/Rubin을 위해 CoWoS-L capacity에 집중하고 있습니다.

제품 스펙이나 서플라이 체인 상황을 고려했을 때나 솔직히 얼마나 현실성이 있을 지는 모르겠습니다.

하지만, 중국 수출 재개 기대감이 다시 한 번 형성될 수는 있겠죠. 적어도 판매 금지 당했던 구 제품에 한해서는요.

이에, 과거 회사 코멘트를 기반으로 현재 FactSet 컨센서스 대비 upside를 계산해 보자면,


■ 엔비디아

- 5/28 어닝콜에서 차기 분기 가이던스 가정에 중국 매출 기회 80억 달러 소멸 언급

- 연율화 (80억 달러x4) 시, 320억 달러로, 내년 매출 컨센서스 3,173억 달러의 10% 수준


■ AMD

- 5/7 어닝콜에서 차기 분기 가이던스 가정에 중국 매출 기회 7억 달러 소멸 언급

- 연율화 (7억 달러x4) 시, 28억 달러로, 내년 매출 컨센서스 443.9억 달러의 6% 수준


중국 수출 재개 시에도 upside는 엔비디아가 더 커 보입니다. 여전히 밸류에이션 부담도 상대적으로 덜할 거고요.


감사합니다.

(2025/11/24 공표자료)
9🔥1
구글의 신고가를 보며

1 - 애초에 누가 승리하든 메모리는 3자 구도에서 공급될 수밖에 없는 체제

2 - 어찌보면 구글 TPU 진영 vs. NVDA 진영 대결구도가 더 심화될수록 메모리는 점점 더 이득이 될 것. 누가 승자가 되든 메모리의 공급 구도는 변하지 않으며, 승자가 되기 위한 메모리 대역폭의 상향 race는 끊기지 않을 것

3 - 구글은 향후 6개월마다 AI 컴퓨팅 역량이 2배씩 확대되어야 한다고 언급. 구글이 이번달에 출시한 AI 추론용 TPU인 Ironwood는 칩 하나당 탑재되는 HBM 용량이 192GB로 이전 세대 '트릴리움'의 32GB 대비 6배 증가

4 - 개인적으로는 오히려 AI LLM의 진화 속도가 더뎌오던 찰나에 구글의 이번 도약이 (1) AI 수익성 우려를 완화시키고, (2) AI 경쟁 레이스를 다시 한번 촉발시키는 촉매제가 될 것이라고 생각. AI LLM 경쟁구도가 더 심화되고 있음. 누가 최종승자가 될지는 가봐야겠지만, 중간 과정에서 메모리의 낙수효과는 분명할 것

5 - 마지막으로 구글 Cloud 부사장 Amin Vahdat이 밝힌 사실 (출처: CNBC)

In a presentation, Vahdat included a slide that said, “Now we must double every 6 months.... the next 1000x in 4-5 years”

“이제 우리는 6개월마다 컴퓨팅 용량을 두 배로 늘려야 하며, 4~5년 뒤에는 1천배에 도달해야 한다” "같은 비용과 전력으로 1천배 높은 용량, 컴퓨팅, 네트워크를 제공할 수 있어야 한다"

https://www.cnbc.com/2025/11/21/google-must-double-ai-serving-capacity-every-6-months-to-meet-demand.html

https://www.news1.kr/industry/general-industry/5750532
(구글 차세대 TPU, HBM 용량 6배…AI 경쟁 SK하닉·삼성전자 '미소')
👍64
아마존, 美정부 AI인프라에 74조원 투자…"국방·정보 효율화"(종합)
https://n.news.naver.com/article/001/0015760193?sid=104

세계 최대 전자상거래 업체인 아마존이 미국 정부의 인공지능(AI)과 슈퍼컴퓨터 인프라에 최대 500억 달러(약 74조원)를 투자한다.
아마존은 자사의 클라우드 서비스 아마존웹서비스(AWS)에 정부 고객을 위해 1.3GW(기가와트) 규모의 컴퓨팅 용량을 추가한다고 24일(현지시간) 밝혔다.

이번에 추가되는 용량은 내년에 구축을 시작할 계획이며, 각각 AWS의 '최고 기밀'(Top Secret)과 '기밀'(Secret), '정부클라우드(US)' 리전에 할당된다.
이에 따라 정부 기관이 각 비밀 등급에 따른 자료를 AWS 클라우드를 통해 처리할 수 있을 것으로 보인다.
아마존은 이번 용량 증설에 따라 정부 기관의 의사결정 속도가 빨라질 것이라고 강조했다.

=> 미국 정부 소버린 AI 투자 본격화
9