Buff – Telegram
Buff
28K subscribers
2.07K photos
12 videos
371 files
10.5K links
버프받고 투자하자
- 내용은 투자 판단의 근거로 활용할 수 없음
- 내용이 사실과 다를 수 있으며, 단순한 의견도 있음
- 언급된 종목을 보유하고 있을 수 있으며, 언제든 매도할 수 있음

문의: jelly@buf.kr
Download Telegram
"슈퍼 호황 계속"…SK하이닉스, 범용 D램도 공격 투자
https://www.hankyung.com/article/2025112064291

SK하이닉스가 최첨단 범용 D램인 10나노미터(㎚·1㎚=10억분의 1m) 6세대 D램(1c D램) 생산능력을 내년에 여덟 배 이상 늘린다.

인공지능(AI)의 중심축이 고성능 메모리가 필요한 ‘학습’에서 ‘추론’(서비스)으로 옮겨가면서 고대역폭메모리(HBM)보다 가성비가 높은 최첨단 범용 D램 수요가 커지고 있다는 판단에서다.

SK하이닉스는 일단 연말까지 월 2만 장 안팎의 1c D램 생산능력을 갖출 예정이다. 내년부터 공정 전환에 속도를 내 연말까지 14만~17만 장을 1c D램 생산에 추가로 배정할 계획이다.

이렇게 되면 SK하이닉스의 1c D램 생산능력은 올해 말 2만 장에서 내년 16만~19만 장으로 확대된다.

SK하이닉스의 1c D램은 HBM이 아니라 더블데이터레이트5(DDR5), 저전력 D램(LPDDR), GDDR7 등 최신 범용 D램을 제조하는 데 쓰인다.

AI 추론에는 HBM에 비해 전력 효율이 높고 가격은 저렴한 최첨단 범용 D램이 주로 쓰인다.

엔비디아가 최근 내놓은 AI 가속기 ‘루빈 CPX’가 그런 제품이다. 이 AI 가속기에는 프로세서 바로 옆에 HBM이 아니라 GDDR이 들어간다.
구글, 오픈AI, 아마존웹서비스(AWS) 등 자체 AI 칩을 개발하는 빅테크도 범용 D램을 대거 장착하는 맞춤형 AI 가속기를 개발하고 있다.


1c D램은 엔비디아에 납품하는 메모리 모듈 SOCAMM2에도 들어간다.
21
美연준 쿡 이사 "고평가 자산 하락 가능성↑"
https://www.yna.co.kr/view/AKR20251121003600072

인공지능(AI) 관련 업종을 중심으로 주식 고평가 논란이 지속되는 가운데 미 중앙은행인 연방준비제도(Fed·연준)의 리사 쿡 이사가 20일(현지시간) 고평가된 금융자산 가격 하락 위험이 있다고 경고했다고 로이터 통신이 이날 보도했다.

보도에 따르면 쿡 이사는 이날 미국 워싱턴DC 조지타운대 경영대학원에서 열린 공개연설에서 "고평가된 자산 가격이 하락할 가능성이 증가했다는 게 현재 내가 가진 인상"이라고 밝혔다.
다만 그는 "그러나 금융시스템의 전반적인 회복력에 비춰볼 때 (2008년 금융위기가 초래한) '대침체'(Great Recesstion) 시기에 나타난 것과 같은 약화가 나타날 것으로 보진 않는다"라고 평가했다.


=> 미주 폭락 원인 중 하나로 보임
15🔥7
엔비디아 분기별 매출/매출채권/재고 성장률 yoy %

작성: 버프 텔레그램 https://news.1rj.ru/str/bufkr


ㅁ 범례

매출 - 파란색
매출채권 - 초록색
재고 - 주황색


ㅁ 해석
- 23년 사이클 초기엔 매출이 훨씬 가파르게 성장했으나,
- 24년 말~25년 초부터 재고와 매출채권의 성장률이 역전 시작해
- 전일 실적발표에서는:
재고 158% 성장 > 매출채권 89% 성장 > 매출 62% 성장

=> 이것이 엔비디아의 "고객사 지분 투자 Vendor Financing" 우려와 합쳐지며,
고객사들이 대금을 제때 지불하지 못할 정도로 수익성이나 자금상황이 좋지 않은 것 아니냐는 우려 확산
20
* DRAM 수출가 (11월 1-20일)

- 최고가 경신. 수요 둔화 조짐 전무. 향후 상승 가속화 예상
15
Forwarded from 루팡
엔비디아 매출채권 노이즈 관련 고객사

Q3 FY26에 매출의 10% 이상을 차지한 직판 고객 4곳
22%, 15%, 13%, 11% → 합쳐서 61%


22·15·13·11%를 차지하는 4개 direct customer는
Foxconn, Quanta, Wistron/Wiwynn


AR 잔액도 연초 23.1B → Q2 27.8B → Q3 33.4B로, NVL72 램프업 타이밍과 거의 같이 증가

NVL72는 GPU, HBM, NVLink, 전원·냉각 등이 들어가는 초고가 랙이라 ODM 입장에서 재고·공정 중(WIP)·부품 선구매에 필요한 운전자본이 증가

실제로는 공급망 파트너들이 물량을 감당할 수 있게 엔비디아가 유동성을 공급해주고 있는 중

신용 리스크는 ODM이 아니라 사실상 그 뒤에 있는 하이퍼스케일러·AI 팩토리 풀의 수요 지속성에 연결돼 있기 때문에, 이렇게 AI 관련 수요가 많은 상황에서는 매출채권 우려는 할 필요 없는 상황

(아까 고객사를 최종 빅테크 기준으로 설명해서 내용 수정 좀 했습니다)
12🔥3
엔비디아 순이익 vs. FCF

회계적 이익과 잉여현금흐름, 둘 간의 차액 추이
2
엔비디아 순이익 vs. CFO

회계적 이익과 영업현금흐름, 둘 간의 차액 추이
5
엔비디아 FCF/CFO vs. CFI

- 투자활동 현금흐름 "CFI"에서 엔비디아는 케펙스가 차지하는 비중이 작은 편
- 대부분이 풍부한 현금 활용한 채권 투자
- 최근 증가분은 오픈AI, 코어위브 등 비상장 지분 투자 "Purchases of non-marketable equity securities"
👍4
• 중국 오픈소스 모델 선두: 알리바바 Qwen이 메타 Llama 넘어섬

中国开源模型领先:阿里千问超越Meta的Llama
6
[ 구글, AI 수요 폭발로 “6개월마다 처리 용량 2배씩 늘려야 한다” ]

– 구글 AI 인프라 총책임자 아민 바닷, 사내 전체 회의 발표 (2025.11.21 CNBC)

핵심 요약
• 앞으로 6개월마다 AI 서비스 제공 용량을 2배씩 증설해야 함
• 결과적으로 4~5년 안에 현재보다 1000배 많은 컴퓨팅 파워 필요
• 구글 올해 자본지출 910~930억 달러(약 130조 원), 2026년엔 더 큰 폭 증가 예정
• MS·아마존·메타·구글 4개사 합쳐 올해 3800억 달러(약 540조 원) 이상 투자

아민 바닷 부사장 발표 슬라이드 한 줄
“Now we must double every 6 months.... the next 1000x in 4-5 years”
→ “이제 6개월마다 2배… 4~5년 안에 1000배”

왜 이렇게 급한가?
1. AI 사용자가 폭발적으로 증가 (Gemini, Veo, Imagen 등)
2. 동영상·이미지 생성 하나에도 수천 대 GPU가 몇 분씩 풀가동
3. 하루 수억 건 요청 → 기존 데이터센터 금방 포화
4. 피차이 CEO: “Veo를 더 많은 사람에게 열어줬으면 사용자 훨씬 더 늘었을 텐데, 컴퓨팅 부족으로 못 했다”

구글 대응 전략 3가지
1. 데이터센터·서버 대규모 증설 (돈 많이 쓰기)
2. 자체 AI 칩 TPU 계속 고성능화
→ 7세대 Ironwood: 2018년 1세대보다 전력 효율 30배↑
3. AI 모델 자체를 더 가볍고 효율적으로 개선

피차이 CEO, ‘AI 버블’ 질문에 답변
직원 질문: “거액 투자하는데 시장이 기대만큼 안 크면 어떡하나요?”
피차이:
• 버블 우려 인정하지만, 투자 부족으로 기회 놓치는 게 더 무섭다
• 구글 클라우드 분기 매출 34% 성장, 150억 달러 돌파
• 미래 계약 잔고 1550억 달러 → 컴퓨팅만 더 있었으면 훨씬 더 좋았을 숫자
• “2026년은 정말 치열하다. 하지만 우리는 잘 준비되어 있다”

https://www.cnbc.com/2025/11/21/google-must-double-ai-serving-capacity-every-6-months-to-meet-demand.html
16
[메리츠증권 반도체/디스플레이 김선우]

메리츠 김선우입니다.

엔비디아가 최근 AI 버블론 및 동사 실적에 관한 우려사항 (매출채권 증가 등)에 대한 반박문을 주요 투자자들에게 발송했습니다.

IR팀 및 회사 차원에서 공식적으로 이러한 [우려사항 팩트체크 FAQ]를 송부하는 경우는 흔지 않습니다.

산업 내에서 견조한 성장 프로젝트를 진행하는 입장에서는, 오히려 가소롭고 답답한 상황이라고 보여집니다.

여전히 순환적 관점에서 15년 AI 사이클의 초입일 뿐입니다. 버블 입증을 위한 'RoIC 검증 및 AI 투자금액 하향조정'은 시기상조입니다.

** 엔비디아 FAQ 팩트시트 원문이 필요하신 분들은 요청 주시면 이메일로 송부 드리겠습니다.


[엔비디아 입장문 요약]

최근 제기된 시장 우려에 대해 당사는 데이터 오류 정정 및 펀더멘털 건전성을 아래와 같이 확인함

1. 자사주 매입 성과: 2018년 이후 평균 매입 단가는 $51로, 내재 가치 대비 저점에 매수하여 주주 이익을 극대화함

2. 재고 증가 사유: 수요 둔화가 아닌, 차세대 AI 칩 'Blackwell' 출시를 대비한 선제적 물량 확보임

3. 매출채권 건전성: 대금 회수 기간(DSO)은 53일로 장기 평균(52일)과 일치하며, 연체된 채권은 거의 없음

4. 현금흐름 오해 불식: 3분기 영업현금흐름은 $23.8B로 매우 양호함(비판 측은 $14.5B로 수치 오기)

5. 가공 매출(순환출자)설: 스타트업 투자는 전체 매출의 3~7% 수준으로 미미하여, 구조적으로 매출 부풀리기가 불가능함

6. 회계 투명성: 부채 은닉(SPE)이나 벤더 파이낸싱 등 과거 회계 부정 사례(엔론, 월드컴 등)와 전혀 무관함

7. 내부자 매도: 피터 틸, 손정의 등은 회사 내부자가 아니며, 그들의 매매는 회사 내부 사정과 무관


*본 내용은 당사의 코멘트 없이 국내외 언론사 뉴스 및 전자공시자료 등을 인용한 것으로 별도의 승인 절차 없이 제공합니다.
14
[반.전] AI GPU 중국 수출 재개 기대감?

안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.

미 정부가 엔비디아 H200의 중국 판매 허가를 검토 중이라는 보도가 나왔습니다.

두 세대 이전 제품이라지만, 나름 플래그십이었던 H200이라니요. Blackwell과 비교하면 우습겠지만, 나름 HBM3E 141GB나 탑재하는 제품입니다.

게다가 서플라이 체인이 준비된 상태인지도 고민해야 합니다.

이미 B300향 HBM3E 12단(288GB)이 주력이 된 지 오래고, 그마저도 내년 Rubin향 HBM4 전환을 서두르고 있습니다.

CoWoS도 고민해야 하죠. Hopper 시리즈는 CoWoS-S 방식이었지만, TSMC는 현재 Blackwell/Rubin을 위해 CoWoS-L capacity에 집중하고 있습니다.

제품 스펙이나 서플라이 체인 상황을 고려했을 때나 솔직히 얼마나 현실성이 있을 지는 모르겠습니다.

하지만, 중국 수출 재개 기대감이 다시 한 번 형성될 수는 있겠죠. 적어도 판매 금지 당했던 구 제품에 한해서는요.

이에, 과거 회사 코멘트를 기반으로 현재 FactSet 컨센서스 대비 upside를 계산해 보자면,


■ 엔비디아

- 5/28 어닝콜에서 차기 분기 가이던스 가정에 중국 매출 기회 80억 달러 소멸 언급

- 연율화 (80억 달러x4) 시, 320억 달러로, 내년 매출 컨센서스 3,173억 달러의 10% 수준


■ AMD

- 5/7 어닝콜에서 차기 분기 가이던스 가정에 중국 매출 기회 7억 달러 소멸 언급

- 연율화 (7억 달러x4) 시, 28억 달러로, 내년 매출 컨센서스 443.9억 달러의 6% 수준


중국 수출 재개 시에도 upside는 엔비디아가 더 커 보입니다. 여전히 밸류에이션 부담도 상대적으로 덜할 거고요.


감사합니다.

(2025/11/24 공표자료)
9🔥1
구글의 신고가를 보며

1 - 애초에 누가 승리하든 메모리는 3자 구도에서 공급될 수밖에 없는 체제

2 - 어찌보면 구글 TPU 진영 vs. NVDA 진영 대결구도가 더 심화될수록 메모리는 점점 더 이득이 될 것. 누가 승자가 되든 메모리의 공급 구도는 변하지 않으며, 승자가 되기 위한 메모리 대역폭의 상향 race는 끊기지 않을 것

3 - 구글은 향후 6개월마다 AI 컴퓨팅 역량이 2배씩 확대되어야 한다고 언급. 구글이 이번달에 출시한 AI 추론용 TPU인 Ironwood는 칩 하나당 탑재되는 HBM 용량이 192GB로 이전 세대 '트릴리움'의 32GB 대비 6배 증가

4 - 개인적으로는 오히려 AI LLM의 진화 속도가 더뎌오던 찰나에 구글의 이번 도약이 (1) AI 수익성 우려를 완화시키고, (2) AI 경쟁 레이스를 다시 한번 촉발시키는 촉매제가 될 것이라고 생각. AI LLM 경쟁구도가 더 심화되고 있음. 누가 최종승자가 될지는 가봐야겠지만, 중간 과정에서 메모리의 낙수효과는 분명할 것

5 - 마지막으로 구글 Cloud 부사장 Amin Vahdat이 밝힌 사실 (출처: CNBC)

In a presentation, Vahdat included a slide that said, “Now we must double every 6 months.... the next 1000x in 4-5 years”

“이제 우리는 6개월마다 컴퓨팅 용량을 두 배로 늘려야 하며, 4~5년 뒤에는 1천배에 도달해야 한다” "같은 비용과 전력으로 1천배 높은 용량, 컴퓨팅, 네트워크를 제공할 수 있어야 한다"

https://www.cnbc.com/2025/11/21/google-must-double-ai-serving-capacity-every-6-months-to-meet-demand.html

https://www.news1.kr/industry/general-industry/5750532
(구글 차세대 TPU, HBM 용량 6배…AI 경쟁 SK하닉·삼성전자 '미소')
👍64