[삼성 이영진] 글로벌 AI/SW – Telegram
[삼성 이영진] 글로벌 AI/SW
5.7K subscribers
942 photos
8 videos
1.06K links
삼성증권 글로벌 AI/SW 담당 이영진
Download Telegram
[반.전] 글로벌 반도체, TPU가 불러온 폭풍은 일시적

안녕하세요. 삼성증권 문준호의 ‘반도체를 전하다’입니다.

최근 며칠 동안 구글, TPU, ASIC 관련 궁금증과 문의가 많은 것 같습니다. 그리고 AI 반도체 지각 변동을 우려하시는 분들까지 보입니다.

가뜩이나 AMD도 다시 경쟁에 뛰어 드는데, 때 아닌 TPU까지 치고 올라오다 보니, 엔비디아의 입지를 걱정하는 것이죠.

이같은 근거로 엔비디아 친구들(밸류체인)도 흔들릴 수 있다고 우려하며, 대표주들의 주가도 높은 변동성을 보여오고 있습니다.

물론 구글의 성과는 칭찬 받아 마땅합니다만, TPU는 ASIC으로서 결국에는 한계가 존재할 수밖에 없습니다.

구글 Gemini가 전 세계를 지배하며 모든 AI 수요를 독식하지 않는 이상, 범용성의 GPU를 100% 대체하기란 불가능에 가깝습니다.

경쟁이 심화되고는 있다지만, 경쟁은 ChatGPT가 등장하기 이전부터 있어 왔습니다. 갑자기 달라진 게 아닌 것이죠.

저희는 지금도 경쟁보다는 AI 확장에 집중할 필요가 있다고 생각합니다.

엔비디아냐 브로드컴이냐 승자를 가릴 게 아니라, 그냥 둘 다 성장한다는 것에 주목하는 것이죠. 실제로 양 사 컨센서스는 같이 상향 조정되고 있습니다.

이같은 저희의 생각과 복습 겸 과거부터 발간했던 자료들을 업데이트하여 총망라한 슬라이드를 준비했습니다.

아래 링크를 참고해 주시기 바랍니다.


감사합니다.

슬라이드 링크: https://bit.ly/3M5iqjA

(2025/11/28 공표자료)
👍4
오픈AI, 무료 유저 Sora 생성량 축소

: 일일 생성량 제한 기존 30회(10초 길이 기준)에서 6회로 축소. 유료 유저 제한은 그대로(Plus 30회, Pro 100회)

: GPU가 녹는 중,,, 필요하면 추가 결제해라(10회에 $4)! 부족한 캐파 관리와 추가 수익화를 동시에?
👍6😱1
오픈AI 데이터센터 파트너 차입금 1,000억 달러 보도 + Non Recourse 구조

→ 대출새로운 뉴스는 아니지만, Non Recourse 구조의 시사점

: 오픈AI는 초대형 계약의 비용을 충당하기 위해 상당한 부채 조달을 계획하고 있다고 밝혀왔으나, 재무 부담은 대부분 파트너와 대출 기관 전가

: 오픈AI는 B/S 상 부채가 거의 없음. 24년 미국 여러 은행과 40억 달러 규모 대출 한도를 확보했지만 아직 사용하지 않은 상태

: 연관 채무는 1,000억 달러를 상회할 가능성도 존재하며 향후 증가 전망. 소프트뱅크와 코어위브 자금 조달은 직접 연관이 명시되지 않음

: 데이터센터 대출은 위험을 차단하기 위해 SPV 기반 + 무소구(Non Recourse)

: Blue Owl과 Crusoe가 텍사스 애빌린 데이터센터 건설을 위한 대출에서 활용. JP모건이 100억 달러 대출 + 오라클이 17년간 해당 시설 임대하는 방식으로 상환

: 오라클이 임대료를 지급하지 않을 경우 JP모건이 토지와 데이터센터를 소유. 즉 대출 상환이 불가능할 시 SPV 자산만 회수. 스폰서 기업에게 추가로 책임을 묻지 못하는 구조

: Vantage는 텍사스와 위스콘신 사이트 대출을 위해 SPV 활용 준비(380억 달러). Blue Owl은 뉴 멕시코 사이트에서 일본계 은행들이 주도한 컨소시엄으로부터 SPV 기반 자금 조달(180억 달러). 유사한 구조 가능성

텍사스 위스콘신 https://news.1rj.ru/str/Samsung_Global_SW/2249

뉴멕시코 https://news.1rj.ru/str/Samsung_Global_SW/2343
👍31
일리야 수츠케버의 포스팅과 노암 브라운의 답글

현재 패러다임 스케일링만으로도 성능 향상은 계속되지만 AGI/ASI에 도달하려면 가까운 시기에 핵심 연구적 돌파구의 필요성에 대체로 합의. 논쟁의 본질은 ‘언제 오느냐’보다 ‘어떤 돌파구인가’의 이슈

■ 일리야 수츠케버

내가 했던 말 중 제대로 전달되지 않은 한가지 점:

- 지금의 것을 스케일링하면 계속해서 성능 향상은 일어날 것. 특히 멈추지 않을 것

- 하지만 중요한 어떤 것은 계속해서 부족한 상태로 남아 있을 것

→ 인터뷰에서 “스케일링의 한계” 해석이 과도하게 받아들여지자 이를 조정

■ 노암 브라운

소셜 미디어는 AI 논쟁을 두 가지 캐리커처로 몰아가는 경향

(A) LLM은 망했고 AI는 과대광고일 뿐이라고 생각하는 회의론

(B) 지금 이미 모든 재료가 갖춰졌고 초지능이 임박했다고 믿는 광신도

하지만 실제로 주요 연구자들의 발언(헤드라인이 아닌 원문)을 읽어보면, 놀라울 정도의 합의점이 존재

1) 현재 패러다임만으로도, 추가 연구 돌파구가 없어도, 경제사회에 막대한 영향을 주기에 충분할 가능성

2) 그러나 AGI/ASI에 도달하려면 더 많은 연구적 돌파구 필요(지속 학습, 샘플 효율성 등)

3) 우리는 아마 그 돌파구들을 찾게 될 것이고, 20년 안에 도달할 것

- Demis Hassabis: 5~10년
- François Chollet: 5년
- Sam Altman: ASI는 몇 천 일 안에 가능
- Yann LeCun: 10년
- Ilya Sutskever: 5~20년
- Dario Amodei: 가장 bullish, 2년 내도 가능하다고 했지만, 더 걸릴 수도 있다

이들 중 누구도 ASI가 환상이라고 말하지 않고, 혹은 100년 이상 걸릴 것이라고 말하지 않음

많은 의견 차이는 “어떤 돌파구가 필요한지”, “얼마나 빨리 올지”에 있음. 하지만 종합해 보면, 사람들은 생각보다 훨씬 많은 부분에서 의견이 일치한다.

→ 극단적 회의 vs 극단적 낙관의 프레임 잘못을 지적하며, 최상위 연구자들의 합의 3가지 언급
8👍3
챗GPT 3주년(similarweb)

: 전 세계에서 다섯 번째로 많이 방문되는 웹사이트

: 일평균 1억 7,300만 회 방문 기록 +120% YoY 트래픽 성장
👍3
[삼성 이영진] 글로벌 AI/SW 헤드라인 (25/12/1)

■ 데이터브릭스, 1,340억 달러 밸류로 50억 달러 펀딩 논의 보도. 이전에 보도된 1,300억 달러 대비 추가 상승

■ 구글, EU의 클라우드 부문 전반에 대한 반독점 조사 착수 이후 24년 제출했던 마이크로소프트 겨냥 반독점 신고 철회

■ 구글, MacOS용 Gemini 앱 개발 언급

■ 안두릴, 자율 무기 시스템의 테스트와 실전 배치에서 반복적 실패와 안전 사고 경험. 회사 측은 무기 개발 과정에서 흔한 것이라는 주장

■ 맥킨지, 현재 이용 가능한 기술만으로도 로봇과 AI 에이전트가 미국 내 수행되는 노동시간의 절반 이상을 자동화 할 수 있다고 분석. 일자리의 40%가 위험

감사합니다.
👍2
[삼성 이영진] 글로벌 AI/SW
데이터브릭스, 1,300억 달러 밸류로 신규 펀딩 논의 : term sheet 서명은 진행되지 않은 초기 단계. 이전 밸류는 시리즈 J(24년 12월) 620억 달러 → 시리즈 K(25년 8월) 1,000억 달러(10억 달러 펀딩) ■ FY26 연 매출 전망 - 데이터브릭스 40억 달러(자체 목표) - 스노우플레이크 46.1억 달러(Factset 컨센서스) ■ 시가총액(or 밸류에이션) / ARR - 데이터브릭스 1,300억 달러 / 40억 달러 =…
데이터브릭스, 신규 펀딩 밸류 1,340억 달러로 추가 상승

: 50억 달러 신규 펀딩 논의 중. 25년 매출 전망은 9월 40억 달러로 상향 이후 추가 소폭의 상향 조정(41억 달러, +55%)

: 신규 펀딩 밸류에이션/매출 = 32배. 24년 펀딩은 24배, 23년 펀딩은 26배 수준에서 진행

: AI 제품 사용량 증가(AI 제품 매출 비중 25%)로 인해 총이익률은 기존 계획(77%)보다 낮은 74%. 잉여현금흐름은 1,000만 달러 수준 예상
👍5
샘 올트먼, 3년 전 챗GPT 출시 당시 포스팅

오늘 챗GPT를 출시했습니다. 여기서 한번 이야기해보세요: chat.openai.com


언어 기반 인터페이스는 앞으로 정말 큰 흐름이 될 것입니다. 컴퓨터에게(음성 또는 텍스트로) 말해서 점점 더 복잡해지는 ‘원하는 것’을 얻는 방식이죠.


이건 가능한 것들의 초기 데모일 뿐입니다. 아직 제한이 많아서 매우 연구용 버전에 가깝습니다.


조만간 여러분은 대화를 하고, 질문에 답하고, 조언까지 해주는 유용한 어시스턴트를 갖게 될 겁니다. 이후에는 스스로 나가서 일을 처리하는 AI도 가능해질 거예요. 궁극적으로는 스스로 새로운 지식을 발견해오는 존재도 생길 겁니다.


그리고 이 모든 기능은 그대로 ‘언어 인터페이스’로 작동합니다. SF가 그렸던 미래가 바로 이런 모습이죠. 신경 인터페이스가 나오기 전까지는 언어 인터페이스가 가장 훌륭한 방식이 될 것입니다.


당시에는 SF처럼 보였지만, 3년 만에 대부분 현실화

22년 12월에는 말 그대로 연구용 데모였지만, 25년 현재는 올트먼이 말한 거의 모든 비전이 현실 제품으로 자리 잡음

- 실시간 음성 대화
- 멀티모달 이해
- 브라우저 조작 및 작업 자동 실행(에이전트)
- 자기검증 및 과학 연구 적용
- OS 수준의 언어 인터페이스 통합

■ 올트먼의 1주년, 2주년, 3주년 포스팅 흐름

2023년(1주년)
: 해임–복귀 사태 직후. 공개적으로 기념 포스팅 x → 조직적 혼란 + 메시지 컨트롤

2024년(2주년)
: 트리하우스를 만드는 일상 포스팅 → 일부러 가벼운 톤 유지, AI 관련 공식 메시지 절제

2025년(3주년)
: 만약 올해 챗GPT 관련 포스팅을 한다면?
→ 이미지 회복 + 대표 AI 제품으로서 위상 강화 목적 가능성
→ GPT-5, 에이전트, 보이스, 멀티모달 분야 등에서 대도약이 있었으니 ‘3년의 성취’ 강조하기 좋은 타이밍
2👍1
AWS-구글 클라우드, 멀티클라우드 네트워킹 협력 발표

공동 엔지니어링 솔루션 공개

→ AWS Interconnect – Multicloud와 Google Cross-Cloud Interconnect를 연동한공동 설계 멀티클라우드 네트워킹 솔루션 발표

관리형 및 클라우드 네이티브 전환

→ 기존의 복잡한 물리 인프라 구축(케이블, 라우터 구성, 회선 신청 등) 방식에서 벗어나, 양사 Cross-Cloud Network 아키텍처를 통합한 클라우드 네이티브 연결 모델로 전환

개방형 상호운용성 사양 공개

→ 타 CSP도 채택 가능한 오픈 네트워크 인터페이스 규격 제시. 고객은 AWS–GCP 간 프라이빗 및 고속 연결을 자동화된 방식으로 수분 내 구성 가능

보안, 복원력 강화

→ 물리적 시설, 라우터의 4중(quad) 이중화, 연속 모니터링, MACsec 암호화를 기반으로 엔터프라이즈급 안정성 제공

https://cloud.google.com/blog/products/networking/extending-cross-cloud-interconnect-to-aws-and-partners
👍41
딥시크, DeepSeek-V3.2 & V3.2-Speciale 모델 공개

: 높은 효율성과 우수한 추론 및 에이전트 성능 달성 목표. V3.2 및 V3.2-Speciale 모델 구조는 기존 V3.2-Exp와 동일

: V3.2-Speciale 모델은 딥 리즈닝 전용으로 툴 호출 기능을 지원하지 않음

핵심 기술적 돌파구

1) DeepSeek Sparse Attention(DSA)
→ 연산 복잡도를 크게 줄이는 동시에 성능을 유지하는 효율적 어텐션 매커니즘 장기 컨텍스트 환경에 최적화

2) 확장형 강화학습 프레임워크
→ 견고한 강화학습 프로토콜을 구축하고 컴퓨트를 대규모로 확장. 프론티어 모델과 경쟁 가능한 추론 성능

3) 대규모 에이전트 작업 합성 파이프라인
→ 툴 사용 시나리오에 추론 능력 통합을 위해 대규모로 학습 데이터를 자동 생성하는 신규 합성 파이프라인 개발

https://huggingface.co/deepseek-ai/DeepSeek-V3.2
👍1😱1
액센츄어–오픈AI 전략 파트너십 발표

: 챗GPT Enterprise를 수만 명의 Accenture 직원에게 제공, 전 세계 최대 규모 업스킬링 사례 확보.

: 오픈AI는 액센츄어의 차세대 핵심 AI 파트너로 선정, 컨설팅, 운영, 딜리버리 전 과정에 모델 및 Agent 기술을 깊게 내재화

: 공동 플래그십 AI 클라이언트 프로그램 런칭. 특히 AgentKit 기반의 엔터프라이즈 AI 에이전트 구축 및 배포 전면 지원

https://openai.com/index/accenture-partnership/
1👍1
[삼성 이영진] 글로벌 AI/SW 헤드라인 (25/12/2)

■ 딥시크, DeepSeek-V3.2 & V3.2-Speciale 모델 공개

■ 액센츄어-오픈AI, 챗GPT Enterprise 대규모 도입과 AgentKit 기반 AI 에이전트 확산을 위한 전략적 파트너십 발표

■ 오픈AI, 엔터프라이즈 AI 도입 가속을 위해 Thrive Holdings 지분 투자. 오픈AI 투자사 Thrive Capital이 만든 플랫폼 기업. 회계, IT 서비스 등 핵심 업무에 AI를 내재화하는 현장 중심의 공동 운영 모델 추진 발표

■ 구글, TPUv7 Ironwood 기반 AI 서버를 구축하기 위해 Foxconn 협력 보도

■ 사티아 나델라, 자사 AI 전략에서 유럽이 점점 더 핵심 지역으로 보고 있다는 발언

■ IREN, 기존 전환사채 재매입 자금 조달을 위해 보통주 발행 제안 및 신규 전환사채(32년 만기 10억 달러, 33년 만기 10억 달러) 발행 계획

■ 구글, AI 모드 내 Gemini 3와 Nano Banana Pro를 영여권 국가 120개 국으로 확대 제공. AI Pro와 Ultra 구독자 대상

■ 애플, 머신러닝 및 AI 전략 부문 SVP John Giannandrea 사임 및 26년 봄 은퇴 발표. 은퇴 전까지 자문 역할

■ 바이트댄스, 초저가, 전용 모델, 공격적 영업으로 중국 내 AI Model-as-a-Service(MaaS) 시장을 빠르게 잠식하고 있다는 보도

■ HSBC-미스트랄 AI, 전략적 파트너십 체결. 미스트랄 AI 모델을 자체 시스템에 통합하고 은행 전반의 업무 혁신에 활용

■ BloombergNEF, AI 확산으로 글로벌 데이터센터 전력 수요가 35년까지 현재 대비 300% 급증한 106GW 전망

■ 어도비 애널리틱스, 블랙프라이데이 AI 쇼핑 유입 트래픽의 전년 대비 805% 성장 분석

■ 런웨이, Runway Gen 4.5 모델로 영상 생성 AI 모델 리더보드 1위 차지. Whisper Thunder라는 모델명으로 테스트. 이전 세대 대비 모션, 디테일, 프롬프트 반영 모두 개선

■ 블랙 포레스트 랩스, 3억 달러 규모 시리즈 B 펀딩. 밸류에이션은 32.5억 달러

감사합니다.
👍4
구글 Gemini 앱 다운로드 증가 및 체류 시간

: 여름 Nano Banana 바이럴 이후 모바일 앱 월간 사용자수는 4억 명에서 6.5억 명으로 증가

: 신규 앱 다운로드 수는 챗GPT와 격차 축소 + 평균 체류 시간은 챗GPT 추월
4👍3🔥2
샘 올트먼, 내부 메모를 통해 Code Red 선포

: 챗GPT 개선을 위해 더 많은 리소스를 투입하는 계획. 챗GPT 상호작용 방식을 개인화할 수 있도록 하는 등의 기능 개선에 인력 집중 투입

: 다른 핵심 우선순위로는 1) 이미지 생성 AI Imagegen 고도화, 2) 모델 행동 개선, 3) LM아레나 같은 리더보드 경쟁력 강화, 4) 챗GPT 속도 및 안정성 향상, 5) 무해한 질문에도 과도한 대답 거부 최소화 작업

: 다음 주 구글 Gemini 3보다 앞서 있는 새로운 추론 모델 출시 계획도 언급

: 광고, AI 에이전트(쇼핑 및 헬스케어 작업 자동화), Pulse(개인화 리포트 생성) 등 여러 신규 프로젝트 지연 예정

: 3년 전 구글이 챗GPT가 구글 검색에 위협이 된다고 판단하여 Code Red를 선언했던 바 있음. 이번에는 상황이 역전
👍4👀1
딥시크의 새로운 모델 DeepSeek-V3.2 - 고래가 돌아왔다

안녕하세요 삼성증권 글로벌 AI/SW 담당 이영진입니다.

수면 아래에 잠자던 고래(딥시크 로고는 고래)가 돌아왔습니다.

9월 말 V3.2-Exp 모델 공개 이후 V3.2 정식 버전과 딥 리즈닝용 고컴퓨트 모델 V3.2-Speciale를 업데이트했는데요

오픈소스 모델이 복잡한 작업에서 보이는 한계를 극복하기 위한 3가지 돌파구를 적용했습니다.

1) DeepSeek Sparse Attention(DSA)
2) 확장형 강화학습(RL) 프레임워크
3) 대규모 에이전트 작업 합성 파이프라인

벤치마크 성능도 놀랍습니다. GPT-5, Gemini 3.0 Pro에 필적하는 수준을 달성했습니다.

물론 과적합 가능성을 배제할 수 없기 때문에 체감되는 실사용 후기를 조금 더 확인할 필요가 있습니다.

딥시크의 가성비는 여전히 대단합니다. GPT-5.1 대비 1/10 수준에 불과합니다.

또한 구글과 오픈AI의 IMO 금메달 레벨 모델이 아직 넓은 범위로 롤아웃 되지 않은 상황에서 딥시크는 오픈소스로 고성능 모델을 풀어버렸습니다.

추가로 생각해볼 의미는 강화학습 스케일링이 여전히 유효하다는 것을 증명했다는 점입니다.

구글 Gemini 3.0이 사전학습 스케일링을 증명한데 이어 전반적 스케일링에 대한 돌파구가 이어지고 있습니다.

딥시크는 여전히 프론티어 폐쇄형 모델과 비교하면 한계가 존재한다는 결론을 남겼지만,

프론티어 모델의 지식적 우위는 본질적 우위가 아니라 컴퓨트 규모 차이에서 기인하고 있다는 의견을 보였습니다.

캐파가 추가된다면 효율성을 포함한 성능 측면에서 충분히 따라잡을 수 있다는 자신감으로 해석 가능합니다.

학습에 어떤 반도체를 활용했는지 또는 어떤 모델을 증류한 건지(?)에 대한 의문부호가 따라붙지만

중국 AI의 전략인 적당한 성능에 가성비 킹을 추구하는 노력이 이어지고 있습니다.

보고서 링크: https://bit.ly/48Leo8T

(2025/12/2/ 공표자료)
👍43