LSKP CFO의 개인 공간❤️ – Telegram
LSKP CFO의 개인 공간❤️
1.09K subscribers
17.4K photos
142 videos
225 files
20.2K links
해외 / 국내 경제, 증시 및 다양한 이슈를 전달합니다!

협업 문의 : yeominyoon1981@gmail.com

Disclaimer

- 본 채널/유튜브에서 업로드 되는 모든 종목은 작성자 및 작성자와 연관된 사람들이 보유하고 있을 가능성이 있습니다. 또한, 해당 종목 및 상품은 언제든 매도할 수 있습니다.

- 본 게시물에 올라온 종목 및 상품에 대한 투자 의사 결정 시, 전적으로 투자자의 책임과 판단하에 진행됨을 알립니다.
Download Telegram
테슬라 일론머스크 어닝콜 전문 하이라이트

📌1. “텍사스와 캘리포니아에서 올해 중 무인(감독 없는) FSD를 출시한다는 계획은 여전한가요? 그에 필요한 요건이나 남은 과제는 무엇인가요?”

일론 머스크 : 📍텍사스 출시는 아까 말씀드린 것처럼 진행할 것이고, 올해 안에 캘리포니아에서도 진행할 계획입니다. 사실 📍미국 내 여러 지역에서 올해 중 무인 FSD가 가능하리라 봅니다.

우리가 필요한 것은 엄청나게 높은 안전 기준인데, “인간 평균 운전자보다 훨씬 안전해야 한다”는 기준입니다. 단지 약간 더 나은 수준이 아니라 📍훨씬 낫다는 것을 입증해야 합니다.

그리고 자율주행 차량에 작은 사고라도 나면 그게 전 세계 뉴스에 대서특필되기 때문에, 일반인 안전을 최우선으로 고려해 매우 신중하게 접근하고 있습니다.

하지만 여러분이 직접 테슬라 자율주행을 써보면, “정말로 안전 개입을 해야만 하는 상황”이 얼마나 드문지 느끼게 될 것입니다.

이미 매우 드물고, 앞으로 거의 없을 정도가 될 것입니다.

📌2. “다른 자동차 회사들과 FSD 라이선스에 관한 논의가 진행 중인가요?”

일론: 📍네, 여러 주요 자동차 제조사들로부터 논의가 들어오고 있습니다.

우리는 📍“라이선스를 고려하는 회사들이 직접 우리 차를 분해해보라”고 합니다.

카메라 배치나, AI와 FSD 컴퓨터 열 필요 조건 등을 직접 확인하는 게 낫기 때문이죠.

단, 📍볼륨(생산 및 판매량)이 매우 큰 회사가 아니면 협상할 가치가 떨어져서, 그런 경우는 제외하려 합니다.

그리고 우리가 이미 무인 자율주행을 미국 전역에서 곧 시범 운행할 만큼 기술적으로 앞서 있기 때문에,

📍“FSD 없이는 경쟁이 안 될 것”이 자명해지는 시점이 오면, FSD 라이선싱 수요가 매우 높아질 것이라 예상합니다.

📌3. “옵티머스(Optimus)는 2025년 생산을 위한 디자인이 이미 확정(lock)된 상태인가요?”

일론: 아까 ‘기차와 레일, 역까지 동시에 만들고 있다’고 했듯, 옵티머스는 지금도 빠르게 진화 중입니다.

긍정적 방향으로요. 우리 팀이 세계에서 가장 뛰어난 휴머노이드 로봇 팀이라 생각합니다.

로봇에 필요한 배터리 팩, 파워 일렉트로닉스, 충전 기술, 통신, AI 등 모든 것을 자체적으로 할 수 있는 역량을 갖췄고,

무엇보다 대규모 생산으로 확장하는 능력 역시 중요합니다.

프로토타입 만드는 것과 수백만 대 대량 생산은 완전히 별개의 문제입니다.

그래서 디자인이 지금도 계속 개선되고 있습니다.

📌4. “옵티머스 판매는 언제 시작되며, 가격은 얼마 정도인가요?”

📍일론: 올해(2024년)에는 테슬라 내부용으로 우선 활용할 것입니다.

공장 내에서 사람들이 기피하는 지루하거나 위험한 업무부터 맡길 예정입니다.

이로부터 얻은 데이터를 통해 1세대(Production Design 1)를 개선하여, 2세대(Production Design 2)를 내년에 선보이려 합니다.

📍2세대 생산라인은 월 1천 대(연 1만2천 대) 정도를 목표로 하고,

다음 단계에선 📍월 1만 대, 그다음에는 월 10만 대 같은 식으로 기하급수적 성장을 노립니다.

대략 📍2세대쯤 되면 내년 하반기 정도부터 외부 기업에도 공급할 수 있지 않을까 하는 게 매우 조심스러운 추정입니다.

장기적으로 📍연 100만 대 이상을 꾸준히 생산하는 단계를 달성하면, 제조원가는 대략 2만 달러 이하로 내려갈 것 같습니다(현재 모델 Y와 비슷한 생산량을 전제로).

하지만 판매가격은 시장 수요에 따라 달라질 것입니다.

📌5. “테슬라 세미(Semi)의 대량 생산 시점은 언제이고, 대규모로 가동되면 매출에 어떤 영향을 줄까요?”

임원(추가 답변): 반조립 상태였던 세미 공장 지붕과 벽체를 최근에 마감했습니다(예정보다 빠름).

이제 장비 설치 준비가 되어, 📍올해 말~2025년 초부터 고볼륨 세미 디자인의 첫 생산분이 나올 것입니다.

📍본격적인 램프업은 2026년 초 정도로 예상합니다.

일론: 세미는 역시 자율주행과 결합될 때 엄청난 가치를 갖습니다.

미국은 트럭 운전사가 부족하고, 또 장시간 운전은 쉽지 않은 일이죠. 이에 자율주행 트럭에 대한 수요가 아주 클 것입니다.

다만, 회사 전체 규모 대비로 보면, 📍몇십억 달러 규모로 커지긴 해도, 향후 옵티머스에 비해선 상대적으로 작을 수도 있겠죠.

📌6. “하드웨어3(HW3) 탑재 차량은 업그레이드를 해야 하나요? 그 시점과 CAPEX(설비투자) 영향은 어떻게 되나요?”

엔지니어: 우리는 아직 하드웨어3 지원을 포기한 게 아니며, 계속해서 소프트웨어 최적화를 진행 중입니다. 최근 12.6 버전도 출시했고, 어느 정도 ‘베이비 13’ 역할을 합니다.

모델 크기와 알고리즘을 개선해 하드웨어3에서도 좀 더 성능을 끌어올리고 있습니다.

일론: 솔직히 말하자면, 완전 자율주행을 원하는 고객이라면 결국 HW3 업그레이드가 필요할 것입니다.

그 과정은 쉽지 않고 비용도 들겠지만, 우리는 해낼 것입니다. 개인적으로, “FSD 패키지를 구매한 사람이 그리 많지 않아서 차라리 다행”이라고 생각하기도 합니다

📌7. “테슬라가 태양광 지붕(Solar Roof)을 포기한 것인가요?”

임원: 태양광 지붕은 여전히 주택용 제품 포트폴리오의 핵심입니다.

프리미엄 제품이어서 고객 관심이 많습니다. 설치 과정을 단순화하는 여러 개량을 했고, 지금은 직접 시공보다 “공인 설치업체 네트워크”를 통해 확장하는 데 집중 중입니다.

새 지붕이 필요한 시점이거나 신축 주택을 지을 때가 가장 효율적이며, 태양광 지붕과 파워월을 함께 사용하면 전기나 정전 같은 문제에서도 자급자족이 가능합니다.

📌8. “FSD V14에는 어떤 기술적 돌파구가 있을까요? V13은 이미 포토닉(광학 정보) 기반 제어까지 한다고 들었습니다.”

📍일론: 사실 우리는 한동안 ‘포토닉 입력에서 제어까지’ 뉴럴넷으로만 처리해왔고, 그걸 계속 개선 중입니다.

개인적으로는 ‘오토리그레시브 트랜스포머(Autoregressive Transformer)가 정말 다양한 문제를 해결하는 데 굉장히 강력하다는 점’에 계속 놀라고 있습니다.

수석 엔지니어: 네, 저희는 V13에서 이미 모델 크기를 크게 확장했고, 앞으로도 모델 크기와 컨텍스트 길이, 메모리 등을 더 늘릴 겁니다.

📍오디오나 긴 시퀀스(수 분 단위 문맥)도 처리할 수 있도록 할 예정이고, 미국 전역에서 수집되는 각종 코너 케이스 정보를 모델 학습에 활용합니다.

훈련량과 모델 크기, 메모리, 강화학습 목표치 등 모든 면에서 확장할 것입니다.

독립리서치 그로쓰리서치
https://news.1rj.ru/str/growthresearch
Elon Musk

I see a path to TESLA being the most valuable company in the world; There is a path to Tesla being worth more than the next top 5 companies combined.

2026 will be "epic" and 2027 & 2028 will be "ridiculous"
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
» Meta Q4 FY24 실적

- 매출과 이익 모두 컨센서스를 상회. 일간 활성 사용자(Daily active people)이 33.5억명(3분기에는 32.9억명)으로 증가
- 2025년 600억달러~650억달러의 Capex 투자 계획을 다시 언급하며 지금은 대규모 인프라 투자가 전략적 이점을 가져다 주는 시기가 될 것이라고 설명

👨‍👩‍👧‍👦 Daily active people +5% Y/Y to 3.35B
👀 Ad impressions +6% Y/Y
• Revenue +21% Y/Y to $48.4B ($1.4B beat)
• Operating margin 48% (+7pp Y/Y)
• EPS $8.02 ($1.26 beat)
• FY25 Capex: $60-$65B (+53% to +66% Y/Y)
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
» Reality Labs 사업부의 손실 규모 추이. 대규모 투자를 지속하고 있는 Meta

» 가상현실과 증강현실 기술을 개발하는 Reality Labs 사업부는 4분기에 11억 달러의 매출을 올렸으나 50억 달러의 영업 손실을 기록

» Meta는 2025년 총 비용이 1,140억 달러에서 1,190억 달러 사이가 될 것으로 예상하고 있으며, 대부분의 지출은 인프라 비용과 관련이 있다고 설명

» 인프라, 수익화, 리얼리티 랩, 제너레이티브 AI, 규제 및 규정 준수를 위해 인력을 채용할 계획
Forwarded from 루팡
메타 플랫폼스 2024 회계연도 4분기 실적(시간외 +2%)

EPS: $8.02 (예상: $6.78) - 전년 대비 50% 증가
매출: $48.39B (예상: $46.98B) - 전년 대비 21% 증가
광고 매출: $46.78B (예상: $45.65B) - 전년 대비 21% 증가

2025 회계연도 1분기 매출 전망: $39.5B~$41.8B (예상: $41.67B)

사용자 및 참여 지표
가족 일일 활성 사용자(Family DAP): 33.5억 명 - 전년 대비 5% 증가
광고 노출 수: 전년 대비 6% 증가
광고당 평균 가격: 전년 대비 14% 증가
수익성 및 마진
영업 이익: $23.37B (예상: $19.91B) - 전년 대비 43% 증가
영업 마진: 48% (이전 41%)
순이익: $20.84B (예상: $17.46B) - 전년 대비 49% 증가
자유 현금 흐름(FCF): $13.15B (예상: $10.29B)

주요 사업 업데이트
2025년 연간 자본 지출 가이던스를 $60B~$65B로 상향 조정 (AI 및 핵심 사업 투자 확대)
4분기 총 비용 및 지출 전년 대비 5% 증가 (법적 비용 $1.55B 감소 포함)
2024년 12월 31일 기준 현금, 현금성 자산 및 유가 증권 총액: $77.81B
4분기 자사주 매입 없음, 2024년 전체 자사주 매입 규모: $29.75B
직원 수: 74,067명 - 전년 대비 10% 증가
2025년 예상 총 지출: $114B~$119B (예상: $108.01B)

CFO 전망 코멘트
"1분기 매출 성장률은 8~15%로 예상되며, 환율 변동(FX)으로 인해 3% 역풍이 예상됩니다. 2025년 인프라 투자는 비용 증가를 유발할 것이며, 특히 AI 및 기술 인재 확보에 집중될 것입니다."
Forwarded from 루팡
메타

"라마 4의 목표는 선두를 달리는 것"이라고 말하며, 이는 멀티모달(multi-modal)과 에이전트(agentic)가 될 것이라고 밝혔다.

마크 저커버그: 장기적으로 AI 인프라에 "수천억 달러"를 투자하겠다고 말했습니다

지금까지 그들은 약 $50B(CapEx의 하위 집합)를 지출했습니다. 실적 발표에서 자본지출(CapEx) 기대치가 둔화될 조짐 보이지 않음—메타는 2025년 확장 계획을 고수하고 있습니다.

"올해는 고도로 지능적이고 개인화된 AI 비서가 10억 명 이상에게 도달하는 해가 될 것으로 예상하며, Meta AI가 그 선도적인 AI 비서가 될 것으로 기대합니다."

"Meta AI는 이미 다른 어떤 어시스턴트보다 더 많은 사람들이 사용하고 있으며, 서비스가 이러한 규모에 도달하면 일반적으로 지속적이고 장기적인 이점을 개발합니다."
Forwarded from 루팡
메타 CEO: DeepSeek이 CapEx 전망에 미치는 영향 없음

"인프라 및 CapEx(자본 지출)에 어떤 영향을 미칠지에 대해 강한 의견을 가지기엔 아직 너무 이른 시점입니다."
"현시점에서 저는 이러한 인프라 구축이 서비스 품질뿐만 아니라 우리가 원하는 방식으로 확장하는 데 있어서도 큰 이점이 될 것이라고 생각합니다."
"우리는 여전히 대규모 CapEx 및 인프라 투자가 장기적으로 전략적 이점이 될 것이라고 믿고 있습니다. 언젠가는 다르게 배울 수도 있겠지만, 지금은 그런 결정을 내리기엔 너무 이른 시점입니다."
소프트뱅크, 오픈AI에 150~250억달러 투자하는 안 논의 중. 소뱅이 스타게이트 프로젝트에 150억달러 투자를 결정한 가운데 오픈AI에 추가 투자할지 여부가 관심사로 떠오름


SoftBank in Talks to Invest Up to $25 Billion in OpenAI

https://www.bloomberg.com/news/articles/2025-01-30/softbank-in-talks-to-invest-25-billion-in-openai-ft-says
소프트뱅크의 오픈AI 투자
- 소프트뱅크가 오픈AI에 최대 250억 달러를 투자하는 방안을 협의 중

- 이미 약 150억 달러를 투입하기로 한 인공지능 인프라 프로젝트(Stargate)와 별도

📌오픈AI 지분 투자만 150억~250억 달러 규모가 될 수 있음.

- 최종적으로 400억 달러 이상의 자금을 투입할 가능성도 거론됨.

- 오픈AI는 그동안 여러 라운드를 통해 약 200억 달러를 조달
📌(이 중 130억 달러는 마이크로소프트에서 받음)

- 2024년 기준 오픈AI의 기업가치는 약 1,570억 달러로 평가

- 오픈AI는 향후 더 큰 규모의 투자 유치를 위해 비영리 구조에서 영리 기업으로 전환을 추진 중
"트럼프 정부, 엔비디아 칩 대중 수출 추가 제한 검토"…H20 포함 가능성

도널드 트럼프 미국 행정부가 엔비디아 반도체의 중국 수출에 추가 제한을 검토 중

대중 수출 제한 규정을 준수하기 위해 설계된 저사양 칩까지 수출 통제 대상에 포함시키는 방안이 논의

트럼프 정부 관료들이 엔비디아의 H20 칩을 수출 제한 대상에 포함할 가능성에 초점. H20은 인공지능(AI) 소프트웨어와 서비스를 개발하고 운영하는 데 사용될 수 있지만 미국의 대중 수출 제한을 충족시키도록 설계된 저사양 제품

https://www.newspim.com/news/view/20250130000013
Forwarded from TNBfolio
NVIDIA의 CEO 젠슨 황, 삼성전자의 HBM 공정을 신뢰할 수 없다고 발언

1. NVIDIA와 삼성전자의 관계
- NVIDIA의 CEO 젠슨 황이 삼성전자의 HBM 공정을 신뢰할 수 없다고 말했다. 이는 두 회사 간의 관계에 새로운 장애물을 만들었다. 삼성전자는 오랫동안 NVIDIA의 HBM 공급업체로 포함되기 위해 노력해왔다.

2. 삼성전자의 HBM 자격 획득 실패
- 이전에 삼성전자의 HBM3가 NVIDIA의 자격 테스트를 통과하지 못했다는 소문이 있었다. 젠슨 황은 이 소문을 반박했지만, 현재까지 삼성전자는 진전을 보이지 못했다.

3. 젠슨 황의 비판
- 젠슨 황은 HBM 자격 획득 상황에 대해 삼성전자의 경영진을 비난했다. 그는 삼성전자와 그 엔지니어들을 신뢰할 수 없다고 말했다. NVIDIA는 삼성전자의 고객이지 직원이 아니라고 강조했다. 삼성전자의 고위 임원들이 자주 바뀌어 신뢰하고 거래할 수 없다고 말했다.

4. NVIDIA의 대만 공급업체 선호
- NVIDIA가 삼성전자의 GDDR7 메모리 모듈 대신 Micron을 선택했다고 한다. NVIDIA가 삼성전자의 실적으로 인해 대만 공급업체를 더 선호하는 것으로 보인다.

5. 삼성전자의 입장
- 삼성전자 임원들은 HBM 자격 단계를 통과할 것이라고 투자자들에게 확신을 주고 있다. 지연에도 불구하고 낙관적인 태도를 보이고 있다.

6. 향후 전망
- 현재 상황으로 볼 때 삼성전자가 NVIDIA의 HBM 공급업체가 되기는 어려워 보인다. NVIDIA의 HBM 공급선 확보는 삼성전자의 지속 가능성에 중요한 요소이다. NVIDIA가 전 세계 공급업체들에게 중요한 고객이 되었다.

https://wccftech.com/nvidia-ceo-jensen-huang-says-samsung-hbm-process-cannot-be-trusted/
Forwarded from [하나 Global ETF] 박승진 (박승진 하나증권)
» Microsoft, Meta, Amazon, Google의 Capex 규모 추이. 2025년 2,700억달러, 2026년 3,060억달러까지 증가할 전망
Forwarded from 연수르 해외주식
☁️ Google Gemini 2.0 출시 임박(?)

- 어제자로 Gemini 2.0이 모델 선택기 카테고리에 추가, Google이 Stable Version을 곧 정식 출시할 것으로 예상.

- Gemini 2.0은 이전 버전 대비 멀티모달 기능을 강화하고, AI Agent를 추가한 모델.

- 작년 12월 초부터 베타 테스트를 시작했으며, 구글은 기존에 자사의 AI Agent를 포함한 Gemini 2.0을 1월 안에 출시할 예정이라 밝힌 바 있음.
Please open Telegram to view this post
VIEW IN TELEGRAM
댄 아이브스가 보는 딥시크의 정체 [삼프로TV 뉴욕 법인 특별인터뷰] | Dan Ives 웨드부시증권 애널리스트

----------------------

삼프로TV에서 방금 올려주신 댄 아이브스(웨드부시증권 테크 애널리스트) 인터뷰입니다. 해당 내용중 인상깊은 내용에 대해 아래 기록하면

-미국 기업들 4% 정도가 진심으로 AI 투자하고 계획을 가지고 있다고 보는데 지난 48시간동안 25개의 기업과 이야기를 해본결과 DeepSeek으로 인해서 AI인프라 투자에 대한 계획을 바꿀것이라고 대답한 기업이 없었다.

-DeepSeek은 AI의 테무다. 테무 때문에 아마존이 망한다는 이야기가 있었지만 전혀 그러지 않았다.

-타임스퀘어에서 에르메스 운동화를 30불에 판다고 하면 당연히 거짓인걸 아는 것 처럼 DeepSeek의 주장은 터무니 없다고 본다.

-내가 25년동안 테크를 커버하면서 깨달은 것은 베어리쉬 한 사람들이 똑똑해 보이지만 결국 돈을 버는 사람들은 불리쉬한 사람들이다.

-LLM은 가치창출에 AI산업에의 한 부분에 불과하다. 앞으로 중요한것은 데이터를 누가 가지고 있고 그리고 그것을 어떻게 활용 하는지가 중요하다.

-HMB 디맨드도 롱텀으로 영향받지 않을 것이다. 지금은 시작에 불과하다.

-그리고 위 의견들은 내 생각이 아니고 실제로 기업들과 만나고 피드백에 의한 의견이다.

-빅테크들이 GPU를 덜 사용하고 효율적으로 트레이닝 할 수있으니 이번엔 잠깐 덜 사볼까? 라는 센티먼트가있을수 있냐라고 물어 본다면, 이건 절대 그럴수 없다. 이미 사기위해 줄서있는 상황인데 잠시 매입을 줄이게 되면 다시 뒤로가서 줄서야 한다. 때문에 그런일은 없을 것이다.

-테크 불마켓은 반도 지나지 않았다. 트럼프가 중국이 GPU를 사는것을 쉽게 두지 않을것.

-피지컬AI는 중국이 미국보다 몇년은 비하인드 되어있다. 그 이유는 피지컬AI는 LLM으로 가능한 부분이 아니기 때문. 고성능 GPU가 더 필요한 분야이다.


https://youtu.be/dMNQXAaP0RU?si=2fqMpIEzuGzDJmVT
Forwarded from 루팡
DeepSeek의 효율성 향상은 이전에 상당한 컴퓨팅 자원에 접근했던 경험에서 비롯된 것으로 보입니다. 역설적으로, 더 적은 칩을 사용하는 경로(즉, "효율성")는 더 많은 자원으로 시작해야 가능할 수 있습니다.

DeepSeek은 아시아 최초로 10,000 A100 GPU 클러스터를 운영했으며, 현재 약 50,000 H800 GPU 클러스터를 유지하고 있고, 중국 및 해외 클라우드 제공 업체에 무제한으로 접근할 수 있는 추가 자원을 보유하고 있습니다(이는 수출 통제 대상이 아님). 이러한 광범위한 컴퓨팅 자원은 시행착오를 통해 효율성 기술을 개발하고 고객에게 모델을 제공하는 데 있어 중요한 역할을 했을 가능성이 큽니다.

다른 AI 회사에서 최근 사용량 급증으로 서비스 중단이 발생했는데, 이는 더 큰 컴퓨팅 자원을 보유하고 있음에도 불구하고 벌어진 일입니다. DeepSeek이 유사한 사용량 급증을 처리할 수 있는 능력은 아직 검증되지 않았으며, 제한된 컴퓨팅 자원으로 인해 어려움을 겪을 가능성이 큽니다. (Sam Altman은 ChatGPT Pro 요금제가 현재 손실을 초래하고 있다고 주장하기도 했습니다.)

DeepSeek의 R1 모델은 놀라운 효율성을 보여주지만, 이 모델을 개발하기 위해 합성 데이터 생성, 디스틸레이션, 실험 등에서 상당한 컴퓨팅 자원이 필요했습니다.

미국과 중국 간 컴퓨팅 격차는 수출 통제로 인해 더욱 확대되었으며, 이는 DeepSeek의 주요 제약 요인으로 남아 있습니다. DeepSeek의 경영진은 효율성 향상에도 불구하고 여전히 4배의 컴퓨팅 열세가 있음을 공개적으로 인정했습니다. DeepSeek의 설립자 Liang Wenfeng은 다음과 같이 밝혔습니다.
"동일한 결과를 얻기 위해 우리는 2배의 컴퓨팅 자원이 필요합니다. 추가로, 데이터 효율성에서 약 2배의 격차가 있어, 동일한 결과를 얻으려면 2배의 훈련 데이터와 컴퓨팅 자원이 필요합니다. 이를 종합하면 4배의 컴퓨팅 자원이 요구됩니다."
그는 이어서 이렇게 덧붙였습니다.
"우리는 단기적인 자금 조달 계획이 없습니다. 우리의 문제는 자금이 아니라, 고급 칩에 대한 금수조치(embargo)입니다."

미국 주요 기업들은 최고의 역량을 비공개로 유지하고 있어, 공개된 벤치마크만으로는 AI 발전의 전체 그림을 파악하기 어렵습니다. 반면 중국 기업들은 진행 상황을 공개적으로 공유하고 있지만, Anthropic과 OpenAI와 같은 회사들은 여전히 상당한 비공개 역량을 보유하고 있습니다. 이러한 점에서 DeepSeek이 주목받는 이유는 그들의 개방적인 접근법에 있습니다. 모델 가중치와 방법론을 자세히 공유하는 반면, 서구 기업들은 점점 더 폐쇄적인 태도를 보이고 있습니다. 그러나 이러한 개방성이 전략적 우위를 제공할지는 아직 불확실합니다.

그러면 어떤 의미가 있을까요?

DeepSeek의 성과는 진정성과 중요성을 갖추고 있습니다. 그들의 발전을 단순히 "프로파간다(선전)"라고 치부하는 주장은 본질을 놓친 것입니다. 보고된 훈련 비용은 역사적인 알고리즘 효율성 추세를 고려할 때 전례 없는 수준이 아닙니다. 그러나 비교에는 신중한 맥락이 필요합니다. DeepSeek은 최종 사전 훈련(run) 비용만 보고하며, 이 과정에서 필수적인 인력 시간, 초기 실험, 데이터 수집, 인프라 설정 등의 주요 비용은 포함하지 않았습니다.

컴퓨팅 효율성이 증가함에 따라 AI 역량은 필연적으로 확산될 것입니다. 통제만으로는 충분하지 않습니다. 사회적 복원력과 방어를 강화하기 위한 조치와 병행되어야 합니다. 이를 위해 AI 위험을 식별, 평가, 해결할 기관을 설립하고, 잠재적으로 유해한 AI 응용 프로그램에 대해 견고한 방어 체계를 구축해야 합니다. 하지만 수출 통제가 이미 중국의 AI 개발에 영향을 미치고 있으며, 향후에는 더 강력한 영향을 미칠 가능성도 인정해야 합니다.

모델 자체가 전략적 해자가 아닐 수 있지만, 컴퓨팅 자원이 국가 안보에 미치는 영향은 사용 사례에 따라 달라집니다. 대규모 배포가 필요한 경우(예: 대규모 감시), 컴퓨팅 제한이 상당한 장벽을 만들 수 있습니다. 반면, 단일 사용자 응용 프로그램에서는 통제의 영향이 적습니다. 모델 역량이 점점 더 쉽게 복제될 수 있음에도 불구하고, 컴퓨팅 접근성과 국가 안보 역량 간의 관계는 여전히 복잡합니다.

결론적으로 AI 역량은 통제에도 불구하고 확산될 가능성이 높습니다. 수출 통제나 기타 "역량 개입"만으로 확산을 완전히 막는 것은 어렵겠지만, 이러한 통제는 기술적 우위를 유지하기 위해 중요합니다. 통제는 중요한 시간을 벌어줄 수 있지만, 민주주의 국가들이 선두를 유지하고 적대국에 대한 복원력을 확보할 수 있도록 하는 정책과 결합되어야 합니다.


https://www.chinatalk.media/p/deepseek-what-the-headlines-miss?r=23t136&utm_medium=ios&triedRedirect=true
MS·AWS·메타, 딥시크 'R1' 쓴다…챗GPT 의존도↓
https://n.news.naver.com/article/092/0002361415?sid=105

30일 글로벌 업계에 따르면, 마이크로소프트와 아마존웹서비스(AWS), 메타가 딥시크 R1을 활용해 자사 서비스와 모델 개발을 업그레이드하기 위해 나선 것으로 전해졌다. 마이크로소프트와 AWS는 R1을 서비스에 접목했으며, 메타는 R1 기술을 분석해 자사 모델 라마에 적용할 방침이다.

마이크로소프트는 딥시크의 R1을 자사 클라우드 컴퓨팅 플랫폼 애저(Azure)와 개발자 도구 깃허브에 제공한다고 밝혔다. 마이크로소프트 플랫폼 내 1천800개 넘는 AI 모델 목록에 R1을 추가한다. R1은 애저와 깃허브의 모델 카탈로그에서 우선 제공된다.

내부 소식통에 따르면 메타가 구성한 워룸 4개 중 두 팀은 딥시크가 어떻게 AI 훈련·운영 비용을 낮출 수 있었는지 분석 중이다. 이 전략으로 메타의 라마 모델에 적용하는 것이 목표다.
또 다른 팀은 딥시크가 어떤 데이터로 AI 모델을 훈련시켰는지 조사하는 역할을 맡은 것으로 전해졌다. 나머지 팀은 딥시크 AI 모델 특성 기반으로 라마의 모델 구조를 어떻게 재설계 할 수 있을지 연구 중인 것으로 알려졌다.