Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
오픈 월드 영역에서 이와 유사한 것의 첫 번째 초기 모습을 보고 있습니다. 모델은 다양한 수학/코드 등의 문제를 해결하는 과정에서 인간의 내적 독백과 유사한 전략을 발견하는데, 이는 모델에 직접 프로그래밍하기는 매우 어렵고(/불가능합니다) 불가능합니다. 저는 이를 '인지 전략'이라고 부르는데, 다양한 각도에서 문제 접근하기, 다양한 아이디어 시도하기, 유추 찾기, 역추적하기, 재검토하기 등이 이에 해당합니다. 이상하게 들리겠지만, LLM이 더 나은 사고 방식, 문제 해결 방식, 여러 분야의 아이디어를 연결하는 방식을 발견할 수 있다는 것은 그럴듯한 일이며, 돌이켜보면 놀랍고 당황스럽지만 창의적이고 기발한 방식으로 그렇게 할 수 있습니다. 최적화가 우리가 이해할 수 없지만 문제 해결에 더 효율적이거나 효과적인 자신만의 언어를 발명하는 것은 그럴듯한 일입니다(잘 수행된다면 그럴 가능성도 있습니다). 강화 학습의 기묘함은 원칙적으로 한계가 없습니다.

아직 무브 37에 상응하는 기술을 본 적이 없는 것 같습니다. 어떤 모습일지 모르겠습니다. 아직은 초기 단계이고 엔지니어링과 연구 측면에서 앞으로 해야 할 일이 많다고 생각합니다. 하지만 기술이 이를 찾아낼 수 있는 궤도에 오른 것 같습니다.

https://x.com/karpathy/status/1884336943321997800?s=46&t=h5Byg6Wosg8MJb4pbPSDow
딥러닝은 그 어떤 AI 알고리즘보다도 전례 없이 엄청난 연산력을 요구하는, 전설적인 탐욕을 가진 존재라고 말할 수 있습니다. 항상 이를 100% 활용하는 것은 아닐 수도 있지만, 장기적으로 달성 가능한 지능의 상한선이 연산력(compute)에 의해 결정된다고 생각하며, 이에 반하는 내기를 하지는 않을 것입니다. 이는 단순히 개별적인 최종 훈련 과정에서만이 아니라, 모든 알고리즘 혁신의 기반이 되는 보이지 않는 혁신 및 실험 엔진 전체에도 해당됩니다.

전통적으로 데이터는 연산력과 별개의 요소로 간주되어 왔지만, 실상 데이터도 상당 부분 연산력의 산물입니다. 우리는 연산력을 사용하여 데이터를 생성할 수 있습니다. 그것도 엄청나게 많이요. 이를 “합성 데이터 생성(synthetic data generation)“이라고 부르지만, 사실 “합성 데이터 생성”과 “강화학습(reinforcement learning)” 사이에는 매우 깊은 연관성(심지어 동등성)이 존재합니다. 강화학습에서 시행착오(trial-and-error)를 통한 학습 과정에서 “시행(trial)“은 모델이 합성 데이터를 생성하는 과정이며, “오류(error)” 또는 보상(reward)을 기반으로 모델이 다시 학습합니다. 반대로, 합성 데이터를 생성한 후 이를 랭킹하거나 필터링하는 과정은 0-1 이점 함수(advantage function)와 사실상 동일합니다. 즉, 축하합니다! 여러분은 지금 형편없는(?) 강화학습을 하고 계신 겁니다.

마지막으로 하나 더. 이게 명확한 사실인지 모르겠지만, 인간 아이들의 학습 방식과 딥러닝의 학습 방식에는 두 가지 주요 유형이 있습니다.
1. 모방 학습(Imitation Learning) – 보고 따라 하기 (즉, 사전 훈련(pretraining)과 지도 학습을 통한 파인튜닝)
2. 시행착오 학습(Trial-and-Error Learning) – 강화학습 (Reinforcement Learning)

내가 가장 좋아하는 단순한 예시는 **알파고(AlphaGo)**입니다.
1. 알파고는 먼저 전문가들의 플레이를 모방하면서 학습합니다.
2. 이후에는 강화학습을 통해 스스로 게임에서 이기는 법을 배웁니다.

그리고 딥러닝에서 나온 거의 모든 충격적인 결과들, 즉 마법 같은 순간들의 원천은 항상 **2번(강화학습)**에서 나옵니다. 2번이 훨씬 더 강력합니다. 2번이 바로 우리를 놀라게 합니다. 2번이 우리가 “브레이크아웃(Breakout)” 게임에서 공을 블록 뒤쪽으로 튕겨 점수를 얻는 전략을 발견하게 만드는 원리입니다. 2번이 알파고가 이세돌을 이길 수 있게 만든 방법입니다. 그리고 2번이 바로 DeepSeek이나 o1 같은 모델이 자신의 가정을 재평가하고, 후퇴하고, 다른 전략을 시도하는 것이 효과적이라는 것을 발견하는 순간입니다.
즉, 2번은 이 모델이 체인 오브 쏘트(Chain of Thought) 방식으로 문제 해결 전략을 구축하는 방식입니다. 모델이 스스로 생각을 교차하며 고민하는 방식입니다. 그리고 이런 사고 과정은 *자연적으로 발생하는 현상(emergent phenomenon)*이며, 이는 정말 놀랍고 인상적이며, 공공 영역에서 문서화된 형태로 확인할 수 있는 완전히 새로운 개념입니다.

이러한 사고 방식을 1번(모방 학습)으로는 결코 배울 수 없습니다. 왜냐하면 모델의 인지 방식과 인간 데이터 라벨러의 인지 방식은 다르기 때문입니다. 인간은 이러한 문제 해결 전략을 정확하게 주석 달거나, 그 전략이 어떻게 보이는지조차 정의할 수 없습니다. 결국 이러한 전략들은 강화학습을 거치는 과정에서 경험적으로, 그리고 통계적으로 유용한 것으로 발견되어야 합니다.

(진짜 마지막 참고 사항: 강화학습(RL)은 강력하지만, **강화학습을 활용한 인간 피드백(RLHF)**은 그렇지 않습니다. RLHF는 RL이 아닙니다. 이에 대한 별도의 긴 불만이 이전 트윗에 있습니다.)

https://x.com/karpathy/status/1883941452738355376?s=46&t=h5Byg6Wosg8MJb4pbPSDow
OpenAI의 Operator 같은 프로젝트는 디지털 세계에서 휴머노이드 로봇이 물리적 세계에서 하는 역할과 유사합니다.
즉, 인간을 위해 설계된 입출력 인터페이스(I/O interface)(예: 모니터, 키보드, 마우스 또는 인간의 신체)를 통해 점진적으로 범용적인 작업을 수행할 수 있는 일반적인 설정을 갖춘 시스템입니다.

이러한 시스템이 도입되면 점진적으로 혼합된 자율성(mixed autonomy) 세계가 형성되며, 인간은 **하위 수준 자동화(low-level automation)**의 상위 감독자(high-level supervisor) 역할을 하게 됩니다.
이는 마치 운전자가 자율주행 시스템(Autopilot)을 모니터링하는 것과 비슷한 구조입니다.

이러한 변화는 물리적 세계보다 디지털 세계에서 훨씬 더 빠르게 진행될 것입니다.
그 이유는 비트를 전환(flipping bits)하는 것이 원자(atom)를 이동시키는 것보다 약 1000배 저렴하기 때문입니다.
그러나 시장 규모 및 기회는 물리적 세계에서 훨씬 더 크다고 느껴집니다.

OpenAI 초창기 시절, 우리는 이미 이 아이디어를 연구한 적이 있습니다.
(예: UniverseWorld of Bits 프로젝트)
하지만 그때는 잘못된 순서로 진행되었고, **대규모 언어 모델(LLM)**이 먼저 등장해야 했습니다.
솔직히 말해, 지금도 이 개념이 완전히 준비되었는지 100% 확신할 수는 없습니다.

예를 들어, **멀티모달(Multimodal: 이미지, 영상, 오디오 등)**이 지난 1~2년간 LLM과 통합되었지만,
대부분 어댑터(adapter) 방식으로 억지로 붙여진 수준입니다.

더 나쁜 점은, 우리는 아직 **매우 긴 작업 주기(very long task horizon)**를 다룬 경험이 없습니다.
예를 들어, 비디오는 엄청난 양의 정보를 포함하고 있기 때문에,
현재의 맥락 창(context window) 개념만으로 모든 정보를 저장하고 처리할 수 있을지 확신이 없습니다.
아마도 여기에서 한두 가지 혁신적인 돌파구가 필요할 것으로 예상됩니다.

내 타임라인에서는 사람들이 **“2025년이 에이전트(agent)의 해”**가 될 것이라고 이야기하고 있습니다.
하지만 개인적으로는 2025~2035년이 ‘에이전트의 10년’이 될 것이라고 생각합니다.

실제로 이 개념을 현실에서 작동하게 만들기 위해서는
방대한 연구 및 개발 작업이 필요하지만, 궁극적으로는 가능할 것입니다.

오늘날, OpenAI의 Operator는 DoorDash에서 점심을 찾아주거나, 호텔을 예약하는 것 정도를 때때로, 혹은 간신히 해낼 수 있습니다.
내일, 우리는 Operator 에이전트를 여러 개 조직화하여 장기적인 작업을 수행하도록 만들 수 있습니다.
(예: 하나의 회사 전체를 운영하는 것과 같은 복잡한 작업)

당신은 CEO가 되어 한 번에 10개의 Operator를 감독할 수도 있습니다.
때때로 직접 개입하여 문제가 되는 부분을 해결하고, 전반적인 운영을 조율하는 방식이 될 수도 있겠죠.

그렇게 되면 굉장히 흥미로운 미래가 펼쳐질 것입니다.

https://x.com/karpathy/status/1882544526033924438?s=46&t=h5Byg6Wosg8MJb4pbPSDow
Continuous Learning_Startup & Investment
1. 한국도 지금 이런 모델을 공개할 수 있는 상황이었다면. 2. Compute Multiplier의 발견이 이제 많은 수의 GPU가 필요하지 않다는 발상으로 이어질 줄은 몰랐다. 그런 의미가 아니라고 말하고 싶은 충동이 들지만 그게 딱히 의미가 있을까 싶다. 3. 전기세의 차이를 고려하더라도 미국쪽 LLM API 가격에는 마진이 꽤 붙어있을 것이라는 생각. 중국 내에서 가격 경쟁이 붙은 것처럼 LLM API 가격의 압착이 일어날지도. 4. AI/ML판의…
미국 최초 자동차 회사: 1895년 Duryea Motor Wagon Company.
이후 증가 추세: 1900년 전까지 34개, 19001909년 233개, 19101919년 168개의 신규 업체 설립.
하지만 1920년대 이후 급격히 consolidation(통폐합)되면서, **‘빅3’(GM, 포드, 크라이슬러)**가 시장을 장악.
핵심 포인트:
“새 자동차 회사” 출현 자체는 줄었지만, 그 후에도 자동차가 초래한 사회적 변화(교외 확산, 빅박스 리테일, 교통문화 등)는 훨씬 커짐.
즉, “산업이 성숙되고 혁신 기업 설립이 줄어든다” 해서 자동차 자체의 영향력이 줄어드는 건 아니었다.
1. 미국 재정 적자와 하이퍼인플레이션 우려
질문/화두: “미국이 현재 수백일 단위로 1조 달러씩 적자를 늘리고 있고, 이게 곧 80일, 70일마다 1조 달러씩 쌓이면 어떻게 될까? 아르헨티나나 브라질처럼 하이퍼인플레이션으로 갈 위험은 없을까?”

답변/논리 전개
마크: 지금처럼 국가 부채가 기하급수적으로 쌓이면 결국 대규모 인플레이션—최악의 경우 하이퍼인플레이션 가능성을 완전히 배제하기 어렵다.
이런 “연방정부의 무절제한 지출” 문제를 해결하지 않으면, 큰 위기가 올 수도 있다.

2. 미국의 경제·사회적 ‘낙관 시나리오’ vs. ‘현 체제의 병폐’
2-1. “로어링 20스(Roaring 20s)”에 대한 낙관
질문: “2025~26년 미국과 테크가 가장 이상적으로 흘러간다면 어떤 모습일까?”

답변
마크: 미국은 지리·자원·에너지·인재 면에서 매우 유리한 조건을 타고났다.
(1) 천연자원(에너지 독립 가능), (2) 수많은 이민 인재(두뇌 유입), (3) 테크 기반(모바일, AI 등 리더십) 덕분에 폭발적으로 성장할 잠재력이 있다.
과거 1970년대 스태그플레이션 후 1980년대 초 레이건 시절에 미국이 “Morning in America” 분위기로 반등했듯이, 지금도 충분히 그런 반등이 가능.

2-2. 부정적·병폐적 요소
질문: “지금 분위기는 과거 ’70년대처럼 부정적이고, 규제와 정치적·사회적 냉소가 팽배한데? ”
답변
미국 정부와 관료제는 지나친 규제·검열·비효율 등 “소프트 권위주의”가 되어 버렸다.
“진행자(렉스)가 미국 정서를 느낀 바로도, ‘너무 많은 규제와 검열’이 개개인을 짓누르고 있다.”
많은 문제(범죄 증가, 지나친 정치 올바름 강요, ESG·DEI 과도함 등)로 실리콘밸리와 헐리우드도 좌절감이 컸으나, 최근 대선 이후 “분위기가 바뀌었다”고 느낌.

3. 트럼프 2기 행정부(가정)와 규제·검열 문제
3-1. “트럼프 행정부가 돌아온다면?”
질문: “트럼프 행정부가 2025년 다시 들어서면, 어떻게 체제가 바뀔까?”

답변
마크: “새 행정부는 ‘정부가 시장과 국민의 목을 죄는 것’을 줄이고, ‘낙관적·진취적 분위기’를 되살릴 수 있다.”
이번엔 훨씬 우수한 인재(장·차관 후보, 각 부처 요직 후보 등)를 영입하고 있어서, 첫 임기 때보다 효율적인 팀을 구성할 가능성이 크다.
‘Doge’(대통령 직속 위원회) 등 여러 기구를 통해 규제 완화와 ‘정부 부처 축소’를 대대적으로 시도할 것으로 보임.

3-2. 검열(Censorship) 문제
질문: “정부가 SNS를 검열·압박해온 사례가 최근 많이 드러났다. 이런 ‘정부+테크 검열 체제’를 어떻게 봐야 하나?”
답변
마크: Twitter Files·Facebook 문서(Weaponization committee 증거) 등을 보면, 미국 정부 기관(특히 민주당 정권 시절)이 합헌적 절차 없이 SNS에 검열 압박을 가했던 것은 명백한 불법·위헌적 행위였다.
이런 관행은 ‘행정부 내 규제·행정 권력 남용’의 대표적 사례로서, 향후 제대로 처벌·교정되어야 한다.

4. 대학(고등교육) 문제와 ‘DEI-affirmative action’

4-1. 미국 대학은 구조적으로 회복 불가능?
질문: “미국 명문대(하버드, 스탠퍼드 등)의 무분별한 정치편향, DEI(다양성·형평성·포용성) 프로그램, 표현의 자유 침해, 비정상적 예산 등이 심각하다. 고칠 수 없나?”
답변
마크: 현재 미국 고등교육은 “연방 정부 예산+규제+인증 카르텔” 구조 안에 있어, 내부에서 자체 개혁하기가 거의 불가능하다고 본다.
따라서 근본적으로 “기존 기관을 파산시키고 다시 세우는” 수준의 리셋이 아니면, (특히 아이비리그 등) 고칠 수 없다고 회의적으로 본다.
*렉스는 “아직 재정지원 등으로 테크-인재 양성에 중요한 역할을 하므로, 내부 개혁이 가능하다고 보며, 그걸 희망한다”*고 반론.
마크는 “진짜 리더십이 있어야 가능하지만, 현실적으로 쉽지 않다. 사립대들은 테너(tenure)와 관료층에 의해 장악되어, 실제 ‘학문 자유’는 유명무실한 상태다”라고 강조.

4-2. Affirmative Action / DEI 정책의 문제
질문: “하이테크(실리콘밸리) 측은 이민 ‘H1B’ 등 고급두뇌 유치가 좋다고 말한다. 그러나 그 혜택이 실제 미국 내 중서부, 남부, 흑인·유대인·아시안 등 실제 ‘토박이 인재들’에게는 불리할 수 있는데?”
답변
마크: “Affirmative action(소수자 우대) 자체가 수십 년간 너무 복잡하게 변질되었다.”
예: 실제로는 ‘미국 흑인’에게 기회가 돌아가는 대신, 해외 출신 엘리트(나이지리아, 서인도제도 등)만 상대적으로 더 혜택받는 식으로 운영됨.
유대인과 아시안 학생들은 오히려 더욱 불이익 받음(하버드 사례).
“기업·대학이 ‘미국 내부 인재 개발’ 대신, 간편한 H1B로 해외 스펙 좋은 인재만 뽑는 건 윤리적으로도 문제다.”
결론적으로, “이민정책과 대학입시 정책은 별개로 떼어놓지 말고 통합적으로 봐야 한다. 토박이 인재 발굴 강화+해외 인재 유치 두 가지를 함께 추진해야 한다.”

5. 저널리즘(언론)에 대한 비판과 “권력(파워)의 실제 작동 방식”

5-1. 언론은 ‘CEO를 해고시킬 수 있으나, CEO는 언론인을 못 해고한다’
질문/화두: “언론사가 가진 파워가 생각보다 엄청난데, 왜 이렇게 서로가 ‘누가 진짜 결정권을 갖는가’를 놓고 싸우나?”
답변
마크: 실무적으로 보니, “기자 1명이 대기업 CEO를 사실상 해임/사임/실각시키는 사례는 많지만, 그 반대는 불가능.”
즉, 언론이 ‘해임시킬 수 있는’ 권력(여론몰이)이 막강하나, 언론 조직 내부는 사실상 기자가 주도권을 쥐는 구조라, 사주(오너)조차 기자에게 휘둘림. (LA타임스 등 예시)

5-2. 빌 애크먼(Bill Ackman)의 사례
질문: “빌 애크먼이 언론과 직접 맞서는 행동은 대단히 인상적인데, 어떻게 보는가?”
답변
마크: “빌 애크먼은 원래 ‘행동주의 투자자(activist investor)’로서 대형 기업들 상대로 강력한 압박 전술을 구사하며 노하우를 쌓아왔다.”
그런 스킬을 언론·대학교 등에도 적용, 과감히 ‘폭로’와 소송·법적 압박 등을 걸면서 바꿔나가고 있다. 이는 참신하고도 강력한 행동이다.

6. 인공지능(AI) 경쟁 구도와 혁신

6-1. AI 업체들의 경쟁(오픈AI·메타·구글·xAI 등)
질문: “AI 대규모 모델(LLM) 경쟁은 누가 이길까?”
답변
마크: 미지수. 여러 “트릴리언 달러급 의문”들이 존재한다. 예:
‘Big model vs. Small model’: 거대 모델이 앞으로도 계속 우세할지, 소형 특화 모델이 이길지.

과거에는 매개변수가 수천억~수조 개에 달하는 초대형 모델이 ‘궁극적으로 더 강력할 것’이라는 시각이 있었지만, 최근에는 특정 작업에 특화된 소형 모델이 효율 면에서 더 뛰어날 수 있다는 주장이 힘을 얻고 있다.
어떤 방향이 주류가 될지, 혹은 Big-Model과 Small-Model이 병존(共存)할지 아직 불투명.

‘Open vs. Closed’: 모델을 오픈소스로 풀지, 폐쇄형으로 갈지.

합성 데이터(synthetic data) 가능 여부
거대 모델이 인류가 온라인에 올린 모든 텍스트·이미지·음성 등 데이터를 거의 ‘소진’해버렸다는 논의가 있다.
이후 추가 성능 향상을 위해 합성 데이터(기존 모델이 스스로 생성한 데이터)를 다시 학습하는 방식이 실효성 있을지, 또 품질·편향 문제를 어떻게 해결할지 관건.

체인오브솟(Chain-of-thought) 등 추론 기법이 얼마나 발전할지.
정치·규제 환경이 어떻게 변할지(EU·미국 등).
게다가, 자금(수십억~수천억 달러)이 필요한 분야라, 빅테크와 국가 단위 투자만 가능.

6-2. 앞으로의 “Little Tech(스타트업)” 기회
질문: “코딩을 비롯해 AI가 개발 생산성을 폭증시킨다. 스타트업에 어떤 기회가 있을까?”
답변

AI 코딩이 이미 큰 지각 변동을 일으키는 중. 코딩 진입장벽이 대폭 낮아지고, 1인 창업도 가능해진다.
코딩 진입장벽이 급격히 낮아져서, 개인이나 소규모 팀도 과거보다 훨씬 쉽고 빠르게 애플리케이션을 만들 수 있다.

기존 대기업(구글, MS 등)은 레거시를 갖고 있어 급진적 변신이 어렵다(혁신의 딜레마). 따라서 스타트업들이 AI-first 관점에서 새로 만들 제품이 많을 것.
👍1
완전히 자율형 AI 회사 등 “조직 구조 자체가 AI에 의해 재설계”되는 사례도 나올 것.
기존에는 사람 위주로 팀과 의사결정 구조를 짰지만, 이제 어떤 부분에서 AI가 프로젝트 매니저 역할을 맡거나, 심지어 CEO에 준하는 의사결정을 보조하게 될 수도 있다.


7. ‘인간성(Humanity)’과 ‘종교(Religion)’ 토픽
7-1. 마크의 관점
질문: “베리 바이스 인터뷰에서 신(神)을 믿느냐고 물었을 때 ‘확신은 없다’고 했다. 지금은 어떤가?”
답변
마크: 여전히 완전한 무신론자 혹은 유신론자가 아닌 ‘열린 상태’.
점점 인간·우주에 대해 깊이 배우며, “과학적 설명만으로는 풀리지 않는 엄청난 미스테리”도 있고, 종교가 사회·문화적으로 수행하는 기능이 상당히 중요함을 깨닫는 중.

7-2. “종교 부정 → 가짜 종교를 만든다”
마크: 공산주의·파시즘, 그리고 근래 ‘워크(woke) 이념’ 같은 것은 ‘새로운 종교’처럼 작동한다(에릭 보겔린·니체 등 인용).
무신론적 근대사회에서도 사람은 종교적 집단심리를 대체할 무언가를 만들어낸다. 허무주의가 아니라, ‘실제 종교가’ 혹은 대안이 필요한지 고민해야 한다.

8. ‘성공(Success)’과 개인 삶
8-1. 성공의 정의
질문: “엄청 성공한 사람으로서, 성공이란 무엇이라고 생각하나?”
답변
마크: “(1) 스스로가 ‘기여했다(contribution)’고 느끼는 것, (2) ‘진정한 만족(fulfillment)’을 느끼는 것”이 핵심.
‘행복(happiness)’은 아이스크림 한 번 먹듯 찰나적·감각적 즐거움으로, 추구만 한다고 채워지지 않는다. 궁극적으로는 자기 역할에 대한 깊은 충족감이 중요.

8-2. 안드류 허버먼(Andrew Huberman)에 대한 농담
건강·운동 관련 팁(Huberman Protocol)에 대해선 “알코올 끊는 건 따라 했지만, 빛·수면 습관은 여전히 못 지킨다”고 농담. 헬스 점수는 “3점 정도”라고 스스로 자평.

https://youtu.be/OHWnPOKh_S0
연방 부채 증가

미국 연방 정부 부채는 총 36.4조 달러(Trillion USD)에 달한다.
미국 GDP는 29.1조 달러이므로 부채 대비 GDP 비율은 약 125% 수준이다.
2020년 이후 연방 부채는 80% 증가했지만, GDP는 불과 약 38% 증가에 그쳤다.

높은 금리와 큰 재정적자
미국 연준(Federal Reserve)이 금리를 인상했다가 일부 인하했음에도, 장기금리는 계속 상승 추세를 보였다.
현재 미국 정부는 약 2조 달러(대략 GDP의 7%) 수준의 연간 재정적자를 내고 있다.
연간 이자 비용만 1조 달러를 넘어선다.

미 의회예산국(CBO)의 전망
향후 2035년까지 연간 재정적자는 GDP의 평균 6.1%에 이를 것으로 예상된다. 이는 지난 50년 평균치인 3.8%보다 높다.
정부 부채는 향후 10년 동안 추가로 24조 달러 이상 증가할 것으로 전망되며, 이는 여타 잠재적 감세 조치 등을 고려하기 전의 수치다.

단기 부채 사이클 vs 장기 부채 사이클
단기 부채 사이클(평균 약 6년 주기)

전형적인 경기 확장-붕괴(boom-bust) 흐름으로, 결국 금리인상으로 막을 내린다.
미국은 1945년 이후 대략 12.5회의 단기 사이클을 겪었다.

장기 부채 사이클(대략 75~80년 주기)

한 세대를 넘어서 지속되기에, 사람들에게는 잊히기 쉽다.
미국은 1945년에 시작된 약 80년짜리 장기 부채 사이클의 말기에 접어들었다.
역사적으로 화폐-부채 시스템의 약 80%가 100년 안에 붕괴하거나 근본적으로 변화했다.

대규모 부채 사이클의 5단계
건실한 통화 단계(Sound Money Stage)
부채 비중이 낮고, 통화가 안정적이며 국가 경쟁력이 견고하다.

부채 버블 단계(Debt Bubble Stage)
부채/투자가 급증하지만, 이를 상환할 소득의 증가 속도를 넘어서게 된다.

정점 단계(Top Stage)
버블이 터지고, 초과 신용공급이 중단되며 시장이 축소된다.

디레버리징(Deleveraging) 단계
중앙은행이 채권 매입(=부채 화폐화)을 통해 신용 위기를 완화하려고 개입한다.

사이클의 ‘종말’
통화가치 하락 또는 인플레이션이 크게 발생하는 형태로 부채가 재구조화(reset)되거나 기본적으로 다시 짜여진다.

부채 위기의 신호

4.1 경고 징후
죽음의 소용돌이(Death Spiral)”

정부(또는 특정 주체)가 기존 부채의 이자만 갚기 위해 신규 차입을 계속해야 하는 상황.
투자자의 신뢰가 흔들려 금리가 더 오르고, 이는 다시 더 많은 차입을 야기해 악순환에 빠진다.

수요-공급 불균형(Supply-Demand Imbalance)

기존 채권 보유자들이 대거 채권을 매도하고, 정부는 동시에 부채를 추가 발행할 경우, 시장에 채권 물량이 넘쳐 금리가 급등한다.

부채 화폐화(Monetization)

중앙은행이 채권을 사들이면서 통화량을 늘린다. 이는 인플레이션 및 통화 가치 하락으로 귀결된다.

통화 발행과 인플레이션의 결과

데이브는 명목상(nominal)으로 시장이 “오른다” 해도 통화가 추가 발행되면 화폐 가치가 하락한다고 지적한다.
실제 구매력(Real purchasing power)은 지수의 상승과 무관하게 정체되거나 감소할 수 있다.
역사적 예시(1966~1984년 미국)
명목 지수는 어느 시점 반등했지만, 인플레이션을 감안하면 주식시장 가치가 약 60~70% 떨어진 셈이 된다.


전면적 위기를 피하기 위한 정책 선택지

레이와 데이브는 정부가 부채를 조정하기 위해 행사할 수 있는 4가지 대표적 ‘레버(lever)’를 꼽는다:

1. 지출 삭감(긴축)

재정적자를 줄이지만, 국민 서비스가 줄고 경제가 침체될 수 있다.

2, 증세

정부 수입이 늘지만, 국민들에게 세 부담을 주며 기업 활동에 부정적 요인이 될 수 있다.

3. 부채 재구조화(Restructure Debt)

부분적 채무불이행(default)이나 만기 연장 등을 통해 채권자에게 직접적인 손실을 주거나 상환 시기를 뒤로 미룬다.

4. 중앙은행을 통한 화폐화(Central Bank Monetization)

(돈 찍어내기) 인플레이션을 일으키고 통화 가치를 떨어뜨려, 사실상 현금·채권 보유자에게 세금 효과를 준다.

레이의 “3% 방안”:
1. 연방 재정적자를 (현재 예측치 7% 수준에서) GDP의 3%로 빨리 낮출 것.
2. 경기가 양호한 시기에 재정지출을 줄이는 것이 훨씬 수월하며, 지연될수록 더 극단적 조치가 요구된다.
3. 정치 지도자들은 해당 목표(3%)를 “확실히 책임지고” 실행해야 하며, 어려운 결정을 미루면 안 된다고 강조한다.

AI와 기술의 역할

AI는 장기적으로 생산성과 기업 이윤을 높일 수 있다. 하지만 단기에는 대량 실직과 같은 혼란을 일으켜 추가 복지 지출 압박(예: 안전망, 기본소득 등)을 초래할 수 있다.

레이가 지적하는 몇 가지 사항:
AI와 관련된 국가 전략에서 “이익(profit)은 중요치 않다.” 즉, 미국과 중국 모두 ‘AI 경쟁’에서 패배할 여유가 없기 때문이다.
이 경쟁은 칩 보조금, R&D 투자 등으로 재정지출을 더욱 부추길 수 있다.
AI의 생산성 향상으로 언젠가 세수(稅收)가 늘겠지만, 단기 적자 문제를 해결하기엔 너무 늦을 수 있다.

미·중 갈등

AI 경쟁이 전략적 대립을 가속한다.
레이는 중국이 손자병법(“직접적 전쟁은 최후의 수단, 교묘한 책략이나 기만이 낫다”)을 예로 들며, 중국의 접근 방식을 설명한다.

분열과 갈등
“글로벌 규범 체계”가 부재해 협력이 어려워지고, “힘이 곧 정의(might is right)”라는 분위기가 강해진다.
동시에 여러 국가에서 내부적 양극화가 심화한다.
레이는 세계대전 전이나 냉전 전 같은 기류가 일부 보인다고 말한다. 국방비 증가 등으로 적자가 더욱 부담될 전망이다.

https://youtu.be/1_rvVTuGRNE
1) DeepSeek r1은 실제이며 중요한 미묘함이 존재한다.
가장 중요한 것은 r1이 o1에 비해 추론(inference) 비용이 훨씬 저렴하고 효율적이라는 점이다. 6백만 달러라는 학습비용($6m training figure) 자체보다 이 부분이 본질적이다. r1은 o1 대비 API 당 비용이 93% 적게 들며, 고급 워크스테이션에서 로컬로 구동할 수 있을 뿐 아니라, 어떤 레이트 리밋(rate limit)도 걸리지 않은 듯 보여 매우 놀랍다. 간단히 말해, 활성 파라미터(active parameters) 10억 개당 FP8에서 1GB RAM이 필요하므로, r1은 총 37GB RAM이 필요하다. 배칭(batching)을 통해 비용을 크게 절감할 수 있고, 더 높은 연산 능력을 통해 초당 토큰 처리(tokens/second)를 늘릴 수 있으므로 여전히 클라우드에서 추론하는 이점은 남아 있다. 또한, 지리·정치적 역학 관계도 존재하며, “Stargate” 이후 이 모델이 공개된 것이 우연이 아니라고 본다. “안녕, 5천억 달러여(RIP, $500 billion) - 우린 네 존재를 잠깐밖에 알지 못했어.”

실제로 확인된 것들:

관련 앱 스토어 카테고리에서 다운로드 1위를 기록했다. ChatGPT보다 앞섰으며, 이는 Gemini나 Claude도 못했던 일이다.
품질 면에서 o1과 비슷하지만, o3보다는 뒤처진다.
학습 및 추론 효율을 극적으로 개선한 진정한 알고리즘적 혁신이 있었다. FP8에서의 학습, MLA, 멀티 토큰 예측 등이 그 예시다.
r1 학습 비용이 단 6백만 달러라는 사실은 엄연히 사실이지만, 이는 심각하게 오해를 부를 소지가 있다.
하드웨어 아키텍처조차 새롭고, 스케일 업에 PCI-Express를 쓴다는 점이 언급되고 있다.

미묘한 부분:

6백만 달러에는 “아키텍처, 알고리즘, 데이터에 대한 사전 연구 및 소거 연구(ablation experiments)와 관련된 비용”이 포함되지 않는다고 논문에서 밝힌다. “그것만 빼면, 링컨 대통령 부인, 연극은 어땠나요?”라는 비유처럼, 이미 연구에 수억 달러를 쏟고 훨씬 큰 클러스터에 접근 가능해야만 6백만 달러짜리 r1 모델을 만들 수 있다는 뜻이다. Deepseek은 분명 2,048개의 H800 이상의 자원을 훨씬 더 갖추고 있으며, 이전 논문에서 이미 1만 개 A100 클러스터를 언급한 적이 있다. 똑같이 유능한 연구 팀이라 해도, GPU 2천 장으로 구성된 클러스터만으로 6백만 달러에 r1을 처음부터 학습하기는 불가능하다. 엔비디아 매출의 약 20%가 싱가포르를 경유하며, 그들이 아무리 노력해도 엔비디아 GPU의 20%가 실제 싱가포르에 있는 것은 아닐 것이라는 식이다.

지식 증류(distillation)가 상당히 이루어졌다. 즉, 제한 없이 GPT-4o와 o1에 접근할 수 없었다면 이 모델을 학습하기 힘들었을 것이다.
@altcap 님이 어제 지적했듯, 선두급 GPU 수출은 제한하면서 중국이 선도적 미국 모델을 그대로 증류(distill)해버리는 일에 대해 아무 조치도 하지 않는다는 것은 모순이다. “젖소를 살 필요 없이 그냥 우유만 공짜로 얻으면 되지 않나?”라는 비유가 성립한다.

2) 결론:

학습 비용이 줄어들수록 AI의 투자 수익률(ROI)은 높아질 것이다.
가까운 시일 내에, 이것이 학습 관련 설비 지출(training capex)이나 “전력(power)” 테마에 긍정적으로 작용할 가능성은 없어 보인다.
기술, 산업, 에너지, 유틸리티 분야에서 “AI 인프라”로 이득을 보고 있는 현재 승자들에게 가장 큰 리스크는 r1의 증류 버전을 고급 워크스테이션(누군가는 Mac Studio Pro를 언급)을 통해 엣지에서 로컬로 가동할 수 있게 되는 상황이다. 2년 후쯤이면 이와 비슷한 모델이 “슈퍼폰(superphone)”에서 구동될 가능성도 있다. 추론이 “충분히 괜찮은(good enough)” 수준에서 엣지로 옮겨간다면, 우리가 알던 세계와 승자 구도가 완전히 달라지며, PC·스마트폰 분야에서 역대급 업그레이드 사이클이 일어날 수 있다. 중앙 집중과 분산은 컴퓨팅 역사에서 계속 반복되어 왔다.
ASI(인공 초지능)가 정말, 정말 가까워졌고, 초지능이 가져올 경제적 수익에 대해서도 아무도 정확히 알지 못한다. 만약 1000억 달러 규모로 구축된, 10만 대가 넘는 Blackwell(차세대 NVIDIA GPU)로 학습한 추론 모델(o5, Gemini 3, Grok 4 등)이 암을 치료하고 워프 드라이브를 발명해낸다면, ASI의 투자 수익은 매우 클 것이고, 학습 자본지출과 전력 소비는 꾸준히 증가할 것이다. 다이슨 스피어(Dyson Spheres)가 페르미 역설에 대한 최적의 해답으로 다시 떠오를 수도 있겠다. 개인적으로는 ASI가 높은 수익을 가져다주길 바란다. 정말 멋진 일일 테니.
이는 AI를 활용하는 기업들(소프트웨어, 인터넷 등)에 매우 긍정적이다.
경제적으로 볼 때, 이로 인해 유통(distribution)과 고유(Funique) 데이터의 가치가 크게 올라간다. 예를 들면 YouTube, Facebook, Instagram, X 등이 해당된다.
미국 연구소들은 r1 학습에 필수적이었던 증류(distillation)를 막기 위해 선도급 모델을 공개하지 않을 가능성이 크지만, 이미 정보가 완전히 새어 나갔을 수도 있다. 즉, r1이 있으면 r2를 만들 수도 있지 않겠냐는 이야기다.
마지막으로, Grok-3가 등장함에 따라 위 결론이 크게 변할 수도 있다.
이는 GPT-4 이후 사전 학습(pre-training) 분야에서 스케일링 법칙을 본격적으로 시험하는 첫 사례가 될 전망이다. 과거 v3에서 r1로 전환하기 위해 며칠간의 RL(강화 학습)을 거쳤던 것처럼, Grok-3의 추론 능력을 높이려면 몇 주간 RL을 진행해야 할 것이다. 베이스 모델(base model)이 우수할수록, 사후 학습(post-training) 단계에서 강화 학습(RL)을 더해 최종 추론 시점의 계산(test-time compute)을 늘렸을 때 얻을 수 있는 시너지 효과가 큰 법이다(이 세 가지 스케일링 법칙은 곱셈 관계라고 할 수 있다). 이미 Grok-3는 o1에 비해 더 많은 작업을 수행할 수 있음을 보여줬다(“Tesseract 데모” 참조). 어느 정도까지 앞서 있는지가 관건이다. “두 개의 탑(The Two Towers)”에 나오는 한 이름 없는 오크의 말을 빌자면, 고기가 곧 식탁에 다시 오를 것 같다. 결국 시간만이 답을 알려줄 것이며, “사실이 바뀌면, 내 생각도 바뀐다.”

https://x.com/GavinSBaker/status/1883891311473782995
Continuous Learning_Startup & Investment
1) DeepSeek r1은 실제이며 중요한 미묘함이 존재한다. 가장 중요한 것은 r1이 o1에 비해 추론(inference) 비용이 훨씬 저렴하고 효율적이라는 점이다. 6백만 달러라는 학습비용($6m training figure) 자체보다 이 부분이 본질적이다. r1은 o1 대비 API 당 비용이 93% 적게 들며, 고급 워크스테이션에서 로컬로 구동할 수 있을 뿐 아니라, 어떤 레이트 리밋(rate limit)도 걸리지 않은 듯 보여 매우 놀랍다. 간단히…
만약 Deepseek(가령 중국 배후라고 가정)이 GPT 모델로부터 불법적 또는 약관을 위반하는 형태로 지식 증류를 진행했다는 걸 미국 정부가 공식 인정하면, 대중국 기술 수출 제한을 더 강하게 추진할 명분이 커질 수도 있겠다.

더 좋은 모델을 만들기 위한 ‘더 높은 스케일’과 ‘더 좋은 데이터’

빅테크(메타, 구글, X 등)는 엄청난 데이터와 GPU 스케일/자본 그리고 인재를 모두 갖추고 있기에 앞으로 더 좋은 모델을 만드는 데 다른 곳보다 더 앞서 있음.

지금 엄청난 CAPEX를 붓는 플레이어들이 이 과실을 누리는 플레이어가 아닐수도 있다. DeepSeek이 Open AI모델을 Distillation했던 것처럼 앞으로 비슷한 사례들은 더 많이 나올 것. 후발 주자들이 해볼 수 있는 플레이는 크게 세가지 정도가 있다고 생각함.

1. 특정 도메인 특화 모델/Agent 개발

산업별로 다른 요구사항(의료, 법률, 교육 등)에 맞추어 모델을 커스터마이징하거나, 대화형 에이전트 형태로 제공해 부가가치를 창출
대규모 모델을 그대로 쓸 수도 있지만, 더 작은 모델에 증류(distillation)하여 특정 업무에 최적화하면 차별화가 가능

2. 애플리케이션으로 돈을 버는 플레이어

사용자는 어떤 모델을 쓰는 것보다 당장 자신의 문제를 해결해주길 원하기 때문에 AI Model을 잘 Wrapping한 서비스들이 돈을 벌 수 있는 기회가 있음.

3. 사용자 환경(UX)을 장악한 기업(구글, 애플 등)

구글/애플은 스마트 폰, 웹 브라우저 등을 장악하고 있기에 여기에 AI를 붙여서 기존 점유율을 유지할 수 있음. 모델 개발 열심히 한 Capex를 크게 지출하지 않고 사용자들이 여러 모델을 사용할 수 있게 지원함.
“가장 정확한 말은 ‘모른다’ 또는 ‘시간이 지나면 알게 될 것’이다.”

지금까지의 AI 투자 성과(ROI)는 “분명히 긍정적”
ROIC(투하자본수익률)가 개선


대규모 AI 지출을 한 기업들의 ROIC가 지난 1년 사이 크게 상승했다.
이유의 대부분은 광고 타게팅(맞춤형)·크리에이티브 개선 → 광고주 ROAS(광고비 대비 매출) 상승 → 광고비 지출 증가 → 수익 증가 순서의 가치사슬을 통해 수익이 늘어났기 때문.
구체적 예시

Performance Max(PMax), Advantage Plus 등 고도화된 광고 시스템을 통해 광고 효율이 크게 향상되면서, 2023년 초부터 대형 인터넷 광고 기업의 매출 성장률이 명확히 가속화됨.
이는 단순히 GDP 추세만으로는 설명 불가. AI 기반 타겟팅이 역할을 했다는 증거라는 것.
GPU가 다양하게 사용됨

AI 워크로드(훈련·추론)에 따라 GPU는 재배치가 가능하므로(훈련 후에는 추천 알고리즘 등 추론용으로 사용), ASIC이 덜 확산된 원인 중 하나다.
AI 도입으로 인건비 절감(opex 감소) 효과도 일부 존재

AI가 사람 노동을 대체 또는 보완 → GPU 형태의 capex 증가가 있지만, 이는 인건비 절감과 생산성 향상을 동반함.
결론

“지금까지는 AI 도입이 명백히 수익 개선으로 이어졌다. 대형 GPU 투자 기업의 ROIC가 떨어지지 않는 한, AI가 ‘쓸모없다’는 식의 비판은 설득력이 없다.”

스케일링 법칙 vs 경제학 충돌 가능성
스케일링 법칙이 유효할지 확실치 않음

거의 모든 최첨단 AI 종사자는 스케일링 법칙(모델 파라미터·컴퓨팅 자원이 증가하면 성능이 지속적으로 향상된다는 가설)이 향후에도 유지될 것이라고 믿지만, 절대적인 확신은 없다.

GPT-5 초기 체크포인트에서 스케일링이 유효함을 암시한다고 전해지지만, 여전히 “아무도 100% 장담 못 한다.”

만약 스케일링 법칙이 계속 맞다면…

2026~2027년에 훈련될 모델들은 단일 클러스터 구축비만 수천억 달러(“$100B+”)가 들 수 있음.
일부 기업에서 5~10 GW급(기가와트) 데이터센터를 논의 중이라는 소문도 있어, 이는 클러스터가 “수백억 달러”가 아니라 “수천억 달러”의 투자 비용을 필요로 할 수 있음을 시사.

그 시점에 ROI가 떨어질 수도

스케일링 법칙이 유효하되 “획기적 기술 돌파구”가 없다면, 경제학적으로 너무 큰 투자 부담이 발생 → ROIC 하락 가능성.

이때가 되면, “AI 투자 정말 가치 있나?”라는 실질 논쟁이 현실적인 근거를 얻게 될 것이라고 예측.

스케일링을 가능케 하는 건 GPU·네트워크·메모리·스토리지의 기술 혁신
“하드웨어 로드맵”

GPU(A100 등), XPUs, 차세대 NVLink/InfinityFabric/PCIe가 계속해서 성능을 올려줘야 모델 사이즈 확대(스케일링)가 유지된다는 것.
볼타(Volta) 이후로 스케일링 법칙 곡선이 매우 안정적으로 보였지만, 어느 지점에선 “끊길 수도 있다.”
기술 로드맵이 1~2차례 더 큰 성능 도약(10배↑)을 가능케 해줘야 확실히 테스트해볼 수 있을 것이나, “정말 왜 스케일링 법칙이 맞는지는 모른다. 일단 ‘곡선을 믿어라’가 현재까지 승리 전략.”

매년 새로운 GPU/네트워크가 나온다면

매년 훨씬 큰 클러스터 구축이 가능해진다.
AI 모델의 가치가 1~1.5년 지나면 (새로운 기술 등장 시점에) 거의 가치가 ‘0’으로 급락(“90%+ 감가상각”)할 수도 있음.
즉, 1000억 달러 들여 만들었다가 18개월 후엔 잔존가치가 극도로 줄어들고, 다시 1500~2000억 달러짜리 클러스터로 다음 세대 모델을 훈련해야 한다는 식.

모델 투자 수익(ROI)의 핵심: “데이터 및 대규모 배포”
모델 자체는 상품화(commodity) 추세

스케일링이 가능해진 현재, 특이한 데이터 없이 만든 모델은 쉽게 대체 가능.

예컨대 메타(Meta)는 Llama를 비교적 쉽게 공개·오픈소스화했는데, 당분간은 ‘모델’보다 ‘데이터’가 핵심 가치이기 때문.


“황제들의 게임(Game of Emperors)”

@ericvishria의 말 인용: 이건 “왕의 게임(Game of Kings)”이 아니라 “황제들의 게임.”
인프라 효율이 승패를 가를 것. 예: 자본 지출이 천문학적이므로 20~30% 효율 우위만 있어도 수천억 달러 규모에서 엄청난 경쟁력이 된다.

더욱이, 하드웨어가 매년 진화한다면 이 경쟁 속도가 가속될 것이다.

ROI의 두 가지 변수: 에이전트(agents)와 ASI(초지능)
에이전트(agents)

“온라인/가상 세계에서 대행 행동을 수행하는 로봇(비물리적).”
언젠가 수십억 개의 에이전트가 존재할 수 있으며, 이를 위해 ‘슈퍼폰(superphone)’ 같은 것이 필요해질 수도.
만약 에이전트가 곧 현실화된다면, 심지어 1천억 달러 이상의 훈련비용을 들인 모델이라도 ROI를 낼 수 있는 가능성이 높아진다.

ASI(Artificial Super Intelligence, 초지능)

스케일링 법칙이 경제학과 충돌하기 전, ASI가 먼저 등장한다면, 수십조 달러 가치가 창출 가능.

이는 매우 낙관적인 시나리오. 여러 개의 ASI 중 하나만이라도 ‘친화적(friendly)’이면, 인간은 200살 살고 화성 일몰을 보며 우주 탐사 등도 가능할지도 모른다는 농반진반 전망.

문제는 “언제, 혹은 정말 가능하냐?”에 대해 아무도 모른다는 것.

XAI의 10만(100k) GPU 클러스터: 스케일링 법칙의 실제 시험대
과거: 2~3만 H100 클러스터


약 1년 전의 규모였고, 이번 XAI는 10만 급의 클러스터를 시도.

스케일링 법칙이 성립하면, Grok3 모델이 “압도적 최고 성능”을 달성할 가능성이 높다고 봄.

블랙웰 지연이 있어도 이런 프로젝트들이 버퍼 역할을 하며 투자를 유지할 수 있다는 예상.

스케일링 법칙이 만약 깨진다면…

AI 지출 자체가 확 줄어들 것이다.

거대 기업들은 왜 계속 지출을 지속하는가?

설령 ROIC가 어느 시점 하락해도, 이 기업들은 ASI(“디지털 신(digital god)”)을 얻기 위한 경쟁 중이라고 믿기 때문.

“이들의 IQ는 내보다 훨씬 높음. 그들이 이렇게 믿으니 나도 어느 정도 존중한다”는 취지.

ASI를 만들어내면 수십조 달러 규모의 가치가 창출될 것이며, 만약 경쟁에서 지면 존재론적 위협이 된다고 생각한다.

따라서 주가가 흔들리고 배당이나 자사주 매입이 취소되더라도(ROIC가 감소해도) 지출은 계속될 전망이다. 적어도 에이전트 또는 ASI가 나타날 때까지는.

지금까지는 AI에 대한 투자가 성공적이었다. 스케일링 법칙이 유지되는 한 대형 기업들은 막대한 자본 지출을 계속할 것.
그러나 어느 시점에서 경제학적 한계(ROI 둔화)와 맞물려 논란이 생길 수 있음.
주요 변수가 되는 것은:
기술 로드맵(새로운 GPU·네트워크 아키텍처의 연간 업데이트 주기 가능성)
에이전트의 등장 시점
ASI 달성 여부 및 시기
결국 결론적으로 모든 것이 불확실하며, “지켜볼 수밖에 없다”

https://x.com/GavinSBaker/status/1828862999836102800
"저는 그들이 무엇에 투자하는지 세부 사항을 잘 알지 못합니다. 단지 제가 800억 달러를 투자할 것이라는 것만 확실합니다. Azure 구축에 800억 달러를 쓸 계획입니다." — 사티아 나델라(마이크로소프트 CEO)

여기서 "그들"은 스타게이트(Stargate) 프로젝트를 가리키며, Azure는 스타게이트와 별개의 프로젝트입니다.

해석:
사티아와 에이미 허드(마이크로소프트 CFO)가 곧 명확히 밝힐 것으로 보이는 것은, 마이크로소프트가 스타게이트에 직접적인 자본(equity)을 투자하는 대신 Azure 기술 일부를 스타게이트에 제공하는 기술 파트너 역할을 할 것이라는 점입니다. 이는 마이크로소프트가 AI 합작사(JV)의 대규모 **사전 훈련(pre-training) 컴퓨팅 자본 지출(capex)**에서 점차 손을 떼고 추론(inference) 컴퓨팅에 집중하겠다는 전략으로 해석됩니다.

핵심 요약:
마이크로소프트의 재정 규율

AI 분야에서 비교적 재정적으로 보수적인 마이크로소프트가 스타게이트의 사전 훈련 자본 지출을 최소화하고 추론에 집중한다는 것은 중요한 신호입니다.

**"AI의 ROI는 필연적으로 추론에서 나온다"**는 논리에 따른 전략적 선택으로 보입니다.

추론(Inference)의 부상

최근 오프라인 강화학습(Offline RL)과 R1 결과는 향후 모델 성능 개선이 추론 단계에서 이뤄질 것임을 시사합니다.

사후 훈련(RL)을 통한 합성 추론 데이터 생성

테스트 시간 컴퓨팅(test-time compute) 활용

이는 모두 추론 중심의 기술 진화를 의미하며, 마이크로소프트가 이 분야에 집중하는 이유입니다.

산업 구조 변화

지난 3년간 AI 투자의 중심이었던 사전 훈련에서 추론으로 패러다임이 전환되고 있습니다.

추론은 향후 ROI 창출과 모델 고도화 모두를 주도할 것으로 예상됩니다.

결론:
이 모든 분석은 현재 추측 단계이며, 실제 전략은 시간이 지나야 명확해질 것입니다. 다만 마이크로소프트의 움직임이 AI 생태계의 추론 중심 재편을 가속화할 가능성이 높습니다.

https://x.com/GavinSBaker/status/1882433119673868306
1) xAI의 초대형 클러스터와 스케일링 법칙

xAI가 테네시주 공장(“콜로서스”)을 기반으로 H100급 GPU 10만 개 이상을 “일관적(coherent)”으로 균질하게 연결해, 기존에 불가능하다고 여겨졌던 초대형 학습 클러스터를 가동 중이라는 점이 핵심이다.
엘론 머스크와 팀이 기존 기업(메타·구글 등)의 예상과 달리, 10만 대 이상 GPU를 상호 연결하는 방법을 성공적으로 구현했다는 것은 “스케일링을 가로막는 기술적 한계가 깨어졌다”는 의미로 받아들여진다.
NVIDIA CEO 젠슨 황이 “인간적(superhuman)이고, 다른 누구도 못 해낸 방식”이라 언급하며 높이 평가한 사례로 회자된다.
Grok 3가 이 GPU 클러스터에서 본격적인 학습에 들어가면, GPT-4 이후로 실질적 규모 확장이 적용된 “최초의 모델”이 될 것이며, 스케일링 법칙이 지속되는지 여부를 다시 한번 증명하게 될 것으로 예상한다.

2) 1백만 GPUs 목표와 향후 전망

보도에 따르면 xAI는 현재 상태(10만 단위)의 2배, 나아가 최대 10배(100만 GPU)까지 규모를 키울 계획이다.
이로 인해 다른 빅테크나 경쟁사들도 “더 큰 클러스터”를 시도할 것으로 보이며, GPU 확보 경쟁은 당분간 계속될 것이라는 분석이다.
만약 Grok 3가 스케일링 법칙대로 큰 성능 향상을 달성한다면, AI 업계 전반에서 “학습 클러스터가 더 큰 성능을 낸다”는 합의가 다시 굳어져, 초대형 투자 러시가 더 속도를 낼 것으로 전망된다.

3) 새로 떠오르는 ‘테스트 타임 스케일링(test-time compute)’

Baker는 현재 모델 학습(트레이닝) 용도의 스케일링만 주로 언급되어 왔지만, 추론(inference) 단계에서도 모델이 “생각하는 시간”을 늘려 고난도 문제에 대응하도록 하는 새로운 스케일링 축(test-time compute)이 대두한다고 설명한다.
예컨대 쉽고 빠른 질문(“2+2=?”)에는 즉시 답변하고, 복잡한 문제에 대해서는 모델이 더 많은 단계를 거쳐 “긴 시간 생각”을 주게 하면, 모델이 사실상 더 높은 IQ로 작동할 수 있다는 것.
이는 추가적인 연산과 비용이 필요하지만, 대규모 컴퓨팅 자원을 최대한 활용해 모델 추론 성능을 끌어올리는 또 다른 방향이 될 수 있다.

4) 스케일링 법칙의 지속 가능성과 ROI

일부 평론가들이 “스케일링 법칙이 한계에 부딪혔다”고 주장하지만, Baker는 아직 그런 결론을 내릴 만한 데이터가 없다고 지적한다. 10만~30만 GPU 규모 이상의 실제 대형 학습이 거의 없었기 때문이다.
Grok 3 내지 xAI 사례는 “스케일링 법칙이 실제로 유지되는지”를 검증할 첫 번째 본격적인 이벤트로, 큰 관심을 모은다.
또한 대체로 AI에 투자한 대형 공기업(메타, 구글 등)은 광고 효율 증가 등으로 현재까지 ROIC(투자 자본 수익률)가 가파르게 올라가고 있다고 언급한다. “이미 ROI가 상당하다”는 것이 Baker의 분석이다.

5) 앞으로 예상되는 변화

모델 간 협업, 메타모델 구조: 거대 모델을 다층적으로 연결하거나, 하나의 모델이 여러 소규모 모델을 중개하는 ‘모델 오브 모델스(models of models)’ 형태 등 다양한 방식으로 AI 성능 향상을 꾀할 전망이다.
추론 스케일링 가속: 추론 시 더 생각할 시간을 주는 구조, 혹은 더 큰 컨텍스트 윈도우를 지원하는 모델 설계가 늘어날 것이다.
하드웨어 단에서 효율 개선: GPU 아키텍처(H100→H20X, 향후 Blackwell)가 세대 교체되면서 계산 효율은 꾸준히 상승한다. 전력 소비, 메모리 대역폭 등에서 꾸준한 개선이 이루어질 것으로 본다.
시장 경쟁과 대규모 투자 지속: 일종의 죄수 딜레마처럼, 누가 먼저 ‘강력한 초지능(ASI)에 가까운 모델’을 확보하는지가 기업 존망을 좌우한다고 믿기 때문에, ROI가 다소 주춤해도 대규모 투자는 계속될 공산이 크다.

결론적으로

xAI가 구축한 초거대 GPU 클러스터에서 탄생할 Grok 3는, 지금껏 이론상의 스케일링 법칙이 실제로 얼마나 유효한지를 실전에서 테스트하는 중대한 전환점이 될 전망이다.
Baker는 “아직 스케일링 법칙이 어려움에 봉착했다는 증거는 없다”고 보며, 모델 규모가 더 커지면 여전히 능력이 비약적으로 상승할 가능성을 높게 점친다.
다만 이 모든 과정은 막대한 전력·GPU 인프라·투자 자본을 요구하므로, 향후 AI 경쟁은 초거대 모델의 ROI와 실질적 효용이 얼마나 유지되느냐에 달려 있다고 정리한다.

https://youtu.be/K2xfW3hgxb4
■ Powell 의장 기자회견 주요 내용

1. 경제는 상당한 진전(significant)을 보였음. 2024년 GDP 성장률은 2%를 웃돌 것. 물가도 목표 수준에 매우 근접(much closer to goal)헀으나 여전히 다소 높은(somewhat elevated) 곳에 위치

2. 설비투자는 둔화, 주택시장은 안정되는 모습

3. 실업률은 안정적으로 낮은 수준을 유지 중. 전반적으로 고용 상황은 균형잡혀 있음(broadly balanced). 고용시장은 물가 자극 요인이 아님

4. 장기 기대인플레이션에 큰 변화는 부재(well anchored)

5. 12월 PCE, Core PCE는 전년 동기대비 각각 2.6%, 2.8% 상승했을 것(11월 PCE: 2.4%, Core PCE: 2.8%)

8. 양대 책무 달성 관련 리스크는 대체로 균형을 이루고 있는 상황(roughly in balance)

9. 연준은 서둘러서 정책을 조정할 이유가 없음(do not need to be in a hurry to adjust policy rate). 앞서 나가지 않을 것(not on preset course)

10. 목표 달성 속도에 맞춰서 통화정책 조정할 것. 현재 통화정책은 리스크와 불확실성에 대응할 수 있는 적절한 수준이며 목표 달성에 있어서도 매우 좋은 곳에 위치해 있음(very well calibrated)

11. 정책 프레임워크에 대한 논의가 시작되었고, 관련 리뷰는 늦여름 즈음 발표할 예정

12. 통화정책의 긴축 강도는 기준금리 인하 전과 비교했을 때 유의미하게 완화(meaningfully less restrictive)

13. 물가의 추가 진전, 고용의 추가 약화를 확인한 뒤 추가로 기준금리 인하할 것

14. 물가 목표 달성에 추가 고용 약화는 불필요

15. 성명서 내 물가 관련 문구 단축에 큰 의미를 부여할 필요는 없음

16. 현 상황에서 큰 변화가 있기 전까지 정책을 조정하지 않을 것(does not act until seeing much more than we see now)

17. 주거물가는 꾸준하게 둔화될 전망(coming down pretty steadily)

18. 이민자 유입이 감소했고, 앞으로도 그럴 것으로 보이지만 그 만큼 신규 고용 창출도 감소. 낮은 실업률이 안정적으로 유지될 수 있는 이유

19. 연준 구성원 전원은 현재 기준금리가 중립금리 위에 위치하고 있다는 것에 동의

20. 기준금리는 중립금리를 상당 수준(meaningfully) 상회

21. 관세정책이 미칠 여파, 그 여파의 방향성은 매우 불확실(the range of possibilities for tariffs is very, very wide)

22. 준비금을 유심히 관찰하고 있지만 그 규모는 지금도 매우 풍부한(abundant) 수준. 자산 축소 정책은 지속될 것

23. 장기 국채금리 상승은 기간 프리미엄 상승에 기인. 정책 또는 물가 관련 기대 때문이 아님

24. 물가가 2%에 도달할 때까지 기준금리 인하를 멈출 필요는 없음

25. 현재 고용 증가율은 둔화. 따라서 기업들의 해고가 증가하면 실업률이 가파르게 상승할 가능성
👍1
https://youtu.be/_fZKIzKYgBg

미 국방 조달의 구조적 문제

국방부가 사실상 유일한 구매자(“모놉소니”)가 되면서, 시장 기능이 정상 작동하지 못한다.
과도하게 쌓인 프로세스·규정(예: DOD 5000 시리즈가 7쪽→2,000쪽으로 확장)이 혁신과 리더십의 자율성을 저해한다.
결과적으로 “상용 민간 부문”과 “방산 특화 부문” 간 장벽(“Great Schism”)이 커져서, 첨단 민간 기술이 국방에 쉽게 흡수되지 않는다.
규제 완화와 조달 방식 혁신

정형화된 “원가보상형(Cost-Plus) 계약” 대신, 성과 기반·상용 우선(fixed-price, commercial-first) 모델을 적극 장려해야 한다.
과거 파사(FASA;정책)처럼 이미 존재하는 “상용품 우선 조달” 법령을 제대로 이행한다면, 민간 혁신이 국방 분야로 수혈될 수 있다는 주장이다.
특히 “신속 조달”과 “현장 재량”을 허용해, 몇 년이 아닌 몇 달 단위로 재원과 프로젝트를 변동 가능하게 해야 한다고 강조한다.
내부 경쟁과 시장 경쟁 강화

현재의 대형 방산업체나 거대 프로그램만을 고착화할 것이 아니라, 여러 부서·프로그램·군종 간에 “중복(duplication)되더라도 괜찮다”는 전제하에 경쟁을 부활해야 한다.
과거 냉전 시기 성공 사례(서로 다른 ICBM 개발 사업 병행 등)처럼, 이른바 “중복은 낭비”라는 인식을 버리고 다양한 시도를 장려하면, 훨씬 빠른 기술 발전 가능.
또한 예산권이 현행처럼 특정 부처나 프로그램에만 독점되지 않도록, 전투사령부(CoCom)나 국방부 내부의 다른 사용자도 “수요 신호(demand signal)”를 낼 권한을 강화시켜야 한다.
결정권과 책임 소재의 분명화

복잡한 규정과 회계처리에 매몰돼 실제 현장과 동떨어진 “프로그램 관리자(획득 담당)”를 양산하는 방식은 문제가 크다.
중요한 무기·기술 프로그램에는 유능한 리더(예: 'Rickover‘ 수준)를 장기 배치하여 전권을 부여하고, 프로그램이 완성될 때까지 책임지고 진행하게 만들어야 한다.
또한 전투현장에 근접한 형태(“Forward-Deployed”)로 획득·기술 조직을 운영해, 사용자의 요구를 즉시 반영할 수 있게 해야 한다.
소규모 기업(SBIR 등)과 대규모 상업 투자 연결

민간 스타트업에게 초기 계약이나 SBIR(미국 소기업 혁신 연구) 기회를 주는 것만으로는 부족하며, 궁극적으로 ‘작은 기업이 성장해 대형 업체로 도약’할 통로가 필요하다.
“5~10년 이상 소기업 자격만 유지하는” 식의 구조는 발전을 막는다. 차라리 일정 기간 후에는 대기업으로 성장하도록 촉진해야 한다.
민간 자본(VC 등)이 국방 분야에 투입되고 있지만, 국방부가 “안전빵 방식”만 고수하면 민간 투자 유입 효과가 줄어들기 때문에, 상업적 리스크 수용 및 결과 보상 방식을 도입해야 한다.
수 년 내에 모든 신입 포지션은 없어집니다. 그리고, 사회 생활의 시작은 모두 자영업으로 하게 될 것 같습니다.
그간 대략적인 느낌만 있었는데, 그게 명료하게 생각 정리가 되어서 적어 봅니다. 다른 분들의 의견도 궁금합니다.
신입으로 입사해서 경력직이 되어 일을 잘 하게 되려면, (1) 그 산업 분야의 전문 지식, (2) 일을 협업하는 능력 (대화, 갈등 해소, 문서화 등), (3) 문제 정의 및 해결 능력, (4) 서로 도움을 줄 수 있는 네트워크, 이렇게 네 가지가 준비되게 됩니다. 그런데 AI는 (1) 전문 지식, (2) 협업 능력, (3) 문제 정의 및 해결 능력이 뛰어 나고, (4)번은 매니저급이 이미 가지고 있으므로, 신입이 필요 없어집니다.
조직은 점점 AI를 활용해서 신입을 대체하고, (1) 전문 지식, (2) 협업 능력, (4) 문제 정의/해결 능력, (4) 네트워크가 준비된 시니어들 중심으로 운영됩니다. 이들은 주어진 AI를 활용할 수 있는 범주 자체가 다릅니다. 마치 그로쓰 마케터와 IoT 전문 PM, 개발자가 갈비집 전용 애널리틱스를 만들어서 갈비집 하나를 운영하는 것과 비슷합니다. 박사급의 AI 도움으로 내 업무 분야에서 최첨단의 기술, 과학 결과를 활용해서 업무를 할 수 있게 됩니다.
이전 그리고 지금까지도 신입은 조직의 일원으로 일 하면서 이런 능력을 키우며 월급도 받고 성장할 수 있었습니다. 하지만, 이런 기회가 없어지게 되어서, 이제 모든 신입은 자영업자로 매니저급에서 필요한 (1) 전문 지식, (2) 협업 능력, (4) 문제 정의/해결 능력, (4) 네트워크를 스스로 쌓아가야 합니다.
여기서 말하는 자영업자가 되는 것은 오프라인 상점, 식당을 여는 것이 될 수도 있고, 기업의 하청을 받아서 일하는 프리랜서가 되는 것일 수 있습니다. 자기가 좋아하는 상품, 소프트웨어 등을 만드는 일이 될 수도 있고, 유튜브 크리에이터가 되는 것일 수 있습니다. 특히 이전에는 1인 사업가로 불가능했던 많은 것들이 AI와 로봇의 등장으로 가능해지면서, 산업 전분야에서 모두가 자영업자가 될 수 있을거라 생각합니다. 핵심은 누구의 아래서 일 하는 것이 아니라, 온전히 본인이 책임을 지면서 일하는 것을 얘기합니다.
앞서 얘기한 능력들은 누구의 가이드를 받아서 교육 훈련을 받는 것으로 배울 수도 있습니다만, 제 경험상 그 능력들은 수년의 수련을 통해서 얻게 되는 것이라 계속 교육비를 투자해 가면서 배울 수 없겠더라구요. 그래서 신입 입사가 아닌 자영업자가 먼저 되게 될거라 얘기한 것입니다.
하지만, AI 시대에는 자영업자로 오래 일하면서도 조직에 신입으로 들어가서 일을 배우는 것보다 더 효과적으로 일을 배워갈 수 있습니다. AI가 박사급 능력으로 개인을 도와줄 수 있기 때문입니다. 더 훌륭한 시니어와 함께 일 하되, 책임을 온전히 본인이 지면서 시니어가 되는 다양한 능력을 좀 더 가속해서 배우게 될 것이라 생각합니다.
그래서 수년의 자영업 경험으로 시니어의 경력이 쌓이게 되면, 그런 사람들이 모여서, 더 큰 리소스(AI 사용량, 더 고급 모델 사용 등)을 부여 받아, 더 큰 가치를 만들어 내는 조직에 들어갈 기회가 생길 것입니다. 아니면 본인의 자영업을 기업으로, 더 큰 조직으로 만들 수 있는 기회가 생길 수도 있을 것 같아요.
물론 이 과정에서 뒤쳐지더라도 AI로 인해 사회는 풍요로워져서, 생계를 걱정하거나, 건강을 걱정하지 않아도 될 것입니다 (그렇게 제가 희망합니다).
즉, AI 이전의 시대에는 20대 대학 졸업 후 조직에 들어가서 일을 배우는 것이 가장 일반적인 옵션이었다면, AI 이후의 시대에는 특별한 재능이 있는 경우가 아니라면, 모두가 자영업이 기본 옵션을 될 시대가 될 것입니다.
AI 시대로 이전하는 지금 이 순간에 40-50대에 이른 은퇴를 앞둔 분들, 20-30대에 취업이 어려워서 크리에이터, 자영업들을 시도하는 분들께 말씀드리고 싶습니다. 자영업을 하면서 AI를 300% 활용해 보세요. 여러분들은 이후 세대에게 가장 필요한 경험을 먼저 하시게 됩니다. 그리고, 그게 새로운 시대에 큰 기회를 줄 것이라 생각합니다.
모든 시대의 기술의 변곡점에서 가장 크게 성공한 사람들은 그 기술을 연구해 오던 사람들이 아닙니다. 그 기술을 쓸 수 밖에 없었던 입장에 있던 사람들입니다.

김태현님
👍111
최경희 님

인스타에 맨날 뜨는 쓰레드 광고 링크를 무시하다가 광고의 유혹을 이기지 못하고 쓰레드에 글을 몇 개 올렸더니 갑자기 그간 내가 보지 못했던 사람들이 보이기 시작했다.
그 중 가장 소름~ 이었던 글은 복지몰에 입점할 업체를 찾는 글이었는데, 댓글 800개가 달렸고 글 쓴이가 설문을 막아놓는다고까지 말했던 글이다.
링크드인은 뭔가 프로패셔날한 곳으로 점잖고 예의 잘 지키는 곳이고, 페이스북은 스타트업 종사자와 투자자 혹은 그 유관 업무를 하는 사람들이 가득한 곳이라면 쓰레드는 분명 키워드는 유사한데 광장으로 나와 날 것을 보여주는 느낌이다.
스타트업이라는 말 대신 자영업, 소상공인, 1인 기업으로 몇 년간 투자 없이 본인의 일을 하고 있는 사람들이 알고리즘 추천으로 올라왔다. 이들은 이미 지난 10여년간 스타트업에서 투자하여 이미 대중화된 여러 SaaS와 여러 tool이 범용화 단계에 이르러 마치 널리널리 적용되어 극강의 효율화를 이루고 있었다.
딥씨크의 멤버들은 신입 아님 쥬니어들이라는 기사처럼 새로운 영역에 가장 빠르게 들어오는 사람들은 주류에 편입되지 못한 사람들이다. 공손하고 예의바른 고학력을 가진 사람들에게 쓰레드는 반말로 이야기 하는 인스타나 트위터 같은거 쯤으로 치부될 수 있지만 1인 기업, 자영업자들은 프로필에 '1인 기업, 연 매출 20억' 의 학력 /경력 대신 내가 이룬 성과를 가지고 이야기 한다.
인스타그램이나 youtube로 마케팅이 막 시작되던 옛날옛날 그 시절에 갔던 강의에서 새로운 SNS에서의 마케팅을 하고자 했던 대기업 마케팅 담당자의 고뇌가 기억난다. 이걸 대체 어떻게 임원에게 보고해서 마케팅비를 타와야하는지 도저히 답이 나오지 않는다며 인스타 / youtube 마케팅이 주류가 아니던 시절에 이를 먼저 알아본 사람들이 있었다.
쓰레드에 가면 생성형 AI + 긱 워커 / 프리랜서 구인구직 + 여러 생산성 Tool + 관련 업체들의 환상적인 최적화 콜라보의 예시를 많이 볼 수 있다.
근면성실하게 여러 모임에 참여하고 신뢰 자본으로 네트워크를 쌓던 기존 세대들의 비즈니스 방법과 달리 필요에 의해 사람을 찾고 여러 AI를 섞어 써가며 스스로 자신의 일을 만드는 사람들이 대거 등장했다. 우글우글 이라는 단어가 좀 음ㅁㅁㅁ 그렇지만 정말 그런 사람들이 들 끓는다. 다만 이들이 대기업에 다니지 않고 데이터로 통계화하기 어려울 뿐.
링크드인에서는 수백/수천억을 하는 회사의 00 담당자로 의사 결정권자인 사람들을 타켓할 수 있다면 쓰레드는 나 스스로 의사 결정자이며 해당 사업의 오너인 1인 10역쯤 하는 사람들만 가득하다. 그간 B2B에서는 이런 사람들은 확장성이 높지 않으니 타켓이 아니었겠지만 뭔가 B2C와 B2B 중간 어딘가에 있는 이 집단이 아주 강력하다.
만약 복지몰에 들어올 업체를 찾아야 한다면 이메일로 업체를 모으거나 타 업체에 입점한 곳들을 찾거나 소개를 받아야 했다면, 이제는 신입이 하루만에 1000개 업체를 모을 수도 있는 세상이 왔다. (이 내용을 쓰신 분은 참고로 어딘가 소속된 분은 아니시고 신입도 아니신 듯) 즉, 우리가 사회 생활은 이래야 한다라고 했던 것들이 정말 꼰대의 이야기가 되어 버렸다.
쓰레드를 보면 근면 성실, 시간의 누적, 꼬박꼬박 받는 월급의 의미가 정말 너무 올드한 이야기처럼 들린다. 다들 자유롭게 여기저기 누비고 다니며 본인의 업을 새롭게 정의 하는 사람들만 가득한 것 같다. 점과 점으로 연결된 엄청난 집단의 힘을 보고 있다.
'쓰레드야 나를 00에게 데려다 줘' 라는 이 코멘트는 그간 사람을 매칭하고 찾던 것을 업으로 하고 있는 사람들에겐 정말 충격적인 소식이 될 것 같다. 쓰레드 자체가 플랫폼이 되어 무료로 순식간에 사람들을 찾고 협업할 수 있게 만들어주었다. 00에 해당하는 사람들은 쓰레드의 알고리즘을 타고 줄줄이 댓글로 연결연결된다.
아픈 아이의 증상을 사진으로 찍어 걱정이 한가득인 엄마에겐 소아과 의사와 간호사들이 조심스레 의견과 조언을 댓글로 달아준다.
이런 예시들만 보아도 그간 우리가 알고 있던 여러 플랫폼들과 규칙과 룰이 많은 유로 서비스들이 마구 떠오르지 않나.
스타트업 관련 글 몇 개 올렸는데 그간 보인 내용들이다. 올리는 글에 따라 사람마다 다르게 보이겠지만 이미 몇몇 젊은 VC, 변호사, 회계사들도 쓰레드에서 영업을 시작하고 PR을 하고 있다.
쓰레드는 기본적으로 반말이다. 누군가에게 반말이 가능하다는 것은 최소 수평적인 관계를 전제로 한다는 의미인데 이 반말 때문에 쓰레드를 못하시는 분들도 많은 듯하다. 용암처럼 들끓는 이 사람들을 고객화 할 수 있다면 정말 엄청난 시장 타켓이 될 듯하다. 아직 이들에 대한 리포트/ 가치가 수면으로 안 올라왔지만 이들을 보면 그간 투자 시장에서는 환영 받지 못했지만 찐으로 사업가로 성장하는 사람들을 만날 수 있다.
그래서 - 쓰레드 한 번 해보세요.
해본다 = 글을 쓴다. 반말로.
쓰레드에 마케팅 시작한 기업들 리스펙 - 승인 우찌 받으셨을고
👍3
1. 코파일럿에서 자율 에이전트로

1. 단순 챗봇 → 자동 실행(AutoGPT)·멀티에이전트
- 현재는 LLM을 “Q&A”나 “코딩 보조” 수준으로 쓰지만, 5년 뒤에는 LLM이 웹탐색, API 호출, 의사결정 등을 자율적으로 수행하는 경우가 보편화될 수 있음.
- 즉, **인프라**가 “검색+정보”만 주는 게 아니라, **추론+실행**까지 담당하게 되고, 사람은 그 “상위 감독자(supervisor)”가 되는 구조가 확산.
2. B2B, 엔터프라이즈 자동화 가속
- 기업 내부 수백~수천 종의 소프트웨어·데이터베이스에 AI가 연동되어, 많은 업무를 자동화하거나 ‘한 명의 직원’이 AI 수십 대를 지휘하는 형태가 가능해짐.
- 그 결과, 기업 운영 효율이 이전과는 비교할 수 없을 정도로 올라가고, 시장 구조도 변화할 것(“AI가 운영하는 회사” vs. “사람 중심 회사”).

연산 비용 하락

대규모 GPU 클러스터가 갖춰지고, 시간이 흐르면서 모델 최적화(압축, 양자화 등)·하드웨어 발전(차세대 GPU, ASIC 등)이 진행됨에 따라, 토큰당 추론 비용이 급격히 떨어질 것.
이는 “검색이 무료가 되었듯”, AI 질의응답·문서 생성·분석 서비스도 매우 저렴하거나 무료화 경향을 보일 가능성이 높다.
새로운 AI 기반 스타트업/플랫폼 등장

2000년대 초반 인터넷이 ‘거의 공짜’가 되고, 호스팅 비용이 급락하면서, 유튜브·페이스북 같은 대형 플랫폼이 탄생했다.
5년 뒤에는 AI 활용의 진입장벽(연산·데이터 인프라)이 낮아지고, 모델 접근성도 높아져서, 새로운 AI 스타트업/앱들이 폭발할 것.
예: 의료 AI, 교육 AI, 엔터테인먼트(게임/버추얼 휴먼), 개인 비서/매니저 AI 등 다방면에서 “AI 애플리케이션 전성기”가 열릴 가능성이 크다.

검색엔진의 패러다임 전환: AI 포털
**“LLM + 브라우저 + 연동 API”**가 하나로 합쳐진 통합 플랫폼

5년 뒤, 구글 검색창 대신 AI 질의창에 문장을 입력하면, 검색 결과 + 실행(결재, 예약, 이메일 작성 등)까지 단번에 처리 가능.
이를 통해 구글·MS·오픈AI 등 몇몇 “AI 생태계 리더”가 새로운 인터넷 접점(포털)을 지배하게 될 수도 있음.
광고·마케팅 모델 변화

전통적 ‘검색 광고(AdWords)’ 체계가 붕괴될 수도 있음. AI가 사용자의 의도를 직접 파악해, 중간 과정 없이 제품/서비스를 추천하고 결제까지 이어지면, 기존 광고주-매체 관계가 달라진다.
“AI가 구매代理(대리)까지 해주는” 상황에서, 기업은 AI 에이전트에 어떻게 제품을 어필해야 할까? 라는 새로운 마케팅/검색 전쟁이 벌어질 수 있다.

효율성 극대화 vs. 일자리 영향
생산성 + 자동화가 급격히 늘어남

마치 검색으로 지식 접근 비용이 ‘0’에 수렴했던 것처럼, LLM이 지식 생성/문서화/분석 비용을 ‘거의 0’으로 만들 가능성이 있다.
예: 기업 문서 작성, 보고, 요약, 데이터 분석, 코딩 등에서 10~100배의 효율 상승이 일어날 수 있다는 전망.
노동시장 파급

한편, “사람이 하던 사무직·전문직 업무” 일부가 AI로 대체되거나 재편될 가능성도 큼.
5년 뒤면, AI가 어느 정도까지 사람을 대체할지(혹은 협업 구조로만 남을지)는 아직 불확실.
다만, GPU 인프라에 대한 대규모 투자가 끝나면, AI 이용 단가는 떨어져 대규모 보급이 가속한다는 점은 거의 확실시되므로, 관련 역량을 갖추지 않은 인력은 도태될 위험이 있다.
👍1
“초거대 모델을 만들면 독점할 수 있다”는 주장에 대한 의문
과연 진입 장벽이 높은가?

LLM 개발에는 엄청난 GPU·전력·데이터·인재가 필요하기 때문에, “오직 극소수만이 생존하고 초거대 모델 시장을 독점할 것”이라는 관측이 있음.
반면, 실제로는 ‘최적화 기법·오픈소스 모델·학습 비용 하락 추세’ 등으로 인해, 예전보다 작은 자본으로도 준수한 모델을 만들 수 있게 되고 있음(예: LLaMA 계열 공개, MosaicML, Databricks Dolly 등).
즉, 선두 기업(OpenAI, Google, Meta 등)의 리드가 존재하긴 하지만, 그것이 “완벽한 독점”으로 이어질지 확실치 않다.

모델 자체만으로 해자가 되기는 어렵다

모델 아키텍처가 점점 표준화되고, 논문·코드·데이터셋이 공유되면서, 단순히 ‘최고 성능 모델’을 만드는 것만으로는 막대한 차별화를 이루기 힘들어지고 있음.
예전 검색엔진 초창기에는 구글의 ‘페이제랭크’와 데이터 인덱싱 능력이 강력한 해자였지만, LLM은 이미 전 세계적으로 R&D가 활발하고 오픈소스 생태계가 빠르게 확장 중.
추가 관점: 만약 실제로 “AGI”가 나온다 해도, 그것이 독점적으로 한 기업에만 귀속될지, 오픈된 형태로 공유될지는 아직 예측하기 어렵다.

거대 CAPEX 투자가 = 반드시 독점적 이익을 보장?

“돈을 많이 쏟아부었다”고 해서 자동으로 독점 수익이 생기는 것은 아님.
예: 자율주행 업계나 전기차 배터리 분야에서도 CAPEX 싸움이 거대했으나, 아직 명확한 독점자의 ‘초과이익’이 확정된 건 아니다.

광고 모델 부재 vs. 새로운 수익원
“구글·메타는 광고가 있으니 AI로 투자비 회수, OpenAI는 어떡하나?”

기존 빅테크(Google, Meta)는 막대한 사용자 트래픽과 광고 플랫폼을 보유해, AI로 인한 사용자 경험 개선 → 광고 매출 증대의 선순환을 기대할 수 있음.
OpenAI 같은 스타트업은 광고 플랫폼이 없으므로, API 사용료, 엔터프라이즈 솔루션, 파트너십 등으로 수익을 내야 함.
장기적으로 “AGI”에 가까운 서비스를 만들면, 기업 운영 자동화나 통합 솔루션 같은 고부가가치 영역에 고가의 라이선스 판매가 가능하다는 기대가 있을 수 있음.
하지만 이 역시 확실히 보장된 모델이 아니고, 경쟁이 치열해지면 가격 압박이 생길 가능성도 크다.

코파일럿 모델, B2B SaaS

또 다른 수익 경로: “LLM을 활용한 코파일럿 솔루션(개발, 법률, 의료, 재무 등)”을 서브스크립션 형태로 판매.
예: GitHub Copilot처럼 구독료나 API 호출료를 받는 모델.
산업별 전문 AI(Vertical AI)로 확장하면 기업들이 비용을 지불할 의사가 충분히 있을 수 있으나, 결국 시장에 경쟁자 많아지면 단가 하락 가능.

데이터 네트워크 효과 vs. 사용자 락인

일부 주장: “LLM이 유저 데이터를 더 많이 학습할수록 모델 개선, 그게 다시 유저 유입을 부른다”라는 선순환(네트워크 효과)이 가능하다고도 봄.
그러나 “사용자 데이터”가 검색·소셜만큼이나 강력한 락인을 형성할 수 있을지, 그리고 사내 보안·프라이버시 문제로 인해 엔터프라이즈 데이터는 공개 모델에 잘 안 넣을 수도 있다는 점이 변수다.


해자가 작아지고, 리턴도 단기화되는 LLM 시대?
모델 상향 평준화 → 빠른 역전·모방

현재 연구 커뮤니티가 매우 활발하고, 인프라(클라우드) 접근성도 높아져, “1등 모델”이라 해도 몇 달 만에 비슷한 경쟁 모델이 등장할 수 있다.
즉, 과거처럼 검색엔진이나 SNS가 1~2개 업체에 네트워크 효과로 고착화되기보다, LLM은 더 빠른 주기로 경쟁이 일어날 가능성이 있다.

기업 가치 회수(ROI)도 단축

예전에는 “플랫폼 구축 → 사용자 Lock-in → 장기 독점이익” 구도가 명확했지만, LLM은 모델 아키텍처나 파라미터가 공개되면, 비슷한 모델이 곧잘 복제·개량될 수 있음.
따라서 CAPEX를 회수하려면, 짧은 기간 안에 엔터프라이즈 계약, API 매출, 파트너십 등을 확보해야 하고, 한층 더 민첩한 세일즈/마케팅이 필요하다.

반론: 일부는 여전히 선두주자(예: OpenAI)에게 큰 잇점이 있다고 본다.

대규모 자본과 인재를 모아 “최초로 고품질 모델”을 내놓으면, 전 세계 개발자·기업이 API에 의존하게 되고, 그 네트워크 효과로 인해 생태계 리더십이 확고해질 수 있음.
하지만 얼마나 지속 가능할지는 미지수. 검색·SNS만큼 네트워크 효과가 강력하진 않을 수도 있기 때문이다.

LLM Race: 참여해야 할까?

전체 LLM 레이스 vs. 특정 니치(Niche)

모든 스타트업이 GPT-4급 초거대 모델을 만들려 뛰어드는 건 “철도 버블”처럼 대다수가 파산하는 길일 수 있음.
오히려 작은 규모(수억~수십억 파라미터) 모델이라도 특정 도메인(의료, 금융, 로봇 등)에 특화해 높은 정확도·신뢰성을 제공하면, 비교적 적은 비용으로도 충분한 가치를 낼 수 있음.

“나도 초거대 모델” vs. “프론티어 응용”

LLM 혁신의 이익 대부분이 “모델 그 자체”에서 나오기보다는, 그 모델을 활용해 솔루션·서비스를 혁신하는 데서 발생할 가능성이 큼.
마치 철도 회사보다 철도를 활용한 물류·유통 기업이 더 큰 가치를 창출하는 것처럼, **“OpenAI = 철도(인프라), B2B·SaaS = 물류”**와 같은 구도가 될 수도 있다.

규모가 작은 기업: 실제 수익모델을 빠르게 증명

만약 광고 플랫폼이나 대규모 B2C를 장악하지 못한다면, R&D 레이스(초거대 모델 경쟁)보다는 ‘도메인 특화’, ‘API 기반 솔루션’ 등으로 빠르게 매출화할 수 있는 길을 찾는 편이 더 현실적이다.
👍2
* SemiAnalysis에 따르면 딥시크 V3 & R1 발표 이후 아마존 AWS GPU가격은 다수 지역에서 상승. H200 구하기는 더 어려워짐. 수개월전 H100 현물가격은 매우 낮았던 상황. 이는 더 낮은 비용의 AI모델이 더 높은 연산 수요를 견인한다는 점을 증명

而据SemiAnalysis,这一理论的早期迹象正在展现,自DeepSeek V3和R1发布以来,亚马逊AWS的GPU定价在许多地区上涨,H200获取的难度也在提升。而前几个月H100的现货价格还非常疲软。这证明了成本更低的AI大模型带来了更高的算力需求。
👍1
* Tomasz Tunguz, 최근 2년간 인공지능 발전 과정 돌이켜보면:

• GPT-4가 AI 전반 ELO 중 새로운 성능기준으로 자리잡은지 366일만에 Claude 3가 이를 넘어섬

• GPT-4 Turbo가 새로운 표준을 설정한 이후 11일만에 Gemini 1.5 Pro가 해당 표준에 도달

• 2024년 9월 진정한 의미의 심도 추론능력 보유한 GPT-4.0 출시. 141일 이후 구글 Gemini 2 추론능력이 유사한 수준으로 확인

• 올해는 딥시크가 유사한 추론 수준에 도달. 41일만

* 과거 수년이 걸렸으나 이제는 수개월, 혹은 수주만에 새로운 기술수준 돌파. 다음 AI 혁명은 바로 다음날 아침에 이뤄질 가능성

Tomasz Tunguz:以下是过去两年内人工智能发展历程的大致时间表:GPT-4 在人工智能整体基准 ELO 中创下了新的性能基准。366 天后,Claude 3 超越了它。GPT-4 Turbo 设定了下一个高标准,Gemini 1.5 Pro 仅在 11 天后就达到了这一标准。第一个具有真正深度推理能力的模型GPT-4.0于2024年9月问世,谷歌的Gemini 2深度推理则在141天后与其匹敌。今年,DeepSeek 也达到了同样的推理水平——这次仅用了 41 天。我们已经从一年的飞跃发展到几周内取得突破。趋势很明显。曾经需要几年的时间,现在只需要几个月,然后是几周,很快,也许只需要几天。照这样发展下去,下一次人工智能革命可能不只是在下个季度到来,而是可能在你明天醒来的时候到来。
0. 우리가 믿는 것 (What We Believe)
핵심 논지(Core Thesis):
“오직 우수한 군사 기술력만이 전쟁을 억제할 수 있는 신뢰할 만한 수단이다.”

역사적 맥락(Historical Context):

제2차 세계대전 이후, 서방의 기술적 우위가 또 다른 세계 대전을 막아왔다.
그러나 이제 그 기술적 우위가 위험에 처해 있다.
기존 기업의 한계(Incumbents’ Shortcomings):

전통적인 방위산업체들은 긴급히 필요한 신기술을 개발할 역량이 부족하다.
“민주주의의 병기고(Arsenal of Democracy)” 재건(Rebooting the “Arsenal of Democracy”):

억지력을 유지하고 안보를 지키기 위해서는 새로운 형태의 방산 테크 기업이 반드시 필요하다.

1. 서론 (Introduction)

서구 지배력의 약화에 대한 인식 (Perceived Decline in Western Dominance)

20세기는 이미 지나갔고, 미국과 동맹국들이 “이견 없는 리더”라는 인식이 흐려지고 있다.
서방이 명백히 “승리”했다고 말할 수 있는 마지막 분쟁은 2차 세계대전이며, 이것마저도 지금 보면 매우 오래전 일이다.
군사 기술력의 침체 증거 (Evidence of Declining Military Technology)

수십 년 전만 해도 서방 군대는 “공상 과학”과도 같은 기술을 갖고 있었다.
오늘날 미군을 비롯한 동맹국들이 사용하는 무기는 일상에서 소비자들이 이용하는 기술보다 뒤처지는 경우가 많다(예: 테슬라 차량보다 AI 요소가 부족한 방산 시스템).
실제로 2019년까지 미국 핵무기 시스템 일부가 플로피 디스크로 운용되었다는 사례를 든다.
냉전 종식 이후의 안일함 (Post-Cold War Complacency)

소련 붕괴 이후, 서방은 역사 종언(“end of history”)을 맞이했다고 믿으며 옛 적국들도 자유화하리라 예상했다.
그러나 러시아와 중국은 오히려 서방식 혁신 기법을 적극 채택해 무기 체계를 고도화함으로써 미국을 추월하려고 노력해 왔다.
그 결과 미 국방부가 중국과의 가상 전투 시뮬레이션을 수행했을 때, 중국이 승리하는 경우가 많아지고 있다.
신속한 현대화의 필요성 (Need for Rapid Modernization)

C.Q. 브라운 미 공군참모총장은 “변화 속도를 높이지 않으면 진다”고 경고했다.
2차 세계대전과 냉전 시기에 서방은 국방 문제에 뛰어난 엔지니어들을 참여시켜 혁신했다.
그 당시 이루어진 혁신(컴퓨터, GPS, 인터넷 등)은 이후 민간 시장에도 보급되어 세계적 번영에 기여했다.
우크라이나, 대만 등의 위험 증가에 대비해 비슷한 혁신 정신을 되살려야 한다.
기존 방산 대기업 왜 뒤처리나? (Why Legacy Defense Contractors Can’t Keep Up)

미래 무기는 소프트웨어 의존도가 높은데, 전통적인 방산 기업은 하드웨어에 특화되어 있다.
이들은 프로세스가 느리고, 빠른 움직임을 선호하는 최상급 엔지니어들과의 궁합이 맞지 않는다.
이익구조 및 계약 방식도 소프트웨어 중심의 신속한 혁신과 맞물리지 않는다.
규모 있는 대응의 필요성 (A Call for Scaled Action)

앤두릴(Anduril) 같은 “새로운 모델”의 방산 기업이 있지만, 이런 기업이 수십 개 이상은 나와야 한다.
엔지니어 수만 명이 방위산업에 관심을 가져야 하며, 관료들도 새로운 접근을 수용해야 한다.
젊은 엔지니어가 국방 분야를 기피한다는 주장은 틀렸다는 반론도 제기한다. 실리콘밸리 자체가 전쟁 시기 애국 과학기술의 전통 위에서 발전했으므로, 다시금 이들이 국방 분야로 모일 수 있다고 본다.
스페이스X와 팔란티어처럼 기존 장애물을 뚫고 성공한 기업 사례도 있다.
서방이 관료주의를 개혁하고 기술 중심의 국방 재편을 장려한다면 여전히 적들을 능가할 수 있다고 전망한다.

2. 어떻게 여기까지 왔는가? (How Did We Get Here?)

스컹크 웍스(Skunk Works)의 두 가지 이야기 (Skunk Works’ Two Tales)

벤 리치(Ben Rich)의 회고록에 따르면, 2차 세계대전·냉전 시기 락히드에서 개발한 U-2, SR-71, F-117 등은 “황금기” 혁신 사례로 손꼽힌다.
동시에, 그는 점진적인 쇠퇴도 예견하는데, 개발 주기가 늘어 항공기 신기종이 거의 나오지 않고 개발 비용은 치솟았다고 지적했다.

신형 항공기 감소 & 비용 급등 (Fewer Planes & Rising Costs)

냉전 이후 새로운 폭격기가 전력화된 적이 없고, F-35는 총사업비가 1.6조 달러에 이를 만큼 비용이 막대하다.
2000년 이후 미 국방부 산업 공급업체가 약 20,500곳 줄어들었다.
노엄 오거스틴(Norm Augustine)의 농담 “2054년엔 온 국방 예산도 단 한 대 항공기 구매에 쓰일 것”이 있을 정도로 비용 문제가 크다.

맥나마라의 개혁(1960년대) (McNamara’s Reforms (1960s))

당시 로버트 맥나마라 국방장관은 중복 사업을 줄이고 비용을 통제하려 했다.
주요 전제는 “기술이 안정적이고, 소련의 위협은 양적 측면이 크며, 질적 대도약은 드물다”는 것이었다.
그 결과, 얼마 안 가 비용과 예측 가능성을 중시하는 시스템이 자리 잡았고, 빠른 혁신보다는 정형화된 검증 절차가 강조되었다.

새로운 규정과 인센티브 (New Rules & Incentives)

“기획·프로그래밍·예산 편성” 절차에 매여 개발 속도가 느려졌다.
방산업체들은 크고 복잡한 하드웨어 사업에 집중하며, 위험 부담이 큰 R&D는 기피한다.
이에 대응해 비용보전형(cost-plus) 계약이 부활했고(2020년엔 38% 상당), 이는 기업이 느리고 비효율적으로 일해도 손실이 없게 만든다.
반면 상대국들은 이런 허점을 놓치지 않고 빠른 속도로 발전했다.

오늘날의 결과 (Today’s Consequences)

대형 방산 기업들은 실질적인 경쟁에 직면하지 않는 경우가 많다.
내재적 연구개발(R&D)에 투자하는 비중(1~4%)이 빅테크의 10~20%나 신생 테크기업의 60~70%에 비해 턱없이 낮다.
기술환경이 소프트웨어 중심으로 바뀌었는데도, 제도 개혁이 충분히 이루어지지 않았다.


3. 오늘날의 방산 업계 (The Defense Industry Today)

손실이 없는 안정성과 그 의미 (Remarkable Statistic of Guaranteed Returns)

1963년 이후로, 방산산업은 10년 단위로 봤을 때 마이너스 수익을 낸 적이 없을 정도로 안정적이다.
이는 느린 일정, 비용 초과가 구조적으로 용인되는 체계 때문이라고 지적한다.

합병·인수로 인한 경쟁 부족 (Consolidation & Lack of Competition)

냉전 종식 후 미 정부가 대형 방산업체 간 M&A를 장려(“마지막 만찬”)해, 소수의 메이저 기업만이 시장을 지배한다.
이에 따라 비용 절감·혁신 동기가 더욱 줄어들었다.

왜 혁신이 부족한가? (Why Not More Innovation?)

정부 조달 절차상 개념에서 실전 배치까지 보통 10년 이상 걸린다.
비용보전형 계약은 오히려 로비·기술 제안서 작성이 주요 역량이 되는 구조를 만든다.
새 업체가 진입할 모멘텀을 확보하기 어렵다.


4. 소프트웨어의 부상 (The Rise of Software)

전장은 “소프트웨어에도 벅찬 식사” (Battlefield = “Too Big a Meal” for Software)

소비자 IT 시장은 빠르게 발전했지만, 전장은 따라가지 못했다.
미 국방부는 막대한 예산을 투입하면서도 일상 AI나 자율 기능만큼도 구현하지 못한다(예: 스냅챗의 컴퓨터 비전, 테슬라 자율주행 등).

21세기 전쟁: AI·소프트웨어 필수 (21st-Century Wars Demand AI & Software)

미래 전쟁은 자율 시스템, AI 무기, 실시간 데이터 융합 등이 핵심을 이룬다.
소프트웨어는 센서, 드론 군집, 타격 시스템 등을 통합 운영하는 데 필수적이다.

실리콘밸리의 역할 (Silicon Valley’s Role)