팔란티어/Anduril이 B2B B2G에서 Network Effect를 만드는 방법
1. 그 분야에서 가장 어렵고 깐깐한 고객을 먼저 확보한다.
- Palantir: 국가 중에는 이스라엘 기업 중에는 Airbus와 협력했던 사례가 팔란티어의 다음 영업을 훨씬 쉽게 했다.
- Anduril: 이미 미국 정부와 협업을 많이 해오다보니 타사는 몇주 걸리는 NDA를 2-3일이면 끝낸다.
2. 여러 산업에 Case들을 만들고 확장하는 건 더 용이하다. 처음에 여러 포트폴리오(앤드릴의 경우에는 autonomous systems, AI-based surveillance, and defense technologie 등 넓은 포트폴리오가 고객 확보에 도움되었음.)를 가지고 고객을 확보한다. -> 하나 제품을 팔기 시작해서 업셀하기 용이하다.
https://youtu.be/QzjIfkNAp8U?si=RyiGBG8vL-t-fvGs
1. 그 분야에서 가장 어렵고 깐깐한 고객을 먼저 확보한다.
- Palantir: 국가 중에는 이스라엘 기업 중에는 Airbus와 협력했던 사례가 팔란티어의 다음 영업을 훨씬 쉽게 했다.
- Anduril: 이미 미국 정부와 협업을 많이 해오다보니 타사는 몇주 걸리는 NDA를 2-3일이면 끝낸다.
2. 여러 산업에 Case들을 만들고 확장하는 건 더 용이하다. 처음에 여러 포트폴리오(앤드릴의 경우에는 autonomous systems, AI-based surveillance, and defense technologie 등 넓은 포트폴리오가 고객 확보에 도움되었음.)를 가지고 고객을 확보한다. -> 하나 제품을 팔기 시작해서 업셀하기 용이하다.
https://youtu.be/QzjIfkNAp8U?si=RyiGBG8vL-t-fvGs
YouTube
Secrets Of Investing Early – Lessons From A Billion-Dollar Investor
For Episode 100, we have a special conversation with Elad Gil, one of Silicon Valley's great thinkers, builders, and investors. Elad has been involved with many of the leading technology companies of the past 20 years — and likely the next 20 years. Learn…
Siemens has signed an agreement to acquire Altair, a leading provider of #software in the industrial #simulation and analysis market. With this acquisition we strengthen our position as a leading technology company and the leader in industrial software and #AI.
❤1
인공지능(AI) 붐 속에 미국 월가 금융기관들이 엔비디아의 AI 칩을 담보로 15조원에 이르는 대출을 해주면서 새로운 채권시장이 형성되고 있다.
4일(현지시간) 파이낸셜타임스(FT)에 따르면 블랙스톤·핌코·칼라일·블랙록 등 월가 금융기관들은 지난해부터 이른바 '네오클라우드' 업체들에 이러한 방식의 대출을 해주고 있다.
코어위브·크루소·람다랩스 등 네오클라우드 업체는 AI 제품을 만드는 기술기업들에 클라우드 컴퓨팅을 제공하며 생성형 AI 모델 개발에 필수적인 그래픽처리장치(GPU) 수만개를 보유하고 있다.
이들이 이를 담보로 빌린 자금 규모가 110억 달러(약 15조1천억원)에 이르며, 이를 이용해 엔비디아 칩 추가 구매 등에 나서고 있다.
북미 네오클라우드 업체 가운데 최대 규모인 코어위브는 GPU 4만5천개 이상을 보유하고 있으며, 최근 18개월간 기업 평가 가치는 20억 달러(약 2조7천억원)에서 190억 달러(약 26조1천억원)로 급증했다.
이 업체는 지난 1년간 엔비디아 칩을 담보로 블랙스톤·칼라일 등으로부터 100억 달러(약 13조7천억원) 이상의 자금을 조달했으며, JP모건·골드만삭스·모건스탠리 등 월가 투자은행들로부터 신용한도 6억5천만 달러(약 9천억원)를 확보했다고 이달 밝힌 바 있다.
금융그룹 매쿼리는 지난 4월 람다랩스에 5억 달러(약 6천884억원)를, 투자사 어퍼90은 지난해 크루소에 2억 달러(약 2천753억원)를 빌려줬다.
크루소는 지난주에도 투자사들로부터 5억 달러를 조달했고, 지난달에는 한 대체 자산 운용사와 34억 달러(약 4조7천억원) 규모 계약을 통해 텍사스 신규 데이터센터를 위한 자금을 확보했다.
다만 신제품 칩이 출시되고 있고 기업들의 AI 투자 붐이 잦아들 수 있는 만큼 기존 칩의 담보 가치에 대해 의문을 제기하는 시각도 있다.
https://n.news.naver.com/article/001/0015025977?sid=101&fbclid=IwY2xjawGWhetleHRuA2FlbQIxMQABHQJ90VivJ13XBbU4A5cjI3ytluQV8tYa8SxEHWn-exrv_7C6CI-WgkTcMw_aem_3Ijc0yFSp-qHJbhZ7C8ZDg
4일(현지시간) 파이낸셜타임스(FT)에 따르면 블랙스톤·핌코·칼라일·블랙록 등 월가 금융기관들은 지난해부터 이른바 '네오클라우드' 업체들에 이러한 방식의 대출을 해주고 있다.
코어위브·크루소·람다랩스 등 네오클라우드 업체는 AI 제품을 만드는 기술기업들에 클라우드 컴퓨팅을 제공하며 생성형 AI 모델 개발에 필수적인 그래픽처리장치(GPU) 수만개를 보유하고 있다.
이들이 이를 담보로 빌린 자금 규모가 110억 달러(약 15조1천억원)에 이르며, 이를 이용해 엔비디아 칩 추가 구매 등에 나서고 있다.
북미 네오클라우드 업체 가운데 최대 규모인 코어위브는 GPU 4만5천개 이상을 보유하고 있으며, 최근 18개월간 기업 평가 가치는 20억 달러(약 2조7천억원)에서 190억 달러(약 26조1천억원)로 급증했다.
이 업체는 지난 1년간 엔비디아 칩을 담보로 블랙스톤·칼라일 등으로부터 100억 달러(약 13조7천억원) 이상의 자금을 조달했으며, JP모건·골드만삭스·모건스탠리 등 월가 투자은행들로부터 신용한도 6억5천만 달러(약 9천억원)를 확보했다고 이달 밝힌 바 있다.
금융그룹 매쿼리는 지난 4월 람다랩스에 5억 달러(약 6천884억원)를, 투자사 어퍼90은 지난해 크루소에 2억 달러(약 2천753억원)를 빌려줬다.
크루소는 지난주에도 투자사들로부터 5억 달러를 조달했고, 지난달에는 한 대체 자산 운용사와 34억 달러(약 4조7천억원) 규모 계약을 통해 텍사스 신규 데이터센터를 위한 자금을 확보했다.
다만 신제품 칩이 출시되고 있고 기업들의 AI 투자 붐이 잦아들 수 있는 만큼 기존 칩의 담보 가치에 대해 의문을 제기하는 시각도 있다.
https://n.news.naver.com/article/001/0015025977?sid=101&fbclid=IwY2xjawGWhetleHRuA2FlbQIxMQABHQJ90VivJ13XBbU4A5cjI3ytluQV8tYa8SxEHWn-exrv_7C6CI-WgkTcMw_aem_3Ijc0yFSp-qHJbhZ7C8ZDg
Naver
월가, '엔비디아 칩 담보' 15조원 대출…채권시장에도 AI 열풍
코어위브 등 네오클라우드 업체 대상 AI 붐 지속성 여부, 담보 가치에 의문도 인공지능(AI) 붐 속에 미국 월가 금융기관들이 엔비디아의 AI 칩을 담보로 15조원에 이르는 대출을 해주면서 새로운 채권시장이 형성되고
❤1
Ravi Gupta resigned from KKR and expected hell from Henry Kravis. Instead, he got a masterclass in leadership and a secret confession…
In 2015, Ravi Gupta was a high-flyer at private equity firm KKR. But he had been approached to leave his well paid, comfortable role and join a scrappy start-up.
Ravi took the plunge and quit his job.
However, soon after resigning he was summoned to fly to New York to meet founder of KKR and investing legend – Henry Kravis.
Ravi assumed this meeting would be an attempt to convince him to stay or a scolding from Henry. He couldn’t have been more wrong. Henry asked Ravi to sit down, and immediately congratulated him on his move.
Ravi was stunned: “Henry wanted to share the story of how he and George started KKR. He said he respected my desire to go help build something.” But Henry’s masterclass in leadership wasn’t the most memorable thing about their meeting. As Ravi was walking out, Henry stopped him…
Henry: “How old are you?”
Ravi: “I’m 33…”
Henry: “I would do anything to be 33 again…I would do anything to do it over again.”
Looking back on Henry’s parting comment nearly 10 years ago, Ravi recalled: “I didn’t understand it then. I do now.”
The start-up Ravi joined was Instacart, where he held roles as CFO and COO. Despite an incredibly challenging environment and fierce competition from heavyweights such as Amazon and Walmart, the company is now worth $12 Billion.
At 80-years-old, Henry shared his view on starting something new: “Don’t just talk about it, put both feet in and be dedicated - don’t be afraid to fail.”
In 2015, Ravi Gupta was a high-flyer at private equity firm KKR. But he had been approached to leave his well paid, comfortable role and join a scrappy start-up.
Ravi took the plunge and quit his job.
However, soon after resigning he was summoned to fly to New York to meet founder of KKR and investing legend – Henry Kravis.
Ravi assumed this meeting would be an attempt to convince him to stay or a scolding from Henry. He couldn’t have been more wrong. Henry asked Ravi to sit down, and immediately congratulated him on his move.
Ravi was stunned: “Henry wanted to share the story of how he and George started KKR. He said he respected my desire to go help build something.” But Henry’s masterclass in leadership wasn’t the most memorable thing about their meeting. As Ravi was walking out, Henry stopped him…
Henry: “How old are you?”
Ravi: “I’m 33…”
Henry: “I would do anything to be 33 again…I would do anything to do it over again.”
Looking back on Henry’s parting comment nearly 10 years ago, Ravi recalled: “I didn’t understand it then. I do now.”
The start-up Ravi joined was Instacart, where he held roles as CFO and COO. Despite an incredibly challenging environment and fierce competition from heavyweights such as Amazon and Walmart, the company is now worth $12 Billion.
At 80-years-old, Henry shared his view on starting something new: “Don’t just talk about it, put both feet in and be dedicated - don’t be afraid to fail.”
- 우리 일상에 아직 AI로 10~100배 좋은 경험을 얻을 수 있는 일들이 더 많음.
- 작지만 강한 팀, 100명 미만의 1조 B2B 회사도 나올 수 있음.
- SaaS가 초기 비용이 크고 나중에 매출구조가 큰 Return을 얻을 수 있다면 AI 스타트업은 이 기울기가 훨씬 가팔라짐.
- 생각보다 빠르게 변화가 일어나고 있음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
•2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
•여러 모델을 서로 다른 작업에 활용하는 회사 증가.
•일부 기업은 Series B/C 단계까지 특정 채용을 연기.
[Y Combinator의 2024년 리뷰]
무엇이 변화했는가?
• OpenAI/GPT Store의 지배 우려와 달리, 스타트업들은 번창함.
• Foundation Model 기업들이 가치를 독점하지 않았으며, 애플리케이션 계층이 매우 높은 가치를 증명.
• 오픈소스 모델(Meta의 Llama 등)이 성능 면에서 폐쇄형 모델에 빠르게 따라잡음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
성장
• “2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
• YC 참여 기업: 배치 중 3배 성장(주당 10% 성장).
• 벤 호로위츠: 연 매출 1억 달러를 달성하는 회사의 수가 연간 약 15개에서 약 1,500개로 증가.
주요 트렌드
1. 멀티모델 아키텍처
• 여러 모델을 서로 다른 작업에 활용하는 회사 증가.
• 2024년 가을 배치의 많은 기업들이 특정 작업에 가장 적합한 모델을 선택하는 멀티모델 아키텍처를 채택.
2. 음성 AI
• 여러 성공 사례를 포함한 주요 성장 분야.
• 승자독식 아님: 고객 지원, 언어 학습 등 다양한 Vertical Market에서 기회 존재.
3. AI 코딩
• Cursor 같은 툴이 널리 채택됨.
• 채용 방식 변화: 기업들이 AI 코딩 스택에 능숙한 엔지니어를 선호하며 더 많은 성장 잠재력을 모색.
주목할 만한 실패 사례
1. AR/VR의 어려움
• Apple Vision Pro와 Meta Quest가 대중화에 실패.
• 물리적 제약(하드웨어 크기, 비용 등)이 주요 장애물.
• 핵심 사례: 현재 가장 유망한 사용 사례는 “대형 모니터“로 활용하는 것.
2. 하드웨어의 한계
• 로보틱스와 AR/VR 같은 분야에 큰 영향을 미침.
• 하드웨어는 여전히 제작이 어렵고 비용이 매우 높음.
구조적 변화
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 일부 기업은 Series B/C 단계까지 특정 채용을 연기.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
• 대면 근무로의 큰 전환과 샌프란시스코 기술 생태계의 부활.
- 작지만 강한 팀, 100명 미만의 1조 B2B 회사도 나올 수 있음.
- SaaS가 초기 비용이 크고 나중에 매출구조가 큰 Return을 얻을 수 있다면 AI 스타트업은 이 기울기가 훨씬 가팔라짐.
- 생각보다 빠르게 변화가 일어나고 있음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
•2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
•여러 모델을 서로 다른 작업에 활용하는 회사 증가.
•일부 기업은 Series B/C 단계까지 특정 채용을 연기.
[Y Combinator의 2024년 리뷰]
무엇이 변화했는가?
• OpenAI/GPT Store의 지배 우려와 달리, 스타트업들은 번창함.
• Foundation Model 기업들이 가치를 독점하지 않았으며, 애플리케이션 계층이 매우 높은 가치를 증명.
• 오픈소스 모델(Meta의 Llama 등)이 성능 면에서 폐쇄형 모델에 빠르게 따라잡음.
• 엔터프라이즈 파일럿 프로젝트가 예상보다 훨씬 빠르게 실제 매출로 전환됨.
성장
• “2~5백만 달러의 자본으로 24개월 내에 수천만 달러의 매출을 달성할 수 있는 스타트업을 시작할 수 있다.”
• YC 참여 기업: 배치 중 3배 성장(주당 10% 성장).
• 벤 호로위츠: 연 매출 1억 달러를 달성하는 회사의 수가 연간 약 15개에서 약 1,500개로 증가.
주요 트렌드
1. 멀티모델 아키텍처
• 여러 모델을 서로 다른 작업에 활용하는 회사 증가.
• 2024년 가을 배치의 많은 기업들이 특정 작업에 가장 적합한 모델을 선택하는 멀티모델 아키텍처를 채택.
2. 음성 AI
• 여러 성공 사례를 포함한 주요 성장 분야.
• 승자독식 아님: 고객 지원, 언어 학습 등 다양한 Vertical Market에서 기회 존재.
3. AI 코딩
• Cursor 같은 툴이 널리 채택됨.
• 채용 방식 변화: 기업들이 AI 코딩 스택에 능숙한 엔지니어를 선호하며 더 많은 성장 잠재력을 모색.
주목할 만한 실패 사례
1. AR/VR의 어려움
• Apple Vision Pro와 Meta Quest가 대중화에 실패.
• 물리적 제약(하드웨어 크기, 비용 등)이 주요 장애물.
• 핵심 사례: 현재 가장 유망한 사용 사례는 “대형 모니터“로 활용하는 것.
2. 하드웨어의 한계
• 로보틱스와 AR/VR 같은 분야에 큰 영향을 미침.
• 하드웨어는 여전히 제작이 어렵고 비용이 매우 높음.
구조적 변화
• AI 도구 덕분에 스타트업이 더 적은 인원으로도 확장 가능.
• 일부 기업은 Series B/C 단계까지 특정 채용을 연기.
• 전통적인 채용 대신 초기부터 AI 프로세스 구축에 초점.
• 대면 근무로의 큰 전환과 샌프란시스코 기술 생태계의 부활.
👍5🎉1
https://youtu.be/QVcSBHhcFbg
반도체 덕질하는 사람은 이런 생각을 하는구나.
스케일링 한계’ vs. 현실
OpenAI의 Ilia가 “인터넷 텍스트 데이터는 유한하다“고 언급, ‘데이터 고갈 → 사전학습 한계‘가 제기.
전통적인 스케일링 법칙은 “더 많은 컴퓨팅 자원(Compute)과 더 큰 모델(파라미터 수), 그리고 더 많은 학습 데이터“가 결합되면 성능이 향상된다는 것.
만약 사용할 새 데이터가 부족해지면 모델 크기만 계속 늘리는 게 과연 효과적인가에 대한 의문이 제기됨.
Dylan은 “아직 영상·대체 데이터 등 활용할 여지가 많고, 합성데이터(synthetic data) 생성으로 부족분을 메울 수 있음“다고 생각.
동영상·비디오 데이터 등 ‘미개척 데이터’
실제로는 텍스트 외에도 엄청난 양의 비디오 정보가 존재하지만, 아직 활용되지 않은 영역이 크다는 반론이 나옴.
텍스트가 압축 효율이 좋기에 그간 학습이 빠르게 진행되었으나, 앞으로는 비디오 데이터 등으로 확장할 수도 있음.
합성데이터(Synthetic Data)의 등장
데이터가 부족하다면, 모델이 직접 합성데이터를 생성해 학습에 활용할 수 있다.
특히 결과의 옳고 그름(기능적 정답)이 명확히 검증 가능한 도메인(예: 코드 컴파일, 수학 증명, 엔지니어링 설계 등)에서 합성데이터가 강력한 성능 향상을 유도할 수 있음.
모델이 여러 경로(rollout)로 결과물을 만들어 보고, 테스트나 컴파일 등 기능적 검증을 통과하는 결과만 ‘정답 데이터‘로 재학습하는 방식.
추론(테스트) 시점의 추가 연산(Reasoning)과 ‘학습‘의 결합
단순히 모델 규모만 키우는 것이 아니라, 모델에게 여러 단계 추론을 시켜 “스스로 데이터를 생성·검증“하게 하고, 그 결과를 다시 훈련에 반영할 수 있음.
이는 사람이 문제를 풀 때 여러 가지 아이디어를 시도하고, 잘못된 시도를 버리며 더 나은 해법을 찾는 과정과 유사.
스케일링 한계가 아직 확실히 증명되지 않음
“스케일링이 log-log 축에서 기하급수적 투자(예: 10배 더 큰 투자)를 요구하긴 하지만, 합성데이터/추론 강화 기법이 초기 단계에 불과하기 때문에 아직은 개선 여지가 많다“는 견해가 제시됨.
데이터가 부족해도, 새로운 ‘데이터 생성·검증’ 방식을 활용해 모델을 계속 발전시킬 수 있다고 봄.
----
“Pretraining이 정말 끝났다면, 왜 더 큰 클러스터를 지을까?”
실제 빅테크의 움직임: 훨씬 큰 클러스터 건설
그러나 현실에선 MS, Meta, 구글 등이 수십만~수백만 GPU 노드의 초대형 클러스터를 계속 증설.
예: meta가 20~30만 GPU 규모, Microsoft가 추가 데이터센터 여러 곳, X(옛 트위터) 등도 대규모 계획 발표.
“만약 정말 사전학습 효과가 다 끝났다면, 왜 이토록 많은 전력·자본을 들여 클러스터를 짓는가?” 하는 의문이 생김.
스케일링의 log·log 곡선과 합성데이터
사전학습은 데이터와 파라미터를 기하급수적으로 늘리면 성능이 개선되지만, 갈수록 투자 대비 성능 향상(마진)이 줄어드는 ‘로그적(log) 성격’을 띤다.
문제는 비싸지더라도 여전히 성장 가능성이 존재한다는 것.
합성데이터(Synthetic data)·추론(Reasoning) 기법이 초기 단계에 불과하여, “데이터 부족“을 극복하고 추가 성능 향상을 이끌 여지가 남아 있음.
경쟁 역학관계 때문에 ’10배 투자‘가 합리적
각 빅테크가 경쟁사의 모델보다 뒤처지지 않으려면, “100,000 노드 → 200,000~300,000 노드“로 클러스터를 키우는 것이 합리적인 선택.
당장 예전처럼 파라미터 수를 단순 10배 늘리는 것이 예전만큼 큰 개선폭을 주진 않아도, “경쟁 우위“를 유지하기 위해선 대규모 투자가 여전히 필요.
합성데이터·새 기법으로 오히려 빠른 속도의 모델 개선 가능
OpenAI 등이 “Orion” 대신 “01" 같은 다른 축의 모델(새로운 접근)을 발표한 것도, 단순히 규모를 키우는 대신 새로운 기법을 도입했기 때문.
일부 전문가들은 “향후 6개월~1년 사이, 합성데이터 생성 + 학습의 새 방법론을 통해 기존 대비 더 빠르게 모델이 발전할 수 있다“고 전망.
데이터센터 투자 증가가 곧 ‘사전학습은 아직 끝나지 않았다’는 증거
실제로 수십 기가와트(GW) 규모 데이터센터가 건설 중이고, 광케이블·전력 인프라에 수십억 달러가 투입되고 있음.
이는 전형적인 “스케일링이 끝났다“는 서사가 현실과 맞지 않음을 보여줌.
“Pre-training + (합성데이터/추론 기반) 후속 학습“을 계속 키우기 위해서라도, 대형 클러스터와 막대한 인프라가 필요하다는 논리.
---
Inference Time Reasoning
추론(Inference) 단계에서의 Reasoning은 계산량이 훨씬 크다
Inference-Time Reasoning이 왜 기존 Pre-training보다 계산량이 큰가?
일반적으로 **사전학습(Pre-training)**은 모델을 한 번 훈련해 놓으면, 이후 추론(Inference)에서는 상대적으로 적은 비용으로 결과를 낼 수 있다.
그러나 **추론 시 Reasoning(중간 사고 과정)**을 수행하는 최신 모델들(예: ‘01 모델‘)은 사용자가 질의할 때마다 내부적으로 수많은 토큰을 생성·평가한다.
예: “간단한 프롬프트 → 1,000개의 답변 토큰“이 아니라, 내부적으로 10,000개 이상의 토큰을 ‘생각‘하며 최종 1,000개만 사용자에게 보여줄 수 있음.
이런 ‘추론 중 사고 과정(Chain-of-thought)’은 기존 사전학습 때 한 번 발생하는 비용과 달리, 매 질의마다 발생하여 계산 부담이 훨씬 커진다.
구체적인 비용 상승 메커니즘
토큰 수 증가: Reasoning 모델은 출력(답변)보다 훨씬 많은 중간 토큰을 생성·버린다. 결과적으로 10~50배 이상의 토큰이 소모될 수 있음.
배치 크기(동시 사용자 수) 감소:
중간 사고 과정이 길어질수록, 한 번에 처리할 수 있는 동시 사용자 수(배치 사이즈)가 크게 줄어든다(예: 1/4~1/5 수준).
따라서 동일 성능을 유지하려면 더 많은 GPU 리소스가 필요해 비용이 증가한다.
예시로, ‘01 모델’은 기존 GPT-4(40) 대비 토큰·메모리 사용량이 폭증하여 단일 질의당 비용이 50배 이상 늘 수도 있다는 시뮬레이션 결과가 언급됨.
이러한 추가 비용을 감당할 가치가 있는가?
고급 Reasoning 모델은 기존 모델이 못했던 작업(예: 복잡한 코딩, 논리적 추론, 문제 해결 등)을 수행할 수 있다.
즉, **“이전에 불가능했던 서비스“**를 제공할 수 있으므로, 공급자는 가격을 높게 책정(토큰당 가격 인상)해도 고객들이 지불 의향이 있다.
실제로 사용된 예시:
오픈AI가 최신 Reasoning 모델(예: 01)을 기업 고객 대상 프라이빗 베타 형태로 제공하면서, 토큰당 비용을 10~50배 더 높게 책정해도 개발 생산성 향상 등 ROI가 충분하다고 판단.
결과적으로 더욱 큰 GPU/메모리 자원 수요
추론 단계에서 매우 긴 컨텍스트(중간 사고 토큰)로 인해 HBM(고대역폭 메모리) 용량, GPU 성능 모두 급증 필요.
개발사나 클라우드 제공자는 “높아진 운영 비용“을 고객(개인·기업)에 일정 부분 전가해도, “새로운 고부가가치 작업“이 가능해진다는 점에서 시장이 형성됨.
반면, 고객센터 등 단순 대규모 요청에는 “가성비 좋은 소형 모델“을 써서 비용을 최적화하는 이원화 전략도 나타남.
반도체 덕질하는 사람은 이런 생각을 하는구나.
스케일링 한계’ vs. 현실
OpenAI의 Ilia가 “인터넷 텍스트 데이터는 유한하다“고 언급, ‘데이터 고갈 → 사전학습 한계‘가 제기.
전통적인 스케일링 법칙은 “더 많은 컴퓨팅 자원(Compute)과 더 큰 모델(파라미터 수), 그리고 더 많은 학습 데이터“가 결합되면 성능이 향상된다는 것.
만약 사용할 새 데이터가 부족해지면 모델 크기만 계속 늘리는 게 과연 효과적인가에 대한 의문이 제기됨.
Dylan은 “아직 영상·대체 데이터 등 활용할 여지가 많고, 합성데이터(synthetic data) 생성으로 부족분을 메울 수 있음“다고 생각.
동영상·비디오 데이터 등 ‘미개척 데이터’
실제로는 텍스트 외에도 엄청난 양의 비디오 정보가 존재하지만, 아직 활용되지 않은 영역이 크다는 반론이 나옴.
텍스트가 압축 효율이 좋기에 그간 학습이 빠르게 진행되었으나, 앞으로는 비디오 데이터 등으로 확장할 수도 있음.
합성데이터(Synthetic Data)의 등장
데이터가 부족하다면, 모델이 직접 합성데이터를 생성해 학습에 활용할 수 있다.
특히 결과의 옳고 그름(기능적 정답)이 명확히 검증 가능한 도메인(예: 코드 컴파일, 수학 증명, 엔지니어링 설계 등)에서 합성데이터가 강력한 성능 향상을 유도할 수 있음.
모델이 여러 경로(rollout)로 결과물을 만들어 보고, 테스트나 컴파일 등 기능적 검증을 통과하는 결과만 ‘정답 데이터‘로 재학습하는 방식.
추론(테스트) 시점의 추가 연산(Reasoning)과 ‘학습‘의 결합
단순히 모델 규모만 키우는 것이 아니라, 모델에게 여러 단계 추론을 시켜 “스스로 데이터를 생성·검증“하게 하고, 그 결과를 다시 훈련에 반영할 수 있음.
이는 사람이 문제를 풀 때 여러 가지 아이디어를 시도하고, 잘못된 시도를 버리며 더 나은 해법을 찾는 과정과 유사.
스케일링 한계가 아직 확실히 증명되지 않음
“스케일링이 log-log 축에서 기하급수적 투자(예: 10배 더 큰 투자)를 요구하긴 하지만, 합성데이터/추론 강화 기법이 초기 단계에 불과하기 때문에 아직은 개선 여지가 많다“는 견해가 제시됨.
데이터가 부족해도, 새로운 ‘데이터 생성·검증’ 방식을 활용해 모델을 계속 발전시킬 수 있다고 봄.
----
“Pretraining이 정말 끝났다면, 왜 더 큰 클러스터를 지을까?”
실제 빅테크의 움직임: 훨씬 큰 클러스터 건설
그러나 현실에선 MS, Meta, 구글 등이 수십만~수백만 GPU 노드의 초대형 클러스터를 계속 증설.
예: meta가 20~30만 GPU 규모, Microsoft가 추가 데이터센터 여러 곳, X(옛 트위터) 등도 대규모 계획 발표.
“만약 정말 사전학습 효과가 다 끝났다면, 왜 이토록 많은 전력·자본을 들여 클러스터를 짓는가?” 하는 의문이 생김.
스케일링의 log·log 곡선과 합성데이터
사전학습은 데이터와 파라미터를 기하급수적으로 늘리면 성능이 개선되지만, 갈수록 투자 대비 성능 향상(마진)이 줄어드는 ‘로그적(log) 성격’을 띤다.
문제는 비싸지더라도 여전히 성장 가능성이 존재한다는 것.
합성데이터(Synthetic data)·추론(Reasoning) 기법이 초기 단계에 불과하여, “데이터 부족“을 극복하고 추가 성능 향상을 이끌 여지가 남아 있음.
경쟁 역학관계 때문에 ’10배 투자‘가 합리적
각 빅테크가 경쟁사의 모델보다 뒤처지지 않으려면, “100,000 노드 → 200,000~300,000 노드“로 클러스터를 키우는 것이 합리적인 선택.
당장 예전처럼 파라미터 수를 단순 10배 늘리는 것이 예전만큼 큰 개선폭을 주진 않아도, “경쟁 우위“를 유지하기 위해선 대규모 투자가 여전히 필요.
합성데이터·새 기법으로 오히려 빠른 속도의 모델 개선 가능
OpenAI 등이 “Orion” 대신 “01" 같은 다른 축의 모델(새로운 접근)을 발표한 것도, 단순히 규모를 키우는 대신 새로운 기법을 도입했기 때문.
일부 전문가들은 “향후 6개월~1년 사이, 합성데이터 생성 + 학습의 새 방법론을 통해 기존 대비 더 빠르게 모델이 발전할 수 있다“고 전망.
데이터센터 투자 증가가 곧 ‘사전학습은 아직 끝나지 않았다’는 증거
실제로 수십 기가와트(GW) 규모 데이터센터가 건설 중이고, 광케이블·전력 인프라에 수십억 달러가 투입되고 있음.
이는 전형적인 “스케일링이 끝났다“는 서사가 현실과 맞지 않음을 보여줌.
“Pre-training + (합성데이터/추론 기반) 후속 학습“을 계속 키우기 위해서라도, 대형 클러스터와 막대한 인프라가 필요하다는 논리.
---
Inference Time Reasoning
추론(Inference) 단계에서의 Reasoning은 계산량이 훨씬 크다
Inference-Time Reasoning이 왜 기존 Pre-training보다 계산량이 큰가?
일반적으로 **사전학습(Pre-training)**은 모델을 한 번 훈련해 놓으면, 이후 추론(Inference)에서는 상대적으로 적은 비용으로 결과를 낼 수 있다.
그러나 **추론 시 Reasoning(중간 사고 과정)**을 수행하는 최신 모델들(예: ‘01 모델‘)은 사용자가 질의할 때마다 내부적으로 수많은 토큰을 생성·평가한다.
예: “간단한 프롬프트 → 1,000개의 답변 토큰“이 아니라, 내부적으로 10,000개 이상의 토큰을 ‘생각‘하며 최종 1,000개만 사용자에게 보여줄 수 있음.
이런 ‘추론 중 사고 과정(Chain-of-thought)’은 기존 사전학습 때 한 번 발생하는 비용과 달리, 매 질의마다 발생하여 계산 부담이 훨씬 커진다.
구체적인 비용 상승 메커니즘
토큰 수 증가: Reasoning 모델은 출력(답변)보다 훨씬 많은 중간 토큰을 생성·버린다. 결과적으로 10~50배 이상의 토큰이 소모될 수 있음.
배치 크기(동시 사용자 수) 감소:
중간 사고 과정이 길어질수록, 한 번에 처리할 수 있는 동시 사용자 수(배치 사이즈)가 크게 줄어든다(예: 1/4~1/5 수준).
따라서 동일 성능을 유지하려면 더 많은 GPU 리소스가 필요해 비용이 증가한다.
예시로, ‘01 모델’은 기존 GPT-4(40) 대비 토큰·메모리 사용량이 폭증하여 단일 질의당 비용이 50배 이상 늘 수도 있다는 시뮬레이션 결과가 언급됨.
이러한 추가 비용을 감당할 가치가 있는가?
고급 Reasoning 모델은 기존 모델이 못했던 작업(예: 복잡한 코딩, 논리적 추론, 문제 해결 등)을 수행할 수 있다.
즉, **“이전에 불가능했던 서비스“**를 제공할 수 있으므로, 공급자는 가격을 높게 책정(토큰당 가격 인상)해도 고객들이 지불 의향이 있다.
실제로 사용된 예시:
오픈AI가 최신 Reasoning 모델(예: 01)을 기업 고객 대상 프라이빗 베타 형태로 제공하면서, 토큰당 비용을 10~50배 더 높게 책정해도 개발 생산성 향상 등 ROI가 충분하다고 판단.
결과적으로 더욱 큰 GPU/메모리 자원 수요
추론 단계에서 매우 긴 컨텍스트(중간 사고 토큰)로 인해 HBM(고대역폭 메모리) 용량, GPU 성능 모두 급증 필요.
개발사나 클라우드 제공자는 “높아진 운영 비용“을 고객(개인·기업)에 일정 부분 전가해도, “새로운 고부가가치 작업“이 가능해진다는 점에서 시장이 형성됨.
반면, 고객센터 등 단순 대규모 요청에는 “가성비 좋은 소형 모델“을 써서 비용을 최적화하는 이원화 전략도 나타남.
YouTube
AI Semiconductor Landscape feat. Dylan Patel | BG2 w/ Bill Gurley & Brad Gerstner
Open Source bi-weekly convo w/ Bill Gurley and Brad Gerstner on all things tech, markets, investing & capitalism. This week they are joined by Dylan Patel, Founder & Chief Analyst at SemiAnalysis, to discuss origins of SemiAnalysis, Google's AI workload,…
앞으로의 전망
현재 Reasoning 모델은 초기 단계이지만, 추가적으로 학습(Reasoning 강화)에 투자할 여지가 크다.
모델이 새롭게 “합성데이터“나 “추론 중간 과정“을 더 많이 활용해 스스로 학습할 수 있게 되면, 향후 6~12개월 사이 성능·활용 범위가 더욱 급상승할 가능성이 높음.
이러한 고급 Reasoning 모델 수요는 곧 데이터센터·GPU 인프라 확장을 더욱 촉진하고, 엔터프라이즈 시장에서의 수요도 예상을 넘어 성장할 수 있다는 분석이 뒤따름.
-----
NVIDIA 점유율 vs. Google TPU
(타 빅테크 제외 시) 글로벌 AI 워크로드에서 NVIDIA가 98% 수준 점유.
그러나 Google 내부 생산성(검색·광고) AI 워크로드의 상당 부분은 TPU를 사용하므로, 전체적으로 보면 대략 70% 수준으로 추산됨.
Google TPU 활용
Google은 대규모 검색·광고 등 자기 워크로드는 TPU를 주로 활용하지만, 클라우드 외부 고객에게는 주로 NVIDIA GPU를 빌려줌.
즉, 내부용=TPU, 외부(Cloud)=NVIDIA라는 이원화된 구조.
1. NVIDIA의 Edge (세 가지 경쟁 우위)
소프트웨어 생태계
대부분의 반도체 기업은 소프트웨어 역량이 미흡하지만, NVIDIA는 CUDA 등 강력한 SW 스택을 보유.
고급 라이브러리·드라이버·분산 학습 툴·Fleet Management 등이 체계적으로 갖춰져 있어, AI 모델 개발·훈련·추론 과정의 생산성을 대폭 향상시킴.
하드웨어(칩) 설계·공급망 추진력
최신 기술(공정·패키징·냉각·전력관리 등)을 누구보다 빠르게 양산화하여 매년 새로운 아키텍처(GPU) 출시.
엔비디아는 Mellanox(네트워킹) 인수로 초고속 인터커넥트(NVLink/NVSwitch)까지 통합 솔루션을 완비.
“칩만” 제공하는 수준이 아닌, **랙 단위 시스템(예: Blackwell 랙·DGX 서버)**까지 설계·판매해 고객 부담을 줄인다.
네트워킹 및 시스템 설계
대규모 모델(수천억~수조 개 파라미터)을 구동하려면 여러 GPU를 고대역폭으로 연결해야 함.
NVLink와 NVSwitch, 그리고 Mellanox 기술로 큰 규모의 클러스터를 단일 슈퍼컴처럼 구성.
이는 AMD·커스텀 Asic 등 경쟁자들이 쉽게 구축하기 어려운 강력한 경쟁 우위가 됨.
종합적으로, 소프트웨어 + 최신칩 + 네트워킹이 결합된 ‘3두용(three-headed dragon)’ 구조가 NVIDIA의 에지(Edge).
2. Incremental Differentiation (점진적 차별화)
공급망·생태계를 밀어붙이는 실행력
엔비디아는 공급망 전단계(메모리, 옵틱스, 전력, 쿨링 등)와 긴밀히 협력해 새로운 기술을 연간 또는 그보다 빠른 주기로 시장에 선도적으로 내놓는다.
예: Blackwell, 후속 아키텍처, 랙 스케일 시스템 등을 ‘매년’ 수준으로 개선·출시해 경쟁사들이 따라잡기 어렵도록 함.
“현재의 상황을 유지하는 것은 곧 도태“라는 편집증적 기조를 가진 창업자
CEO 젠슨 황의 전략: 경쟁사가 조금이라도 틈을 보이면 추월할 수 있으므로, 끊임없이 성능·TCO를 5~10배씩 높이는 것을 목표로 삼음.
이를 위해 소프트웨어 최적화, 시스템 설계, 신규 칩 개발 속도를 모두 독보적으로 빠른 주기로 실행.
3. 잠재적 취약점(Potential Vulnerabilities)
초대형 고객(하이퍼스케일러)의 자체 칩 전환 가능
MS, Amazon, Google, Meta 등이 TPU·Tranium·커스텀 Asic을 개발·도입하면, 일부 워크로드에서 NVIDIA 의존도가 줄어들 수 있음.
특히 추론(Inference)에서는 CUDA 의존도가 비교적 낮아, 성능·가격 경쟁력이 비슷해지면 대체 위험.
고성능 하드웨어에만 의존하면 경쟁사도 빠르게 추격
점유율을 지키기 위해선 소프트웨어·시스템 통합 우위를 유지해야 하며, 엔비디아가 잠시라도 속도를 늦추면 AMD나 커스텀 칩 업체가 치고 들어올 수 있음.
‘가격 인하’와 마진 압박
AI 시장 규모가 커지면서 Amazon, Google TPU, AMD GPU, 기타 Asic 등이 성능을 높이거나 가격을 낮추면, 엔비디아는 경쟁력 유지를 위해 마진을 일부 희생해야 할 수 있음(이미 Blackwell 세대에서 마진 축소 움직임 언급).
4. GPU로의 전환이 데이터센터에 미치는 영향
CPU→GPU 기반 아키텍처로 재편
AI 대규모 워크로드(LLM 등)는 CPU로 처리하기엔 비효율적이므로, 데이터센터에 GPU 클러스터가 대거 도입되고 있음.
전세계 클라우드사는 ‘CPU 서버’를 줄이는 대신, GPU 혹은 다른 가속기 서버를 빠르게 증설하며 전체 전력·쿨링·네트워킹 설계를 새로 짜고 있음.
데이터센터 전력·인프라 증설
수백·수천 대 GPU가 한 곳에 집적되면 전력(기가와트 단위), 쿨링, 광케이블(파이버) 등 인프라 투자가 급증.
기존 CPU 서버보다 훨씬 높은 전력 밀도를 요구하므로, 데이터센터 규모나 전력 공급, 공간 설계가 대폭 바뀜.
엔비디아가 보는 ‘CPU 대체’ 시나리오
젠슨 황은 “기존 CPU 서버를 GPU 가속기로 대체하면, 전력·성능 효율을 높이고 고급 AI 워크로드까지 수행할 수 있어 1조 달러 이상의 시장 기회“라고 주장.
완전 대체라기보다는, 대규모 AI 수행을 위해 CPU 서버 vs. GPU 서버의 균형을 새롭게 짜는 과정으로 해석됨.
----
경쟁상황
1. 칩 경쟁 구도(Chip Competition) 개요
NVIDIA 독주가 분명하지만, 하이퍼스케일러(예: MS, Google, Amazon)나 AMD, 여러 스타트업(Asic) 등이 저마다 전략을 펼치며 추격 중.
주된 목표: 엔비디아 수준의 성능+에코시스템(소프트웨어, 네트워킹, 랙 스케일 시스템 등)을 얼마나 빠르고 저렴하게 구현할 수 있는가.
2. AMD
장점
실리콘 설계 역량: 인텔을 따라잡아 x86 시장을 크게 키운 경험이 있을 만큼 하드웨어적 기술력은 탄탄함.
GPU 자체 성능이나 HBM 활용 등은 우수하여, 일정 부분 엔비디아와 경쟁 가능.
약점
소프트웨어·시스템 생태계 부족: CUDA 같은 폭넓은 라이브러리와 대규모 분산 학습·최적화 툴을 갖추지 못함.
시스템 레벨 설계(랙 스케일, 네트워킹 등)에 대한 경험/투자가 미흡.
자체 내부 GPU 클러스터를 대규모로 운용해 소프트웨어를 치밀하게 개발·테스트하지 않음(반면 엔비디아는 슈퍼컴 다수 보유).
시장 전망
MS, Meta 등이 AMD에 소프트웨어·최적화 측면에서 일정 부분 협력 중이나, 엔비디아 수준 속도/생태계를 갖추긴 어려움.
2024~25년에도 GPU 매출은 늘겠지만, 엔비디아와의 격차가 크게 좁혀질 것이라는 기대는 낮음.
3. Google TPU
시스템·인프라 관점에서 강점
개별 TPU 칩만 보면 성능이 극적이지 않아도, Broadcom 등과 협력해 2018년부터 대규모 랙 스케일 아키텍처를 구축해왔다.
구글 데이터센터 내부에선 검색·광고·유튜브 등 핵심 AI 워크로드를 TPU로 돌려 대규모 실전 검증을 이미 진행.
외부 클라우드 임대 시장에서는 약점
소프트웨어 스택(특히 딥마인드 내부 툴)이 비공개인 경우가 많아, 외부 고객이 TPU를 쓰기 어렵고 지원도 제한적.
구글 클라우드의 GPU 임대료도 비싸지만, TPU 임대료 역시 협상 여지가 적어 시장 확대가 쉽지 않음.
구글은 클라우드 GPU 판매보다 자체 워크로드 운영(예: 광고, 검색)에 TPU를 더 많이 활용해 수익 창출.
향후 전망
Gemini(차세대 모델) 등 Google의 AI 서비스가 성공한다면, 간접적으로 TPU 사용량도 커질 수 있음.
다만 오픈 클라우드 시장에서 TPU가 엔비디아 GPU를 대체하기는 쉽지 않다는 평가.
4. Cerebras, Grok (스타트업 칩)
Cerebras
웨이퍼 스케일 엔진(WSE) 같은 혁신적 하드웨어로 주목.
특정 HPC·연구 분야에서 좋은 성능을 낼 수 있지만, 범용 생태계·대규모 소프트웨어 스택이 부족해 엔터프라이즈·클라우드 전반 대체는 제한적.
현재 Reasoning 모델은 초기 단계이지만, 추가적으로 학습(Reasoning 강화)에 투자할 여지가 크다.
모델이 새롭게 “합성데이터“나 “추론 중간 과정“을 더 많이 활용해 스스로 학습할 수 있게 되면, 향후 6~12개월 사이 성능·활용 범위가 더욱 급상승할 가능성이 높음.
이러한 고급 Reasoning 모델 수요는 곧 데이터센터·GPU 인프라 확장을 더욱 촉진하고, 엔터프라이즈 시장에서의 수요도 예상을 넘어 성장할 수 있다는 분석이 뒤따름.
-----
NVIDIA 점유율 vs. Google TPU
(타 빅테크 제외 시) 글로벌 AI 워크로드에서 NVIDIA가 98% 수준 점유.
그러나 Google 내부 생산성(검색·광고) AI 워크로드의 상당 부분은 TPU를 사용하므로, 전체적으로 보면 대략 70% 수준으로 추산됨.
Google TPU 활용
Google은 대규모 검색·광고 등 자기 워크로드는 TPU를 주로 활용하지만, 클라우드 외부 고객에게는 주로 NVIDIA GPU를 빌려줌.
즉, 내부용=TPU, 외부(Cloud)=NVIDIA라는 이원화된 구조.
1. NVIDIA의 Edge (세 가지 경쟁 우위)
소프트웨어 생태계
대부분의 반도체 기업은 소프트웨어 역량이 미흡하지만, NVIDIA는 CUDA 등 강력한 SW 스택을 보유.
고급 라이브러리·드라이버·분산 학습 툴·Fleet Management 등이 체계적으로 갖춰져 있어, AI 모델 개발·훈련·추론 과정의 생산성을 대폭 향상시킴.
하드웨어(칩) 설계·공급망 추진력
최신 기술(공정·패키징·냉각·전력관리 등)을 누구보다 빠르게 양산화하여 매년 새로운 아키텍처(GPU) 출시.
엔비디아는 Mellanox(네트워킹) 인수로 초고속 인터커넥트(NVLink/NVSwitch)까지 통합 솔루션을 완비.
“칩만” 제공하는 수준이 아닌, **랙 단위 시스템(예: Blackwell 랙·DGX 서버)**까지 설계·판매해 고객 부담을 줄인다.
네트워킹 및 시스템 설계
대규모 모델(수천억~수조 개 파라미터)을 구동하려면 여러 GPU를 고대역폭으로 연결해야 함.
NVLink와 NVSwitch, 그리고 Mellanox 기술로 큰 규모의 클러스터를 단일 슈퍼컴처럼 구성.
이는 AMD·커스텀 Asic 등 경쟁자들이 쉽게 구축하기 어려운 강력한 경쟁 우위가 됨.
종합적으로, 소프트웨어 + 최신칩 + 네트워킹이 결합된 ‘3두용(three-headed dragon)’ 구조가 NVIDIA의 에지(Edge).
2. Incremental Differentiation (점진적 차별화)
공급망·생태계를 밀어붙이는 실행력
엔비디아는 공급망 전단계(메모리, 옵틱스, 전력, 쿨링 등)와 긴밀히 협력해 새로운 기술을 연간 또는 그보다 빠른 주기로 시장에 선도적으로 내놓는다.
예: Blackwell, 후속 아키텍처, 랙 스케일 시스템 등을 ‘매년’ 수준으로 개선·출시해 경쟁사들이 따라잡기 어렵도록 함.
“현재의 상황을 유지하는 것은 곧 도태“라는 편집증적 기조를 가진 창업자
CEO 젠슨 황의 전략: 경쟁사가 조금이라도 틈을 보이면 추월할 수 있으므로, 끊임없이 성능·TCO를 5~10배씩 높이는 것을 목표로 삼음.
이를 위해 소프트웨어 최적화, 시스템 설계, 신규 칩 개발 속도를 모두 독보적으로 빠른 주기로 실행.
3. 잠재적 취약점(Potential Vulnerabilities)
초대형 고객(하이퍼스케일러)의 자체 칩 전환 가능
MS, Amazon, Google, Meta 등이 TPU·Tranium·커스텀 Asic을 개발·도입하면, 일부 워크로드에서 NVIDIA 의존도가 줄어들 수 있음.
특히 추론(Inference)에서는 CUDA 의존도가 비교적 낮아, 성능·가격 경쟁력이 비슷해지면 대체 위험.
고성능 하드웨어에만 의존하면 경쟁사도 빠르게 추격
점유율을 지키기 위해선 소프트웨어·시스템 통합 우위를 유지해야 하며, 엔비디아가 잠시라도 속도를 늦추면 AMD나 커스텀 칩 업체가 치고 들어올 수 있음.
‘가격 인하’와 마진 압박
AI 시장 규모가 커지면서 Amazon, Google TPU, AMD GPU, 기타 Asic 등이 성능을 높이거나 가격을 낮추면, 엔비디아는 경쟁력 유지를 위해 마진을 일부 희생해야 할 수 있음(이미 Blackwell 세대에서 마진 축소 움직임 언급).
4. GPU로의 전환이 데이터센터에 미치는 영향
CPU→GPU 기반 아키텍처로 재편
AI 대규모 워크로드(LLM 등)는 CPU로 처리하기엔 비효율적이므로, 데이터센터에 GPU 클러스터가 대거 도입되고 있음.
전세계 클라우드사는 ‘CPU 서버’를 줄이는 대신, GPU 혹은 다른 가속기 서버를 빠르게 증설하며 전체 전력·쿨링·네트워킹 설계를 새로 짜고 있음.
데이터센터 전력·인프라 증설
수백·수천 대 GPU가 한 곳에 집적되면 전력(기가와트 단위), 쿨링, 광케이블(파이버) 등 인프라 투자가 급증.
기존 CPU 서버보다 훨씬 높은 전력 밀도를 요구하므로, 데이터센터 규모나 전력 공급, 공간 설계가 대폭 바뀜.
엔비디아가 보는 ‘CPU 대체’ 시나리오
젠슨 황은 “기존 CPU 서버를 GPU 가속기로 대체하면, 전력·성능 효율을 높이고 고급 AI 워크로드까지 수행할 수 있어 1조 달러 이상의 시장 기회“라고 주장.
완전 대체라기보다는, 대규모 AI 수행을 위해 CPU 서버 vs. GPU 서버의 균형을 새롭게 짜는 과정으로 해석됨.
----
경쟁상황
1. 칩 경쟁 구도(Chip Competition) 개요
NVIDIA 독주가 분명하지만, 하이퍼스케일러(예: MS, Google, Amazon)나 AMD, 여러 스타트업(Asic) 등이 저마다 전략을 펼치며 추격 중.
주된 목표: 엔비디아 수준의 성능+에코시스템(소프트웨어, 네트워킹, 랙 스케일 시스템 등)을 얼마나 빠르고 저렴하게 구현할 수 있는가.
2. AMD
장점
실리콘 설계 역량: 인텔을 따라잡아 x86 시장을 크게 키운 경험이 있을 만큼 하드웨어적 기술력은 탄탄함.
GPU 자체 성능이나 HBM 활용 등은 우수하여, 일정 부분 엔비디아와 경쟁 가능.
약점
소프트웨어·시스템 생태계 부족: CUDA 같은 폭넓은 라이브러리와 대규모 분산 학습·최적화 툴을 갖추지 못함.
시스템 레벨 설계(랙 스케일, 네트워킹 등)에 대한 경험/투자가 미흡.
자체 내부 GPU 클러스터를 대규모로 운용해 소프트웨어를 치밀하게 개발·테스트하지 않음(반면 엔비디아는 슈퍼컴 다수 보유).
시장 전망
MS, Meta 등이 AMD에 소프트웨어·최적화 측면에서 일정 부분 협력 중이나, 엔비디아 수준 속도/생태계를 갖추긴 어려움.
2024~25년에도 GPU 매출은 늘겠지만, 엔비디아와의 격차가 크게 좁혀질 것이라는 기대는 낮음.
3. Google TPU
시스템·인프라 관점에서 강점
개별 TPU 칩만 보면 성능이 극적이지 않아도, Broadcom 등과 협력해 2018년부터 대규모 랙 스케일 아키텍처를 구축해왔다.
구글 데이터센터 내부에선 검색·광고·유튜브 등 핵심 AI 워크로드를 TPU로 돌려 대규모 실전 검증을 이미 진행.
외부 클라우드 임대 시장에서는 약점
소프트웨어 스택(특히 딥마인드 내부 툴)이 비공개인 경우가 많아, 외부 고객이 TPU를 쓰기 어렵고 지원도 제한적.
구글 클라우드의 GPU 임대료도 비싸지만, TPU 임대료 역시 협상 여지가 적어 시장 확대가 쉽지 않음.
구글은 클라우드 GPU 판매보다 자체 워크로드 운영(예: 광고, 검색)에 TPU를 더 많이 활용해 수익 창출.
향후 전망
Gemini(차세대 모델) 등 Google의 AI 서비스가 성공한다면, 간접적으로 TPU 사용량도 커질 수 있음.
다만 오픈 클라우드 시장에서 TPU가 엔비디아 GPU를 대체하기는 쉽지 않다는 평가.
4. Cerebras, Grok (스타트업 칩)
Cerebras
웨이퍼 스케일 엔진(WSE) 같은 혁신적 하드웨어로 주목.
특정 HPC·연구 분야에서 좋은 성능을 낼 수 있지만, 범용 생태계·대규모 소프트웨어 스택이 부족해 엔터프라이즈·클라우드 전반 대체는 제한적.
YouTube
AI Semiconductor Landscape feat. Dylan Patel | BG2 w/ Bill Gurley & Brad Gerstner
Open Source bi-weekly convo w/ Bill Gurley and Brad Gerstner on all things tech, markets, investing & capitalism. This week they are joined by Dylan Patel, Founder & Chief Analyst at SemiAnalysis, to discuss origins of SemiAnalysis, Google's AI workload,…
Grok
스파스(sparse) 연산 최적화, 저전력 특화 등 독자 설계를 내세움.
고성능 대규모 클러스터보다 특화된 분야(엣지 컴퓨팅 등)로 진출 가능성이 있지만, 시장 전체에서 엔비디아 대항마가 되기엔 자본·생태계가 부족.
총평: 스타트업 칩은 기술적 혁신이 있으나, 소프트웨어·대규모 시스템 생태계 구축이 어려워 본격 대체재가 되긴 힘들다는 평.
5. Amazon’s Tranium
“Amazon Basics TPU”
아마존이 자체 설계한 AI 칩(Tranium, Inferentia)은 비교적 단순하고 저비용 구조로 대규모 환경에 최적화.
많은 메모리(HBM)와 높은 메모리 대역폭을 저렴하게 제공해 TCO를 낮춤.
네트워킹·칩 자체 효율은 엔비디아 대비 떨어지지만, 원가 구조와 자체 인프라로 가격 경쟁력 확보.
대형 클러스터 구축
AWS + Anthropic이 400,000개 이상의 Tranium 칩을 모은 슈퍼컴퓨터를 구축할 계획.
트레이닝(Training) 목적 대규모 클러스터에는 적합할 수 있으나, 추론(실시간 응답)용으로는 분산 배치가 필요해 단점도 존재.
전망
효율·성능 면에선 엔비디아에 미치지 못하나, “AWS 에코시스템 + 저렴한 비용“이라는 장점으로 특정 고객군에 매력.
아마존은 엔비디아 의존도를 줄이고 싶어 하며, 내부적으로 Tranium을 통해 점차 경험·생태계를 확장하는 중.
----
What is future?
초고가 모델 vs. 저가 모델: 이중 시장 구조
대형 모델(예: ‘01 모델’ 등)은 뛰어난 성능(Reasoning, 생산성 향상)을 제공하지만, 비용이 매우 높음.
작은 모델(예: Llama 7B, ‘40 mini’)은 훨씬 저렴하게 운영 가능하며, 이 때문에 오픈소스·네오클라우드 등에서 경쟁이 매우 치열해지고 있음.
큰 모델이 압도적 성능으로 고부가가치 업무(예: 엔지니어링, 고급 코딩) 처리에 사용되면, 높은 가격을 매겨도 기업 입장에서 비용 대비 효용이 높아 수요가 꾸준함.
한편, 대규모 고객서비스(콜센터 등)처럼 “최고 성능이 필요치 않은” 곳은 작은 모델이나 오픈소스 모델로 비용 최적화를 추구할 수 있음.
경쟁 구도: “최고 모델 vs. 값싼 모델”
최고 성능 모델을 개발·판매하려면, R&D·GPU 인프라·SW 최적화 등에 막대한 자본이 필요.
만약 이를 실패하거나, 고객이 지불할 가치(ROI)를 못 증명하면 경쟁에서 도태됨(“race to the bottom”).
실제 API 시장에서 오픈소스 모델·다양한 스타트업이 등장하여 가격 인하를 유도하지만, 가장 뛰어난 모델을 제공할 수 있는 기업은 소수에 불과함.
고객(엔터프라이즈) 측의 의사결정
최고 성능 모델(예: 오픈AI 01, Anthropics 고급 모델 등)에 지불해 생산성을 20~50% 높일 수 있다면, 연봉이 높은 개발자·분석가 비용 절감 효과가 커서 투자 가치가 높음.
따라서 “가장 비싼 모델이 결과적으로 더 싸게 먹힌다“는 논리가 성립 가능(고급 지식 노동 대체/보조).
반면 단순 질의나 대량 트래픽 처리에는 작은 모델이 합리적.
차기(2025~2026) 전망
**하이퍼스케일러(구글, MS, 메타 등)**의 투자 기조
2024~2025에는 대규모 데이터센터·GPU 투자가 계속될 것으로 보이지만, 2026년쯤 “과잉 투자 or 모델 발전 한계” 여부가 분수령이 될 수 있음.
Broadcom, Marvell 등 커스텀 Asic, 네트워킹 솔루션 업체들이 부상 중.
예: Meta는 추천시스템용 커스텀 칩, AWS(아마존), 구글, MS 등 자체 칩도 늘어나는 추세.
이들이 실제 상품화·양산에 성공할 경우, 엔비디아 독주를 어느 정도 분산시킬 가능성 있음.
Neo Cloud(네오클라우드) 업체들의 정리(Consolidation)
전 세계적으로 80여 개 네오클라우드(소규모 AI 클라우드) 중 대부분이 가격 인하 경쟁에 밀려 사라질 것이며, 5~10곳만 살아남을 것으로 예측.
자본 유입 여부
중동·아시아 주권 펀드 등 막대한 자금이 아직 본격적으로 들어오지 않았으며, 향후 대규모 투자로 이어질 가능성 있음.
모델 발전이 지속되면, 수익 가능성을 본 투자자들이 더 큰 자금을 투입하며 시장 열기를 지속시킬 수 있음.
핵심 변수: 모델 품질과 실제 매출(Revenue) 성장
모델 성능이 빠르게 개선되면, 하이퍼스케일러들이 더 큰 규모로 투자하면서도 ROI를 맞출 가능성이 큼.
그러나 모델 발전 속도가 정체되거나, 매출 성장률이 기대만큼 따라주지 못하면 ‘투자 과잉’ 조정이 올 수 있음.
결국 **“GPU·데이터센터 투자 = 미래 매출 기대치“**라는 논리로, 기업들은 향후 2~3년간 경쟁적으로 설비 투자를 늘리는 중.
결론
AI 모델 시장은 “최고 성능“을 추구하는 소수의 대형 기업과, “비용 효율적 접근“을 노리는 다수 플레이어로 양분될 전망.
2024~2025년엔 대규모 투자·확장이 이어지겠지만, 2026년 전후로 모델 발전 한계·수익성 여부를 둘러싼 ‘대규모 조정’ 혹은 ‘계속 상승’ 시나리오가 갈릴 가능성이 높음.
투자·기술 발전 모두 모델 성능 개선과 매출 증대가 얼마나 일치하느냐가 관건으로, 업계는 여전히 ‘과잉 투자 vs. 성장 지속’ 사이에서 치열한 경쟁을 벌일 것으로 보임.
스파스(sparse) 연산 최적화, 저전력 특화 등 독자 설계를 내세움.
고성능 대규모 클러스터보다 특화된 분야(엣지 컴퓨팅 등)로 진출 가능성이 있지만, 시장 전체에서 엔비디아 대항마가 되기엔 자본·생태계가 부족.
총평: 스타트업 칩은 기술적 혁신이 있으나, 소프트웨어·대규모 시스템 생태계 구축이 어려워 본격 대체재가 되긴 힘들다는 평.
5. Amazon’s Tranium
“Amazon Basics TPU”
아마존이 자체 설계한 AI 칩(Tranium, Inferentia)은 비교적 단순하고 저비용 구조로 대규모 환경에 최적화.
많은 메모리(HBM)와 높은 메모리 대역폭을 저렴하게 제공해 TCO를 낮춤.
네트워킹·칩 자체 효율은 엔비디아 대비 떨어지지만, 원가 구조와 자체 인프라로 가격 경쟁력 확보.
대형 클러스터 구축
AWS + Anthropic이 400,000개 이상의 Tranium 칩을 모은 슈퍼컴퓨터를 구축할 계획.
트레이닝(Training) 목적 대규모 클러스터에는 적합할 수 있으나, 추론(실시간 응답)용으로는 분산 배치가 필요해 단점도 존재.
전망
효율·성능 면에선 엔비디아에 미치지 못하나, “AWS 에코시스템 + 저렴한 비용“이라는 장점으로 특정 고객군에 매력.
아마존은 엔비디아 의존도를 줄이고 싶어 하며, 내부적으로 Tranium을 통해 점차 경험·생태계를 확장하는 중.
----
What is future?
초고가 모델 vs. 저가 모델: 이중 시장 구조
대형 모델(예: ‘01 모델’ 등)은 뛰어난 성능(Reasoning, 생산성 향상)을 제공하지만, 비용이 매우 높음.
작은 모델(예: Llama 7B, ‘40 mini’)은 훨씬 저렴하게 운영 가능하며, 이 때문에 오픈소스·네오클라우드 등에서 경쟁이 매우 치열해지고 있음.
큰 모델이 압도적 성능으로 고부가가치 업무(예: 엔지니어링, 고급 코딩) 처리에 사용되면, 높은 가격을 매겨도 기업 입장에서 비용 대비 효용이 높아 수요가 꾸준함.
한편, 대규모 고객서비스(콜센터 등)처럼 “최고 성능이 필요치 않은” 곳은 작은 모델이나 오픈소스 모델로 비용 최적화를 추구할 수 있음.
경쟁 구도: “최고 모델 vs. 값싼 모델”
최고 성능 모델을 개발·판매하려면, R&D·GPU 인프라·SW 최적화 등에 막대한 자본이 필요.
만약 이를 실패하거나, 고객이 지불할 가치(ROI)를 못 증명하면 경쟁에서 도태됨(“race to the bottom”).
실제 API 시장에서 오픈소스 모델·다양한 스타트업이 등장하여 가격 인하를 유도하지만, 가장 뛰어난 모델을 제공할 수 있는 기업은 소수에 불과함.
고객(엔터프라이즈) 측의 의사결정
최고 성능 모델(예: 오픈AI 01, Anthropics 고급 모델 등)에 지불해 생산성을 20~50% 높일 수 있다면, 연봉이 높은 개발자·분석가 비용 절감 효과가 커서 투자 가치가 높음.
따라서 “가장 비싼 모델이 결과적으로 더 싸게 먹힌다“는 논리가 성립 가능(고급 지식 노동 대체/보조).
반면 단순 질의나 대량 트래픽 처리에는 작은 모델이 합리적.
차기(2025~2026) 전망
**하이퍼스케일러(구글, MS, 메타 등)**의 투자 기조
2024~2025에는 대규모 데이터센터·GPU 투자가 계속될 것으로 보이지만, 2026년쯤 “과잉 투자 or 모델 발전 한계” 여부가 분수령이 될 수 있음.
Broadcom, Marvell 등 커스텀 Asic, 네트워킹 솔루션 업체들이 부상 중.
예: Meta는 추천시스템용 커스텀 칩, AWS(아마존), 구글, MS 등 자체 칩도 늘어나는 추세.
이들이 실제 상품화·양산에 성공할 경우, 엔비디아 독주를 어느 정도 분산시킬 가능성 있음.
Neo Cloud(네오클라우드) 업체들의 정리(Consolidation)
전 세계적으로 80여 개 네오클라우드(소규모 AI 클라우드) 중 대부분이 가격 인하 경쟁에 밀려 사라질 것이며, 5~10곳만 살아남을 것으로 예측.
자본 유입 여부
중동·아시아 주권 펀드 등 막대한 자금이 아직 본격적으로 들어오지 않았으며, 향후 대규모 투자로 이어질 가능성 있음.
모델 발전이 지속되면, 수익 가능성을 본 투자자들이 더 큰 자금을 투입하며 시장 열기를 지속시킬 수 있음.
핵심 변수: 모델 품질과 실제 매출(Revenue) 성장
모델 성능이 빠르게 개선되면, 하이퍼스케일러들이 더 큰 규모로 투자하면서도 ROI를 맞출 가능성이 큼.
그러나 모델 발전 속도가 정체되거나, 매출 성장률이 기대만큼 따라주지 못하면 ‘투자 과잉’ 조정이 올 수 있음.
결국 **“GPU·데이터센터 투자 = 미래 매출 기대치“**라는 논리로, 기업들은 향후 2~3년간 경쟁적으로 설비 투자를 늘리는 중.
결론
AI 모델 시장은 “최고 성능“을 추구하는 소수의 대형 기업과, “비용 효율적 접근“을 노리는 다수 플레이어로 양분될 전망.
2024~2025년엔 대규모 투자·확장이 이어지겠지만, 2026년 전후로 모델 발전 한계·수익성 여부를 둘러싼 ‘대규모 조정’ 혹은 ‘계속 상승’ 시나리오가 갈릴 가능성이 높음.
투자·기술 발전 모두 모델 성능 개선과 매출 증대가 얼마나 일치하느냐가 관건으로, 업계는 여전히 ‘과잉 투자 vs. 성장 지속’ 사이에서 치열한 경쟁을 벌일 것으로 보임.
YouTube
AI Semiconductor Landscape feat. Dylan Patel | BG2 w/ Bill Gurley & Brad Gerstner
Open Source bi-weekly convo w/ Bill Gurley and Brad Gerstner on all things tech, markets, investing & capitalism. This week they are joined by Dylan Patel, Founder & Chief Analyst at SemiAnalysis, to discuss origins of SemiAnalysis, Google's AI workload,…
❤1
City of Tokyo released a 3D digital twin of the entire city in high resolution point cloud, free to download. It’s an inevitable trend that more and more cities, houses, and factories will be transported into simulations.
Robots will not be trained in isolation. They will be simulated as an “iron fleet”, deployed in real-time graphics engines, and scaled across a huge cluster to produce the next trillions of high quality training tokens. The majority of embodied agents will be born in sim, and transferred zero-shot to our real world when they are ready. They will share a “hive mind” that sends latent embeddings back and forth to coordinate a multi-agent physical task.
Fun fact: NVIDIA’s Santa Clara Headquarter buildings are designed and rendered in Omniverse, a GPU-accelerated graphics platform, before materializing in atoms.
Tokyo digital twin: https://lnkd.in/gVrxfmBN
Robots will not be trained in isolation. They will be simulated as an “iron fleet”, deployed in real-time graphics engines, and scaled across a huge cluster to produce the next trillions of high quality training tokens. The majority of embodied agents will be born in sim, and transferred zero-shot to our real world when they are ready. They will share a “hive mind” that sends latent embeddings back and forth to coordinate a multi-agent physical task.
Fun fact: NVIDIA’s Santa Clara Headquarter buildings are designed and rendered in Omniverse, a GPU-accelerated graphics platform, before materializing in atoms.
Tokyo digital twin: https://lnkd.in/gVrxfmBN
lnkd.in
LinkedIn
This link will take you to a page that’s not on LinkedIn
슈퍼 파운더 강준열님 추천
스타트업 세계에는 많은 조언들이 떠돈다. 그러나 이들 조언들이 과연 사실에 부합하는지는 따져보지 않는다.
이 책은 크게 성공한 스타트업과 비슷한 시기에 시작했지만 성공하지 못한 스타트업들을 통계적으로 유의한 수준으로 샘플링해서 나온 결과로 이런 조언들의 사실 부합여부를 따져본다.(물론 미국 사례이기 때문에 한국과는 당연히 안맞을 수 있다. 나중에 기회가 있으면 한국에서도 데이터를 모아서 비슷한 연구를 해보면 좋을 것 같다.)
다음은 사실과 부합하지 않는 주장들이다.
크게 성공한 스타트업의 창업자들은 큰 위험을 기꺼이 택할 수 있는 젊은이들이 많다는 주장들이 있다. 실제로는 성공한 스타트업과 실패한 스타트업간의 창업자의 연령차이는 없으며 평균 나이는 34세이다.(예순여덟살에 창업해서 성공한 사례도 존재한다.) 이 말은 곧 적든 많든 창업자의 나이는 기업의 성공과 크게 상관 없다는 뜻이다.
함께 창업할 파트너가 없는 창업자는 실패할 것이라는 근거 없는 믿음이 있다. 실제로는 성공한 스타트업의 다섯곳 중 하나는 1인 창업을 했다. 1인 창업을 포함해 창업자의 수에 관한 어떤 창업 시나리오에도 특별히 유리하거나 불리한 점이 없음을 알 수 있다.
기술적 CEO와 비기술적 CEO 중 어느 쪽이 더 나은가 하는 문제는 스타트업 업계에서 유명한 논쟁거리다. 데이터를 보면 두 방식 모두 동일한 가치를 지닌다. 실세로 성공한 스타트업의 창업 CEO 비율은 비지니스 분야 출신 50.5%, 기술 분야 출신이 49.5%로 거의 절반에 가깝다.
경이로운 대학 중퇴자들의 사례는 널리 알려져있다. 그러나 데이터를 보면 성공한 스타트업 창업자 대부분은 대학교를 자퇴하지 않았다. 다만, 어느 대학교를 나왔는지는 조금 다르다.
창업가를 꿈꾸는 사람들에게 어떤 사람들은 기업 근무 경험이 중요하다고 이야기하고 어떤 사람들은 가능한한 빨리 창업하는 것이 낫다고 조언하는데 데이터를 보면 두 접근 방식 모두 효과가 있다. 다만, 어떤 기업들은 성공한 스타트업 창업자들의 원천으로 명성이 높다.
또, 사람들은 창업가가 ‘판도를 바꿔놓으려는’ 산업에서 직접 일한 경험이 있어야한다고 오해한다. 그러나 데이터에 의하면 전문 산업 지식을 보유했느냐 여부가 성공률에 영향을 미치지 않았고, 전체적으로 보면 관련 산업의 전문성이 있다고 유리하거나 불리하지는 않았다.
여러 사람들이 창업자는 수십년 간 개인적인 문제로 고통받은 끝에 그 문제를 해결할 사명감으로 창업에 나선다고 주장하고 있는데 이건 대부분 성공 이후에 만들어진 스토리일 가능성이 높다. 데이터로만 보면 오히려 시장이나 고객 형태 또는 트랜드를 선택한 뒤 해결해야할 문제를 찾아 나서는 경우가 더 일반적이다.(물론 자신이 풀고자 하는 문제에 사명감을 느끼면 더 열정을 가지고 일할 수 있다.)
흔히들 비타민 보다는 진통제 유형의 문제를 풀어야지 성공할 수 있다고 하는데 데이터를 보면 놀랍게도 성공한 스타트업 중에 비타민 제품 기업들이 생각보다 많다. 거의 1/3에 해당한다.
이미 시장이 큰 경우보다는 완전히 새로운 수요를 창출하는 기업이 성공할 가능성이 높다는 믿음도 미신이다. 데이터를 보면 시장 점유율 경쟁을 벌이는 기업들이 더 많은 가치를 만들어낸다.
타이밍이 중요하다는 점은 중요해보이기는 하나 데이터로 검증하기 어려운 주제이다.(정량화하기 어려운 주제이기 때문이다.) 그러나 이 책의 저자에 의하면 탁월한 벤처캐피털의 중요한 질문 중 하나는 “왜 지금인가?”이다.
거대 기업들이 이미 장악한 시장에 진출하는 스타트업이 불리할 것이라고 많이들 보지만 놀랍게도 데이터에 의하면 성공한 스타트업의 절반 이상은 다수의 거대 기존 기업에 맞서 싸웠다.
엑셀러레이터가 큰 가치를 제공하지만(와이컴비네이터등…) 사실 성공한 스타트업의 85%는 어떤 엑셀러레이터 프로그램도 거치지 않았다.(엑셀러레이팅 프로그램들은 주로 최초 창업자에게 많이 유리했다.)
다음은 통계적으로 유의한 결과가 나오는 주장들이다.
성공한 스타트업의 창업자들이 대부분 일류대학 출신이라는 것은 데이터를 통해서 지지된다. 이때 일류 대학이 모두 똑같이 중요한 것이 아니라 대학문화와 위치에 따라서 달라진다. 즉 강력한 창업 기업가 문화를 조성한 대학교인 USC나 미시간대학교, 브리검영대학교가 프린스턴, 칼텍, 시카고 대학교보다 더 많은 성공한 창업가들을 배출한다. 다만 이것이 투자자들의 편견(학벌선호?)때문인지는 확인하기 어렵다.
성공한 스타트업 창업가들 중에 많은 비율이 구글, 오라클, IBM과 같은 특정 기업 출신들이 많다. 물론 이것이 투자자들의 주목을 끌기 때문에 그런것인지 진짜 다른 효과가 있는지는 확인이 어렵다.
뚜렸하게 스타트업의 성공율에 큰 영향을 주는 것은 ‘수퍼 파운더’이다. 즉, 반복해서 창업하는 사람들의 가치는 더욱 두드러진다. 데이터를 통해서 확인되지만 과거에 성과가 좋은 기업을 창업했던 자들은 수십억 달러 기업을 창업할 가능성이 훨씬 높았다.(스타트업에 창업이 아니라 합류해서 성공을 노리는 사람이라면 수퍼 창업자가 창업한 기업을 찾으면 성공 가능성을 높일 수 있다.)
데이터로만 보면 성공한 스타트업의 50% 이상이 실리콘벨리에 근거지를 두고 있다. 하지만 일부 기업들은 초기 성공 이후에 실리콘벨리로 옮겨온 사례가 꽤 있다.
여러 사례에서 대규모 투자를 유치한 스타트업과 경쟁하는 다른 스타트업은 성공할 확률이 매우 낮은것으로 보여진다.
다양한 형태의 방어 가능성(아마 해자의 의미로 쓴 듯하다)을 잘 갖춘 스타트업은 성공할 확률이 훨씬 높다. 성공한 스타트업의 대부분은 해자가 명확했는데 성공하지 못한 스타트업은 45%가 해자가 특별히 없었다.
성공한 스타트업의 60%는 세콰이어, A16z, 벤치마크, 엑셀등 최상위권 벤처 캐피털의 투자를 받았다. 성공하지 못한 그룹은 20% 정도를 이들에게서 투자를 받았다.
책에는 케이스별로 풍부한 사례들이 나와있다. 사례를 더 알고 싶은 분들은 일독을 해도 괜찮을듯하다.(주장하는 내용은 여기 정리한 것에서 크게 벗어나지 않기는 하다.)
https://m.yes24.com/Goods/Detail/109648342
스타트업 세계에는 많은 조언들이 떠돈다. 그러나 이들 조언들이 과연 사실에 부합하는지는 따져보지 않는다.
이 책은 크게 성공한 스타트업과 비슷한 시기에 시작했지만 성공하지 못한 스타트업들을 통계적으로 유의한 수준으로 샘플링해서 나온 결과로 이런 조언들의 사실 부합여부를 따져본다.(물론 미국 사례이기 때문에 한국과는 당연히 안맞을 수 있다. 나중에 기회가 있으면 한국에서도 데이터를 모아서 비슷한 연구를 해보면 좋을 것 같다.)
다음은 사실과 부합하지 않는 주장들이다.
크게 성공한 스타트업의 창업자들은 큰 위험을 기꺼이 택할 수 있는 젊은이들이 많다는 주장들이 있다. 실제로는 성공한 스타트업과 실패한 스타트업간의 창업자의 연령차이는 없으며 평균 나이는 34세이다.(예순여덟살에 창업해서 성공한 사례도 존재한다.) 이 말은 곧 적든 많든 창업자의 나이는 기업의 성공과 크게 상관 없다는 뜻이다.
함께 창업할 파트너가 없는 창업자는 실패할 것이라는 근거 없는 믿음이 있다. 실제로는 성공한 스타트업의 다섯곳 중 하나는 1인 창업을 했다. 1인 창업을 포함해 창업자의 수에 관한 어떤 창업 시나리오에도 특별히 유리하거나 불리한 점이 없음을 알 수 있다.
기술적 CEO와 비기술적 CEO 중 어느 쪽이 더 나은가 하는 문제는 스타트업 업계에서 유명한 논쟁거리다. 데이터를 보면 두 방식 모두 동일한 가치를 지닌다. 실세로 성공한 스타트업의 창업 CEO 비율은 비지니스 분야 출신 50.5%, 기술 분야 출신이 49.5%로 거의 절반에 가깝다.
경이로운 대학 중퇴자들의 사례는 널리 알려져있다. 그러나 데이터를 보면 성공한 스타트업 창업자 대부분은 대학교를 자퇴하지 않았다. 다만, 어느 대학교를 나왔는지는 조금 다르다.
창업가를 꿈꾸는 사람들에게 어떤 사람들은 기업 근무 경험이 중요하다고 이야기하고 어떤 사람들은 가능한한 빨리 창업하는 것이 낫다고 조언하는데 데이터를 보면 두 접근 방식 모두 효과가 있다. 다만, 어떤 기업들은 성공한 스타트업 창업자들의 원천으로 명성이 높다.
또, 사람들은 창업가가 ‘판도를 바꿔놓으려는’ 산업에서 직접 일한 경험이 있어야한다고 오해한다. 그러나 데이터에 의하면 전문 산업 지식을 보유했느냐 여부가 성공률에 영향을 미치지 않았고, 전체적으로 보면 관련 산업의 전문성이 있다고 유리하거나 불리하지는 않았다.
여러 사람들이 창업자는 수십년 간 개인적인 문제로 고통받은 끝에 그 문제를 해결할 사명감으로 창업에 나선다고 주장하고 있는데 이건 대부분 성공 이후에 만들어진 스토리일 가능성이 높다. 데이터로만 보면 오히려 시장이나 고객 형태 또는 트랜드를 선택한 뒤 해결해야할 문제를 찾아 나서는 경우가 더 일반적이다.(물론 자신이 풀고자 하는 문제에 사명감을 느끼면 더 열정을 가지고 일할 수 있다.)
흔히들 비타민 보다는 진통제 유형의 문제를 풀어야지 성공할 수 있다고 하는데 데이터를 보면 놀랍게도 성공한 스타트업 중에 비타민 제품 기업들이 생각보다 많다. 거의 1/3에 해당한다.
이미 시장이 큰 경우보다는 완전히 새로운 수요를 창출하는 기업이 성공할 가능성이 높다는 믿음도 미신이다. 데이터를 보면 시장 점유율 경쟁을 벌이는 기업들이 더 많은 가치를 만들어낸다.
타이밍이 중요하다는 점은 중요해보이기는 하나 데이터로 검증하기 어려운 주제이다.(정량화하기 어려운 주제이기 때문이다.) 그러나 이 책의 저자에 의하면 탁월한 벤처캐피털의 중요한 질문 중 하나는 “왜 지금인가?”이다.
거대 기업들이 이미 장악한 시장에 진출하는 스타트업이 불리할 것이라고 많이들 보지만 놀랍게도 데이터에 의하면 성공한 스타트업의 절반 이상은 다수의 거대 기존 기업에 맞서 싸웠다.
엑셀러레이터가 큰 가치를 제공하지만(와이컴비네이터등…) 사실 성공한 스타트업의 85%는 어떤 엑셀러레이터 프로그램도 거치지 않았다.(엑셀러레이팅 프로그램들은 주로 최초 창업자에게 많이 유리했다.)
다음은 통계적으로 유의한 결과가 나오는 주장들이다.
성공한 스타트업의 창업자들이 대부분 일류대학 출신이라는 것은 데이터를 통해서 지지된다. 이때 일류 대학이 모두 똑같이 중요한 것이 아니라 대학문화와 위치에 따라서 달라진다. 즉 강력한 창업 기업가 문화를 조성한 대학교인 USC나 미시간대학교, 브리검영대학교가 프린스턴, 칼텍, 시카고 대학교보다 더 많은 성공한 창업가들을 배출한다. 다만 이것이 투자자들의 편견(학벌선호?)때문인지는 확인하기 어렵다.
성공한 스타트업 창업가들 중에 많은 비율이 구글, 오라클, IBM과 같은 특정 기업 출신들이 많다. 물론 이것이 투자자들의 주목을 끌기 때문에 그런것인지 진짜 다른 효과가 있는지는 확인이 어렵다.
뚜렸하게 스타트업의 성공율에 큰 영향을 주는 것은 ‘수퍼 파운더’이다. 즉, 반복해서 창업하는 사람들의 가치는 더욱 두드러진다. 데이터를 통해서 확인되지만 과거에 성과가 좋은 기업을 창업했던 자들은 수십억 달러 기업을 창업할 가능성이 훨씬 높았다.(스타트업에 창업이 아니라 합류해서 성공을 노리는 사람이라면 수퍼 창업자가 창업한 기업을 찾으면 성공 가능성을 높일 수 있다.)
데이터로만 보면 성공한 스타트업의 50% 이상이 실리콘벨리에 근거지를 두고 있다. 하지만 일부 기업들은 초기 성공 이후에 실리콘벨리로 옮겨온 사례가 꽤 있다.
여러 사례에서 대규모 투자를 유치한 스타트업과 경쟁하는 다른 스타트업은 성공할 확률이 매우 낮은것으로 보여진다.
다양한 형태의 방어 가능성(아마 해자의 의미로 쓴 듯하다)을 잘 갖춘 스타트업은 성공할 확률이 훨씬 높다. 성공한 스타트업의 대부분은 해자가 명확했는데 성공하지 못한 스타트업은 45%가 해자가 특별히 없었다.
성공한 스타트업의 60%는 세콰이어, A16z, 벤치마크, 엑셀등 최상위권 벤처 캐피털의 투자를 받았다. 성공하지 못한 그룹은 20% 정도를 이들에게서 투자를 받았다.
책에는 케이스별로 풍부한 사례들이 나와있다. 사례를 더 알고 싶은 분들은 일독을 해도 괜찮을듯하다.(주장하는 내용은 여기 정리한 것에서 크게 벗어나지 않기는 하다.)
https://m.yes24.com/Goods/Detail/109648342
예스24
슈퍼 파운더 - 예스24
엄청난 성공을 이룬 기업과 그렇지 못한 기업은 어떤 차이가 있을까?페이스북, 줌, 페이팔, 깃허브, 스트라이프, 에어비앤비, 유튜브, 링크트인, 인스타그램 등 오늘날 세계를 제패한 세계적 기업들 모두 ‘스타트업’으로 시작했다. 그렇다면 이들 기업의 성공비결은 ...
❤3
이호연님
*기본기에 대한 짧은 생각*
요즘 엔지니어들과 이야기를 나누는 주요 토픽 중 하나는 ‘기본기’를 어떻게 쌓아야 하냐는 것이었다. 특히 신입이나 주니어 엔지니어들은 커리어에 대한 고민이 많은 시기이다 보니, 선배 개발자들이 강조하던 ‘기본기’를 어떻게 기를 수 있는지에 대해 많이 궁금해하는 것 같았다.
나도 사실 엔지니어의 성장을 논할 때 기본기를 항상 이야기하는 편인데, 이게 무엇인지에 대해 정의하려고 하면 막상 명확한 답은 떠오르지 않았던 것 같다. 사람들이 종종 이야기하는 CS 지식이나 알고리즘 같은 소위 하드스킬을 기본기라고만 하기엔 조금 애매한 부분이 있다.
그래서 곰곰이 생각해봤는데, 기본기가 쌓여 나간다는 그 ‘느낌’은 대체로 어떤 문제를 더 ‘잘’ 해결하려고 하는 과정에서 많이 왔던 것 같다. 책이나 강의를 통해 배울 수 있는 영역들만으로는 잘하기 어렵다. 더 잘하기 위해서는 수면 아래에 있는 것들을 찾아 원리를 정확히 이해하고, 개선이 필요한 부분을 찾아 부러뜨려야 한다. 이 부분은 전적으로 본인의 주체적인 의지로만 가능하며, ‘암묵지’라는 형태로 존재할 수도 있겠다
우리가 어떤 일을 하더라도 ‘잘’할 수 있는 부분은 분명히 있을 것이고, 그를 위한 시도를 계속하다 보면 자연스럽게 성장할 수 있을 것 같다. 그 과정에서 기본기는 자연스럽게 따라온다고 본다. 우리가 맡은 일을 '잘'하기 위해서 끊임없이 호기심을 품는 것. 그게 기본기를 쌓기 위한 필요 조건이지 않을까 싶음!
*기본기에 대한 짧은 생각*
요즘 엔지니어들과 이야기를 나누는 주요 토픽 중 하나는 ‘기본기’를 어떻게 쌓아야 하냐는 것이었다. 특히 신입이나 주니어 엔지니어들은 커리어에 대한 고민이 많은 시기이다 보니, 선배 개발자들이 강조하던 ‘기본기’를 어떻게 기를 수 있는지에 대해 많이 궁금해하는 것 같았다.
나도 사실 엔지니어의 성장을 논할 때 기본기를 항상 이야기하는 편인데, 이게 무엇인지에 대해 정의하려고 하면 막상 명확한 답은 떠오르지 않았던 것 같다. 사람들이 종종 이야기하는 CS 지식이나 알고리즘 같은 소위 하드스킬을 기본기라고만 하기엔 조금 애매한 부분이 있다.
그래서 곰곰이 생각해봤는데, 기본기가 쌓여 나간다는 그 ‘느낌’은 대체로 어떤 문제를 더 ‘잘’ 해결하려고 하는 과정에서 많이 왔던 것 같다. 책이나 강의를 통해 배울 수 있는 영역들만으로는 잘하기 어렵다. 더 잘하기 위해서는 수면 아래에 있는 것들을 찾아 원리를 정확히 이해하고, 개선이 필요한 부분을 찾아 부러뜨려야 한다. 이 부분은 전적으로 본인의 주체적인 의지로만 가능하며, ‘암묵지’라는 형태로 존재할 수도 있겠다
우리가 어떤 일을 하더라도 ‘잘’할 수 있는 부분은 분명히 있을 것이고, 그를 위한 시도를 계속하다 보면 자연스럽게 성장할 수 있을 것 같다. 그 과정에서 기본기는 자연스럽게 따라온다고 본다. 우리가 맡은 일을 '잘'하기 위해서 끊임없이 호기심을 품는 것. 그게 기본기를 쌓기 위한 필요 조건이지 않을까 싶음!
👍1
1. 좋아하는 일 해야한다. Passion will lead you to be the world class.
2. 잘하는 방법을 배워야한다. Strategic strength
3. 돈 벌 방법을 찾아야한다. Market & competition
실리콘 밸리 밖에서 태어난 창업자들은? 왜 Spotify, Shopify는 가능했을까?
실리콘 밸리에서할 수 없지만 내가 할 수 있고 승리할 수 있는 전략은 무엇인가?
1. Spotify: 스칸디나비아 record label-> expand
2. Shopify: ecommerce는 아마존 때문에 안되라고 했지만 현실은 작은 ecommerce들이 많이 생기고 있었음.
실리콘 밸리를 잘 알고 있기 때문에 경쟁을 피하면서 좋은 전략을 실행할 수 있었음.
Awareness + “irrational ambition”.
비이성적으로 야심찬 사람이지만 경쟁상황을 직시해야함. 야만만 크다면 한번의 운이 따를 수 있겠지만 장기적으로 쉽지 않음.
스타트업은 시작할 때부터 죽을 운명인데 어떻게 살아갈 것인지 답을 찾아나가야함.
- 이 사업이 크면 왜 엄청 커지는지? 커지는 과정에서 큰 문제는 무엇이고 그 문제를 해결할 Plan A, B, C는 무엇인지?
- 이 시장은 어떻게 생겼으며, 경쟁에서 중요한 것은 무엇이고, 우리가 이길 수 있는 이유는 무엇이고, 기술의 흐름이 왜 우리에게 유리한지 그래서 결국 이 게임의 승자는 우리인지?
주변에 가장 똑똑한 사람들에게 가서 어떻게 생각하는지? 망한다면 왜 망한다고 생각하는지 이야기를 들어볼 것. 그리고 그것에 대한 플랜을 고민해볼 것.
- (소프트웨어 비즈니스라면) 왜 내가 글로벌 경쟁에서 이길 수 있을까?
- LinkedIn, Airbnb 둘다 주변에 똑똑한 동료들이 망할거라 했고 리스크를 알고 있었지만 이 아이디어가 되기만하면 엄청 큰 변화였고 그 리스크에 대한 계획들(Plan A, B, C etc)가 있었음.
- 우리 사업이 잘 안된다면 왜 잘 안될까? 그 위험을 어떻게 관리할 것인가?
- 망할 가능성은 높지만 성공했을 때 큰 리턴이 있는가?
Persistence <> Flexibility
끈질기게 밀어붙일 것인가 유연하게 바뀔것인가?
PayPal success
1. 똑똑하고 야망있는데 대중들과 다른 뷰를 가진 집단이 모여서 성과를 만들었고 적절한 타이밍에 엑싯했다.(IPO->Exit)
2. 이 돈을 바탕으로 새롭게 다가오는 웨이브를 다른 사람들보다 먼저 봤고 Consumer Internet, Enterprise Software, Greentech(Youtube, Linkedin, Tesla)등 새로운 아이디어로 창업/투자했고 더 많은 성공을 했다.
Importance of Sales
- 파운더는 훌륭한 인재들이 회사에 합류하도록 투자자들이 투자하도록 설득해야한다. 이 때, 단순히 큰 비전과 더불어 이 비전까지 가기 위해 있는 허들에 대해서 인지하고 있으며 어떤식으로 해결할 것인지에 대한 객관적인 현실인식이 중요하다. 이 문제를 해결하는 것보다 인지하고 있는 것이 중요하다.
Hiring
- 창업자가 본인 시간의 1/3을 채용에 안쓰면 문제가 있다. 좋은 인재는 실행의 질과 퀄리티를 결정하고, 채용의 바를 낮추면 제품과 GTM이 떨어진다.
- 채용을 위한 Routine이 필요하다. 역할을 정의하고, 항상 좋은 인재 풀에 노출되라.
- 평판이 인터뷰보다 중요하다. 실제로 일해본 사람들(추천받지 않은 사람들)의 의견을 물어봐라. 강점과 약점을 물어보고 일관된 평가를 받는지 물어봐라.
- Paypal Target Talents: Short Experiences & Insanely Learning curve
Networking
- 전략적으로 멘토, 투자자, 파트너, 잠재 채용하는 사람들과 관계를 구축해라.
- 훌륭한 팀을 만드는 것은 Co-founder/Star employee/ potential customers과 관계를 만드는 것이다.
- 네트워크는 항상 일찍. 진심을 다해(서로의 이익을 위해). 장기간에 걸쳐 구축해라.
Great Founders
- 누구도 day1부터 잘하진 않고 계속해서 배워야한다.
- 피벗을 할수도 있고 시장, 기술 모든 것이 바뀌기 때문에 상황을 인지하고 계속 배워야한다.
- 강한 팀을 만들고 강한 신뢰를 만드는 것이 슈퍼파워다.
- 위기(경쟁사/기술&시장의 변화)에서 살아남는 것이 중요하다. 스트레스가 극심한 상황에서 패닉에 빠지지 않고 문제를 해결할 수 있는 것(회복탄력성)이 중요하다. 삶에서 힘든 경험이 무엇이었고 어떻게 생존했는가?
Risk
- 다른 사람들은 미쳤다고 하는데 20-30% 의 성공 가능성을 보고 있다면 당신의 Edge일 수 있다.
- Safe Route는 치열한 경쟁이 있다.
- Big vision을 가지되 다양한 Plan B를 가지고 있어라.
Marriage & Life
- Linkedin의 빠른 성장 때문에 결혼식 일정을 다시 잡았다.
- 파운더들은 인생의 파트너가 스타트업의 요구사항을 잘 이해할 수 있도록 커뮤니케이션해야한다. 그렇지 않다면 상대는 큰 분노를 느끼거나 혼란스러워할것.
- 내가 지금을 살고 있나가 중요하다. 그래서 관계를 완전히 희생시키지 않기 위해서 신경쓸것.
https://youtu.be/eTkFItOG3Kk?si=PXBa7XOw7MgP9cRs
2. 잘하는 방법을 배워야한다. Strategic strength
3. 돈 벌 방법을 찾아야한다. Market & competition
실리콘 밸리 밖에서 태어난 창업자들은? 왜 Spotify, Shopify는 가능했을까?
실리콘 밸리에서할 수 없지만 내가 할 수 있고 승리할 수 있는 전략은 무엇인가?
1. Spotify: 스칸디나비아 record label-> expand
2. Shopify: ecommerce는 아마존 때문에 안되라고 했지만 현실은 작은 ecommerce들이 많이 생기고 있었음.
실리콘 밸리를 잘 알고 있기 때문에 경쟁을 피하면서 좋은 전략을 실행할 수 있었음.
Awareness + “irrational ambition”.
비이성적으로 야심찬 사람이지만 경쟁상황을 직시해야함. 야만만 크다면 한번의 운이 따를 수 있겠지만 장기적으로 쉽지 않음.
스타트업은 시작할 때부터 죽을 운명인데 어떻게 살아갈 것인지 답을 찾아나가야함.
- 이 사업이 크면 왜 엄청 커지는지? 커지는 과정에서 큰 문제는 무엇이고 그 문제를 해결할 Plan A, B, C는 무엇인지?
- 이 시장은 어떻게 생겼으며, 경쟁에서 중요한 것은 무엇이고, 우리가 이길 수 있는 이유는 무엇이고, 기술의 흐름이 왜 우리에게 유리한지 그래서 결국 이 게임의 승자는 우리인지?
주변에 가장 똑똑한 사람들에게 가서 어떻게 생각하는지? 망한다면 왜 망한다고 생각하는지 이야기를 들어볼 것. 그리고 그것에 대한 플랜을 고민해볼 것.
- (소프트웨어 비즈니스라면) 왜 내가 글로벌 경쟁에서 이길 수 있을까?
- LinkedIn, Airbnb 둘다 주변에 똑똑한 동료들이 망할거라 했고 리스크를 알고 있었지만 이 아이디어가 되기만하면 엄청 큰 변화였고 그 리스크에 대한 계획들(Plan A, B, C etc)가 있었음.
- 우리 사업이 잘 안된다면 왜 잘 안될까? 그 위험을 어떻게 관리할 것인가?
- 망할 가능성은 높지만 성공했을 때 큰 리턴이 있는가?
Persistence <> Flexibility
끈질기게 밀어붙일 것인가 유연하게 바뀔것인가?
PayPal success
1. 똑똑하고 야망있는데 대중들과 다른 뷰를 가진 집단이 모여서 성과를 만들었고 적절한 타이밍에 엑싯했다.(IPO->Exit)
2. 이 돈을 바탕으로 새롭게 다가오는 웨이브를 다른 사람들보다 먼저 봤고 Consumer Internet, Enterprise Software, Greentech(Youtube, Linkedin, Tesla)등 새로운 아이디어로 창업/투자했고 더 많은 성공을 했다.
Importance of Sales
- 파운더는 훌륭한 인재들이 회사에 합류하도록 투자자들이 투자하도록 설득해야한다. 이 때, 단순히 큰 비전과 더불어 이 비전까지 가기 위해 있는 허들에 대해서 인지하고 있으며 어떤식으로 해결할 것인지에 대한 객관적인 현실인식이 중요하다. 이 문제를 해결하는 것보다 인지하고 있는 것이 중요하다.
Hiring
- 창업자가 본인 시간의 1/3을 채용에 안쓰면 문제가 있다. 좋은 인재는 실행의 질과 퀄리티를 결정하고, 채용의 바를 낮추면 제품과 GTM이 떨어진다.
- 채용을 위한 Routine이 필요하다. 역할을 정의하고, 항상 좋은 인재 풀에 노출되라.
- 평판이 인터뷰보다 중요하다. 실제로 일해본 사람들(추천받지 않은 사람들)의 의견을 물어봐라. 강점과 약점을 물어보고 일관된 평가를 받는지 물어봐라.
- Paypal Target Talents: Short Experiences & Insanely Learning curve
Networking
- 전략적으로 멘토, 투자자, 파트너, 잠재 채용하는 사람들과 관계를 구축해라.
- 훌륭한 팀을 만드는 것은 Co-founder/Star employee/ potential customers과 관계를 만드는 것이다.
- 네트워크는 항상 일찍. 진심을 다해(서로의 이익을 위해). 장기간에 걸쳐 구축해라.
Great Founders
- 누구도 day1부터 잘하진 않고 계속해서 배워야한다.
- 피벗을 할수도 있고 시장, 기술 모든 것이 바뀌기 때문에 상황을 인지하고 계속 배워야한다.
- 강한 팀을 만들고 강한 신뢰를 만드는 것이 슈퍼파워다.
- 위기(경쟁사/기술&시장의 변화)에서 살아남는 것이 중요하다. 스트레스가 극심한 상황에서 패닉에 빠지지 않고 문제를 해결할 수 있는 것(회복탄력성)이 중요하다. 삶에서 힘든 경험이 무엇이었고 어떻게 생존했는가?
Risk
- 다른 사람들은 미쳤다고 하는데 20-30% 의 성공 가능성을 보고 있다면 당신의 Edge일 수 있다.
- Safe Route는 치열한 경쟁이 있다.
- Big vision을 가지되 다양한 Plan B를 가지고 있어라.
Marriage & Life
- Linkedin의 빠른 성장 때문에 결혼식 일정을 다시 잡았다.
- 파운더들은 인생의 파트너가 스타트업의 요구사항을 잘 이해할 수 있도록 커뮤니케이션해야한다. 그렇지 않다면 상대는 큰 분노를 느끼거나 혼란스러워할것.
- 내가 지금을 살고 있나가 중요하다. 그래서 관계를 완전히 희생시키지 않기 위해서 신경쓸것.
https://youtu.be/eTkFItOG3Kk?si=PXBa7XOw7MgP9cRs
YouTube
Reid Hoffman, LinkedIn Founder: It’s Time To Quit Your Job When You Feel This! Trump Will Punish Me!
Reid Hoffman is the Founder of LinkedIn, founding member of Paypal, early investor in Airbnb And Facebook. He worked along side the very best in tech including Elon Musk And Peter Thiel.
00:00 Intro
02:02 How Have You Managed to Be So Successful?
07:20 What…
00:00 Intro
02:02 How Have You Managed to Be So Successful?
07:20 What…
❤6
누구나 죽는다는 사실을 알고 있다.
그러나 ‘언젠가 몇 십 년 뒤’쯤으로만 생각했던 죽음이 당장 며칠 후, 혹은 몇 주 뒤에 닥쳐온다면, 과연 우리는 어떻게 살 것인가?
신경외과 의사였던 폴은 폐암 4기 판정을 받은 뒤 자신의 삶의 의미를 깊이 고민한다. 항암치료를 병행하면서 딸을 출산하고, 다시 신경외과 의사로 복귀해 수술을 집도하던 그는 죽음을 맞이하기까지 본인의 이야기를 글로 남겼다. 이 책이 바로 《숨결이 바람 될 때》이다.
폴은 늘 환자를 아끼는 의사였다.
"제 환자들은 모두 소중합니다. 그들의 삶의 가치는 숫자로만 정의될 수 없습니다."
그런 그가 폐암 4기 판정을 받고, 이번에는 ‘환자’의 입장에서 죽음을 준비해야 했다.
“진단서 한 장이 내 인생을 완전히 바꿔 버렸다. 의사복은 벗겨지고, 환자복만 남았다.”
"나는 어느 날 문득, 삶과 죽음의 경계가 이렇게도 가까이 있다는 걸 깨달았다."
“아내의 손을 잡고서야, 내가 진짜 살아 있음을 느꼈다.”
폐암 4기 상태로 환자가 된 그는, 아내 루시와의 관계에서도 난관에 부딪힌다. 둘은 부부 상담을 통해 서로가 느끼는 두려움과 상실감을 허심탄회하게 나누었고, 루시는 “남편이 아무리 힘들어도 자신을 고립시키지 않았으면 좋겠다”는 마음을 전한다. 폴 또한 “아내가 자신의 유일한 마음 버팀목”임을 깨닫는다.
루시는 남편이 오래 살 가능성이 낮다는 것을 알면서도, “아이를 낳아 함께 맞이하는 순간이야말로 두 사람에게 남은 ‘진정한 삶’”이라 여겼다. 동시에 그녀 본인에게도 이 아이는 “미래를 잇는 희망”이었다.
과연 ‘살아 있다’는 것은 무엇일까?
“숨이 멈추는 날까지도, 나는 나의 이야기를 써 내려가고 싶었다.”
“죽음 앞에서 내가 진짜로 붙잡을 가치는 무엇인가.”
“딸을 처음 안아 본 순간, 내 삶이 더없이 단단해졌다는 느낌이 들었다.”
"삶의 끝자락에서야, 함께 손잡아 줄 사람이 곁에 있다는 것이 얼마나 큰 위안인지 깨달았다."
“이제 숨결이 바람으로 스며들 순간이 다가온다. 그러나 내 영혼의 울림은 멈추지 않을 것이다.”
결국 “사랑과 인간관계가 가장 귀중하다”는 결론에 다다른다.
“그가 남긴 문장들은 우리 모두에게, 곁에 있는 이들과 더 깊이 연결되라는 초대장과도 같다.”
https://product.kyobobook.co.kr/detail/S000001029280
그러나 ‘언젠가 몇 십 년 뒤’쯤으로만 생각했던 죽음이 당장 며칠 후, 혹은 몇 주 뒤에 닥쳐온다면, 과연 우리는 어떻게 살 것인가?
신경외과 의사였던 폴은 폐암 4기 판정을 받은 뒤 자신의 삶의 의미를 깊이 고민한다. 항암치료를 병행하면서 딸을 출산하고, 다시 신경외과 의사로 복귀해 수술을 집도하던 그는 죽음을 맞이하기까지 본인의 이야기를 글로 남겼다. 이 책이 바로 《숨결이 바람 될 때》이다.
폴은 늘 환자를 아끼는 의사였다.
"제 환자들은 모두 소중합니다. 그들의 삶의 가치는 숫자로만 정의될 수 없습니다."
그런 그가 폐암 4기 판정을 받고, 이번에는 ‘환자’의 입장에서 죽음을 준비해야 했다.
“진단서 한 장이 내 인생을 완전히 바꿔 버렸다. 의사복은 벗겨지고, 환자복만 남았다.”
"나는 어느 날 문득, 삶과 죽음의 경계가 이렇게도 가까이 있다는 걸 깨달았다."
“아내의 손을 잡고서야, 내가 진짜 살아 있음을 느꼈다.”
폐암 4기 상태로 환자가 된 그는, 아내 루시와의 관계에서도 난관에 부딪힌다. 둘은 부부 상담을 통해 서로가 느끼는 두려움과 상실감을 허심탄회하게 나누었고, 루시는 “남편이 아무리 힘들어도 자신을 고립시키지 않았으면 좋겠다”는 마음을 전한다. 폴 또한 “아내가 자신의 유일한 마음 버팀목”임을 깨닫는다.
루시는 남편이 오래 살 가능성이 낮다는 것을 알면서도, “아이를 낳아 함께 맞이하는 순간이야말로 두 사람에게 남은 ‘진정한 삶’”이라 여겼다. 동시에 그녀 본인에게도 이 아이는 “미래를 잇는 희망”이었다.
과연 ‘살아 있다’는 것은 무엇일까?
“숨이 멈추는 날까지도, 나는 나의 이야기를 써 내려가고 싶었다.”
“죽음 앞에서 내가 진짜로 붙잡을 가치는 무엇인가.”
“딸을 처음 안아 본 순간, 내 삶이 더없이 단단해졌다는 느낌이 들었다.”
"삶의 끝자락에서야, 함께 손잡아 줄 사람이 곁에 있다는 것이 얼마나 큰 위안인지 깨달았다."
“이제 숨결이 바람으로 스며들 순간이 다가온다. 그러나 내 영혼의 울림은 멈추지 않을 것이다.”
결국 “사랑과 인간관계가 가장 귀중하다”는 결론에 다다른다.
“그가 남긴 문장들은 우리 모두에게, 곁에 있는 이들과 더 깊이 연결되라는 초대장과도 같다.”
https://product.kyobobook.co.kr/detail/S000001029280
product.kyobobook.co.kr
숨결이 바람 될 때 | 폴 칼라니티 - 교보문고
숨결이 바람 될 때 | 신경외과 의사로서 치명적인 뇌 손상 환자들을 치료하며 죽음과 싸우다가 자신도 폐암 말기 판정을 받고 죽음을 직면하게 된 서른여섯의 젊은 의사 폴 칼라니티. 그가 써내려간 마지막 2년의 기록인 《……
❤3
https://youtu.be/jM_rYOrgJ7E
https://genesis-world.readthedocs.io/en/latest/index.html
1. 기존 로봇 및 시뮬레이션 분야에서는 다양한 플랫폼(예: Mujoco, Isaac Gym/Sim, Bullet)들이 이미 존재.
- 주요 문제점
1) 배우는데 시간이 많이 필요함: GPU 병렬화나 대규모 병렬 시뮬레이션을 구현하려면 복잡한 설정과 API 학습이 필요함.
2) 일부 엔진은 폐쇄형(closed-source) 또는 소스 접근이 어려워, 사용자 맞춤 수정이나 물리 모델 확장이 제한적.
3) 기존 CAE(예: Ansys)와 달리, 로봇/게임 쪽 시뮬레이터들은 고성능 병렬화에 치중했지만, 여전히 정확도·유연성 면에서 한계가 있거나, 반대로 너무 세팅이 복잡.
2. 무엇을 개선했나?
1) 완전한 파이썬 기반 오픈소스
- 설치와 API 접근이 쉬움. 커뮤니티 기여(플러그인 등)가 용이.
2) 압도적인 병렬화·속도
- GPU 병렬 수행으로, 예: 단일 프랭카 매니퓰레이터 장면에서 43 million FPS 시연. 기존 GPU 시뮬레이터 대비 10~80배 빠른 수준을 목표.
3) 다양한 물리현상 통합(multi-physics)
- Rigid-body, MPM, SPH, FEM, PBD 등 **여러 솔버**를 한 프레임워크에서 작동 → 광범위한 소재·환경을 시뮬레이션 가능.
4) 생성적(Generative) 데이터 엔진
- 자연어 프롬프트("원숭이가 테이블을 뛰어다니며 카메라 360도 회전 촬영…")로 물리 정확한 4D 시뮬레이션, 비디오, 음성, 로봇 행동정책 등을 자동 생성.
- 자동화된 시나리오→카메라 경로→정확한 동작·렌더링까지 일괄 지원.
3. 어떻게 개선했나?
1) 데이터 생성 + 학습방식
- “Generative agent framework”: 자연어 프롬프트("원숭이가 테이블을…")를 해석해
(1) 장면(객체·환경) 배치,
(2) 카메라 모션,
(3) 로봇 동작/정책(조인트·드론군집 등) 같은 요소를 자동으로 생성하여 **동적 물리 장면**을 구성.
- 이렇게 만들어진 4D 시뮬레이션("동영상+상태·센서 정보")은 곧 학습용 데이터:
- 예: 로봇 제어 정책을 강화학습하거나,
- AI 모델(예: 영상·동작 인식, 시뮬레이션 예측) 학습에 활용 가능.
- 논문은 아직 전부 공개되지 않아, "Generative agent 내부가 어떤 딥러닝 구조인지" 구체적 언급은 제한적.
- 다만, VLM(대규모 비전/언어 모델) 계열 + 내부 물리 엔진 API 호출 로직이 결합된 형태로 추정.
- 기본 개념: 자연어→시뮬레이션 장면 자동생성, 시나리오→정책(행동)→영상/궤적 생성
2) Re-built from the ground up
- 기존 시뮬레이터들의 "스택이 복잡, 폐쇄적, 특정 물리현상 전용"인 한계를 해소하고자, **통합 물리엔진**(rigid+deform+fluid)을 새롭게 작성.
3) Pythonic + JIT + GPU 가속
- 파이썬 API를 유지하면서, 내부는 GPU 병렬 코드를 JIT 컴파일(커널 캐싱 등) → 대규모 병렬 시뮬레이션 지원.
- "Auto-hibernation" 등 최적화 기법을 적용. (정적 물체는 계산 스킵 등)
4) Generative agent
- 텍스트 프롬프트나 VLM(large model) 방식으로, 시뮬레이션 인프라 API를 조작해 **4D 동적 장면**을 생성.
5) Ray-tracing 렌더 + Differentiability + Tactile
- 포토리얼 렌더링(광선추적)과 더불어, 완전 미분이 가능한 시뮬레이션을 목표(일부 솔버는 이미 지원 중).
- 로봇 촉각 센서도 시뮬레이션해 정확도↑.
4. 산업에 미칠 영향
- 로봇 산업
- 학습/훈련 속도 비약적 향상
- 수천~수만 병렬 환경에서 RL(강화학습)이나 시뮬레이션 가능 → **정책 학습**이 빠르고 다양한 시나리오(물질·환경) 적용 가능.
- 정책 자동생성(Generative Policy)
- "RoboGen"처럼 특정 작업(이동, 조작) 데이터를 자동으로 생성하여, 실제 로봇에 **Sim2Real**로 옮기기 수월.
- 소비자용 로봇 역시, 가상의 '집·환경'을 무제한으로 만들어 **로봇 동작**을 미리 학습·테스트 → 제품 개발·출시 속도 개선.
- 시뮬레이션(CAE) 발전 방향
- CAE는 주로 정확도 높은 해석을 위해 implicit solvers를 쓰나, Genesis처럼 반실시간 수준의 병렬화로 준정확한 해석 장면을 다양하게 생성할 수 있음.
- 차후 이 둘이 결합되어, 공정 설계나 형상 최적화에 빠르고 폭넓은 사전 해석을 할 수 있는 가능성.
- 게임/그래픽
- 광원·물리·의상·유체 등 그래픽 알고리즘을 로봇 시뮬레이션과 통합한 사례. 고품질 시뮬레이션을 게임 엔진 수준으로 빠르게 돌릴 수 있음 → 미래엔 물리적으로 일관성 높은 게임 월드를 구성 가능.
- 또한 AI NPC 행위 생성(모션 등)에도 물리기반 시뮬레이션 데이터가 큰 도움이 될 전망.
5. 한계
1) 물리 정확도 vs. 속도
- 주로 빠른 병렬 처리를 위해 explicit 기반 혹은 반(半)implicit 접근을 사용. 고난이도(고강성·대변형) 문제에서 전통 CAE의 implicit 정확도를 완전히 대체하긴 어려움.
- 미분가능한 부분도 현재는 일부(예: MPM, Tool Solver)만 지원. 추후 rigid-body, SPH 등 확장 필요.
- 미분가능 시뮬레이션(Differentiable Simulation)은 출력이 입력에 대해 도함수를 구할 수 있는 형태로 구현된 시뮬레이션을 의미.
- 이를 통해 제어·정책 최적화, 물성치 추정(Identification), 형상·구조 최적화 등이 가능.
2) Generative Framework 아직 공개 전부가 아님
- 현재는 물리엔진·시뮬레이터를 우선 공개, **Generative agent 모듈**은 순차적 오픈 예정.
- 실제 로봇 정책 자동생성 기능("RoboGen") 등은 아직 자료가 제한됨.
3) 대규모 실무 검증
- 다양한 산업 현장에서의 하드한 검증(강인성, 물성치 튜닝)이 필요.
- 대형 어셈블리나 극단적 조건(고온·진동 등)의 정확도는 향후 이슈.
https://genesis-world.readthedocs.io/en/latest/index.html
1. 기존 로봇 및 시뮬레이션 분야에서는 다양한 플랫폼(예: Mujoco, Isaac Gym/Sim, Bullet)들이 이미 존재.
- 주요 문제점
1) 배우는데 시간이 많이 필요함: GPU 병렬화나 대규모 병렬 시뮬레이션을 구현하려면 복잡한 설정과 API 학습이 필요함.
2) 일부 엔진은 폐쇄형(closed-source) 또는 소스 접근이 어려워, 사용자 맞춤 수정이나 물리 모델 확장이 제한적.
3) 기존 CAE(예: Ansys)와 달리, 로봇/게임 쪽 시뮬레이터들은 고성능 병렬화에 치중했지만, 여전히 정확도·유연성 면에서 한계가 있거나, 반대로 너무 세팅이 복잡.
2. 무엇을 개선했나?
1) 완전한 파이썬 기반 오픈소스
- 설치와 API 접근이 쉬움. 커뮤니티 기여(플러그인 등)가 용이.
2) 압도적인 병렬화·속도
- GPU 병렬 수행으로, 예: 단일 프랭카 매니퓰레이터 장면에서 43 million FPS 시연. 기존 GPU 시뮬레이터 대비 10~80배 빠른 수준을 목표.
3) 다양한 물리현상 통합(multi-physics)
- Rigid-body, MPM, SPH, FEM, PBD 등 **여러 솔버**를 한 프레임워크에서 작동 → 광범위한 소재·환경을 시뮬레이션 가능.
4) 생성적(Generative) 데이터 엔진
- 자연어 프롬프트("원숭이가 테이블을 뛰어다니며 카메라 360도 회전 촬영…")로 물리 정확한 4D 시뮬레이션, 비디오, 음성, 로봇 행동정책 등을 자동 생성.
- 자동화된 시나리오→카메라 경로→정확한 동작·렌더링까지 일괄 지원.
3. 어떻게 개선했나?
1) 데이터 생성 + 학습방식
- “Generative agent framework”: 자연어 프롬프트("원숭이가 테이블을…")를 해석해
(1) 장면(객체·환경) 배치,
(2) 카메라 모션,
(3) 로봇 동작/정책(조인트·드론군집 등) 같은 요소를 자동으로 생성하여 **동적 물리 장면**을 구성.
- 이렇게 만들어진 4D 시뮬레이션("동영상+상태·센서 정보")은 곧 학습용 데이터:
- 예: 로봇 제어 정책을 강화학습하거나,
- AI 모델(예: 영상·동작 인식, 시뮬레이션 예측) 학습에 활용 가능.
- 논문은 아직 전부 공개되지 않아, "Generative agent 내부가 어떤 딥러닝 구조인지" 구체적 언급은 제한적.
- 다만, VLM(대규모 비전/언어 모델) 계열 + 내부 물리 엔진 API 호출 로직이 결합된 형태로 추정.
- 기본 개념: 자연어→시뮬레이션 장면 자동생성, 시나리오→정책(행동)→영상/궤적 생성
2) Re-built from the ground up
- 기존 시뮬레이터들의 "스택이 복잡, 폐쇄적, 특정 물리현상 전용"인 한계를 해소하고자, **통합 물리엔진**(rigid+deform+fluid)을 새롭게 작성.
3) Pythonic + JIT + GPU 가속
- 파이썬 API를 유지하면서, 내부는 GPU 병렬 코드를 JIT 컴파일(커널 캐싱 등) → 대규모 병렬 시뮬레이션 지원.
- "Auto-hibernation" 등 최적화 기법을 적용. (정적 물체는 계산 스킵 등)
4) Generative agent
- 텍스트 프롬프트나 VLM(large model) 방식으로, 시뮬레이션 인프라 API를 조작해 **4D 동적 장면**을 생성.
5) Ray-tracing 렌더 + Differentiability + Tactile
- 포토리얼 렌더링(광선추적)과 더불어, 완전 미분이 가능한 시뮬레이션을 목표(일부 솔버는 이미 지원 중).
- 로봇 촉각 센서도 시뮬레이션해 정확도↑.
4. 산업에 미칠 영향
- 로봇 산업
- 학습/훈련 속도 비약적 향상
- 수천~수만 병렬 환경에서 RL(강화학습)이나 시뮬레이션 가능 → **정책 학습**이 빠르고 다양한 시나리오(물질·환경) 적용 가능.
- 정책 자동생성(Generative Policy)
- "RoboGen"처럼 특정 작업(이동, 조작) 데이터를 자동으로 생성하여, 실제 로봇에 **Sim2Real**로 옮기기 수월.
- 소비자용 로봇 역시, 가상의 '집·환경'을 무제한으로 만들어 **로봇 동작**을 미리 학습·테스트 → 제품 개발·출시 속도 개선.
- 시뮬레이션(CAE) 발전 방향
- CAE는 주로 정확도 높은 해석을 위해 implicit solvers를 쓰나, Genesis처럼 반실시간 수준의 병렬화로 준정확한 해석 장면을 다양하게 생성할 수 있음.
- 차후 이 둘이 결합되어, 공정 설계나 형상 최적화에 빠르고 폭넓은 사전 해석을 할 수 있는 가능성.
- 게임/그래픽
- 광원·물리·의상·유체 등 그래픽 알고리즘을 로봇 시뮬레이션과 통합한 사례. 고품질 시뮬레이션을 게임 엔진 수준으로 빠르게 돌릴 수 있음 → 미래엔 물리적으로 일관성 높은 게임 월드를 구성 가능.
- 또한 AI NPC 행위 생성(모션 등)에도 물리기반 시뮬레이션 데이터가 큰 도움이 될 전망.
5. 한계
1) 물리 정확도 vs. 속도
- 주로 빠른 병렬 처리를 위해 explicit 기반 혹은 반(半)implicit 접근을 사용. 고난이도(고강성·대변형) 문제에서 전통 CAE의 implicit 정확도를 완전히 대체하긴 어려움.
- 미분가능한 부분도 현재는 일부(예: MPM, Tool Solver)만 지원. 추후 rigid-body, SPH 등 확장 필요.
- 미분가능 시뮬레이션(Differentiable Simulation)은 출력이 입력에 대해 도함수를 구할 수 있는 형태로 구현된 시뮬레이션을 의미.
- 이를 통해 제어·정책 최적화, 물성치 추정(Identification), 형상·구조 최적화 등이 가능.
2) Generative Framework 아직 공개 전부가 아님
- 현재는 물리엔진·시뮬레이터를 우선 공개, **Generative agent 모듈**은 순차적 오픈 예정.
- 실제 로봇 정책 자동생성 기능("RoboGen") 등은 아직 자료가 제한됨.
3) 대규모 실무 검증
- 다양한 산업 현장에서의 하드한 검증(강인성, 물성치 튜닝)이 필요.
- 대형 어셈블리나 극단적 조건(고온·진동 등)의 정확도는 향후 이슈.
YouTube
Genesis: Open-source physics engine for 4D worlds, 430,000x real-time speed.
Everything you love about generative models — now powered by real physics!
Announcing the Genesis project — after a 24-month large-scale research collaboration involving over 20 research labs — a generative physics engine able to generate 4D dynamical worlds…
Announcing the Genesis project — after a 24-month large-scale research collaboration involving over 20 research labs — a generative physics engine able to generate 4D dynamical worlds…
❤2
Continuous Learning_Startup & Investment
https://youtu.be/jM_rYOrgJ7E https://genesis-world.readthedocs.io/en/latest/index.html 1. 기존 로봇 및 시뮬레이션 분야에서는 다양한 플랫폼(예: Mujoco, Isaac Gym/Sim, Bullet)들이 이미 존재. - 주요 문제점 1) 배우는데 시간이 많이 필요함: GPU 병렬화나 대규모 병렬 시뮬레이션을 구현하려면 복잡한 설정과 API 학습이 필요함. 2)…
연구의 기반이 되었던 논문 https://arxiv.org/abs/2305.10455
## 1. 핵심 아이디어(Core Ideas)
1. 목표: 대규모 모달(멀티모달) 모델의 물리 세계 확장
- 최근 거대 언어 모델(LLM)과 멀티모달 모델(MFM, Multimodal Foundation Models)이 여러 분야에서 뛰어난 성능을 보이며 ‘가상 세계(언어·이미지·코드 등)’를 넘어서 물리 세계와 직접 상호작용하는 “제너럴리스트 로봇(generalist robots)”으로 확장되는 방법을 탐색한다.
- 저자들은 “로봇이 실제 물리 세계에서 다채로운 작업을 할 수 있으려면, 먼저 시뮬레이션 환경에서 충분히 다양한 ‘저수준(로우 레벨) 모터 스킬’을 학습해야 한다”고 주장한다.
2. Generative Simulation(생성형 시뮬레이션)
- 거대 멀티모달 모델이 생성 능력을 가지고 있다는 점(텍스트·이미지·3D·코드 생성 등)을 활용하여, “자동으로 수많은 작업(task)과 장면(scene)을 시뮬레이션에서 만들어내고(Generate)”, 이를 통해 로봇의 저수준 동작 제어 정책을 대규모로 학습하는 방식을 제안한다.
- 이때, 고수준(High-level) 계획이나 추론은 이미 충분히 강력한 대규모 모델에게 맡기고, 실제 물리 동작(모터 스킬)은 시뮬레이션을 통해 정책을 학습하는 식으로 역할을 분담한다는 발상이다.
3. 시뮬레이션 데이터 스케일 확장
- 언어 모델이 거대한 규모의 텍스트 코퍼스에서 학습하듯, 로봇 정책도 엄청나게 방대한 스케일의 시뮬레이션 경험(시나리오, 보상함수, 환경 설정 등)으로 학습되어야 한다.
- 하지만 기존 시뮬레이션 데이터 제작은 대부분 사람이 “수작업”으로 환경·작업·보상함수를 설계하는 데 많은 비용이 든다.
- 그래서, “MFM을 이용해 자동으로 수많은 작업·환경을 생성”하고 이로부터 대규모 학습 데이터를 얻을 수 있는 방식이 필요하다.
---
## 2. 방법론(Methodology)
논문에서는 “Generative Simulation”이라는 자동화된 파이프라인을 소개한다. 대략적인 단계는 다음과 같다.
1. 고수준 목표(High-level Goal)와 하위 과제(Sub-task) 자동 생성
- 예: “부엌 청소하기(clean up a kitchen)”라는 목표가 주어졌다면, MFM(Large Language Model 등)을 질의(prompt)하여 이 목표를 여러 단계의 하위 작업들로 나눈다.
- GPT-4 같은 모델에게 “구체적인 청소 업무 5가지만 나열해 봐”라고 하면, “(1) 식기 닦기 (2) 조리대 닦기 (3) 바닥 쓸기 …” 등으로 분해된 할 일 목록을 얻는다.
- 필요하다면 하위 작업을 더 세분화(“바닥을 쓸어라” → 빗자루 잡기, 먼지 모으기, 쓰레기통 버리기 등)하여 로봇이 학습할 **짧은 호라이즌(short-horizon) 스킬**로 만들 수 있다.
2. 장면(Scene) 자동 생성
- 하위 과제마다 필요한 물체나 구성요소(예: 부엌 → 빗자루·쓰레받기·싱크대·쓰레기통 등)를 거대 언어·이미지 모델에게 질의해 얻는다.
- 이어서 이 물체들이 어떻게 배치되는지(예: x-y 평면 좌표와 z 높이 좌표)를 MFM에게 “코드나 설정파일(JSON 등) 형태”로 생성하게 함으로써, 시뮬레이터에서 불러올 수 있는 형식으로 만든다.
- 모델이 다소 부정확하거나 비현실적인 위치를 생성할 수도 있으므로, 필요하면 시뮬레이터로 한 번 배치해본 뒤(렌더링 결과), 이를 다시 모델에게 피드백하여 점차 실제와 비슷한 장면으로 “반복(Iterative refinement)”할 수도 있다.
3. 객체(오브젝트)·재질·물리 속성(Physics properties) 생성
- 생성한 장면에 들어갈 3D 물체(메시, 텍스처, 재질 등)를 또 다른 생성 모델(3D 생성모델, diffusion모델 등)이나 오픈소스 3D 라이브러리(예: Objaverse, ShapeNet 등)에서 불러온다.
- 물체의 강성(rigid), 연성(soft), 점성(viscous), 관절(articulated) 특성 등 시뮬레이터가 지원하는 물리 모델(Material model)을 MFM이 “이 사물은 딱딱한 플라스틱, 이건 물, 이건 휘어지는 고무” 같은 식으로 합리적으로 할당하도록 할 수 있다.
4. 보상함수(Reward)·학습 신호(Supervision) 자동 생성
- 각 하위 과제(예: 빗자루를 잡기, 바닥을 쓸기 등)에 특화된 보상 함수를 모델이 자동으로 생성한다.
- 예를 들어, “빗자루를 grasp하면 보상을 1 주고, 아니면 그립-빗자루 간 거리로 보상을 감소시킨다” 같은 함수를 GPT-4가 파이썬 코드로 써줄 수 있다.
- 만약 요리처럼 단순 거리 계산으로 판단하기 어려운 과제라면, 이미지 기반 목표 상태(goal condition)나 추가 피처를 포함하도록 설계할 수도 있다.
5. 학습과 정책 통합
- 위 과정을 통해 “수많은 하위 과제·장면·보상”이 완비되면, 이를 통해 Reinforcement Learning(RL)·Trajectory Optimization 등으로 짧은 호라이즌 저수준 스킬을 대량 학습한다.
- 이렇게 학습된 태스크별 정책들을 하나의 거대한 “멀티 태스크 정책”으로 지식 증류(behavior distillation)하거나, 시뮬레이션 상에서 데이터를 쌓아가며 오직 하나의 거대 모델(비전+언어+저수준 액션)을 끝까지 학습할 수도 있다.
- 결국, 로봇이 “거대 멀티모달 모델이 표현하는 상위 지식(예: 자연어·비전·코드)”과 “실제 물리 상호작용 경험”을 통합하여, “실세계에서 유연하게 동작하는 로봇 모델”을 생성하는 것이 이 패러다임의 목표다.
---
## 3. 한계(Limitations)
## 1. 핵심 아이디어(Core Ideas)
1. 목표: 대규모 모달(멀티모달) 모델의 물리 세계 확장
- 최근 거대 언어 모델(LLM)과 멀티모달 모델(MFM, Multimodal Foundation Models)이 여러 분야에서 뛰어난 성능을 보이며 ‘가상 세계(언어·이미지·코드 등)’를 넘어서 물리 세계와 직접 상호작용하는 “제너럴리스트 로봇(generalist robots)”으로 확장되는 방법을 탐색한다.
- 저자들은 “로봇이 실제 물리 세계에서 다채로운 작업을 할 수 있으려면, 먼저 시뮬레이션 환경에서 충분히 다양한 ‘저수준(로우 레벨) 모터 스킬’을 학습해야 한다”고 주장한다.
2. Generative Simulation(생성형 시뮬레이션)
- 거대 멀티모달 모델이 생성 능력을 가지고 있다는 점(텍스트·이미지·3D·코드 생성 등)을 활용하여, “자동으로 수많은 작업(task)과 장면(scene)을 시뮬레이션에서 만들어내고(Generate)”, 이를 통해 로봇의 저수준 동작 제어 정책을 대규모로 학습하는 방식을 제안한다.
- 이때, 고수준(High-level) 계획이나 추론은 이미 충분히 강력한 대규모 모델에게 맡기고, 실제 물리 동작(모터 스킬)은 시뮬레이션을 통해 정책을 학습하는 식으로 역할을 분담한다는 발상이다.
3. 시뮬레이션 데이터 스케일 확장
- 언어 모델이 거대한 규모의 텍스트 코퍼스에서 학습하듯, 로봇 정책도 엄청나게 방대한 스케일의 시뮬레이션 경험(시나리오, 보상함수, 환경 설정 등)으로 학습되어야 한다.
- 하지만 기존 시뮬레이션 데이터 제작은 대부분 사람이 “수작업”으로 환경·작업·보상함수를 설계하는 데 많은 비용이 든다.
- 그래서, “MFM을 이용해 자동으로 수많은 작업·환경을 생성”하고 이로부터 대규모 학습 데이터를 얻을 수 있는 방식이 필요하다.
---
## 2. 방법론(Methodology)
논문에서는 “Generative Simulation”이라는 자동화된 파이프라인을 소개한다. 대략적인 단계는 다음과 같다.
1. 고수준 목표(High-level Goal)와 하위 과제(Sub-task) 자동 생성
- 예: “부엌 청소하기(clean up a kitchen)”라는 목표가 주어졌다면, MFM(Large Language Model 등)을 질의(prompt)하여 이 목표를 여러 단계의 하위 작업들로 나눈다.
- GPT-4 같은 모델에게 “구체적인 청소 업무 5가지만 나열해 봐”라고 하면, “(1) 식기 닦기 (2) 조리대 닦기 (3) 바닥 쓸기 …” 등으로 분해된 할 일 목록을 얻는다.
- 필요하다면 하위 작업을 더 세분화(“바닥을 쓸어라” → 빗자루 잡기, 먼지 모으기, 쓰레기통 버리기 등)하여 로봇이 학습할 **짧은 호라이즌(short-horizon) 스킬**로 만들 수 있다.
2. 장면(Scene) 자동 생성
- 하위 과제마다 필요한 물체나 구성요소(예: 부엌 → 빗자루·쓰레받기·싱크대·쓰레기통 등)를 거대 언어·이미지 모델에게 질의해 얻는다.
- 이어서 이 물체들이 어떻게 배치되는지(예: x-y 평면 좌표와 z 높이 좌표)를 MFM에게 “코드나 설정파일(JSON 등) 형태”로 생성하게 함으로써, 시뮬레이터에서 불러올 수 있는 형식으로 만든다.
- 모델이 다소 부정확하거나 비현실적인 위치를 생성할 수도 있으므로, 필요하면 시뮬레이터로 한 번 배치해본 뒤(렌더링 결과), 이를 다시 모델에게 피드백하여 점차 실제와 비슷한 장면으로 “반복(Iterative refinement)”할 수도 있다.
3. 객체(오브젝트)·재질·물리 속성(Physics properties) 생성
- 생성한 장면에 들어갈 3D 물체(메시, 텍스처, 재질 등)를 또 다른 생성 모델(3D 생성모델, diffusion모델 등)이나 오픈소스 3D 라이브러리(예: Objaverse, ShapeNet 등)에서 불러온다.
- 물체의 강성(rigid), 연성(soft), 점성(viscous), 관절(articulated) 특성 등 시뮬레이터가 지원하는 물리 모델(Material model)을 MFM이 “이 사물은 딱딱한 플라스틱, 이건 물, 이건 휘어지는 고무” 같은 식으로 합리적으로 할당하도록 할 수 있다.
4. 보상함수(Reward)·학습 신호(Supervision) 자동 생성
- 각 하위 과제(예: 빗자루를 잡기, 바닥을 쓸기 등)에 특화된 보상 함수를 모델이 자동으로 생성한다.
- 예를 들어, “빗자루를 grasp하면 보상을 1 주고, 아니면 그립-빗자루 간 거리로 보상을 감소시킨다” 같은 함수를 GPT-4가 파이썬 코드로 써줄 수 있다.
- 만약 요리처럼 단순 거리 계산으로 판단하기 어려운 과제라면, 이미지 기반 목표 상태(goal condition)나 추가 피처를 포함하도록 설계할 수도 있다.
5. 학습과 정책 통합
- 위 과정을 통해 “수많은 하위 과제·장면·보상”이 완비되면, 이를 통해 Reinforcement Learning(RL)·Trajectory Optimization 등으로 짧은 호라이즌 저수준 스킬을 대량 학습한다.
- 이렇게 학습된 태스크별 정책들을 하나의 거대한 “멀티 태스크 정책”으로 지식 증류(behavior distillation)하거나, 시뮬레이션 상에서 데이터를 쌓아가며 오직 하나의 거대 모델(비전+언어+저수준 액션)을 끝까지 학습할 수도 있다.
- 결국, 로봇이 “거대 멀티모달 모델이 표현하는 상위 지식(예: 자연어·비전·코드)”과 “실제 물리 상호작용 경험”을 통합하여, “실세계에서 유연하게 동작하는 로봇 모델”을 생성하는 것이 이 패러다임의 목표다.
---
## 3. 한계(Limitations)
arXiv.org
Towards Generalist Robots: A Promising Paradigm via Generative Simulation
This document serves as a position paper that outlines the authors' vision for a potential pathway towards generalist robots. The purpose of this document is to share the excitement of the authors...
Continuous Learning_Startup & Investment
https://youtu.be/jM_rYOrgJ7E https://genesis-world.readthedocs.io/en/latest/index.html 1. 기존 로봇 및 시뮬레이션 분야에서는 다양한 플랫폼(예: Mujoco, Isaac Gym/Sim, Bullet)들이 이미 존재. - 주요 문제점 1) 배우는데 시간이 많이 필요함: GPU 병렬화나 대규모 병렬 시뮬레이션을 구현하려면 복잡한 설정과 API 학습이 필요함. 2)…
1. 고도로 통합된 시뮬레이션 플랫폼의 필요성
- 논문에서 제안한 방식대로라면 “다양한 물리 현상(고체, 유체, 점성, 열, 파손, 탄성 등)을 모두 재현”하고 “다양한 센서(RGB, 깊이, 촉각, 힘-토크, 음향 등)를 시뮬레이션”할 수 있는 범용 플랫폼이 필요하다.
- 아직까지 모든 것을 한 번에 구현하는 통합된 “완벽한 범용 시뮬레이터”는 없지만, 연구자들은 Omniverse, IsaacGym, PyBullet, MuJoCo 등에서 꾸준히 기능을 확장하고 있다.
- “가정 환경에서 발생하는 대부분의 작업” 수준이라면 상당 부분 시뮬레이션으로 해결 가능할 것으로 전망한다.
2. 짧은 호라이즌(Short-horizon) 정책 가정
- 본 논문은 “세분화된 하위 작업을 충분히 많이 만들어내면, 결국 각 스킬은 짧은 호라이즌 RL로 훈련 가능하다”는 전제를 깔고 있다.
- 하지만 어떤 복잡하거나 빠른 동작(예: 로봇이 스케이트보드로 점프 묘기, 농구 슛 등)은 “짧은 호라이즌” 만으로 해결하기 어렵거나, 시뮬레이션 학습 비용이 매우 커질 수 있다.
- 다만 저자들은 “일반적인 가정 내 서비스 로봇 수준”에서는 이 방법이 충분히 실용적일 것이라고 강조한다.
3. MFM의 과제 분해 능력에 대한 의존
- 거대 언어 모델에 “고수준 목표를 적절한 하위 태스크로 세밀하게 분해”시키는 과정이 제대로 작동해야 한다.
- 가령, 복잡한 조립 문제(IKEA 가구 조립 등)는 언어나 비디오·매뉴얼 같은 추가 정보 없이는 MFM이 충분히 세분화된 계획을 내놓지 못할 수도 있다.
4. 사람 시연(human demonstration)과의 결합 문제
- 이 논문은 시뮬레이션 대규모 학습에 집중하기 때문에, “사람의 실제 시연(teleoperation, kinesthetic teaching)에서 오는 장점”을 크게 활용하지 않는다.
- 하지만 저자들은 “정말 세밀한 저수준 스킬이 필요한 경우, 소수의 사람 시연을 받되, 그 이외의 장면·작업 다양성은 생성형 시뮬레이션으로 대량 확보할 수 있다”는 식으로, 둘을 병행하는 가능성도 제안한다.
5. Sim-to-real 전이(Sim2Real)의 가정
- 이 모든 기법은 “시뮬레이션에서 배운 정책이 실제 로봇에 전이 가능”하다는 전제에서 출발한다.
- 최근엔 도메인 랜덤화(domain randomization)나 네트워크 구조 설계 등을 통해 복잡한 다관절 로봇, 이족보행 로봇, 소프트 로봇, 심지어 유체와 상호작용하는 작업도 어느 정도 성공적으로 sim2real을 해내고 있다는 점을 들어, “이 문제는 충분히 해결 가능하다”고 낙관한다.
- 논문에서 제안한 방식대로라면 “다양한 물리 현상(고체, 유체, 점성, 열, 파손, 탄성 등)을 모두 재현”하고 “다양한 센서(RGB, 깊이, 촉각, 힘-토크, 음향 등)를 시뮬레이션”할 수 있는 범용 플랫폼이 필요하다.
- 아직까지 모든 것을 한 번에 구현하는 통합된 “완벽한 범용 시뮬레이터”는 없지만, 연구자들은 Omniverse, IsaacGym, PyBullet, MuJoCo 등에서 꾸준히 기능을 확장하고 있다.
- “가정 환경에서 발생하는 대부분의 작업” 수준이라면 상당 부분 시뮬레이션으로 해결 가능할 것으로 전망한다.
2. 짧은 호라이즌(Short-horizon) 정책 가정
- 본 논문은 “세분화된 하위 작업을 충분히 많이 만들어내면, 결국 각 스킬은 짧은 호라이즌 RL로 훈련 가능하다”는 전제를 깔고 있다.
- 하지만 어떤 복잡하거나 빠른 동작(예: 로봇이 스케이트보드로 점프 묘기, 농구 슛 등)은 “짧은 호라이즌” 만으로 해결하기 어렵거나, 시뮬레이션 학습 비용이 매우 커질 수 있다.
- 다만 저자들은 “일반적인 가정 내 서비스 로봇 수준”에서는 이 방법이 충분히 실용적일 것이라고 강조한다.
3. MFM의 과제 분해 능력에 대한 의존
- 거대 언어 모델에 “고수준 목표를 적절한 하위 태스크로 세밀하게 분해”시키는 과정이 제대로 작동해야 한다.
- 가령, 복잡한 조립 문제(IKEA 가구 조립 등)는 언어나 비디오·매뉴얼 같은 추가 정보 없이는 MFM이 충분히 세분화된 계획을 내놓지 못할 수도 있다.
4. 사람 시연(human demonstration)과의 결합 문제
- 이 논문은 시뮬레이션 대규모 학습에 집중하기 때문에, “사람의 실제 시연(teleoperation, kinesthetic teaching)에서 오는 장점”을 크게 활용하지 않는다.
- 하지만 저자들은 “정말 세밀한 저수준 스킬이 필요한 경우, 소수의 사람 시연을 받되, 그 이외의 장면·작업 다양성은 생성형 시뮬레이션으로 대량 확보할 수 있다”는 식으로, 둘을 병행하는 가능성도 제안한다.
5. Sim-to-real 전이(Sim2Real)의 가정
- 이 모든 기법은 “시뮬레이션에서 배운 정책이 실제 로봇에 전이 가능”하다는 전제에서 출발한다.
- 최근엔 도메인 랜덤화(domain randomization)나 네트워크 구조 설계 등을 통해 복잡한 다관절 로봇, 이족보행 로봇, 소프트 로봇, 심지어 유체와 상호작용하는 작업도 어느 정도 성공적으로 sim2real을 해내고 있다는 점을 들어, “이 문제는 충분히 해결 가능하다”고 낙관한다.
arXiv.org
Towards Generalist Robots: A Promising Paradigm via Generative Simulation
This document serves as a position paper that outlines the authors' vision for a potential pathway towards generalist robots. The purpose of this document is to share the excitement of the authors...
https://product.kyobobook.co.kr/detail/S000001029288
에고의 정의
홀리데이는 프로이트식 ‘자아(ego)’가 아니라, “자신의 중요성을 과대평가하는 상태”—즉 오만(arrogance), 자기중심적 야망(self-centered ambition), 과대망상(delusion of grandeur)—를 에고라고 부릅니다.
- “나는 특별하니까 반드시 잘될 거야” “내 생각이 최고” 같은 태도가 현실 인식을 흐리고, 협업·학습까지 방해한다는 것.
에고가 문제인 이유
- 에고는 주변 사람과 제대로 소통·협업하기 어렵게 만들고, 판단력을 흐리며, 현실 감각을 떨어뜨립니다.
- 한순간 ‘자신감’처럼 보일 수 있지만, 결국 회복탄력성과 진정한 성과를 가로막습니다.
홀리데이는 인간의 여정을 3단계(열망Aspire–성공Success–실패Failure)로 나누어, 각 단계에서 에고가 어떻게 나타나고 어떤 문제를 일으키는지 설명합니다.
1) 열망(Aspire)
(목표를 세우고 이제 막 시작하는 시점)
(1) ‘학생이 되라 (Be a Student)’
큰 꿈만으론 부족. 실질적 학습과 연습이 필수.
단순히 ‘열정’을 뽐내고 큰소리치는 것 = 에고 함정에 빠질 위험.
예) 커크 해밋(Kirk Hammett, 메탈리카): 이미 유명 밴드에 합류했어도 스승(조 새트리아니)에게 꾸준히 배움 → 정상급 기타리스트로 성장.
(2) ‘열정(Passion)보다 목적(Purpose)을 택하라’
열정 = 흥분과 자기도취로 약점을 가릴 수 있음.
목적 = 차분하고 체계적 태도. “왜 이 일을 하나?”에 대한 분명한 이유(가치·목표) 설정이 중요.
(3) ‘말, 말, 말(Talk) vs. 일, 일, 일(Work)’
SNS·언론에서 떠벌리기 쉽지만, 꾸준한 준비·연습이 진짜 핵심.
다른 사람의 관심만 쫓다 보면 실제 성장은 거의 없음.
(4) ‘캔버스 전략(Follow the Canvas Strategy)’
“남이 그림을 그릴 수 있도록 캔버스를 마련하라.” → 다른 사람을 돕고 빛나게 만드는 태도.
벤저민 프랭클린처럼 묵묵히 준비하고 실력 쌓으면, 장기적으로 더 큰 기회와 영향력을 얻을 수 있음.
열망 단계 요점:
에고적 ‘큰소리’ 대신, 목적과 배움에 집중.
학생 자세로 실력을 쌓고, 행동(Work)이 말(Talk)보다 우선.
2) 성공(Success)
(어느 정도 목표 달성 후)
(1) ‘언제나 학생으로 남아라 (Always Stay a Student)’
성공했다고 “이제 다 알아!” 착각 금물.
징기스칸·안젤라 메르켈 사례: 계속 학습·겸손 유지.
(2) ‘자기가 만든 영웅담(Story)을 믿지 말라 (Don’t Tell Yourself a Story)’
사람은 성공 후 “다 계획대로!” 같은 신화 만들기 쉬움.
빌 월쉬, 제프 베이조스: “전설·미화보다 실제 실행에 집중.”
(3) 자격의식(Ennoscriptment), 통제(Control), 편집증(Paranoia)을 경계
높은 위치 → “난 누릴 자격 있어” “내 말만 옳아” “누군가 날 노려!” 같은 태도.
크세르크세스(Xerxes)가 강물에 형벌 내린 사례처럼, 오만·편집증으로 스스로 망침.
(4) ‘스스로·조직을 관리하라 (Managing Yourself and Your Organization)’
큰 조직은 체계 필요. 예) 아이젠하워는 백악관을 효율적으로 운영하여 본인은 핵심만 결정.
반면 존 드로리언(DeLorean)은 혼란만 야기, 결과적 실패.
(5) ‘술 취하지 않은 맑은 상태(Sobriety)’ 유지
성공은 술처럼 사람을 취하게 만듦.
안젤라 메르켈: 연속 집권에도 겸손·기본 태도 지킴 → 오만에 빠지지 않음.
성공 단계 요점:
조금 성공했다고 에고가 “역시 난 최고” 자만하지 않도록 주의.
학습 태도·체계 유지, 과잉 통제·자기확신·편집증 지양.
성공은 ‘더 나은 일’을 위한 발판이지, 에고 충족 도구가 아님.
3) 실패(Failure)
(좌절·실패를 겪을 때)
(1) ‘Alive Time vs. Dead Time’
어려울 때, **소극적 자책·분노(dead time)**에 머무를지, 새로운 학습·재정비(alive time)로 삼을지.
말콤 엑스: 교도소에서 독서·공부해 완전히 거듭남.
(2) ‘노력 자체가 충분하다 (The Effort Is Enough)’
옳은 일을 해도 실패·무시당할 수 있음.
벨리사리우스: 제국을 구했으나 황제에게 버려짐. 그래도 “의무를 다했다”는 의연함.
(3) ‘파이트 클럽(Fight Club) 순간들’
때로 인생 밑바닥 경험(=카타바시스) 통해 환상 걷어냄.
“이대로는 못 살겠다” 깨닫고 변화의 계기 얻음.
(4) ‘선을 긋고 그만 두라 (Draw the Line)’
실패가 보이면, 에고는 더 깊이 파고들라 부추김(“자존심 지켜야 해!”).
존 드로리언은 회사 부도 위기에 코카인 밀수라는 극단적 선택 → 완전 파탄.
(5) ‘내 기준으로 점수 매기기 (Maintain Your Own Scorecard)’
실패 시 에고는 “왜 세상이 날 배신해!”라며 외부 탓.
내부적 기준(“최선을 다했나?”) 있으면 흔들리지 않고 재기 가능.
톰 브래디 드래프트 때, 뉴잉글랜드 패트리어츠는 성공했어도 “우리 운이 좋았을 뿐, 더 잘해야”라며 자체 기준 엄격히.
(6) ‘결국 사랑하라 (Always Love)’
배신·실패 시 증오·분노만 키우면, 스스로 더 망침.
허스트(William Hearst)가 시민 케인 방해하려다 오히려 본인 명예까지 훼손.
증오는 결국 자신도 파괴.
실패 단계 요점:
실패는 에고를 내려놓고 성찰·재정비할 기회.
복수심 등 자존심 싸움은 더 큰 파탄. 학습·재기 쪽으로 에너지를 써야 함.
결론(Concluding Principles)
1. 매일 바닥 쓸기 (Sweep the Floor Every Day)
에고는 먼지처럼 계속 쌓임. 한 번 내려놓았다고 끝이 아님. 늘 점검 필요.
2.목적(목표) > 에고 (Purpose over Ego)
성공·실패 때마다 “내가 진짜로 원하는 가치와 목표는 뭔가?” 되새김.
“난 무조건 최고” 같은 에고적 속삭임 버리기.
3. 성공 기준을 내부적으로 세우라 (Define Success Internally)
남들 칭찬만 기다리지 말고 “내가 최선을 다했나?”로 평가.
외부 평가보다 내 기준·과정의 완성도가 더 중요.
4. 더 큰 세계(우주)의 일부임을 기억 (Remember You Are Part of Something Bigger)
모든 인간은 결국 시간 앞에 겸손해야 함.
내가 이룬 ‘거대한’ 것조차 우주적 시야로 보면 작은 점에 불과. 지나친 자기중심성을 낮춰줌.
결론적으로:
*에고 이즈 에너미(Ego Is the Enemy)*의 핵심은 겸손, 자기성찰, 자기관리입니다.
열망 단계: 과시적 ‘큰소리’가 아니라, 진정한 목적과 배우는 태도에 충실.
성공 단계: 에고에 취하지 않고, 시스템·조직을 개선하며 지속적으로 배우기.
실패 단계: 에고가 부추기는 복수심·낭비적 집착을 떨쳐내고, 교훈 삼아 재도약하기.
에고의 정의
홀리데이는 프로이트식 ‘자아(ego)’가 아니라, “자신의 중요성을 과대평가하는 상태”—즉 오만(arrogance), 자기중심적 야망(self-centered ambition), 과대망상(delusion of grandeur)—를 에고라고 부릅니다.
- “나는 특별하니까 반드시 잘될 거야” “내 생각이 최고” 같은 태도가 현실 인식을 흐리고, 협업·학습까지 방해한다는 것.
에고가 문제인 이유
- 에고는 주변 사람과 제대로 소통·협업하기 어렵게 만들고, 판단력을 흐리며, 현실 감각을 떨어뜨립니다.
- 한순간 ‘자신감’처럼 보일 수 있지만, 결국 회복탄력성과 진정한 성과를 가로막습니다.
홀리데이는 인간의 여정을 3단계(열망Aspire–성공Success–실패Failure)로 나누어, 각 단계에서 에고가 어떻게 나타나고 어떤 문제를 일으키는지 설명합니다.
1) 열망(Aspire)
(목표를 세우고 이제 막 시작하는 시점)
(1) ‘학생이 되라 (Be a Student)’
큰 꿈만으론 부족. 실질적 학습과 연습이 필수.
단순히 ‘열정’을 뽐내고 큰소리치는 것 = 에고 함정에 빠질 위험.
예) 커크 해밋(Kirk Hammett, 메탈리카): 이미 유명 밴드에 합류했어도 스승(조 새트리아니)에게 꾸준히 배움 → 정상급 기타리스트로 성장.
(2) ‘열정(Passion)보다 목적(Purpose)을 택하라’
열정 = 흥분과 자기도취로 약점을 가릴 수 있음.
목적 = 차분하고 체계적 태도. “왜 이 일을 하나?”에 대한 분명한 이유(가치·목표) 설정이 중요.
(3) ‘말, 말, 말(Talk) vs. 일, 일, 일(Work)’
SNS·언론에서 떠벌리기 쉽지만, 꾸준한 준비·연습이 진짜 핵심.
다른 사람의 관심만 쫓다 보면 실제 성장은 거의 없음.
(4) ‘캔버스 전략(Follow the Canvas Strategy)’
“남이 그림을 그릴 수 있도록 캔버스를 마련하라.” → 다른 사람을 돕고 빛나게 만드는 태도.
벤저민 프랭클린처럼 묵묵히 준비하고 실력 쌓으면, 장기적으로 더 큰 기회와 영향력을 얻을 수 있음.
열망 단계 요점:
에고적 ‘큰소리’ 대신, 목적과 배움에 집중.
학생 자세로 실력을 쌓고, 행동(Work)이 말(Talk)보다 우선.
2) 성공(Success)
(어느 정도 목표 달성 후)
(1) ‘언제나 학생으로 남아라 (Always Stay a Student)’
성공했다고 “이제 다 알아!” 착각 금물.
징기스칸·안젤라 메르켈 사례: 계속 학습·겸손 유지.
(2) ‘자기가 만든 영웅담(Story)을 믿지 말라 (Don’t Tell Yourself a Story)’
사람은 성공 후 “다 계획대로!” 같은 신화 만들기 쉬움.
빌 월쉬, 제프 베이조스: “전설·미화보다 실제 실행에 집중.”
(3) 자격의식(Ennoscriptment), 통제(Control), 편집증(Paranoia)을 경계
높은 위치 → “난 누릴 자격 있어” “내 말만 옳아” “누군가 날 노려!” 같은 태도.
크세르크세스(Xerxes)가 강물에 형벌 내린 사례처럼, 오만·편집증으로 스스로 망침.
(4) ‘스스로·조직을 관리하라 (Managing Yourself and Your Organization)’
큰 조직은 체계 필요. 예) 아이젠하워는 백악관을 효율적으로 운영하여 본인은 핵심만 결정.
반면 존 드로리언(DeLorean)은 혼란만 야기, 결과적 실패.
(5) ‘술 취하지 않은 맑은 상태(Sobriety)’ 유지
성공은 술처럼 사람을 취하게 만듦.
안젤라 메르켈: 연속 집권에도 겸손·기본 태도 지킴 → 오만에 빠지지 않음.
성공 단계 요점:
조금 성공했다고 에고가 “역시 난 최고” 자만하지 않도록 주의.
학습 태도·체계 유지, 과잉 통제·자기확신·편집증 지양.
성공은 ‘더 나은 일’을 위한 발판이지, 에고 충족 도구가 아님.
3) 실패(Failure)
(좌절·실패를 겪을 때)
(1) ‘Alive Time vs. Dead Time’
어려울 때, **소극적 자책·분노(dead time)**에 머무를지, 새로운 학습·재정비(alive time)로 삼을지.
말콤 엑스: 교도소에서 독서·공부해 완전히 거듭남.
(2) ‘노력 자체가 충분하다 (The Effort Is Enough)’
옳은 일을 해도 실패·무시당할 수 있음.
벨리사리우스: 제국을 구했으나 황제에게 버려짐. 그래도 “의무를 다했다”는 의연함.
(3) ‘파이트 클럽(Fight Club) 순간들’
때로 인생 밑바닥 경험(=카타바시스) 통해 환상 걷어냄.
“이대로는 못 살겠다” 깨닫고 변화의 계기 얻음.
(4) ‘선을 긋고 그만 두라 (Draw the Line)’
실패가 보이면, 에고는 더 깊이 파고들라 부추김(“자존심 지켜야 해!”).
존 드로리언은 회사 부도 위기에 코카인 밀수라는 극단적 선택 → 완전 파탄.
(5) ‘내 기준으로 점수 매기기 (Maintain Your Own Scorecard)’
실패 시 에고는 “왜 세상이 날 배신해!”라며 외부 탓.
내부적 기준(“최선을 다했나?”) 있으면 흔들리지 않고 재기 가능.
톰 브래디 드래프트 때, 뉴잉글랜드 패트리어츠는 성공했어도 “우리 운이 좋았을 뿐, 더 잘해야”라며 자체 기준 엄격히.
(6) ‘결국 사랑하라 (Always Love)’
배신·실패 시 증오·분노만 키우면, 스스로 더 망침.
허스트(William Hearst)가 시민 케인 방해하려다 오히려 본인 명예까지 훼손.
증오는 결국 자신도 파괴.
실패 단계 요점:
실패는 에고를 내려놓고 성찰·재정비할 기회.
복수심 등 자존심 싸움은 더 큰 파탄. 학습·재기 쪽으로 에너지를 써야 함.
결론(Concluding Principles)
1. 매일 바닥 쓸기 (Sweep the Floor Every Day)
에고는 먼지처럼 계속 쌓임. 한 번 내려놓았다고 끝이 아님. 늘 점검 필요.
2.목적(목표) > 에고 (Purpose over Ego)
성공·실패 때마다 “내가 진짜로 원하는 가치와 목표는 뭔가?” 되새김.
“난 무조건 최고” 같은 에고적 속삭임 버리기.
3. 성공 기준을 내부적으로 세우라 (Define Success Internally)
남들 칭찬만 기다리지 말고 “내가 최선을 다했나?”로 평가.
외부 평가보다 내 기준·과정의 완성도가 더 중요.
4. 더 큰 세계(우주)의 일부임을 기억 (Remember You Are Part of Something Bigger)
모든 인간은 결국 시간 앞에 겸손해야 함.
내가 이룬 ‘거대한’ 것조차 우주적 시야로 보면 작은 점에 불과. 지나친 자기중심성을 낮춰줌.
결론적으로:
*에고 이즈 에너미(Ego Is the Enemy)*의 핵심은 겸손, 자기성찰, 자기관리입니다.
열망 단계: 과시적 ‘큰소리’가 아니라, 진정한 목적과 배우는 태도에 충실.
성공 단계: 에고에 취하지 않고, 시스템·조직을 개선하며 지속적으로 배우기.
실패 단계: 에고가 부추기는 복수심·낭비적 집착을 떨쳐내고, 교훈 삼아 재도약하기.
product.kyobobook.co.kr
에고라는 적 | 라이언 홀리데이 - 교보문고
에고라는 적 | 에고를 지배할 것인가, 에고에 지배당할 것인가.대합 입학, 담당 프로젝트의 성공과 승진, 개인 회사 설립과 성장, 사회 정의 실현 등 누구나 저마다 인생의 크고 작은 목표를 가지고 있고, 그것을 이루기를 열……
❤3
작년 말부터 읽기 시작해서, 2주 동안 완독한 ‘리추얼’이라는 책으로 올해의 독서를 시작했고, 50권 목표의 첫 테이프를 이 책으로 끊게 돼서 2025년 독서에 대한 기대가 크다.
이 책의 저자인 메이슨 커리는 일상과 창조에 대해서 아주 관심이 많은 분이고, 항상 “모든 사람이 똑같은 24시간을 사는데, 왜 어떤 사람들은 더 많은 것을 이루는 것일까?” , “소수의 창조적인 사람들은 일반인에 비해 특별한 습관을 갖고 있는 것일까?” , “창조적인 사람들은 우리보다 더 효율적이고, 더 주도적이고, 더 훈련된 것일까?”라는 질문을 했다.
이 질문에 대한 만족할 만한 답을 스스로 찾아보기 위해서 그는 지난 400년간 가장 위대한 창조자로 손꼽히는 소설가, 작곡가, 화가, 안무가, 시인, 철학자, 영화감독, 과학자들의 하루를 정리하는 Daily Routines 라는 블로그를 쓰기 시작했다. 그는 이 블로그를 통해서 위대한 사람들의 하루 시간표와 작업 습관을 정리하면서, 이들을 일반인들과 확연하게 구분하는 수면, 작업, 연습, 휴식 패턴을 찾고, 혹시 일상의 장애물을 극복하기 위한 창조자들만의 가이드라인이 있는지 파악하는 노력을 했다. 그리고 이런 내용을 정리한 게 ‘리추얼’ 이라는 책이다.
리추얼은 위대함을 달성하기 위한 습관과 루틴에 대한 책이다. 이 책에 소개된 우리가 잘 아는 예술가나 과학자 중 아주 괴팍한 작업 습관을 가진 분들도 많고, 우리가 흔히 생각하듯, 어떤 창조자들은 반복되는 패턴보단 순간의 느낌과 영감에 의해서 아주 짧고 굵은 삶을 살다 갔다. 그런데 내가 이 책을 읽고 느낀 점은, 훨씬 더 많은 창조자들이 순간의 느낌과 영감보단, 아주 오랜 세월 동안 꾸준한 반복으로 인해 생긴 습관과 루틴에 따라서 지속성 있는 창조를 했다는 것이다. 이들의 꾸준함에 대해서 읽다 보면, 이들이 위대한 창조자라기 보단 수십 년 동안 매일 똑같은 동작을 반복하는 운동선수에 더 가깝다는 느낌을 받았고, 매일 같은 회사로 출근해서 수십 년 동안 같은 업무를 하는 직장인의 삶과 거의 완벽하게 일치한다는 느낌도 받았다.
리추얼에서 소개된 위인들의 삼 분의 이는 이미 죽은 사람들이지만, 이들이 남긴 창조물은 책, 음악, 그림, 영화 등으로 앞으로 수십 년에서 수백 년 동안 전 세계에 영감을 줄 것이다. 이미 죽은 사람들이라서 내가 이들과 직접 이야기할 순 없지만, 책을 통해 간접적으로 접한 이들의 위대함은 타고난 유전자나 번뜩이는 영감을 통해서 순간적으로 만들어진 게 아니다. 오히려 매우 지루한 습관, 동작, 그리고 루틴을 거의 평생 기계적으로 무한 반복했고, 이로 인한 내공이 쌓이고 그 내공의 포텐이 터지면서 위대함이 된 것이라고 할 수 있다.
나도 항상 나만의 정교한 루틴을 만들기 위해서 노력하는데, 이 책은 나에게도 많은 꿈과 희망을 줬다. 내 이름 석 자를 남길 수 있는 위대한 사람이 되겠다는 목표보단 그냥 내가 현재 하는 일을 제대로 하기 위한 습관과 루틴은 우리가 생각하는 것보다 훨씬 중요한데, 이 책에서 아주 마음에 드는 습관에 대한 정의를 발견했다.
“습관은 제한된 자원, 예컨대 시간(가장 한정된 자원)은 물론이고 의지력과 자제력, 낙천적인 마음마저 최대한 활용하기 위해 정교하게 조정된 메커니즘이다. 좋은 습관은 정신적 에너지를 몸에 밴 반복 행위에 쏟고, 감상의 폭정이 끼어들 틈을 차단하는 데 도움을 준다.”
일을 잘하고 싶으면, 인생을 더 단순화해야 하고, 복잡한 인생을 단순화할 수 있는 좋은 방법은 좋은 습관과 루틴을 만드는 것이다.
https://www.thestartupbible.com/2025/01/daily-rituals.html
이 책의 저자인 메이슨 커리는 일상과 창조에 대해서 아주 관심이 많은 분이고, 항상 “모든 사람이 똑같은 24시간을 사는데, 왜 어떤 사람들은 더 많은 것을 이루는 것일까?” , “소수의 창조적인 사람들은 일반인에 비해 특별한 습관을 갖고 있는 것일까?” , “창조적인 사람들은 우리보다 더 효율적이고, 더 주도적이고, 더 훈련된 것일까?”라는 질문을 했다.
이 질문에 대한 만족할 만한 답을 스스로 찾아보기 위해서 그는 지난 400년간 가장 위대한 창조자로 손꼽히는 소설가, 작곡가, 화가, 안무가, 시인, 철학자, 영화감독, 과학자들의 하루를 정리하는 Daily Routines 라는 블로그를 쓰기 시작했다. 그는 이 블로그를 통해서 위대한 사람들의 하루 시간표와 작업 습관을 정리하면서, 이들을 일반인들과 확연하게 구분하는 수면, 작업, 연습, 휴식 패턴을 찾고, 혹시 일상의 장애물을 극복하기 위한 창조자들만의 가이드라인이 있는지 파악하는 노력을 했다. 그리고 이런 내용을 정리한 게 ‘리추얼’ 이라는 책이다.
리추얼은 위대함을 달성하기 위한 습관과 루틴에 대한 책이다. 이 책에 소개된 우리가 잘 아는 예술가나 과학자 중 아주 괴팍한 작업 습관을 가진 분들도 많고, 우리가 흔히 생각하듯, 어떤 창조자들은 반복되는 패턴보단 순간의 느낌과 영감에 의해서 아주 짧고 굵은 삶을 살다 갔다. 그런데 내가 이 책을 읽고 느낀 점은, 훨씬 더 많은 창조자들이 순간의 느낌과 영감보단, 아주 오랜 세월 동안 꾸준한 반복으로 인해 생긴 습관과 루틴에 따라서 지속성 있는 창조를 했다는 것이다. 이들의 꾸준함에 대해서 읽다 보면, 이들이 위대한 창조자라기 보단 수십 년 동안 매일 똑같은 동작을 반복하는 운동선수에 더 가깝다는 느낌을 받았고, 매일 같은 회사로 출근해서 수십 년 동안 같은 업무를 하는 직장인의 삶과 거의 완벽하게 일치한다는 느낌도 받았다.
리추얼에서 소개된 위인들의 삼 분의 이는 이미 죽은 사람들이지만, 이들이 남긴 창조물은 책, 음악, 그림, 영화 등으로 앞으로 수십 년에서 수백 년 동안 전 세계에 영감을 줄 것이다. 이미 죽은 사람들이라서 내가 이들과 직접 이야기할 순 없지만, 책을 통해 간접적으로 접한 이들의 위대함은 타고난 유전자나 번뜩이는 영감을 통해서 순간적으로 만들어진 게 아니다. 오히려 매우 지루한 습관, 동작, 그리고 루틴을 거의 평생 기계적으로 무한 반복했고, 이로 인한 내공이 쌓이고 그 내공의 포텐이 터지면서 위대함이 된 것이라고 할 수 있다.
나도 항상 나만의 정교한 루틴을 만들기 위해서 노력하는데, 이 책은 나에게도 많은 꿈과 희망을 줬다. 내 이름 석 자를 남길 수 있는 위대한 사람이 되겠다는 목표보단 그냥 내가 현재 하는 일을 제대로 하기 위한 습관과 루틴은 우리가 생각하는 것보다 훨씬 중요한데, 이 책에서 아주 마음에 드는 습관에 대한 정의를 발견했다.
“습관은 제한된 자원, 예컨대 시간(가장 한정된 자원)은 물론이고 의지력과 자제력, 낙천적인 마음마저 최대한 활용하기 위해 정교하게 조정된 메커니즘이다. 좋은 습관은 정신적 에너지를 몸에 밴 반복 행위에 쏟고, 감상의 폭정이 끼어들 틈을 차단하는 데 도움을 준다.”
일을 잘하고 싶으면, 인생을 더 단순화해야 하고, 복잡한 인생을 단순화할 수 있는 좋은 방법은 좋은 습관과 루틴을 만드는 것이다.
https://www.thestartupbible.com/2025/01/daily-rituals.html
THE STARTUP BIBLE
나만의 의식
작년 말부터 읽기 시작해서, 2주 동안 완독한 ‘리추얼’이라는 책으로 올해의 독서를 시작했고, 50권 목표의 첫 테이프를 이 책으로 끊게 돼서 2025년 독서에 대한 기대가 크다. 이 책의 저자인 메이슨 커리는 일상과 창조에 대해서 아주 관심이 많은 분이고, 항상 “모든 사람이 똑같은 24시간을 사는데, 왜 어떤 사람들은 더 많은 것을 이루는 것일까?…
❤3
Continuous Learning_Startup & Investment
작년 말부터 읽기 시작해서, 2주 동안 완독한 ‘리추얼’이라는 책으로 올해의 독서를 시작했고, 50권 목표의 첫 테이프를 이 책으로 끊게 돼서 2025년 독서에 대한 기대가 크다. 이 책의 저자인 메이슨 커리는 일상과 창조에 대해서 아주 관심이 많은 분이고, 항상 “모든 사람이 똑같은 24시간을 사는데, 왜 어떤 사람들은 더 많은 것을 이루는 것일까?” , “소수의 창조적인 사람들은 일반인에 비해 특별한 습관을 갖고 있는 것일까?” , “창조적인 사람들은…
1. 주요 인물별 Daily Ritual(일상 루틴) 정리
아래는 원문에 등장하는 여러 인물을 중심으로, 그들이 어떤 식으로 시간을 보내며 창작/작업을 했는지를 간략히 정리한 뒤, 이를 통해 살펴볼 수 있는 특징들을 덧붙였습니다.
아래는 원문에 등장하는 여러 인물을 중심으로, 그들이 어떤 식으로 시간을 보내며 창작/작업을 했는지를 간략히 정리한 뒤, 이를 통해 살펴볼 수 있는 특징들을 덧붙였습니다.