Former Google CEO Eric Schmidt explains how he uses 5-year plans to predict if a startup can become a $100B+ company
“If you went to business school, you would’ve been taught: build a great product, organize a sales force, charge a fair price, make the customer happy.”
But Eric explains that strategy is insufficiently scalable in the Internet era.
“It’ll produce a reasonable business, but it’s not going to produce a huge business. It’s just too hard to hire all of those salespeople, work with every customer, and so forth. You have to have a more clever strategy.”
He continues:
“All of the really big companies have invented a new way to access information or a new way to do something that didn’t require [a large salesforce].”
Eric argues that lots of the startup ideas he hears are good, but not good enough. He tells these founders to create a 5-year plan and map their growth rate. Then try to figure out what a more scalable strategy might be.
For example, if you’re building an app that you want to charge $10 for, Eric asks:
“Why can’t you give the app away for free and then upsell the users?"
This is similar to the advice of Peter Thiel who famously asks founders: “How can you achieve your 10 year plan in the next 6 months?”
Thinking big and optimizing for scalability is one key factor that separates the ultra successful companies from the rest.
Another way to use a five-year plan to determine if your company can be a $100B+ company is to ask yourself what the big platforms will be five years from now and make sure your company is aligned with those platforms.
In this interview from 2016 and he predicted that Android, iOS, and machine learning would be the dominant platforms of the next five years.
How can you achieve your 10 year plan in the next 6 months?”
“If you went to business school, you would’ve been taught: build a great product, organize a sales force, charge a fair price, make the customer happy.”
But Eric explains that strategy is insufficiently scalable in the Internet era.
“It’ll produce a reasonable business, but it’s not going to produce a huge business. It’s just too hard to hire all of those salespeople, work with every customer, and so forth. You have to have a more clever strategy.”
He continues:
“All of the really big companies have invented a new way to access information or a new way to do something that didn’t require [a large salesforce].”
Eric argues that lots of the startup ideas he hears are good, but not good enough. He tells these founders to create a 5-year plan and map their growth rate. Then try to figure out what a more scalable strategy might be.
For example, if you’re building an app that you want to charge $10 for, Eric asks:
“Why can’t you give the app away for free and then upsell the users?"
This is similar to the advice of Peter Thiel who famously asks founders: “How can you achieve your 10 year plan in the next 6 months?”
Thinking big and optimizing for scalability is one key factor that separates the ultra successful companies from the rest.
Another way to use a five-year plan to determine if your company can be a $100B+ company is to ask yourself what the big platforms will be five years from now and make sure your company is aligned with those platforms.
In this interview from 2016 and he predicted that Android, iOS, and machine learning would be the dominant platforms of the next five years.
How can you achieve your 10 year plan in the next 6 months?”
❤1
Life is unpredictable. There are many unexpected problems that will pop up, and I’ve found that two things help me sail choppy water during the day.
Both are done in the morning: A) read a few pages of Stoicism, like Marcus Aurelius’s Meditations, and B) control at least a few things you can control.
First, for A, here is one Marcus Aurelius quote on my refrigerator that often does the trick:
“When you wake up in the morning, tell yourself: The people I deal with today will be meddling, ungrateful, arrogant, dishonest, jealous, and surly. They are like this because they can’t tell good from evil. But I have seen the beauty of good, and the ugliness of evil, and have recognized that the wrongdoer has a nature related to my own—not of the same blood or birth, but the same mind, and possessing a share of the divine. And so none of them can hurt me.”
Now, B) control what you can control. No matter how shitty your day is, no matter how catastrophic it might become, you can make your bed.
And that gives you the feeling, at least it gives me the feeling, even in a disastrous day, that I’ve held on to the cliff ledge by a fingernail and I haven’t fallen.
https://x.com/tferriss/status/1731809474267025647?s=46&t=h5Byg6Wosg8MJb4pbPSDow
Both are done in the morning: A) read a few pages of Stoicism, like Marcus Aurelius’s Meditations, and B) control at least a few things you can control.
First, for A, here is one Marcus Aurelius quote on my refrigerator that often does the trick:
“When you wake up in the morning, tell yourself: The people I deal with today will be meddling, ungrateful, arrogant, dishonest, jealous, and surly. They are like this because they can’t tell good from evil. But I have seen the beauty of good, and the ugliness of evil, and have recognized that the wrongdoer has a nature related to my own—not of the same blood or birth, but the same mind, and possessing a share of the divine. And so none of them can hurt me.”
Now, B) control what you can control. No matter how shitty your day is, no matter how catastrophic it might become, you can make your bed.
And that gives you the feeling, at least it gives me the feeling, even in a disastrous day, that I’ve held on to the cliff ledge by a fingernail and I haven’t fallen.
https://x.com/tferriss/status/1731809474267025647?s=46&t=h5Byg6Wosg8MJb4pbPSDow
From @anduriltech’s @PalmerLuckey:
What is the #1 job most kids want today?
“It’s social media influencer, next is professional gamer, next is YouTuber… the problem is, you can’t tell kids to follow their dreams when their dreams suck.”
What was the #1 dream for kids in 1971?
To be an astronaut 👨🚀 🌕
“We had just gone to the moon… These guys were fighter pilots, PhD mathematician super men, who were also really good looking and well spoken… the ultimate American hero ideal. For a kid to see that and say ‘that’s what I want to be,’ okay tell the kids to follow their dreams.”
https://www.youtube.com/watch?v=pGCOPxje3_c
What is the #1 job most kids want today?
“It’s social media influencer, next is professional gamer, next is YouTuber… the problem is, you can’t tell kids to follow their dreams when their dreams suck.”
What was the #1 dream for kids in 1971?
To be an astronaut 👨🚀 🌕
“We had just gone to the moon… These guys were fighter pilots, PhD mathematician super men, who were also really good looking and well spoken… the ultimate American hero ideal. For a kid to see that and say ‘that’s what I want to be,’ okay tell the kids to follow their dreams.”
https://www.youtube.com/watch?v=pGCOPxje3_c
YouTube
NE Indiana Defense Summit 2023: Discussion with Palmer Luckey
Palmer Luckey, founder of Anduril Industries, and Gerry Dick, president and managing editor of Inside INdiana Business, discuss Innovation in Warfare.
Forwarded from YM리서치
역대 수주 잔고 쌓은 韓전력기기..사상 최대 실적 잇는다
https://n.news.naver.com/mnews/article/018/0005632532?sid=101
요즘 시장의 관심이 온디바이스, HBM 등 기술주들에 쏠려있지만, 실적주들의 주가는 고점 대비 다소 빠져있는 상황. 주가의 향방은 알 수 없지만, 한국 주식시장에서 몇 안 되는, '지금' 제대로 된 숫자가 나오고 있는 섹터인 만큼, 지속 팔로업이 필요할 것으로 보임.
- 북미의 중동 시장 수주를 중심으로 전력기기 제조사들의 실적이 사상 최대를 기록할 것이 전망됨.
- 1) 북미서는 신재생에너지 발전량 증가 및 노후 변압기 교체 수요 증가, 2) 중동서는 네옴시티 프로젝트 등으로 인한 고압 차단기 수요가 증가 중.
- 23년 3분기 말 기준 전력기기 3사의 수주잔고는 약 11조. Q뿐 아니라, 수요 대비 공급이 부족하면서 수주 단가(P)도 꾸준히 상승 중인 것이 원인.
- 최근 변압기 제조사들의 호실적은 북미에서 22년도부터 변압기 시장 성장의 사이클이 본격화됐는데 쇼티지 해소를 위해선 증설, 숙련 인력 확보 등 시간이 필요하기 때문에 발생한 문제.
https://n.news.naver.com/mnews/article/018/0005632532?sid=101
요즘 시장의 관심이 온디바이스, HBM 등 기술주들에 쏠려있지만, 실적주들의 주가는 고점 대비 다소 빠져있는 상황. 주가의 향방은 알 수 없지만, 한국 주식시장에서 몇 안 되는, '지금' 제대로 된 숫자가 나오고 있는 섹터인 만큼, 지속 팔로업이 필요할 것으로 보임.
- 북미의 중동 시장 수주를 중심으로 전력기기 제조사들의 실적이 사상 최대를 기록할 것이 전망됨.
- 1) 북미서는 신재생에너지 발전량 증가 및 노후 변압기 교체 수요 증가, 2) 중동서는 네옴시티 프로젝트 등으로 인한 고압 차단기 수요가 증가 중.
- 23년 3분기 말 기준 전력기기 3사의 수주잔고는 약 11조. Q뿐 아니라, 수요 대비 공급이 부족하면서 수주 단가(P)도 꾸준히 상승 중인 것이 원인.
- 최근 변압기 제조사들의 호실적은 북미에서 22년도부터 변압기 시장 성장의 사이클이 본격화됐는데 쇼티지 해소를 위해선 증설, 숙련 인력 확보 등 시간이 필요하기 때문에 발생한 문제.
Naver
역대 수주 잔고 쌓은 韓전력기기..사상 최대 실적 잇는다
한국 전력기기 업체들이 매분기 어닝서프라이즈를 나타내고 있는 가운데 두둑한 수주잔고를 기반으로 올해 역대 최대 실적을 기록할 전망이다. 북미·중동 시장 호조세가 지속되면서 시장에서는 내년에도 실적 우상향 기조가 이어
미국에서 지내면서 들었던 여러가지 생각들을 적어봤습니다. 두서없는 기록들이지만 나중에 돌이켜 봤을 때에 이 때의 저를 기억할 수 있는 수단일 것 같아 기록했고 혹시 누군가에게 도움이 될 수 있을까 해서 공개합니다.
왜 미국에 왔는지 와서 어떤 것을 보고 느끼고 있는지, AI에 대해서는 어떤 생각을 가지고 있는지, 미국에서 해볼만한 사업의 기회에 대해서, 미국에서 다시 신용을 쌓아가는 상황, 좋은 인생을 살기 위해 노력하는 것들, 찰리 멍거가 남긴 Legacy, 재밌게 읽었던 글에 대해서 메모해봤습니다.
https://www.notion.so/matthewcontinuouslearning/23-Oct-Nov-9fdc28312ac54dd0b975c495ee4bfff9?pvs=4
왜 미국에 왔는지 와서 어떤 것을 보고 느끼고 있는지, AI에 대해서는 어떤 생각을 가지고 있는지, 미국에서 해볼만한 사업의 기회에 대해서, 미국에서 다시 신용을 쌓아가는 상황, 좋은 인생을 살기 위해 노력하는 것들, 찰리 멍거가 남긴 Legacy, 재밌게 읽었던 글에 대해서 메모해봤습니다.
https://www.notion.so/matthewcontinuouslearning/23-Oct-Nov-9fdc28312ac54dd0b975c495ee4bfff9?pvs=4
KIM MINSEOK's Notion on Notion
23 Oct-Nov 미국에서 생활하며 생각한 것들 | Built with Notion
2달간 미국에서 머물면서 생각했던 것들을 두서없이 메모해봤다. 일기장 같은 기록들이지만 나중에 돌이켜 봤을 때에 그 때의 나를 기억할 수 있는 수단일 것 같아 기록했고 혹시 누군가에게 도움이 될 수 있을까 해서 공개합니다.
🔥3
단백질 프로그래밍 플랫폼 구축하는 Cradle, $24M 규모의 Series A 자금 조달
- 단백질의 아미노산 서열이 ‘외계의 프로그래밍 언어와 비슷하다’는 통찰을 바탕으로 AI 모델에 분자 구조 학습
- 단백질의 아미노산 서열이 ‘외계의 프로그래밍 언어와 비슷하다’는 통찰을 바탕으로 AI 모델에 분자 구조 학습
TechCrunch
Cradle’s AI-powered protein programming platform levels up with $24M in new funding
Biotech and AI startup Cradle is finding success with its generative approach to protein design, landing big customers and a hefty $24 million of new
Stability AI, 회사 매각 검토 중(블룸버그)
- 기업의 불안정한 재무 상태에 대한 투자자들의 압박과 CEO 사임 촉구 등으로, 회사 매각을 검토 중
- 기업의 불안정한 재무 상태에 대한 투자자들의 압박과 CEO 사임 촉구 등으로, 회사 매각을 검토 중
Bloomberg.com
Stability AI Has Explored Sale as Investor Urges CEO to Resign
Stability AI, the British artificial intelligence startup behind the Stable Diffusion image generator, has explored selling the company as management faces increased pressure from investors over its financial position.
https://news.hada.io/topic?id=12187&utm_source=slack&utm_medium=bot&utm_campaign=T05AXQMJY68
전세계 논문을 AI가 자동으로 한글 번역, 요약, 분석, QnA를 한방에!!!
*ArXiv는 글로벌 논문 검색 포털 서비스입니다.
ArXiv GPT 유튜브 소개 동영상: https://youtu.be/-kpz0mjAd3Y
ArXiv의 전세계 모든 논문을 AI가 한글로 전문 번역, 요약, 분석, QnA를 지원합니다.
ArXiv는 글로벌 논문 검색 포털 서비스입니다.
전세계 논문을 AI가 자동으로 한글 번역, 요약, 분석, QnA를 한방에!!!
*ArXiv는 글로벌 논문 검색 포털 서비스입니다.
ArXiv GPT 유튜브 소개 동영상: https://youtu.be/-kpz0mjAd3Y
ArXiv의 전세계 모든 논문을 AI가 한글로 전문 번역, 요약, 분석, QnA를 지원합니다.
ArXiv는 글로벌 논문 검색 포털 서비스입니다.
GeekNews
ArXiv GPT - 전세계 논문을 AI가 자동으로 한글 번역, 요약, 분석, QnA를 한 | GeekNews
ArXiv GPT전세계 논문을 AI가 자동으로 한글 번역, 요약, 분석, QnA를 한방에!!!*ArXiv는 글로벌 논문 검색 포털 서비스입니다.ArXiv GPT 유튜브 소개 동영상: https://youtu.be/-kpz0mjAd3YArXiv의 전세계 모든 논문을 AI가 한글로 전문 번역, 요약, 분석, QnA를 지원합니다.ArXiv는 글로벌 논문 검색 포
MS, Copilot의 출시 예정 기능 공개
- 향후 몇 주 내에 GPT-4 turbo 기능 탑재
- Bing 이미지 검색, GPT-4 Vision, 웹 검색 데이터를 결합한 멀티모달 검색 기능과 코드 인터프리터 기능 탑재 예정
- 사용자의 질문에 대한 의도를 파악하여, 의도에 맞게 확장된 검색을 진행하는 ‘Deep Search’ 기능 탑재 예정
- 향후 몇 주 내에 GPT-4 turbo 기능 탑재
- Bing 이미지 검색, GPT-4 Vision, 웹 검색 데이터를 결합한 멀티모달 검색 기능과 코드 인터프리터 기능 탑재 예정
- 사용자의 질문에 대한 의도를 파악하여, 의도에 맞게 확장된 검색을 진행하는 ‘Deep Search’ 기능 탑재 예정
The Official Microsoft Blog
Celebrating the first year of Copilot with significant new innovations
This year will be remembered as the moment that we, as individuals, began to harness the power of AI in our daily lives. The last 10 months reflect years of AI research, close partnerships, and breakthrough innovations coming together. This culmination is…
프랑스의 LLM 구축 스타트업 Mistral AI, 설립 반 년 만에 곧 유니콘 등극
- 약 $2B(약 2조 6,000억 원)의 기업 가치로 a16z 주도의 투자 협상 진행 중(블룸버그)
- 약 $2B(약 2조 6,000억 원)의 기업 가치로 a16z 주도의 투자 협상 진행 중(블룸버그)
Bloomberg.com
OpenAI Rival Mistral Nears $2 Billion Valuation With Andreessen Horowitz Backing
Mistral AI is in the final stages of raising roughly €450 million ($487 million) from investors including Nvidia Corp. and Salesforce Inc. in a funding round that values the OpenAI rival at about $2 billion, according to people familiar with the deal.
Continuous Learning_Startup & Investment pinned «미국에서 지내면서 들었던 여러가지 생각들을 적어봤습니다. 두서없는 기록들이지만 나중에 돌이켜 봤을 때에 이 때의 저를 기억할 수 있는 수단일 것 같아 기록했고 혹시 누군가에게 도움이 될 수 있을까 해서 공개합니다. 왜 미국에 왔는지 와서 어떤 것을 보고 느끼고 있는지, AI에 대해서는 어떤 생각을 가지고 있는지, 미국에서 해볼만한 사업의 기회에 대해서, 미국에서 다시 신용을 쌓아가는 상황, 좋은 인생을 살기 위해 노력하는 것들, 찰리 멍거가 남긴 Legacy…»
Forwarded from 글로벌 바이오헬스케어 뉴스
(글로벌 톱 과학자 + 투자자 + $50mil. 자금 받은 후 설립 2년 만에 문닫는 바이오텍)
============
하버드/MIT의 브로드연구소, David Liu 교수가 창업한 설립 2년된 Resonance Medicine가 문을 닫는다.
이 회사는 Atlas Venture, ARCH Venture Partners, F-Prime Capital, GV, Newpath Partners과 같이 쟁쟁한 바이오 전문 VC들로부터 $50mil. 이상의 투자유치를 받았고, 아직 스틸스 모드에 있었다.
David Liu 교수는 유전자 편집 분야의 글로벌 톱 과학자이며. 이 분야 톱 바이오텍 Editas Medicine, Beam Therapeutics, Prime Medicine 의 창업자이기도 하다.
그런데 지난 금요일에 임직원들에게 회사를 문닫기로 했다고 통보했다고 한다.
===========
Resonance은 특정 단백질을 타겟으로 한 단백질 분해제(protease)를 엔지니어링하여 치료제로 개발하려고 했었다.
유전자 편집 분야는 아니지만 Liu 교수는 효소 엔지니어링 전문 생화학자이므로 관련이 있다.
회사를 왜 접는지 밝히지는 않았으나 외부 펀딩 환경 때문은 아니라고 하니, 아마 기술적인 이슈일 것으로 추정된다. 펀딩 환경이 아무리 어려워도 David Liu 교수의 유명세와 투자자 리스트를 볼 때, 기술만 제대로 증명되면 크게 투자유치를 할 수 있었을 것이다.
아무리 글로벌 톱 과학자, 투자자, 자금이 있어도 기술이 안된다고 판단하면 빨리 정리하는 게 이익이라고 생각한 듯 하다.
==========
(written by 심수민, 파트너스인베스트먼트)
텔레그램 채널: https://news.1rj.ru/str/global_biohealthcare_news
https://endpts.com/scoop-resonance-medicine-a-protease-biotech-from-david-lius-lab-shuts-down/
============
하버드/MIT의 브로드연구소, David Liu 교수가 창업한 설립 2년된 Resonance Medicine가 문을 닫는다.
이 회사는 Atlas Venture, ARCH Venture Partners, F-Prime Capital, GV, Newpath Partners과 같이 쟁쟁한 바이오 전문 VC들로부터 $50mil. 이상의 투자유치를 받았고, 아직 스틸스 모드에 있었다.
David Liu 교수는 유전자 편집 분야의 글로벌 톱 과학자이며. 이 분야 톱 바이오텍 Editas Medicine, Beam Therapeutics, Prime Medicine 의 창업자이기도 하다.
그런데 지난 금요일에 임직원들에게 회사를 문닫기로 했다고 통보했다고 한다.
===========
Resonance은 특정 단백질을 타겟으로 한 단백질 분해제(protease)를 엔지니어링하여 치료제로 개발하려고 했었다.
유전자 편집 분야는 아니지만 Liu 교수는 효소 엔지니어링 전문 생화학자이므로 관련이 있다.
회사를 왜 접는지 밝히지는 않았으나 외부 펀딩 환경 때문은 아니라고 하니, 아마 기술적인 이슈일 것으로 추정된다. 펀딩 환경이 아무리 어려워도 David Liu 교수의 유명세와 투자자 리스트를 볼 때, 기술만 제대로 증명되면 크게 투자유치를 할 수 있었을 것이다.
아무리 글로벌 톱 과학자, 투자자, 자금이 있어도 기술이 안된다고 판단하면 빨리 정리하는 게 이익이라고 생각한 듯 하다.
==========
(written by 심수민, 파트너스인베스트먼트)
텔레그램 채널: https://news.1rj.ru/str/global_biohealthcare_news
https://endpts.com/scoop-resonance-medicine-a-protease-biotech-from-david-lius-lab-shuts-down/
"Mamba: Linear-Time Sequence Modeling with Selective State Spaces" is a research paper by Albert Gu and Tri Dao that introduces a new neural network architecture called Mamba. This architecture is designed to address the computational inefficiency of Transformer models, particularly when dealing with long sequences of data
What is Mamba?
Mamba is a sequence model that integrates a selection mechanism into state space models (SSMs), leading to improved results in general sequence modeling, including language. It is a simplified end-to-end neural network architecture that does not rely on attention or multilayer perceptron (MLP) blocks.
The key innovation in Mamba is the introduction of selective SSMs, which allow the model to selectively propagate or forget information along the sequence length dimension depending on the current token. This selection mechanism enables context-dependent reasoning, which is a significant improvement over previous models that struggled with content-based reasoning.
Mamba is designed to be efficient, with fast inference and linear scaling in sequence length. It achieves up to 5 times higher throughput than Transformers. It also performs well on real data up to million-length sequences.
Performance and Applications
Mamba has demonstrated state-of-the-art performance across several modalities such as language, audio, and genomics. In language modeling, the Mamba-3B model outperforms Transformers of the same size and matches Transformers twice its size, both in pretraining and downstream evaluation. This makes Mamba a promising foundational model for different domains, especially those that require processing of long context sequences.
Limitations
While the paper and the Mamba model have shown promising results, it's important to note that these are initial findings. As with any new model or approach, replication and further testing by the broader scientific community are necessary to fully understand its strengths and limitations. The model's performance on a wider range of tasks and its adaptability to different settings and requirements need to be explored.
Conclusion and Future Work
Mamba represents a significant step forward in sequence modeling, offering a compelling alternative to the widely-used Transformer architecture. Its ability to handle long sequences efficiently and its strong performance across various modalities make it a promising tool for a range of applications.
As for future work, further exploration and testing of Mamba's capabilities are needed. This includes applying the model to a wider range of tasks, exploring its adaptability to different settings, and refining its architecture and algorithms based on feedback and results from these tests. The authors have made the Mamba codebase available for use and further development, which will facilitate these future explorations.
What is Mamba?
Mamba is a sequence model that integrates a selection mechanism into state space models (SSMs), leading to improved results in general sequence modeling, including language. It is a simplified end-to-end neural network architecture that does not rely on attention or multilayer perceptron (MLP) blocks.
The key innovation in Mamba is the introduction of selective SSMs, which allow the model to selectively propagate or forget information along the sequence length dimension depending on the current token. This selection mechanism enables context-dependent reasoning, which is a significant improvement over previous models that struggled with content-based reasoning.
Mamba is designed to be efficient, with fast inference and linear scaling in sequence length. It achieves up to 5 times higher throughput than Transformers. It also performs well on real data up to million-length sequences.
Performance and Applications
Mamba has demonstrated state-of-the-art performance across several modalities such as language, audio, and genomics. In language modeling, the Mamba-3B model outperforms Transformers of the same size and matches Transformers twice its size, both in pretraining and downstream evaluation. This makes Mamba a promising foundational model for different domains, especially those that require processing of long context sequences.
Limitations
While the paper and the Mamba model have shown promising results, it's important to note that these are initial findings. As with any new model or approach, replication and further testing by the broader scientific community are necessary to fully understand its strengths and limitations. The model's performance on a wider range of tasks and its adaptability to different settings and requirements need to be explored.
Conclusion and Future Work
Mamba represents a significant step forward in sequence modeling, offering a compelling alternative to the widely-used Transformer architecture. Its ability to handle long sequences efficiently and its strong performance across various modalities make it a promising tool for a range of applications.
As for future work, further exploration and testing of Mamba's capabilities are needed. This includes applying the model to a wider range of tasks, exploring its adaptability to different settings, and refining its architecture and algorithms based on feedback and results from these tests. The authors have made the Mamba codebase available for use and further development, which will facilitate these future explorations.
👍2
오늘 미라클 레터(이덕주 기자님) 글에서 인상적인 부분
실리콘밸리 투자 구루 비노드 코슬라
첫째, 발표를 시작한지 60초 안에 내가 하고싶은 얘기가 무엇인지를 투자자들이 알아야해요. (서론이 길지 말고 바로 본론으로 들어가야한다는 것이죠)
두번째, “내가 이것을 입증하면 이런 멋진 일이 벌어진다”는 걸 보여줘야해요. (투자자들에게 가능성과 스토리를 보여줘야해요)
세번째, 공략하는 시장이 매우 크거나, 아니면 새롭고 흥미로운 시장이라는 걸 보여줘야해요. (큰 시장 혹은 미지의 시장을 보여줘서 투자자들의 탐욕을 자극하는거죠)
네번째, PMF(Product Market Fit) 을 입증했거나 입증할 수 있다는 걸 보여줘야해요.
(스타트업이란 결국 PMF 를 찾는 것!)
다섯번째, 기술적인 문제는 관리할 수 있고, 시장도 명확하다는 걸 보여줘야해요.
좋은 팀을 갖고 있다는 것은 마지막에 얘기해주면 된다고 합니다.
코슬라는 피칭 덱을 만들 때 가장 처음 해야할 일을 ‘우리 회사에 투자해야할 이유’와 ‘투자하지 말아야할 이유’를 브레인스토밍하는 것이라고 했어요.
이날 그의 강연 내용 중에 가장 인상 깊었던 부분. 바로 성공하는 창업자가 공통적으로 가진 능력은 바로 '빠른 학습능력'이라는 것이었어요. 창업자들은 많은 사람을 만나고, 많은 정보를 수집해서, 최대한 많은 인풋을 스스로에게 투입한다고 해요. 그리고 수많은 인풋을 바탕으로 중요한 의사결정을 내립니다. 누구의 영향도 받지 않고 스스로의 생각으로 결정을 내립니다. 이런 결정을 위해서 중요한 것은? 바로 많은 인풋!
실리콘밸리 투자 구루 비노드 코슬라
첫째, 발표를 시작한지 60초 안에 내가 하고싶은 얘기가 무엇인지를 투자자들이 알아야해요. (서론이 길지 말고 바로 본론으로 들어가야한다는 것이죠)
두번째, “내가 이것을 입증하면 이런 멋진 일이 벌어진다”는 걸 보여줘야해요. (투자자들에게 가능성과 스토리를 보여줘야해요)
세번째, 공략하는 시장이 매우 크거나, 아니면 새롭고 흥미로운 시장이라는 걸 보여줘야해요. (큰 시장 혹은 미지의 시장을 보여줘서 투자자들의 탐욕을 자극하는거죠)
네번째, PMF(Product Market Fit) 을 입증했거나 입증할 수 있다는 걸 보여줘야해요.
(스타트업이란 결국 PMF 를 찾는 것!)
다섯번째, 기술적인 문제는 관리할 수 있고, 시장도 명확하다는 걸 보여줘야해요.
좋은 팀을 갖고 있다는 것은 마지막에 얘기해주면 된다고 합니다.
코슬라는 피칭 덱을 만들 때 가장 처음 해야할 일을 ‘우리 회사에 투자해야할 이유’와 ‘투자하지 말아야할 이유’를 브레인스토밍하는 것이라고 했어요.
이날 그의 강연 내용 중에 가장 인상 깊었던 부분. 바로 성공하는 창업자가 공통적으로 가진 능력은 바로 '빠른 학습능력'이라는 것이었어요. 창업자들은 많은 사람을 만나고, 많은 정보를 수집해서, 최대한 많은 인풋을 스스로에게 투입한다고 해요. 그리고 수많은 인풋을 바탕으로 중요한 의사결정을 내립니다. 누구의 영향도 받지 않고 스스로의 생각으로 결정을 내립니다. 이런 결정을 위해서 중요한 것은? 바로 많은 인풋!
👍1