Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
Former Google CEO Eric Schmidt explains how he uses 5-year plans to predict if a startup can become a $100B+ company

“If you went to business school, you would’ve been taught: build a great product, organize a sales force, charge a fair price, make the customer happy.”

But Eric explains that strategy is insufficiently scalable in the Internet era.

“It’ll produce a reasonable business, but it’s not going to produce a huge business. It’s just too hard to hire all of those salespeople, work with every customer, and so forth. You have to have a more clever strategy.”

He continues:

“All of the really big companies have invented a new way to access information or a new way to do something that didn’t require [a large salesforce].”

Eric argues that lots of the startup ideas he hears are good, but not good enough. He tells these founders to create a 5-year plan and map their growth rate. Then try to figure out what a more scalable strategy might be.

For example, if you’re building an app that you want to charge $10 for, Eric asks:

“Why can’t you give the app away for free and then upsell the users?"

This is similar to the advice of Peter Thiel who famously asks founders: “How can you achieve your 10 year plan in the next 6 months?”

Thinking big and optimizing for scalability is one key factor that separates the ultra successful companies from the rest.

Another way to use a five-year plan to determine if your company can be a $100B+ company is to ask yourself what the big platforms will be five years from now and make sure your company is aligned with those platforms.

In this interview from 2016 and he predicted that Android, iOS, and machine learning would be the dominant platforms of the next five years.

How can you achieve your 10 year plan in the next 6 months?”
1
Life is unpredictable. There are many unexpected problems that will pop up, and I’ve found that two things help me sail choppy water during the day.

Both are done in the morning: A) read a few pages of Stoicism, like Marcus Aurelius’s Meditations, and B) control at least a few things you can control.

First, for A, here is one Marcus Aurelius quote on my refrigerator that often does the trick:

“When you wake up in the morning, tell yourself: The people I deal with today will be meddling, ungrateful, arrogant, dishonest, jealous, and surly. They are like this because they can’t tell good from evil. But I have seen the beauty of good, and the ugliness of evil, and have recognized that the wrongdoer has a nature related to my own—not of the same blood or birth, but the same mind, and possessing a share of the divine. And so none of them can hurt me.”

Now, B) control what you can control. No matter how shitty your day is, no matter how catastrophic it might become, you can make your bed.

And that gives you the feeling, at least it gives me the feeling, even in a disastrous day, that I’ve held on to the cliff ledge by a fingernail and I haven’t fallen.

https://x.com/tferriss/status/1731809474267025647?s=46&t=h5Byg6Wosg8MJb4pbPSDow
From @anduriltech’s @PalmerLuckey:

What is the #1 job most kids want today?

“It’s social media influencer, next is professional gamer, next is YouTuber… the problem is, you can’t tell kids to follow their dreams when their dreams suck.”

What was the #1 dream for kids in 1971?
To be an astronaut 👨‍🚀 🌕

“We had just gone to the moon… These guys were fighter pilots, PhD mathematician super men, who were also really good looking and well spoken… the ultimate American hero ideal. For a kid to see that and say ‘that’s what I want to be,’ okay tell the kids to follow their dreams.”

https://www.youtube.com/watch?v=pGCOPxje3_c
Forwarded from YM리서치
역대 수주 잔고 쌓은 韓전력기기..사상 최대 실적 잇는다
https://n.news.naver.com/mnews/article/018/0005632532?sid=101

요즘 시장의 관심이 온디바이스, HBM 등 기술주들에 쏠려있지만, 실적주들의 주가는 고점 대비 다소 빠져있는 상황. 주가의 향방은 알 수 없지만, 한국 주식시장에서 몇 안 되는, '지금' 제대로 된 숫자가 나오고 있는 섹터인 만큼, 지속 팔로업이 필요할 것으로 보임.

- 북미의 중동 시장 수주를 중심으로 전력기기 제조사들의 실적이 사상 최대를 기록할 것이 전망됨.

- 1) 북미서는 신재생에너지 발전량 증가 및 노후 변압기 교체 수요 증가, 2) 중동서는 네옴시티 프로젝트 등으로 인한 고압 차단기 수요가 증가 중.

- 23년 3분기 말 기준 전력기기 3사의 수주잔고는 약 11조. Q뿐 아니라, 수요 대비 공급이 부족하면서 수주 단가(P)도 꾸준히 상승 중인 것이 원인.

- 최근 변압기 제조사들의 호실적은 북미에서 22년도부터 변압기 시장 성장의 사이클이 본격화됐는데 쇼티지 해소를 위해선 증설, 숙련 인력 확보 등 시간이 필요하기 때문에 발생한 문제.
미국에서 지내면서 들었던 여러가지 생각들을 적어봤습니다. 두서없는 기록들이지만 나중에 돌이켜 봤을 때에 이 때의 저를 기억할 수 있는 수단일 것 같아 기록했고 혹시 누군가에게 도움이 될 수 있을까 해서 공개합니다.

왜 미국에 왔는지 와서 어떤 것을 보고 느끼고 있는지, AI에 대해서는 어떤 생각을 가지고 있는지, 미국에서 해볼만한 사업의 기회에 대해서, 미국에서 다시 신용을 쌓아가는 상황, 좋은 인생을 살기 위해 노력하는 것들, 찰리 멍거가 남긴 Legacy, 재밌게 읽었던 글에 대해서 메모해봤습니다.

https://www.notion.so/matthewcontinuouslearning/23-Oct-Nov-9fdc28312ac54dd0b975c495ee4bfff9?pvs=4
🔥3
MS, Copilot의 출시 예정 기능 공개
- 향후 몇 주 내에 GPT-4 turbo 기능 탑재
- Bing 이미지 검색, GPT-4 Vision, 웹 검색 데이터를 결합한 멀티모달 검색 기능과 코드 인터프리터 기능 탑재 예정
- 사용자의 질문에 대한 의도를 파악하여, 의도에 맞게 확장된 검색을 진행하는 ‘Deep Search’ 기능 탑재 예정
Continuous Learning_Startup & Investment pinned «미국에서 지내면서 들었던 여러가지 생각들을 적어봤습니다. 두서없는 기록들이지만 나중에 돌이켜 봤을 때에 이 때의 저를 기억할 수 있는 수단일 것 같아 기록했고 혹시 누군가에게 도움이 될 수 있을까 해서 공개합니다. 왜 미국에 왔는지 와서 어떤 것을 보고 느끼고 있는지, AI에 대해서는 어떤 생각을 가지고 있는지, 미국에서 해볼만한 사업의 기회에 대해서, 미국에서 다시 신용을 쌓아가는 상황, 좋은 인생을 살기 위해 노력하는 것들, 찰리 멍거가 남긴 Legacy…»
(글로벌 톱 과학자 + 투자자 + $50mil. 자금 받은 후 설립 2년 만에 문닫는 바이오텍)

============
하버드/MIT의 브로드연구소, David Liu 교수가 창업한 설립 2년된 Resonance Medicine가 문을 닫는다.

이 회사는 Atlas Venture, ARCH Venture Partners, F-Prime Capital, GV, Newpath Partners과 같이 쟁쟁한 바이오 전문 VC들로부터 $50mil. 이상의 투자유치를 받았고, 아직 스틸스 모드에 있었다.

David Liu 교수는 유전자 편집 분야의 글로벌 톱 과학자이며. 이 분야 톱 바이오텍 Editas Medicine, Beam Therapeutics, Prime Medicine 의 창업자이기도 하다.

그런데 지난 금요일에 임직원들에게 회사를 문닫기로 했다고 통보했다고 한다.

===========
Resonance은 특정 단백질을 타겟으로 한 단백질 분해제(protease)를 엔지니어링하여 치료제로 개발하려고 했었다.

유전자 편집 분야는 아니지만 Liu 교수는 효소 엔지니어링 전문 생화학자이므로 관련이 있다.

회사를 왜 접는지 밝히지는 않았으나 외부 펀딩 환경 때문은 아니라고 하니, 아마 기술적인 이슈일 것으로 추정된다. 펀딩 환경이 아무리 어려워도 David Liu 교수의 유명세와 투자자 리스트를 볼 때, 기술만 제대로 증명되면 크게 투자유치를 할 수 있었을 것이다.

아무리 글로벌 톱 과학자, 투자자, 자금이 있어도 기술이 안된다고 판단하면 빨리 정리하는 게 이익이라고 생각한 듯 하다.

==========
(written by 심수민, 파트너스인베스트먼트)

텔레그램 채널: https://news.1rj.ru/str/global_biohealthcare_news

https://endpts.com/scoop-resonance-medicine-a-protease-biotech-from-david-lius-lab-shuts-down/
"Mamba: Linear-Time Sequence Modeling with Selective State Spaces" is a research paper by Albert Gu and Tri Dao that introduces a new neural network architecture called Mamba. This architecture is designed to address the computational inefficiency of Transformer models, particularly when dealing with long sequences of data

What is Mamba?
Mamba is a sequence model that integrates a selection mechanism into state space models (SSMs), leading to improved results in general sequence modeling, including language. It is a simplified end-to-end neural network architecture that does not rely on attention or multilayer perceptron (MLP) blocks.

The key innovation in Mamba is the introduction of selective SSMs, which allow the model to selectively propagate or forget information along the sequence length dimension depending on the current token. This selection mechanism enables context-dependent reasoning, which is a significant improvement over previous models that struggled with content-based reasoning.

Mamba is designed to be efficient, with fast inference and linear scaling in sequence length. It achieves up to 5 times higher throughput than Transformers. It also performs well on real data up to million-length sequences.

Performance and Applications
Mamba has demonstrated state-of-the-art performance across several modalities such as language, audio, and genomics. In language modeling, the Mamba-3B model outperforms Transformers of the same size and matches Transformers twice its size, both in pretraining and downstream evaluation. This makes Mamba a promising foundational model for different domains, especially those that require processing of long context sequences.

Limitations
While the paper and the Mamba model have shown promising results, it's important to note that these are initial findings. As with any new model or approach, replication and further testing by the broader scientific community are necessary to fully understand its strengths and limitations. The model's performance on a wider range of tasks and its adaptability to different settings and requirements need to be explored.

Conclusion and Future Work
Mamba represents a significant step forward in sequence modeling, offering a compelling alternative to the widely-used Transformer architecture. Its ability to handle long sequences efficiently and its strong performance across various modalities make it a promising tool for a range of applications.

As for future work, further exploration and testing of Mamba's capabilities are needed. This includes applying the model to a wider range of tasks, exploring its adaptability to different settings, and refining its architecture and algorithms based on feedback and results from these tests. The authors have made the Mamba codebase available for use and further development, which will facilitate these future explorations.
👍2
오늘 미라클 레터(이덕주 기자님) 글에서 인상적인 부분

실리콘밸리 투자 구루 비노드 코슬라

첫째, 발표를 시작한지 60초 안에 내가 하고싶은 얘기가 무엇인지를 투자자들이 알아야해요. (서론이 길지 말고 바로 본론으로 들어가야한다는 것이죠)

두번째, “내가 이것을 입증하면 이런 멋진 일이 벌어진다”는 걸 보여줘야해요. (투자자들에게 가능성과 스토리를 보여줘야해요)

세번째, 공략하는 시장이 매우 크거나, 아니면 새롭고 흥미로운 시장이라는 걸 보여줘야해요. (큰 시장 혹은 미지의 시장을 보여줘서 투자자들의 탐욕을 자극하는거죠)

네번째, PMF(Product Market Fit) 을 입증했거나 입증할 수 있다는 걸 보여줘야해요.
(스타트업이란 결국 PMF 를 찾는 것!)

다섯번째, 기술적인 문제는 관리할 수 있고, 시장도 명확하다는 걸 보여줘야해요.

좋은 팀을 갖고 있다는 것은 마지막에 얘기해주면 된다고 합니다.

코슬라는 피칭 덱을 만들 때 가장 처음 해야할 일을 ‘우리 회사에 투자해야할 이유’와 ‘투자하지 말아야할 이유’를 브레인스토밍하는 것이라고 했어요.

이날 그의 강연 내용 중에 가장 인상 깊었던 부분. 바로 성공하는 창업자가 공통적으로 가진 능력은 바로 '빠른 학습능력'이라는 것이었어요. 창업자들은 많은 사람을 만나고, 많은 정보를 수집해서, 최대한 많은 인풋을 스스로에게 투입한다고 해요. 그리고 수많은 인풋을 바탕으로 중요한 의사결정을 내립니다. 누구의 영향도 받지 않고 스스로의 생각으로 결정을 내립니다. 이런 결정을 위해서 중요한 것은? 바로 많은 인풋!
👍1