Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
제 추정에 따르면 러시아에서 푸틴의 지지율은 프리고진의 '쿠데타' 24시간 동안 30% 아래로 떨어졌습니다. 피비린내 나는 살인자는 절뚝 거리는 오리가되었고 그의 "사나이"이미지는 러시아와 해외에서 모두 산산조각이났습니다.

러시아에는 오늘날 두 명의 대통령, 즉 단호하고 유능한 살인자 인 진짜 대통령과 벙커 깊숙한 곳에서 두려움에 움츠러 들고 피 묻은 공범 인 루카셴코를 협상으로 보내는 구 대통령이있는 것과 같습니다.

루카셴코가 범죄자 프리고진과의 협상에서 중재자가 된 이유는 무엇일까요? 답은 간단하다고 생각합니다. 바그너 호송대는 모스크바에서 불과 몇 시간 거리에 있었습니다. 만약 그들이 수도를 점령했다면 크렘린궁을 포함한 정부 건물을 장악했을 것입니다. 이는 푸틴 정권의 붕괴로 이어질 것이고, 이는 다시 루카셴코 정권의 붕괴로 이어졌을 것입니다. 그래서 한 쪽이 다른 쪽을 구하기 위해 서두른 것입니다.

다음은 어떻게 될까요?
1. 프리 고진과의 협상에서 어떤 정확한 합의가 이루어 졌는지 아무도 모릅니다. 사실-Wagner PMC의 호송대가 모스크바에서 200km 떨어진 곳에서 멈춰서 걸어 갔고 Prigozhin의 군대가 로스토프의 남부 군사 지역 본부를 떠났다는 것입니다.
2. 푸틴이 쇼이구와 게라시모프의 사임을 포함하여 (합의에 포함되었다고 가정 할 때) 푸틴이 자신의 거래 측을 존중할 것인지 여부에 따라 많은 것이 달라질 것입니다.

한 가지 분명한 것은:
어떤 종류의 속편이 나올 것입니다

https://twitter.com/gerashchenko_en/status/1672719234739126273?s=46&t=h5Byg6Wosg8MJb4pbPSDow
Rather than making a big chaos, I think we need the more peaceful solutions which prevent the worst scenarios like nuclear wars.

What’s better: negotiated peace or nuclear chaos?

It looks like the crisis in Russia is abating after many premature predictions, dunks, and celebrations. We’ve come to expect such behavior from mids like Kinzinger, but the participation of so many more serious American policy makers and influencers shows the extent to which they have lost perspective.

They expressed glee over the possibility of a coup in the world’s largest nuclear weapons state by a warlord whose main gripe is that Russia has not prosecuted the war vigorously enough, who advocates full mobilization and total war, and is more likely to countenance nuclear use.

I can understand why Ukrainian nationalists — who are desperate to win the war in light of a counteroffensive that even CNN admitted yesterday is thus-far failing — would be willing to roll the dice and root for chaos and civil war in Russia. But for American leaders to do so shows that they have lost any conception of a distinct American national interest.

What the last 24 hours have underscored is that wars are not just incredibly destructive but also incredibly unpredictable. I continue to maintain that it was in the best interest of the United States to avoid this by supporting the Istanbul deal. It would have cost us nothing except an agreement not to add Ukraine to NATO. In fact, this would not have been a cost but a benefit, saving ourselves from the insanity of committing American boys & girls to fight Russia one day on Ukraine’s behalf.

Now the war seems likely to enter an even more desperate stage for both Russia and Ukraine. Is this what we want? History proves that things can always get worse. ISIS was worse than Saddam, Lenin was worse than the Tsar, and Prigozhin could have been worse than Putin. Do we want to keep rolling the dice? Or do we want to figure out how to bring the killing to an end?

https://twitter.com/davidsacks/status/1672716197379596295?s=46&t=h5Byg6Wosg8MJb4pbPSDow
한중일 출신이 구글에서 왜 인도 출신에 비해 리더십 수가 왜 적은가? https://youtu.be/auSJeTzzuEE Sunghyun Hwang 🙏
1. 권위에 대한 존중
- 고전적인 동양 문화에서는 개인적인 가치보다는 사회나 집단의 기대에 부응하는 것이 중요하게 여겨집니다. 이로 인해, 사람들은 자신만의 독특한 가치나 목표를 세우는 대신, 누군가가 제시한 목표를 따르는 경향이 있습니다.
- 이런 접근법은 우리가 부여받은 업무를 잘 수행하는 데에는 효과적일 수 있지만, 이를 통해 리더십을 발휘하거나 전략적인 결정을 내리는 능력을 발전시키는 데에는 한계가 있을 수 있습니다.
2. 관계 구축
- 사람들이 타인을 평가할 때 두 가지 요소, 즉 따뜻함과 능력을 중요하게 여깁니다.
- 하지만 동양 문화에서는 감정을 내보이는 것이 부적절하다고 여겨질 때가 많아, 이로 인해 따뜻한 인상을 주기 어려울 수 있습니다. 이러한 문화적 배경 때문에, 적대적이거나 친밀감을 형성하는데 어려움을 겪는 경우가 있을 수 있습니다.
3. 취약점을 보여주는 용기
- 취약점을 보여주는 것은 상대방에 대한 신뢰의 표현이지만, 동양 문화에서는 이를 약점으로 보는 경우가 많습니다.
- 실패에 대한 공포와 체면을 유지하려는 문화가 이러한 취약점을 공개하고, 이를 통해 배우려는 시도를 억제할 수 있습니다.
현대 세상에서는 꿈만 크게 꾸면 방법은 이미 다 나와있습니다. 따라서, 우리 스스로의 가치를 찾아내고, 따뜻하고 능력있는 사람으로 인식되며, 취약점을 공유하고 그것을 통해 배울 수 있는 용기를 가지는 것이 중요합니다. 이러한 능력은 오늘날의 글로벌 환경에서 우리의 성장과 발전을 위해 필수적입니다.
AGI house session deck: small developer(Baby AGI) https://docs.google.com/presentation/d/1d5N3YqjSJwhioFT-edmyjxGsPBCMb1uZg0Zs5Ju673k/edit#slide=id.g254e571859c_0_192

Interesting neural science book, Brain and Behavior: A Cognitive Neuroscience Perspective http://amazon.com/dp/0195377680/ref=cm_sw_r_as_gl_api_gl_i_CGDWM54CK5QGT4C9TQ7M?linkCode=ml1&tag=swyx0d-20

Andrej on AGI house’ event
https://twitter.com/swyx/status/1672686090589990912?s=20

Andrej Karpathy @ AGI House today: hackers and startups outcompete OpenAI when applying OpenAI models to new capabilities.

“If a paper comes out that proposes some different way of training a transformer, the OpenAI Slack is something along the lines of, ‘Oh, yeah, someone tried that 2.5 years ago and here’s what happened, and here’s why it didn’t work. It’s very well understood and mapped out.

But when a new agent paper comes out, we’re all interested and we look at it, and we’re like, ‘That’s really cool, that’s novel.’ And that’s because a team didn’t have five years to spend on it. And it’s competing now with all of you, the entrepreneurs and the hackers. And that’s hard to do. So I hope it’s really inspiring that you are at the edge of capability.”
이번 주말 AI 해커톤에서 얻은 핵심 내용 요약: 1) AGI를 대중에게 전달하는 형식으로 에이전트에 대한 낙관적 전망 2) 다음 도약을 위해 신경과학에서 영감 구하기

의견 #1: - 대형 기업이 진정한 우위를 점하는 모델 트레이닝과 달리 에이전트 설계는 보다 민주적이며 스타트업이 진정한 기회를 잡을 수 있다 - 신경과학에서 얻은 영감이 현장에서의 다음 혁신을 주도할 가능성이 높다. 잘 표현된 부분(예: 해마, 시각, 청각 피질)도 있지만 그렇지 않은 부분(예: 모델의 기저핵 기능이 약함(실행 기능/감정))도 있습니다.
- 영감: 데이비드 이글먼의 뇌와 행동

#2: AGI는 여러 명의 작은 에이전트가 서로 대화하는 형태가 될 것입니다. 특정 에이전트의 책임은 좁아질 것이므로 전문화하세요.

#3: 에이전트에 대해 다소 비관적이며, 현재 실제 업무에 에이전트를 사용하는 사람은 아무도 없다고 생각합니다. 핵심 질문: 에이전트를 실제로 유용하게 만들려면 어떻게 해야 할까요? 에이전트 설계를 위해 인간의 뇌에서 영감을 얻음

#4: 에이전트의 ‘유용성’은 과대평가되어 있습니다. 미친 과학자 입장에서 에이전트를 생각해 보세요. 상담원이 “미친 짓 X”를 할 수 있다면 어떨까요? 스스로 조직화되는 에이전트에 대한 호기심(예: 소프트웨어가 스스로 계약을 협상하는 것)

https://twitter.com/apoorv03/status/1672748865064415236
Hyena Hierarchy: Towards Larger Convolutional Language Models
https://arxiv.org/pdf/2302.10866.pdf

The authors propose a new architecture called Hyena Hierarchy, which aims to improve the performance of convolutional transformers by leveraging hierarchical representations and multi-scale processing1.The Hyena Hierarchy architecture is designed to address the limitations of existing convolutional transformers, such as the inability to scale efficiently to larger models and the lack of support for hierarchical representations1. By incorporating these features, the authors demonstrate that the Hyena Hierarchy model can achieve state-of-the-art performance on various benchmark datasets, including ImageNet-1K and ImageNet-21K1.

The paper highlights the potential of larger convolutional transformers in deep learning applications, particularly in the areas of computer vision and natural language processing. The Hyena Hierarchy architecture offers a promising direction for future research and development in this field1.

The Secret Sauce behind 100K context window in LLMs: all tricks in one place
https://blog.gopenai.com/how-to-speed-up-llms-and-use-100k-context-window-all-tricks-in-one-place-ffd40577b4c

The article provides an overview of techniques to speed up training and inference of Large Language Models (LLMs) to use large context windows of up to 100,000 input tokens during training and inference. Some of the techniques mentioned in the article include ALiBi positional embedding, Sparse Attention, FlashAttention, Multi-Query attention, Conditional computation, and the use of 80GB A100 GPUs1.

The article discusses recent announcements about new LLMs that can consume extremely large context windows, such as 65,000 tokens (MPT-7B-StoryWriter-65k+ by MosaicML) or even 100,000 tokens (Introducing 100K Context Windows by Antropic)1. These advancements are significant as they allow LLMs to process and understand larger amounts of text, potentially leading to improved performance and capabilities in various AI applications1.