Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
Continuous Learning_Startup & Investment
https://youtu.be/tfL0ZpYBLrw
트럼프와 바이든의 경제 정책

서머스: 트럼프 대통령은 인플레이션과 규제 문제를 지적할 것입니다. 규제와 독점 금지 정책에 과도한 부분이 있었고, 초기 거시 경제 자극 정책이 인플레이션을 유발했습니다.
바이든의 반론: 트럼프의 정책은 비이성적이고 인플레이션을 유발할 위험이 큽니다. 트럼프의 정책은 아르헨티나와 같은 경제를 모방하며, 중앙은행의 독립성을 훼손하고 재정 적자를 키우며, 보호주의를 강화합니다.

경제 확장과 디스인플레이션

경제 확장: 현재 경제 확장은 건강하지만 영원하지 않습니다. 이는 경제 성장이 지속되고 있지만 언제든지 종료될 수 있다는 의미입니다.
디스인플레이션: 디스인플레이션(물가상승률의 둔화)에 대해 지나치게 낙관적이라는 견해를 갖고 있습니다. 이는 인플레이션이 여전히 높은 수준에서 유지되고 있으며, 통화 정책이 충분히 제한적이지 않다고 보기 때문입니다.
통화 정책: 서머스는 인플레이션을 억제하기 위해서는 현재보다 더 높은 이자율이 필요하다고 생각합니다. 높은 이자율은 소비와 투자를 줄여 경제 활동을 둔화시키고, 이를 통해 인플레이션을 억제할 수 있습니다.
실업률 증가: 인플레이션을 효과적으로 낮추기 위해서는 실업률이 증가해야 한다고 믿습니다. 이는 실업률 증가가 경제의 과열을 막고 물가를 안정시키는 데 도움이 될 수 있다는 전통적인 경제 이론에 기반합니다.
긍정적인 공급 충격: 최근 몇 년간 예상을 뛰어넘는 긍정적인 공급 충격이 발생했습니다. 예를 들어, 석유 가격 하락, 이민으로 인한 노동 공급 증가, 의료 비용의 안정 등이 포함됩니다. 이러한 요소들이 인플레이션 억제에 기여했습니다.

중국 경제의 문제

과도한 저축 문제: 중국의 과도한 저축은 국내 소비를 억제하고 경제 성장을 방해합니다. 저축이 많다는 것은 소비가 상대적으로 적다는 것을 의미하며, 이는 경제 성장의 동력 중 하나인 내수 진작에 어려움을 줍니다.
투자와 성장의 한계: 과도한 저축은 결국 경제 내 투자와 성장의 한계를 초래합니다. 저축이 너무 많으면 그 자금이 생산적으로 사용되지 않고 경제 전체의 효율성을 떨어뜨릴 수 있습니다.
중국 정부의 대응: 중국 정부는 저축을 줄이고 소비를 늘리기 위해 다양한 정책을 시행할 수 있습니다. 예를 들어, 사회 안전망을 강화하여 국민들이 저축에 대한 필요성을 덜 느끼게 하거나, 소비를 장려하기 위한 세제 혜택을 제공할 수 있습니다.

독재 국가의 외부 전가 시도와 결과

단기 평가: 독재 국가들은 경제적 어려움을 외부 갈등이나 무역 분쟁으로 전가하여 내부 결속을 강화하려는 시도를 합니다. 이러한 시도는 단기적으로는 효과가 있을 수 있습니다. 예를 들어, 국민의 관심을 외부로 돌려 내부 문제에 대한 비판을 줄일 수 있습니다.
장기 평가: 이러한 전략은 장기적으로는 경제적 문제를 해결하지 못하고 오히려 악화시킬 수 있습니다. 외부 갈등은 국제 무역 및 외교 관계를 악화시키고, 경제 제재나 무역 장벽 등의 결과를 초래할 수 있습니다. 이는 경제 성장에 부정적인 영향을 미칩니다.

최근 사례:
중국: 중국은 미국과의 무역 갈등을 통해 내부 문제를 외부로 전가하려는 시도를 했습니다. 이는 단기적으로 중국 내 반미 감정을 강화하고 내부 결속을 다지는 효과가 있었지만, 장기적으로는 경제 성장에 부정적인 영향을 미쳤습니다.
러시아: 러시아는 우크라이나 침공을 통해 내부의 경제적 문제를 외부로 전가하려 했습니다. 이는 초기에는 국내 결속을 다지는 효과가 있었지만, 국제 제재로 인해 경제적으로 큰 타격을 받았습니다.
중남미: 베네수엘라와 같은 중남미 국가들은 경제 문제를 외부로 전가하려는 시도를 했습니다. 이는 내부적으로 일시적인 효과가 있었지만, 경제적 문제를 근본적으로 해결하지는 못했습니다.

아르헨티나의 경제 정책과 서머스의 평가

최근 아르헨티나의 경제 정책: 최근 아르헨티나 대통령은 재정 적자 감축, 통화 안정, 외환 관리 등의 정책을 펴고 있습니다.
서머스의 평가: 서머스는 이러한 정책들이 성공할 가능성이 낮다고 평가합니다. 이는 아르헨티나의 경제적 구조적 문제, 정치적 불안정성, 그리고 국제 금융 시장의 신뢰 부족 등 때문입니다.

ESG에 대한 서머스의 비판

서머스의 비판 이유:
과대평가: 서머스는 ESG 투자가 현재 과대평가되고 있으며, 실제 성과가 기대에 못 미칠 것으로 봅니다. 이는 ESG 관련 규제와 정책이 아직 초기 단계에 있으며, 기업들이 이에 적응하는 데 시간이 걸릴 것으로 예상하기 때문입니다.
효율성 문제: ESG 기준이 일관되지 않거나 측정 방법이 부족할 수 있으며, 이는 기업들이 효과적으로 ESG 목표를 달성하는 데 장애가 될 수 있습니다.

ESG 성과 저조의 영향:
투자자 신뢰 하락: ESG 성과가 기대에 못 미칠 경우, 투자자들은 ESG 투자에 대한 신뢰를 잃을 수 있으며, 이는 ESG 관련 자금 유입이 감소할 수 있습니다.
정책 수정: 정부와 규제 기관은 ESG 정책을 재검토하고 수정할 가능성이 있습니다. 이는 기업들에게 새로운 도전 과제를 안겨줄 수 있습니다.
사회적 영향: ESG 목표가 달성되지 않으면 환경, 사회적 문제, 지배구조 개선 등의 목표가 달성되지 않아 장기적으로 지속 가능한 발전에 부정적인 영향을 미칠 수 있습니다.
생각하고 말하는 대로 사는 삶
https://youtu.be/Ti6Gft5xO1s?si=BMf4_KB8Ln2J2iPD

Experts tell you what will not happen large change is driven by entrepreneur led companies.
Continuous Learning_Startup & Investment
https://youtu.be/neQbqOhp8w0?si=4jkOepMI8yjFpuCv
No Priors: Welcome back to No Priors. We're excited to talk to Karan Goel and Albert Gu, the co-founders of Cartesia and authors behind revolutionary models such as S4 and Mamba. They're leading a rebellion against the dominant architecture of Transformers, and we’re excited to talk to them about their company today. Welcome, Karan and Albert.
Karan Goel & Albert Gu: Thank you, nice to be here.

Use Cases for Cartesia and Sonic
No Priors: Tell us a little more about Cartesia, the product, and what people can do with it today.
Karan Goel: Definitely. We launched Sonic, a really fast text-to-speech engine. Some exciting use cases include interactive, low-latency voice generation. We've seen a lot of interest in gaming, where players can interact with characters and NPCs in real-time. Another area is voice agents, where low latency is crucial. We’ve managed to reduce latency by 150 milliseconds and aim to shave off another 600 milliseconds over the next year.

Karan Goel & Albert Gu’s Professional Backgrounds
No Priors: Can you talk about your backgrounds and how you ended up starting Cartesia?
Albert Gu: Karan and I both came from the same PhD group at Stanford. I worked on sequence modeling during my PhD, starting with problems at DeepMind. I became interested in recurrent models around the same time Transformers gained popularity. Karan and I collaborated on the S4 model, which showed the effectiveness of state space models. Recently, I proposed Mamba, which has shown promising results in language modeling. I’ve also started as a professor at CMU, continuing research while also working on Cartesia.
Karan Goel: I grew up in India, from an engineering family. I initially aimed to be a doctor but switched to engineering due to low aptitude in biology. After IIT and grad school, I ended up at Stanford, working on reinforcement learning. Chris Ray, our PhD adviser, was skeptical about reinforcement learning, leading me to explore other areas. Albert and I worked together on various projects, including S4, which drew me into the field.

State Space Models (SSMs) versus Transformer-Based Architectures
No Priors: Could you tell us more about SSMs and how they differ from Transformer-based architectures?
Albert Gu: SSMs originated from recurrent neural networks and focus on processing sequences one at a time, updating beliefs or states with new information. This approach can be loosely inspired by brain functions. SSMs are particularly good at modeling perceptual signals, like raw waveforms and pixels, which are less compressible than text data. Recent models like Mamba have improved at handling text data. One key advantage of SSMs is their linear scaling, providing constant time processing for new tokens, unlike Transformers' quadratic scaling. However, both models have their strengths and weaknesses, and hybrid models combining SSMs and Transformers have shown promising results.

Domain Applications for Hybrid Approaches
No Priors: Are there specific domains where you see applications for these hybrid approaches?
Albert Gu: Currently, most applications are focused on text, as that's where interest lies. However, SSMs have been applied to DNA modeling, pre-training on long DNA sequences for tasks like detecting point mutations.

Text to Speech and Voice
No Priors: How did your research lead to focusing on text-to-speech and voice generation?
Albert Gu: We wanted to demonstrate the versatility of our models in practical applications. Audio seemed like a natural fit due to its real-time processing requirements. We thought it would be a cool first application.
Karan Goel: Audio and multimodal data are interesting because they are information-sparse, allowing for fast processing and large context handling. Audio, in particular, has many emerging commercial applications, like voice agents and gaming. Efficient models can also be deployed on smaller hardware, pushing inference closer to the edge rather than relying on data centers.
Continuous Learning_Startup & Investment
https://youtu.be/neQbqOhp8w0?si=4jkOepMI8yjFpuCv
Data, Size of Models, and Efficiency
No Priors: Apple recently announced models running on devices at around three billion parameters. How does this relate to your focus on efficiency?
Karan Goel: The initial wave of companies focused on scaling data and compute, leading to great models. The second wave focuses on efficiency, enabling powerful models to run cheaply and repeatedly at scale. Our technology aims to make high-capability models run efficiently on smaller devices, moving from data centers to the edge.

Recent Launch of Text to Speech Product
No Priors: Cartesia recently launched its text-to-speech product, which is impressive in terms of performance. Can you tell us more about that launch?
Karan Goel: We wanted to put our technology to work, demonstrating efficient audio generation. Text-to-speech is a longstanding field, yet there’s still room for improvement. Our goal is to create engaging, high-quality speech that people would want to interact with for more than 30 seconds.

Multi-modality & Building Blocks
No Priors: How has your pioneering work on SSMs impacted your approach to multi-modality or speech?
Albert Gu: Multi-modality hasn't been the primary motivation, but different modalities present different challenges, influencing the design of our models. SSMs are versatile building blocks that can be applied to various modalities, including audio and text.

What’s Next at Cartesia?
No Priors: What’s next for Cartesia? Will you focus on Sonic and audio, or explore other modalities?
Karan Goel: We’re excited about Sonic, showing the potential for real-time, low-latency audio generation. We aim to bring Sonic on-device, enhancing its capabilities and efficiency. Long-term, we’re developing multimodal models that can converse intelligently, integrating audio and text reasoning. Our goal is to build versatile models that run efficiently on various devices.

Latency in Text to Speech
No Priors: Latency is a significant issue in text-to-speech applications. How does multimodality address this?
Karan Goel: Reducing latency is crucial. Orchestrating multiple models adds overhead, making it inefficient. We aim to create seamless, integrated models that handle multimodal tasks efficiently, reducing latency and improving performance.

Choosing Research Problems Based on Aesthetic
No Priors: How do you choose research problems?
Albert Gu: I choose problems based on aesthetic appeal. Some solutions feel elegant and correct, driving my interest. This approach guided the development of SSMs and continues to influence my work.

Product Demo
No Priors: Can you show us a demo of your product?
Karan Goel: Sure. Here’s our Sonic text-to-speech model running on a MacBook in real-time. [Demo showing the model generating speech quickly and efficiently.] This demonstrates the speed and quality of our model.

Cartesia Team & Hiring
No Priors: How large is your team, and are you hiring?
Karan Goel: We have 15 people and 8 interns. We’re hiring across the engineering stack, especially for model roles. We’re excited to have talented people join us in building the future.

No Priors: Thank you for joining us.
Karan Goel & Albert Gu: Thank you.