Continuous Learning_Startup & Investment
Since its founding in 2012, the New York-based firm has taken a contrarian path to cinematic success. While Hollywood’s major studios have spent the last decade pumping out superhero vehicles, A24 has embraced creative risk. Rather than looking to underwrite…
체크 리스트’로 '극한직업', '파묘'에 투자해 세 자릿수 수익률을 냈습니다. '60세 이상 감독이면 10% 감점', '직전 작품이 망했으면 10% 가산점 배우나 감독, 제작사가 혈연, 지연, 학연 등 특수 관계면 10% 감점
콘텐츠 취향이 평범한 20대 남녀 '이평녀', '이평남'이 극장에 보러 올 영화인지가 중요해요.
특정 취향에 치우치지 않고 평범한 사람들이 좋아할 만한 콘텐츠에 투자해야 하거든요.
https://www.folin.co/article/8429/gift/8IS5d4jHdjUeseRArKqZwB9XHI9JmWk6
콘텐츠 취향이 평범한 20대 남녀 '이평녀', '이평남'이 극장에 보러 올 영화인지가 중요해요.
특정 취향에 치우치지 않고 평범한 사람들이 좋아할 만한 콘텐츠에 투자해야 하거든요.
https://www.folin.co/article/8429/gift/8IS5d4jHdjUeseRArKqZwB9XHI9JmWk6
folin.co
'파묘''극한직업''범죄도시2' 기업은행 천만 영화 투자 비결
콘텐츠를 안 좋아해도 괜찮아요. 오히려 '일'로 대할 수 있는 사람이 제격이죠.기업은행 문화콘텐츠 금융부 강경모 팀장.ⓒ폴인, 최지훈"그 영화, 왜 투자 안 했어?"기업은행 문화콘
Continuous Learning_Startup & Investment
https://youtu.be/IRfYICsA_X0?si=WmWlkbhFnVfMapIi
YouTube
The Genius Design of Apple Park
Watch my new video about Las Vegas on Nebula:
https://nebula.tv/videos/neo-the-battle-for-las-vegas
Follow neo on social media:
Twitter: twitter.com/NeoExplains
Facebook: facebook.com/NeoExplains
A closer look at the history and design of Apple's new Cupertino…
https://nebula.tv/videos/neo-the-battle-for-las-vegas
Follow neo on social media:
Twitter: twitter.com/NeoExplains
Facebook: facebook.com/NeoExplains
A closer look at the history and design of Apple's new Cupertino…
Continuous Learning_Startup & Investment
https://youtu.be/tfL0ZpYBLrw
트럼프와 바이든의 경제 정책
서머스: 트럼프 대통령은 인플레이션과 규제 문제를 지적할 것입니다. 규제와 독점 금지 정책에 과도한 부분이 있었고, 초기 거시 경제 자극 정책이 인플레이션을 유발했습니다.
바이든의 반론: 트럼프의 정책은 비이성적이고 인플레이션을 유발할 위험이 큽니다. 트럼프의 정책은 아르헨티나와 같은 경제를 모방하며, 중앙은행의 독립성을 훼손하고 재정 적자를 키우며, 보호주의를 강화합니다.
경제 확장과 디스인플레이션
경제 확장: 현재 경제 확장은 건강하지만 영원하지 않습니다. 이는 경제 성장이 지속되고 있지만 언제든지 종료될 수 있다는 의미입니다.
디스인플레이션: 디스인플레이션(물가상승률의 둔화)에 대해 지나치게 낙관적이라는 견해를 갖고 있습니다. 이는 인플레이션이 여전히 높은 수준에서 유지되고 있으며, 통화 정책이 충분히 제한적이지 않다고 보기 때문입니다.
통화 정책: 서머스는 인플레이션을 억제하기 위해서는 현재보다 더 높은 이자율이 필요하다고 생각합니다. 높은 이자율은 소비와 투자를 줄여 경제 활동을 둔화시키고, 이를 통해 인플레이션을 억제할 수 있습니다.
실업률 증가: 인플레이션을 효과적으로 낮추기 위해서는 실업률이 증가해야 한다고 믿습니다. 이는 실업률 증가가 경제의 과열을 막고 물가를 안정시키는 데 도움이 될 수 있다는 전통적인 경제 이론에 기반합니다.
긍정적인 공급 충격: 최근 몇 년간 예상을 뛰어넘는 긍정적인 공급 충격이 발생했습니다. 예를 들어, 석유 가격 하락, 이민으로 인한 노동 공급 증가, 의료 비용의 안정 등이 포함됩니다. 이러한 요소들이 인플레이션 억제에 기여했습니다.
중국 경제의 문제
과도한 저축 문제: 중국의 과도한 저축은 국내 소비를 억제하고 경제 성장을 방해합니다. 저축이 많다는 것은 소비가 상대적으로 적다는 것을 의미하며, 이는 경제 성장의 동력 중 하나인 내수 진작에 어려움을 줍니다.
투자와 성장의 한계: 과도한 저축은 결국 경제 내 투자와 성장의 한계를 초래합니다. 저축이 너무 많으면 그 자금이 생산적으로 사용되지 않고 경제 전체의 효율성을 떨어뜨릴 수 있습니다.
중국 정부의 대응: 중국 정부는 저축을 줄이고 소비를 늘리기 위해 다양한 정책을 시행할 수 있습니다. 예를 들어, 사회 안전망을 강화하여 국민들이 저축에 대한 필요성을 덜 느끼게 하거나, 소비를 장려하기 위한 세제 혜택을 제공할 수 있습니다.
독재 국가의 외부 전가 시도와 결과
단기 평가: 독재 국가들은 경제적 어려움을 외부 갈등이나 무역 분쟁으로 전가하여 내부 결속을 강화하려는 시도를 합니다. 이러한 시도는 단기적으로는 효과가 있을 수 있습니다. 예를 들어, 국민의 관심을 외부로 돌려 내부 문제에 대한 비판을 줄일 수 있습니다.
장기 평가: 이러한 전략은 장기적으로는 경제적 문제를 해결하지 못하고 오히려 악화시킬 수 있습니다. 외부 갈등은 국제 무역 및 외교 관계를 악화시키고, 경제 제재나 무역 장벽 등의 결과를 초래할 수 있습니다. 이는 경제 성장에 부정적인 영향을 미칩니다.
최근 사례:
중국: 중국은 미국과의 무역 갈등을 통해 내부 문제를 외부로 전가하려는 시도를 했습니다. 이는 단기적으로 중국 내 반미 감정을 강화하고 내부 결속을 다지는 효과가 있었지만, 장기적으로는 경제 성장에 부정적인 영향을 미쳤습니다.
러시아: 러시아는 우크라이나 침공을 통해 내부의 경제적 문제를 외부로 전가하려 했습니다. 이는 초기에는 국내 결속을 다지는 효과가 있었지만, 국제 제재로 인해 경제적으로 큰 타격을 받았습니다.
중남미: 베네수엘라와 같은 중남미 국가들은 경제 문제를 외부로 전가하려는 시도를 했습니다. 이는 내부적으로 일시적인 효과가 있었지만, 경제적 문제를 근본적으로 해결하지는 못했습니다.
아르헨티나의 경제 정책과 서머스의 평가
최근 아르헨티나의 경제 정책: 최근 아르헨티나 대통령은 재정 적자 감축, 통화 안정, 외환 관리 등의 정책을 펴고 있습니다.
서머스의 평가: 서머스는 이러한 정책들이 성공할 가능성이 낮다고 평가합니다. 이는 아르헨티나의 경제적 구조적 문제, 정치적 불안정성, 그리고 국제 금융 시장의 신뢰 부족 등 때문입니다.
ESG에 대한 서머스의 비판
서머스의 비판 이유:
과대평가: 서머스는 ESG 투자가 현재 과대평가되고 있으며, 실제 성과가 기대에 못 미칠 것으로 봅니다. 이는 ESG 관련 규제와 정책이 아직 초기 단계에 있으며, 기업들이 이에 적응하는 데 시간이 걸릴 것으로 예상하기 때문입니다.
효율성 문제: ESG 기준이 일관되지 않거나 측정 방법이 부족할 수 있으며, 이는 기업들이 효과적으로 ESG 목표를 달성하는 데 장애가 될 수 있습니다.
ESG 성과 저조의 영향:
투자자 신뢰 하락: ESG 성과가 기대에 못 미칠 경우, 투자자들은 ESG 투자에 대한 신뢰를 잃을 수 있으며, 이는 ESG 관련 자금 유입이 감소할 수 있습니다.
정책 수정: 정부와 규제 기관은 ESG 정책을 재검토하고 수정할 가능성이 있습니다. 이는 기업들에게 새로운 도전 과제를 안겨줄 수 있습니다.
사회적 영향: ESG 목표가 달성되지 않으면 환경, 사회적 문제, 지배구조 개선 등의 목표가 달성되지 않아 장기적으로 지속 가능한 발전에 부정적인 영향을 미칠 수 있습니다.
서머스: 트럼프 대통령은 인플레이션과 규제 문제를 지적할 것입니다. 규제와 독점 금지 정책에 과도한 부분이 있었고, 초기 거시 경제 자극 정책이 인플레이션을 유발했습니다.
바이든의 반론: 트럼프의 정책은 비이성적이고 인플레이션을 유발할 위험이 큽니다. 트럼프의 정책은 아르헨티나와 같은 경제를 모방하며, 중앙은행의 독립성을 훼손하고 재정 적자를 키우며, 보호주의를 강화합니다.
경제 확장과 디스인플레이션
경제 확장: 현재 경제 확장은 건강하지만 영원하지 않습니다. 이는 경제 성장이 지속되고 있지만 언제든지 종료될 수 있다는 의미입니다.
디스인플레이션: 디스인플레이션(물가상승률의 둔화)에 대해 지나치게 낙관적이라는 견해를 갖고 있습니다. 이는 인플레이션이 여전히 높은 수준에서 유지되고 있으며, 통화 정책이 충분히 제한적이지 않다고 보기 때문입니다.
통화 정책: 서머스는 인플레이션을 억제하기 위해서는 현재보다 더 높은 이자율이 필요하다고 생각합니다. 높은 이자율은 소비와 투자를 줄여 경제 활동을 둔화시키고, 이를 통해 인플레이션을 억제할 수 있습니다.
실업률 증가: 인플레이션을 효과적으로 낮추기 위해서는 실업률이 증가해야 한다고 믿습니다. 이는 실업률 증가가 경제의 과열을 막고 물가를 안정시키는 데 도움이 될 수 있다는 전통적인 경제 이론에 기반합니다.
긍정적인 공급 충격: 최근 몇 년간 예상을 뛰어넘는 긍정적인 공급 충격이 발생했습니다. 예를 들어, 석유 가격 하락, 이민으로 인한 노동 공급 증가, 의료 비용의 안정 등이 포함됩니다. 이러한 요소들이 인플레이션 억제에 기여했습니다.
중국 경제의 문제
과도한 저축 문제: 중국의 과도한 저축은 국내 소비를 억제하고 경제 성장을 방해합니다. 저축이 많다는 것은 소비가 상대적으로 적다는 것을 의미하며, 이는 경제 성장의 동력 중 하나인 내수 진작에 어려움을 줍니다.
투자와 성장의 한계: 과도한 저축은 결국 경제 내 투자와 성장의 한계를 초래합니다. 저축이 너무 많으면 그 자금이 생산적으로 사용되지 않고 경제 전체의 효율성을 떨어뜨릴 수 있습니다.
중국 정부의 대응: 중국 정부는 저축을 줄이고 소비를 늘리기 위해 다양한 정책을 시행할 수 있습니다. 예를 들어, 사회 안전망을 강화하여 국민들이 저축에 대한 필요성을 덜 느끼게 하거나, 소비를 장려하기 위한 세제 혜택을 제공할 수 있습니다.
독재 국가의 외부 전가 시도와 결과
단기 평가: 독재 국가들은 경제적 어려움을 외부 갈등이나 무역 분쟁으로 전가하여 내부 결속을 강화하려는 시도를 합니다. 이러한 시도는 단기적으로는 효과가 있을 수 있습니다. 예를 들어, 국민의 관심을 외부로 돌려 내부 문제에 대한 비판을 줄일 수 있습니다.
장기 평가: 이러한 전략은 장기적으로는 경제적 문제를 해결하지 못하고 오히려 악화시킬 수 있습니다. 외부 갈등은 국제 무역 및 외교 관계를 악화시키고, 경제 제재나 무역 장벽 등의 결과를 초래할 수 있습니다. 이는 경제 성장에 부정적인 영향을 미칩니다.
최근 사례:
중국: 중국은 미국과의 무역 갈등을 통해 내부 문제를 외부로 전가하려는 시도를 했습니다. 이는 단기적으로 중국 내 반미 감정을 강화하고 내부 결속을 다지는 효과가 있었지만, 장기적으로는 경제 성장에 부정적인 영향을 미쳤습니다.
러시아: 러시아는 우크라이나 침공을 통해 내부의 경제적 문제를 외부로 전가하려 했습니다. 이는 초기에는 국내 결속을 다지는 효과가 있었지만, 국제 제재로 인해 경제적으로 큰 타격을 받았습니다.
중남미: 베네수엘라와 같은 중남미 국가들은 경제 문제를 외부로 전가하려는 시도를 했습니다. 이는 내부적으로 일시적인 효과가 있었지만, 경제적 문제를 근본적으로 해결하지는 못했습니다.
아르헨티나의 경제 정책과 서머스의 평가
최근 아르헨티나의 경제 정책: 최근 아르헨티나 대통령은 재정 적자 감축, 통화 안정, 외환 관리 등의 정책을 펴고 있습니다.
서머스의 평가: 서머스는 이러한 정책들이 성공할 가능성이 낮다고 평가합니다. 이는 아르헨티나의 경제적 구조적 문제, 정치적 불안정성, 그리고 국제 금융 시장의 신뢰 부족 등 때문입니다.
ESG에 대한 서머스의 비판
서머스의 비판 이유:
과대평가: 서머스는 ESG 투자가 현재 과대평가되고 있으며, 실제 성과가 기대에 못 미칠 것으로 봅니다. 이는 ESG 관련 규제와 정책이 아직 초기 단계에 있으며, 기업들이 이에 적응하는 데 시간이 걸릴 것으로 예상하기 때문입니다.
효율성 문제: ESG 기준이 일관되지 않거나 측정 방법이 부족할 수 있으며, 이는 기업들이 효과적으로 ESG 목표를 달성하는 데 장애가 될 수 있습니다.
ESG 성과 저조의 영향:
투자자 신뢰 하락: ESG 성과가 기대에 못 미칠 경우, 투자자들은 ESG 투자에 대한 신뢰를 잃을 수 있으며, 이는 ESG 관련 자금 유입이 감소할 수 있습니다.
정책 수정: 정부와 규제 기관은 ESG 정책을 재검토하고 수정할 가능성이 있습니다. 이는 기업들에게 새로운 도전 과제를 안겨줄 수 있습니다.
사회적 영향: ESG 목표가 달성되지 않으면 환경, 사회적 문제, 지배구조 개선 등의 목표가 달성되지 않아 장기적으로 지속 가능한 발전에 부정적인 영향을 미칠 수 있습니다.
Forwarded from BZCF | 비즈까페
말은 쉽지만 행동은 어렵죠. 존경합니다. https://news.nate.com/view/20240630n17666
네이트 뉴스
94세 버핏, 유언장 바꿨다…"재산 180조, 세 자녀 재단에 줄 것"
한눈에 보는 오늘 : 세계 - 뉴스 : 94세 버핏, 유언장 수정 발표재산 99% 공익목적 사용선언사망후 재단 만들고 자녀 운영교육·사회정의 목적 사용할듯부와 경영권의 대물림 대신명예와 책임 자녀들에 상속 세계적인 투자자 워런 버핏(93) 버크셔 해서웨이 회장이 사후 재산의 대부분을 세 자
https://youtu.be/Ti6Gft5xO1s?si=BMf4_KB8Ln2J2iPD
Experts tell you what will not happen large change is driven by entrepreneur led companies.
Experts tell you what will not happen large change is driven by entrepreneur led companies.
Continuous Learning_Startup & Investment
https://youtu.be/neQbqOhp8w0?si=4jkOepMI8yjFpuCv
No Priors: Welcome back to No Priors. We're excited to talk to Karan Goel and Albert Gu, the co-founders of Cartesia and authors behind revolutionary models such as S4 and Mamba. They're leading a rebellion against the dominant architecture of Transformers, and we’re excited to talk to them about their company today. Welcome, Karan and Albert.
Karan Goel & Albert Gu: Thank you, nice to be here.
Use Cases for Cartesia and Sonic
No Priors: Tell us a little more about Cartesia, the product, and what people can do with it today.
Karan Goel: Definitely. We launched Sonic, a really fast text-to-speech engine. Some exciting use cases include interactive, low-latency voice generation. We've seen a lot of interest in gaming, where players can interact with characters and NPCs in real-time. Another area is voice agents, where low latency is crucial. We’ve managed to reduce latency by 150 milliseconds and aim to shave off another 600 milliseconds over the next year.
Karan Goel & Albert Gu’s Professional Backgrounds
No Priors: Can you talk about your backgrounds and how you ended up starting Cartesia?
Albert Gu: Karan and I both came from the same PhD group at Stanford. I worked on sequence modeling during my PhD, starting with problems at DeepMind. I became interested in recurrent models around the same time Transformers gained popularity. Karan and I collaborated on the S4 model, which showed the effectiveness of state space models. Recently, I proposed Mamba, which has shown promising results in language modeling. I’ve also started as a professor at CMU, continuing research while also working on Cartesia.
Karan Goel: I grew up in India, from an engineering family. I initially aimed to be a doctor but switched to engineering due to low aptitude in biology. After IIT and grad school, I ended up at Stanford, working on reinforcement learning. Chris Ray, our PhD adviser, was skeptical about reinforcement learning, leading me to explore other areas. Albert and I worked together on various projects, including S4, which drew me into the field.
State Space Models (SSMs) versus Transformer-Based Architectures
No Priors: Could you tell us more about SSMs and how they differ from Transformer-based architectures?
Albert Gu: SSMs originated from recurrent neural networks and focus on processing sequences one at a time, updating beliefs or states with new information. This approach can be loosely inspired by brain functions. SSMs are particularly good at modeling perceptual signals, like raw waveforms and pixels, which are less compressible than text data. Recent models like Mamba have improved at handling text data. One key advantage of SSMs is their linear scaling, providing constant time processing for new tokens, unlike Transformers' quadratic scaling. However, both models have their strengths and weaknesses, and hybrid models combining SSMs and Transformers have shown promising results.
Domain Applications for Hybrid Approaches
No Priors: Are there specific domains where you see applications for these hybrid approaches?
Albert Gu: Currently, most applications are focused on text, as that's where interest lies. However, SSMs have been applied to DNA modeling, pre-training on long DNA sequences for tasks like detecting point mutations.
Text to Speech and Voice
No Priors: How did your research lead to focusing on text-to-speech and voice generation?
Albert Gu: We wanted to demonstrate the versatility of our models in practical applications. Audio seemed like a natural fit due to its real-time processing requirements. We thought it would be a cool first application.
Karan Goel: Audio and multimodal data are interesting because they are information-sparse, allowing for fast processing and large context handling. Audio, in particular, has many emerging commercial applications, like voice agents and gaming. Efficient models can also be deployed on smaller hardware, pushing inference closer to the edge rather than relying on data centers.
Karan Goel & Albert Gu: Thank you, nice to be here.
Use Cases for Cartesia and Sonic
No Priors: Tell us a little more about Cartesia, the product, and what people can do with it today.
Karan Goel: Definitely. We launched Sonic, a really fast text-to-speech engine. Some exciting use cases include interactive, low-latency voice generation. We've seen a lot of interest in gaming, where players can interact with characters and NPCs in real-time. Another area is voice agents, where low latency is crucial. We’ve managed to reduce latency by 150 milliseconds and aim to shave off another 600 milliseconds over the next year.
Karan Goel & Albert Gu’s Professional Backgrounds
No Priors: Can you talk about your backgrounds and how you ended up starting Cartesia?
Albert Gu: Karan and I both came from the same PhD group at Stanford. I worked on sequence modeling during my PhD, starting with problems at DeepMind. I became interested in recurrent models around the same time Transformers gained popularity. Karan and I collaborated on the S4 model, which showed the effectiveness of state space models. Recently, I proposed Mamba, which has shown promising results in language modeling. I’ve also started as a professor at CMU, continuing research while also working on Cartesia.
Karan Goel: I grew up in India, from an engineering family. I initially aimed to be a doctor but switched to engineering due to low aptitude in biology. After IIT and grad school, I ended up at Stanford, working on reinforcement learning. Chris Ray, our PhD adviser, was skeptical about reinforcement learning, leading me to explore other areas. Albert and I worked together on various projects, including S4, which drew me into the field.
State Space Models (SSMs) versus Transformer-Based Architectures
No Priors: Could you tell us more about SSMs and how they differ from Transformer-based architectures?
Albert Gu: SSMs originated from recurrent neural networks and focus on processing sequences one at a time, updating beliefs or states with new information. This approach can be loosely inspired by brain functions. SSMs are particularly good at modeling perceptual signals, like raw waveforms and pixels, which are less compressible than text data. Recent models like Mamba have improved at handling text data. One key advantage of SSMs is their linear scaling, providing constant time processing for new tokens, unlike Transformers' quadratic scaling. However, both models have their strengths and weaknesses, and hybrid models combining SSMs and Transformers have shown promising results.
Domain Applications for Hybrid Approaches
No Priors: Are there specific domains where you see applications for these hybrid approaches?
Albert Gu: Currently, most applications are focused on text, as that's where interest lies. However, SSMs have been applied to DNA modeling, pre-training on long DNA sequences for tasks like detecting point mutations.
Text to Speech and Voice
No Priors: How did your research lead to focusing on text-to-speech and voice generation?
Albert Gu: We wanted to demonstrate the versatility of our models in practical applications. Audio seemed like a natural fit due to its real-time processing requirements. We thought it would be a cool first application.
Karan Goel: Audio and multimodal data are interesting because they are information-sparse, allowing for fast processing and large context handling. Audio, in particular, has many emerging commercial applications, like voice agents and gaming. Efficient models can also be deployed on smaller hardware, pushing inference closer to the edge rather than relying on data centers.