https://youtu.be/Ti6Gft5xO1s?si=BMf4_KB8Ln2J2iPD
Experts tell you what will not happen large change is driven by entrepreneur led companies.
Experts tell you what will not happen large change is driven by entrepreneur led companies.
Continuous Learning_Startup & Investment
https://youtu.be/neQbqOhp8w0?si=4jkOepMI8yjFpuCv
No Priors: Welcome back to No Priors. We're excited to talk to Karan Goel and Albert Gu, the co-founders of Cartesia and authors behind revolutionary models such as S4 and Mamba. They're leading a rebellion against the dominant architecture of Transformers, and we’re excited to talk to them about their company today. Welcome, Karan and Albert.
Karan Goel & Albert Gu: Thank you, nice to be here.
Use Cases for Cartesia and Sonic
No Priors: Tell us a little more about Cartesia, the product, and what people can do with it today.
Karan Goel: Definitely. We launched Sonic, a really fast text-to-speech engine. Some exciting use cases include interactive, low-latency voice generation. We've seen a lot of interest in gaming, where players can interact with characters and NPCs in real-time. Another area is voice agents, where low latency is crucial. We’ve managed to reduce latency by 150 milliseconds and aim to shave off another 600 milliseconds over the next year.
Karan Goel & Albert Gu’s Professional Backgrounds
No Priors: Can you talk about your backgrounds and how you ended up starting Cartesia?
Albert Gu: Karan and I both came from the same PhD group at Stanford. I worked on sequence modeling during my PhD, starting with problems at DeepMind. I became interested in recurrent models around the same time Transformers gained popularity. Karan and I collaborated on the S4 model, which showed the effectiveness of state space models. Recently, I proposed Mamba, which has shown promising results in language modeling. I’ve also started as a professor at CMU, continuing research while also working on Cartesia.
Karan Goel: I grew up in India, from an engineering family. I initially aimed to be a doctor but switched to engineering due to low aptitude in biology. After IIT and grad school, I ended up at Stanford, working on reinforcement learning. Chris Ray, our PhD adviser, was skeptical about reinforcement learning, leading me to explore other areas. Albert and I worked together on various projects, including S4, which drew me into the field.
State Space Models (SSMs) versus Transformer-Based Architectures
No Priors: Could you tell us more about SSMs and how they differ from Transformer-based architectures?
Albert Gu: SSMs originated from recurrent neural networks and focus on processing sequences one at a time, updating beliefs or states with new information. This approach can be loosely inspired by brain functions. SSMs are particularly good at modeling perceptual signals, like raw waveforms and pixels, which are less compressible than text data. Recent models like Mamba have improved at handling text data. One key advantage of SSMs is their linear scaling, providing constant time processing for new tokens, unlike Transformers' quadratic scaling. However, both models have their strengths and weaknesses, and hybrid models combining SSMs and Transformers have shown promising results.
Domain Applications for Hybrid Approaches
No Priors: Are there specific domains where you see applications for these hybrid approaches?
Albert Gu: Currently, most applications are focused on text, as that's where interest lies. However, SSMs have been applied to DNA modeling, pre-training on long DNA sequences for tasks like detecting point mutations.
Text to Speech and Voice
No Priors: How did your research lead to focusing on text-to-speech and voice generation?
Albert Gu: We wanted to demonstrate the versatility of our models in practical applications. Audio seemed like a natural fit due to its real-time processing requirements. We thought it would be a cool first application.
Karan Goel: Audio and multimodal data are interesting because they are information-sparse, allowing for fast processing and large context handling. Audio, in particular, has many emerging commercial applications, like voice agents and gaming. Efficient models can also be deployed on smaller hardware, pushing inference closer to the edge rather than relying on data centers.
Karan Goel & Albert Gu: Thank you, nice to be here.
Use Cases for Cartesia and Sonic
No Priors: Tell us a little more about Cartesia, the product, and what people can do with it today.
Karan Goel: Definitely. We launched Sonic, a really fast text-to-speech engine. Some exciting use cases include interactive, low-latency voice generation. We've seen a lot of interest in gaming, where players can interact with characters and NPCs in real-time. Another area is voice agents, where low latency is crucial. We’ve managed to reduce latency by 150 milliseconds and aim to shave off another 600 milliseconds over the next year.
Karan Goel & Albert Gu’s Professional Backgrounds
No Priors: Can you talk about your backgrounds and how you ended up starting Cartesia?
Albert Gu: Karan and I both came from the same PhD group at Stanford. I worked on sequence modeling during my PhD, starting with problems at DeepMind. I became interested in recurrent models around the same time Transformers gained popularity. Karan and I collaborated on the S4 model, which showed the effectiveness of state space models. Recently, I proposed Mamba, which has shown promising results in language modeling. I’ve also started as a professor at CMU, continuing research while also working on Cartesia.
Karan Goel: I grew up in India, from an engineering family. I initially aimed to be a doctor but switched to engineering due to low aptitude in biology. After IIT and grad school, I ended up at Stanford, working on reinforcement learning. Chris Ray, our PhD adviser, was skeptical about reinforcement learning, leading me to explore other areas. Albert and I worked together on various projects, including S4, which drew me into the field.
State Space Models (SSMs) versus Transformer-Based Architectures
No Priors: Could you tell us more about SSMs and how they differ from Transformer-based architectures?
Albert Gu: SSMs originated from recurrent neural networks and focus on processing sequences one at a time, updating beliefs or states with new information. This approach can be loosely inspired by brain functions. SSMs are particularly good at modeling perceptual signals, like raw waveforms and pixels, which are less compressible than text data. Recent models like Mamba have improved at handling text data. One key advantage of SSMs is their linear scaling, providing constant time processing for new tokens, unlike Transformers' quadratic scaling. However, both models have their strengths and weaknesses, and hybrid models combining SSMs and Transformers have shown promising results.
Domain Applications for Hybrid Approaches
No Priors: Are there specific domains where you see applications for these hybrid approaches?
Albert Gu: Currently, most applications are focused on text, as that's where interest lies. However, SSMs have been applied to DNA modeling, pre-training on long DNA sequences for tasks like detecting point mutations.
Text to Speech and Voice
No Priors: How did your research lead to focusing on text-to-speech and voice generation?
Albert Gu: We wanted to demonstrate the versatility of our models in practical applications. Audio seemed like a natural fit due to its real-time processing requirements. We thought it would be a cool first application.
Karan Goel: Audio and multimodal data are interesting because they are information-sparse, allowing for fast processing and large context handling. Audio, in particular, has many emerging commercial applications, like voice agents and gaming. Efficient models can also be deployed on smaller hardware, pushing inference closer to the edge rather than relying on data centers.
Continuous Learning_Startup & Investment
https://youtu.be/neQbqOhp8w0?si=4jkOepMI8yjFpuCv
Data, Size of Models, and Efficiency
No Priors: Apple recently announced models running on devices at around three billion parameters. How does this relate to your focus on efficiency?
Karan Goel: The initial wave of companies focused on scaling data and compute, leading to great models. The second wave focuses on efficiency, enabling powerful models to run cheaply and repeatedly at scale. Our technology aims to make high-capability models run efficiently on smaller devices, moving from data centers to the edge.
Recent Launch of Text to Speech Product
No Priors: Cartesia recently launched its text-to-speech product, which is impressive in terms of performance. Can you tell us more about that launch?
Karan Goel: We wanted to put our technology to work, demonstrating efficient audio generation. Text-to-speech is a longstanding field, yet there’s still room for improvement. Our goal is to create engaging, high-quality speech that people would want to interact with for more than 30 seconds.
Multi-modality & Building Blocks
No Priors: How has your pioneering work on SSMs impacted your approach to multi-modality or speech?
Albert Gu: Multi-modality hasn't been the primary motivation, but different modalities present different challenges, influencing the design of our models. SSMs are versatile building blocks that can be applied to various modalities, including audio and text.
What’s Next at Cartesia?
No Priors: What’s next for Cartesia? Will you focus on Sonic and audio, or explore other modalities?
Karan Goel: We’re excited about Sonic, showing the potential for real-time, low-latency audio generation. We aim to bring Sonic on-device, enhancing its capabilities and efficiency. Long-term, we’re developing multimodal models that can converse intelligently, integrating audio and text reasoning. Our goal is to build versatile models that run efficiently on various devices.
Latency in Text to Speech
No Priors: Latency is a significant issue in text-to-speech applications. How does multimodality address this?
Karan Goel: Reducing latency is crucial. Orchestrating multiple models adds overhead, making it inefficient. We aim to create seamless, integrated models that handle multimodal tasks efficiently, reducing latency and improving performance.
Choosing Research Problems Based on Aesthetic
No Priors: How do you choose research problems?
Albert Gu: I choose problems based on aesthetic appeal. Some solutions feel elegant and correct, driving my interest. This approach guided the development of SSMs and continues to influence my work.
Product Demo
No Priors: Can you show us a demo of your product?
Karan Goel: Sure. Here’s our Sonic text-to-speech model running on a MacBook in real-time. [Demo showing the model generating speech quickly and efficiently.] This demonstrates the speed and quality of our model.
Cartesia Team & Hiring
No Priors: How large is your team, and are you hiring?
Karan Goel: We have 15 people and 8 interns. We’re hiring across the engineering stack, especially for model roles. We’re excited to have talented people join us in building the future.
No Priors: Thank you for joining us.
Karan Goel & Albert Gu: Thank you.
No Priors: Apple recently announced models running on devices at around three billion parameters. How does this relate to your focus on efficiency?
Karan Goel: The initial wave of companies focused on scaling data and compute, leading to great models. The second wave focuses on efficiency, enabling powerful models to run cheaply and repeatedly at scale. Our technology aims to make high-capability models run efficiently on smaller devices, moving from data centers to the edge.
Recent Launch of Text to Speech Product
No Priors: Cartesia recently launched its text-to-speech product, which is impressive in terms of performance. Can you tell us more about that launch?
Karan Goel: We wanted to put our technology to work, demonstrating efficient audio generation. Text-to-speech is a longstanding field, yet there’s still room for improvement. Our goal is to create engaging, high-quality speech that people would want to interact with for more than 30 seconds.
Multi-modality & Building Blocks
No Priors: How has your pioneering work on SSMs impacted your approach to multi-modality or speech?
Albert Gu: Multi-modality hasn't been the primary motivation, but different modalities present different challenges, influencing the design of our models. SSMs are versatile building blocks that can be applied to various modalities, including audio and text.
What’s Next at Cartesia?
No Priors: What’s next for Cartesia? Will you focus on Sonic and audio, or explore other modalities?
Karan Goel: We’re excited about Sonic, showing the potential for real-time, low-latency audio generation. We aim to bring Sonic on-device, enhancing its capabilities and efficiency. Long-term, we’re developing multimodal models that can converse intelligently, integrating audio and text reasoning. Our goal is to build versatile models that run efficiently on various devices.
Latency in Text to Speech
No Priors: Latency is a significant issue in text-to-speech applications. How does multimodality address this?
Karan Goel: Reducing latency is crucial. Orchestrating multiple models adds overhead, making it inefficient. We aim to create seamless, integrated models that handle multimodal tasks efficiently, reducing latency and improving performance.
Choosing Research Problems Based on Aesthetic
No Priors: How do you choose research problems?
Albert Gu: I choose problems based on aesthetic appeal. Some solutions feel elegant and correct, driving my interest. This approach guided the development of SSMs and continues to influence my work.
Product Demo
No Priors: Can you show us a demo of your product?
Karan Goel: Sure. Here’s our Sonic text-to-speech model running on a MacBook in real-time. [Demo showing the model generating speech quickly and efficiently.] This demonstrates the speed and quality of our model.
Cartesia Team & Hiring
No Priors: How large is your team, and are you hiring?
Karan Goel: We have 15 people and 8 interns. We’re hiring across the engineering stack, especially for model roles. We’re excited to have talented people join us in building the future.
No Priors: Thank you for joining us.
Karan Goel & Albert Gu: Thank you.
좋은 삶을 위한 안내서 https://m.yes24.com/Goods/Detail/108551375
1. 스토아주의자들의 목표는 모든 감정을 몰아내는 것이 아니라 부정적인 감정만을 몰아내는 것이다. 신경안정제로 얻는 무감각 상태가 아니라, 분노, 슬픔, 불안, 두려움 등의 부정적 감정이 최소화된 동시에 기쁨 등의 긍정적 감정이 가득찬 마음 상태.
1. 자기가 가진 것에서 기쁨을 찾으며 내면의 기쁨 외에 다른 기쁨을 바라지 않을 것이다.
2. 욕망에 관해서) 만족할 줄 모르는 마음을 극복하지 않고는 좋은 삶, 의미 있는 삶을 살 수 없다는 것이었다. 끝없이 더 가지려는 성향을 다스리는 좋은 방법이 지금 가진 것에 만족하는 것.
3. 우정과 부 등 삶이 선사하는 좋은 것은 즐기되 거기에 집착해서는 안된다고 보았다. 스토아 철학자들은 삶이 주는 선물을 즐기는 데서 종종 벗어나 지금 즐기고 있는 것을 언제든 잃을 수 있다는 사실을 자주 숙고해야한다고 보았다.
2. 스토아 철학을 수련하는데에는 비용이 든다. 삶의 철학을 갖지 않았을 때 치르는 비용은 이보다 더 크다. 무치한 것을 좇으며 하루하루를 보내다 결국 소중한 삶을 낭비하는 위험이 더 큰 비용이다.
3. 우리는 운명이 쓴 연극에 등장하는 배우에 지나지 않는다. 우리는 연극의 배역을 선택할 수 없다. 어떤 배역이 주어지든 최선을 다해 연기할 뿐이다.
4. 성가신 사람을 대할 때는 나를 성가시에 여기는 사람도 존재한다는 사실을 기억하라. 상대의 잘못에 짜증이 날 때는 잠시 멈춰 자신의 결점에 대해서 생각하라. 그러면 상대의 결점에 공감하며 관대하게 대할 수 있다.
5. 다른 사람에 대한 나의 생각을 통제하면, 그들이 우리 삶에 미치는 부정적인 영향을 줄일수 있다. 주변 사람의 행동과 말, 생각과 계획에 대해 추측하는데에 시간을 낭비하지 말아야한다. 그들에 관해 제멋대로 상상하고 질투하고 시기하고 의심해서는 안된다. 마르쿠스에 따르면 훌륭한 스토아주의자는 공공의 이익을 위해서가 아니면 다른 사람의 생각에 대해 생각하지 않는다.
6. 우리 내면에 분노와 증오, 복수심이 일어날 때 할 수 있는 최상의 복수는 그 사람과 똑같이 되기를 거부하는 것이다.
7. 사람들이 불행한 이유는 가치있는 것이 무엇인지 모르기 때문이다. 제대로 모르기 때문에 자신을 행복하게 해주는 것이 아니라 불안하고 비참하게 만드는 것을 좇으며 하루 하루를 보낸다.
8. 자유를 지키려면 나에 관한 사람들의 평판에 무심해야한다. 사람들의 불인정이 싫다면 그만큼 사람들의 인정에도 초연해야한다.
9. 스토아 철학자들은 자유를 중시했다. 우리가 가진 힘을 타인에게 넘겨주는 행위는 무엇이든 꺼렸다. 사회적 지위를 좇는다는 것은 우리를 지배하는 힘을 다른 사람들에게 넘겨주는 것과 같다.
10. 죽은 뒤 명성은 공허한 명성이다. 죽은자는 명성을 누릴 수 없다. 미래 세대가 한번도 본 적 없는 사람을 칭찬할 것이라 기대하는 것도 부질없다.
11. 부를 가진다고 슬픔 없는 삶을 살 수 없으며 늙으면 부가 우리를 위로할 수도 없다. 부는 물질적 사치를 얻고 감각적 쾌락을 누리게 하지만 진정한 만족을 가져다주지도 슬픔을 물리치지도 못한다.
12. 평범한 삶, 기본만 갖춘 생활에서 기쁨을 찾는 능력이 중요하다.
13. 두려움을 피하는 3가지 방법
1. 자신의 품성에서 최선을 다해 기쁨을 찾는다.
2. 그것을 잃을 때를 준비한다. 지금 누리는 것들이 행운의 사건임을 기억한다.
3. 눈이 높아지지 않도록 유의한다. 최고가 아니면 기쁨을 못 느끼는 사람이 되지 않도록 조심한다.
14. 쉽게 얻을 수 있고 누구도 앗아갈 수 없는 것을 즐겼기 때문에 삶에서 즐길 것이 아주 많았다. 그들은 있는 그대로의 자신을 즐겼으며 지금 이대로의 삶과 세상을 즐겼다. 이것은 결코 작은 성취가 아니다.
15. 운을 정복하기보다 자기 자신을 정복하라. 기존의 질서를 바꾸기보다 자신의 욕망을 바꾸려고 노력하라. 자신의 생각 외에 어떤 것도 완벽히 통제할 수 없음을 믿으라. 문제 해결에 최선을 다했다면 더 이상 할 수 있는 일이 없다고 믿으라.
1. 스토아주의자들의 목표는 모든 감정을 몰아내는 것이 아니라 부정적인 감정만을 몰아내는 것이다. 신경안정제로 얻는 무감각 상태가 아니라, 분노, 슬픔, 불안, 두려움 등의 부정적 감정이 최소화된 동시에 기쁨 등의 긍정적 감정이 가득찬 마음 상태.
1. 자기가 가진 것에서 기쁨을 찾으며 내면의 기쁨 외에 다른 기쁨을 바라지 않을 것이다.
2. 욕망에 관해서) 만족할 줄 모르는 마음을 극복하지 않고는 좋은 삶, 의미 있는 삶을 살 수 없다는 것이었다. 끝없이 더 가지려는 성향을 다스리는 좋은 방법이 지금 가진 것에 만족하는 것.
3. 우정과 부 등 삶이 선사하는 좋은 것은 즐기되 거기에 집착해서는 안된다고 보았다. 스토아 철학자들은 삶이 주는 선물을 즐기는 데서 종종 벗어나 지금 즐기고 있는 것을 언제든 잃을 수 있다는 사실을 자주 숙고해야한다고 보았다.
2. 스토아 철학을 수련하는데에는 비용이 든다. 삶의 철학을 갖지 않았을 때 치르는 비용은 이보다 더 크다. 무치한 것을 좇으며 하루하루를 보내다 결국 소중한 삶을 낭비하는 위험이 더 큰 비용이다.
3. 우리는 운명이 쓴 연극에 등장하는 배우에 지나지 않는다. 우리는 연극의 배역을 선택할 수 없다. 어떤 배역이 주어지든 최선을 다해 연기할 뿐이다.
4. 성가신 사람을 대할 때는 나를 성가시에 여기는 사람도 존재한다는 사실을 기억하라. 상대의 잘못에 짜증이 날 때는 잠시 멈춰 자신의 결점에 대해서 생각하라. 그러면 상대의 결점에 공감하며 관대하게 대할 수 있다.
5. 다른 사람에 대한 나의 생각을 통제하면, 그들이 우리 삶에 미치는 부정적인 영향을 줄일수 있다. 주변 사람의 행동과 말, 생각과 계획에 대해 추측하는데에 시간을 낭비하지 말아야한다. 그들에 관해 제멋대로 상상하고 질투하고 시기하고 의심해서는 안된다. 마르쿠스에 따르면 훌륭한 스토아주의자는 공공의 이익을 위해서가 아니면 다른 사람의 생각에 대해 생각하지 않는다.
6. 우리 내면에 분노와 증오, 복수심이 일어날 때 할 수 있는 최상의 복수는 그 사람과 똑같이 되기를 거부하는 것이다.
7. 사람들이 불행한 이유는 가치있는 것이 무엇인지 모르기 때문이다. 제대로 모르기 때문에 자신을 행복하게 해주는 것이 아니라 불안하고 비참하게 만드는 것을 좇으며 하루 하루를 보낸다.
8. 자유를 지키려면 나에 관한 사람들의 평판에 무심해야한다. 사람들의 불인정이 싫다면 그만큼 사람들의 인정에도 초연해야한다.
9. 스토아 철학자들은 자유를 중시했다. 우리가 가진 힘을 타인에게 넘겨주는 행위는 무엇이든 꺼렸다. 사회적 지위를 좇는다는 것은 우리를 지배하는 힘을 다른 사람들에게 넘겨주는 것과 같다.
10. 죽은 뒤 명성은 공허한 명성이다. 죽은자는 명성을 누릴 수 없다. 미래 세대가 한번도 본 적 없는 사람을 칭찬할 것이라 기대하는 것도 부질없다.
11. 부를 가진다고 슬픔 없는 삶을 살 수 없으며 늙으면 부가 우리를 위로할 수도 없다. 부는 물질적 사치를 얻고 감각적 쾌락을 누리게 하지만 진정한 만족을 가져다주지도 슬픔을 물리치지도 못한다.
12. 평범한 삶, 기본만 갖춘 생활에서 기쁨을 찾는 능력이 중요하다.
13. 두려움을 피하는 3가지 방법
1. 자신의 품성에서 최선을 다해 기쁨을 찾는다.
2. 그것을 잃을 때를 준비한다. 지금 누리는 것들이 행운의 사건임을 기억한다.
3. 눈이 높아지지 않도록 유의한다. 최고가 아니면 기쁨을 못 느끼는 사람이 되지 않도록 조심한다.
14. 쉽게 얻을 수 있고 누구도 앗아갈 수 없는 것을 즐겼기 때문에 삶에서 즐길 것이 아주 많았다. 그들은 있는 그대로의 자신을 즐겼으며 지금 이대로의 삶과 세상을 즐겼다. 이것은 결코 작은 성취가 아니다.
15. 운을 정복하기보다 자기 자신을 정복하라. 기존의 질서를 바꾸기보다 자신의 욕망을 바꾸려고 노력하라. 자신의 생각 외에 어떤 것도 완벽히 통제할 수 없음을 믿으라. 문제 해결에 최선을 다했다면 더 이상 할 수 있는 일이 없다고 믿으라.
예스24
좋은 삶을 위한 안내서 - 예스24
한 번뿐인 인생 잘못 살았다 후회하지 않도록, 자기 삶의 철학을 마련하려는 이에게 전하는 스토아철학의 지혜. 부정적 시각화, 통제의 이분법 등 스토아철학자들이 고안한 평정심의 기술을 통해 독자들은 걱정을 줄이는 법, 지난 일을 내려놓는 법, 통제 가능한 일에 ...
👍2❤1
모든 만남/미팅에 최선을 다해야한다.
그냥 지나칠 수도 있었던 미팅이(큰 아젠다 없이 진행되었던 미팅이), 나중에 좋은 의미의 큰 impact 가 되어 돌아오는 경우를 종종 경험한다. 일례로, 유저분과 진행했던 미팅이 나중에 나비효과가 되어 투자 유치로 이어지기도 하고, 큰 B2B Deal 로 이어지기도 한다.
그런 경험을 몇 번 한 이후로는, '이것 저것 재지 말고, 모든 미팅/만남에 최선을 다하자' 생각하며 미팅을 진행하고 있다.
미팅을 진행하고 사람을 만날 때, 습관적으로 다짐하는 부분은 아래와 같다.
1. 상대방을 섣불리 판단하지 않는다. (상대방을 Judge 하면 안된다. 나의 편협함과 어리석음을 드러날 뿐이며, 큰 기회를 놓치는 지름길이다)
2, 나를 필요로 하는 사람/자리가 있으면 최대한 간다. 가서 최선을 다한다. (바쁜척하지 않고 튕기지 않는다. 시간이 안될때는 최대한 양해를 구한다)
3. 예민하거나 까다롭게 굴지 않는다. (상대방을 피곤하게만 할 뿐이다)
4. 너무 내 아젠다만 내세우지 않는다. 상대방에게 부탁하고 싶은 내용이 있을 때에는, 1) 양해를 구하고, 2) 솔직하게 도움을 구한다.
5, 미팅 중 소개받는 사람이 있다면 (예: 이 분에게 연락해 보세요) , 연락처 받은 후 최대한 빠르게 연락하고, 최선을 다해 만난다 (소개해준 분이 피해받지 않게 한다)
6. 회신은 최대한 빨리 한다.
7. 대화 중 남 이야기 하지 않는다 (남 이야기는 좋은 이야기라 해도 왠만하면 안하는 것이 더 좋다)
8. 아이컨택 잘하고, 온전히 집중한다. (이야기에 집중하지 않으면 바로 티가 난다)
9. 상대방이 불편할 수 있는 표현/행동은 최대한 피하고, 정치/인종/종교 등 민감한 부분은 화두에 올리지 않는다.
10. 선의의 도움을 제안할 때에도, 지킬 수 있고 & 실행할 수 있는 것만 제안한다. (순간의 정의감(?)에 사로잡혀 공수표 날리면 안된다)
11. 인사 잘하고, 청결함을 유지한다.
특히 창업자는 모든 만남에 최선을 다할 필요가 있다. 회사의 성장에 모든 가능성이 열려있을 수 있음은, 창업자의 태도에 달려있다.
그냥 지나칠 수도 있었던 미팅이(큰 아젠다 없이 진행되었던 미팅이), 나중에 좋은 의미의 큰 impact 가 되어 돌아오는 경우를 종종 경험한다. 일례로, 유저분과 진행했던 미팅이 나중에 나비효과가 되어 투자 유치로 이어지기도 하고, 큰 B2B Deal 로 이어지기도 한다.
그런 경험을 몇 번 한 이후로는, '이것 저것 재지 말고, 모든 미팅/만남에 최선을 다하자' 생각하며 미팅을 진행하고 있다.
미팅을 진행하고 사람을 만날 때, 습관적으로 다짐하는 부분은 아래와 같다.
1. 상대방을 섣불리 판단하지 않는다. (상대방을 Judge 하면 안된다. 나의 편협함과 어리석음을 드러날 뿐이며, 큰 기회를 놓치는 지름길이다)
2, 나를 필요로 하는 사람/자리가 있으면 최대한 간다. 가서 최선을 다한다. (바쁜척하지 않고 튕기지 않는다. 시간이 안될때는 최대한 양해를 구한다)
3. 예민하거나 까다롭게 굴지 않는다. (상대방을 피곤하게만 할 뿐이다)
4. 너무 내 아젠다만 내세우지 않는다. 상대방에게 부탁하고 싶은 내용이 있을 때에는, 1) 양해를 구하고, 2) 솔직하게 도움을 구한다.
5, 미팅 중 소개받는 사람이 있다면 (예: 이 분에게 연락해 보세요) , 연락처 받은 후 최대한 빠르게 연락하고, 최선을 다해 만난다 (소개해준 분이 피해받지 않게 한다)
6. 회신은 최대한 빨리 한다.
7. 대화 중 남 이야기 하지 않는다 (남 이야기는 좋은 이야기라 해도 왠만하면 안하는 것이 더 좋다)
8. 아이컨택 잘하고, 온전히 집중한다. (이야기에 집중하지 않으면 바로 티가 난다)
9. 상대방이 불편할 수 있는 표현/행동은 최대한 피하고, 정치/인종/종교 등 민감한 부분은 화두에 올리지 않는다.
10. 선의의 도움을 제안할 때에도, 지킬 수 있고 & 실행할 수 있는 것만 제안한다. (순간의 정의감(?)에 사로잡혀 공수표 날리면 안된다)
11. 인사 잘하고, 청결함을 유지한다.
특히 창업자는 모든 만남에 최선을 다할 필요가 있다. 회사의 성장에 모든 가능성이 열려있을 수 있음은, 창업자의 태도에 달려있다.
In case you missed it: Chrome is adding a Gemini Nano AI model right inside your browser via a new
Spent some time this weekend putting together a simple open source browser extension using Chrome’s experimental local LLM API and Cartesia's super-fast TTS model ⚡️
It can:
→ Summarize highlighted text (Cmd+Shift+S)
→ Explain content as if you're 5 years old (Cmd+Shift+E)
... all on-device!
Code: https://lnkd.in/gyWPHyK7
https://www.linkedin.com/posts/varunshenoy_ai-ugcPost-7213965233600495616-K4CE?utm_source=share&utm_medium=member_ios
window.ai API.Spent some time this weekend putting together a simple open source browser extension using Chrome’s experimental local LLM API and Cartesia's super-fast TTS model ⚡️
It can:
→ Summarize highlighted text (Cmd+Shift+S)
→ Explain content as if you're 5 years old (Cmd+Shift+E)
... all on-device!
Code: https://lnkd.in/gyWPHyK7
https://www.linkedin.com/posts/varunshenoy_ai-ugcPost-7213965233600495616-K4CE?utm_source=share&utm_medium=member_ios
lnkd.in
LinkedIn
This link will take you to a page that’s not on LinkedIn
공부뿐만이 아니라, 어려서부터 웬만한 건 다 직접 결정했다. 물론 무슨 문제가 생기면 부모님이 나와 같이 해결 방법을 찾았고, 평소 대화를 많이 했다. 그래도 여전히 결정은 내 몫이었다. 진로나 인생 방향도 내가 선택했고, 부모님은 존중했다.
그러니 되려 앞으로 어떻게 살아야 할지 생각이 많았다. 내가 뭘 좋아하고 뭘 원하는지 늘 골똘히 생각하며 답을 찾았다. 그게 사업이었다.
어쩌면 혼자만의 열등감이었지 모른다. 어쨌든 얹잖을 때가 적지 않았지만, 그때나 지금이나 불편한 상황을 맞닥뜨리면 오히려 긍정적 자극을 받는다. 가령 2021년 '마뗑킴'이 처음 투자받을 즈음 "'룩 북(브랜드 스타일을 보여주는 사진집)' 없는 브랜드가 무슨 브랜드냐"는 소리를 들었다. 아무리 업계 관행이라지만, 룩 북 필요성을 못 느끼는데 남이 하니까 무조건 따라 하고 싶진 않았다. 그들 입맛을 맞추는 대신 "내가 맞다는 걸 보여주겠다"고 다짐했다.
금수저는커녕 두 딸 대학 학비도 빠듯한 평범한 맞벌이 가정의 고졸 학력인 내가 성공하는 사례를 보여주고 싶었다. 내겐 그런 존재가 없었기에, 비슷한 꿈을 꾸는 이들에게 길라잡이가 되고 싶다.
동대문은 같은 디자인을 최소 두 장 사야 했기에, 원했던 15만 원짜리 멋진 디자인 대신 개당 2만~3만 원대 값싼 점퍼 두 장을 골라 블로그에 올렸다. 안 팔렸다.
축 처진 나를 지켜보던 어머니가 "얼마면 되겠느냐"고 물었다. "30만원. " 그 돈으로 동대문에 달려가 거친 상인들 상대하며 점퍼 두 장을 샀다. 막차는 진작에 끊기고 수중엔 4000~5000원뿐이었다. 카페에서 유자차를 앞에 두고 부천가는 첫차를 기다리며 포스트잇에 이렇게 썼다. "성공할 거다. " 이 메모는 자기실현적 예언이 됐다.
6개월쯤 지나니 옷 살 돈 말고도 100만원쯤 남아 새 시도를 했다. 단일 품목이 아니라 여기저기서 코트·스카프 등으로 직접 코디해 화보처럼 찍어 올렸는데, 월 몇천만원 매출이 날 만큼 대박이 났다. 1년쯤 지나자 고객들이 이런저런 요구를 담아 "직접 디자인해달라"고 해서 제작까지 뛰어들었다.
패션 전문 투자사 등 여러 곳이 투자를 제안해왔다. 경영 능력의 한계를 뼈저리게 느꼈기에 가장 많은 돈을 투자하겠다는 곳을 골랐다. 매출은 150억(2021), 500억(2022), 1000억원(2023)으로 가파르게 올랐다. 하지만 60% 지분투자를 한 투자사와의 갈등으로 끝내 내가 키운 '마뗑킴'과 지난해 결별했다.
속상했다. 하지만 과거에 사로잡히면 오늘을 살 수 없다. 미래로 나아갈 수 없다. 내 선택의 결과니 누구 탓도, 어떤 변명도 하고 싶지 않았다. 게다가 임신과 겹쳐 신경 쓸 여력도 없었다. 깔끔하게 내려놨다. 지난 3월 첫 아이 출산 30분 전까지도 휴대폰으로 업무 처리하고, 산후조리원에선 직원들이 보내준 디자인을 컨펌했다. 쉬는 게 편치 않았다. 대표가 진심으로 누구보다 열심히 일해야 직원들이 따라온다고 생각해서다. 그렇게 지난 5월 50년 역사 패션 기업(세정)의 투자를 받아 내 이름을 딴 새 브랜드를 런칭했다.
눈 뜨는 순간부터 잠들기 직전까지, 심지어 출퇴근 전과 후도 업무의 연장이다. 저녁엔 한두 시간 SNS 라이브로 고객과 소통하고, 다음날 이중 반응이 좋은 걸 골라 입고는 잠원동 집에서 남편과 함께 출근길 카페에 들러 데일리룩을 인스타그램에 올린다. 이 과정에서 디자인·색상 등 고객 요구를 최대한 빨리 반영해 상품으로 내놓는다. 직원들은 힘들겠지만 잘하는 브랜드가 너무 많은 요즘 이렇게 하지 않으면 살아남을 수 없다.
이렇게 일에 몰두하면서 왜 아이를 낳았느냐고 묻는 사람들이 있다. 난 커리어 성장 못지않게 행복이 중요하다. 퇴근 후 남편과 김치찌개에 소주 한잔하면서 대화하는 일과 일상의 균형이 늘 기쁘고 행복했다. 당장의 성공을 위해 아이를 선택하지 않는다면 나중에 공허하고 후회할 거 같았다. 사업을 키워오면서 늘 경계하는 지점이기도 했다. 성공해서 불행해지지 말자. 돈이든, 커리어든, 명예든, 그 무엇에도 내 삶이 잡아먹히지 않았으면 좋겠다. 그렇게 다인잇을 한 번 더 성공시켜, 첫 번째 성공이 운이 아니었다는 걸 증명하고 싶다.
https://www.joongang.co.kr/article/25260802
그러니 되려 앞으로 어떻게 살아야 할지 생각이 많았다. 내가 뭘 좋아하고 뭘 원하는지 늘 골똘히 생각하며 답을 찾았다. 그게 사업이었다.
어쩌면 혼자만의 열등감이었지 모른다. 어쨌든 얹잖을 때가 적지 않았지만, 그때나 지금이나 불편한 상황을 맞닥뜨리면 오히려 긍정적 자극을 받는다. 가령 2021년 '마뗑킴'이 처음 투자받을 즈음 "'룩 북(브랜드 스타일을 보여주는 사진집)' 없는 브랜드가 무슨 브랜드냐"는 소리를 들었다. 아무리 업계 관행이라지만, 룩 북 필요성을 못 느끼는데 남이 하니까 무조건 따라 하고 싶진 않았다. 그들 입맛을 맞추는 대신 "내가 맞다는 걸 보여주겠다"고 다짐했다.
금수저는커녕 두 딸 대학 학비도 빠듯한 평범한 맞벌이 가정의 고졸 학력인 내가 성공하는 사례를 보여주고 싶었다. 내겐 그런 존재가 없었기에, 비슷한 꿈을 꾸는 이들에게 길라잡이가 되고 싶다.
동대문은 같은 디자인을 최소 두 장 사야 했기에, 원했던 15만 원짜리 멋진 디자인 대신 개당 2만~3만 원대 값싼 점퍼 두 장을 골라 블로그에 올렸다. 안 팔렸다.
축 처진 나를 지켜보던 어머니가 "얼마면 되겠느냐"고 물었다. "30만원. " 그 돈으로 동대문에 달려가 거친 상인들 상대하며 점퍼 두 장을 샀다. 막차는 진작에 끊기고 수중엔 4000~5000원뿐이었다. 카페에서 유자차를 앞에 두고 부천가는 첫차를 기다리며 포스트잇에 이렇게 썼다. "성공할 거다. " 이 메모는 자기실현적 예언이 됐다.
6개월쯤 지나니 옷 살 돈 말고도 100만원쯤 남아 새 시도를 했다. 단일 품목이 아니라 여기저기서 코트·스카프 등으로 직접 코디해 화보처럼 찍어 올렸는데, 월 몇천만원 매출이 날 만큼 대박이 났다. 1년쯤 지나자 고객들이 이런저런 요구를 담아 "직접 디자인해달라"고 해서 제작까지 뛰어들었다.
패션 전문 투자사 등 여러 곳이 투자를 제안해왔다. 경영 능력의 한계를 뼈저리게 느꼈기에 가장 많은 돈을 투자하겠다는 곳을 골랐다. 매출은 150억(2021), 500억(2022), 1000억원(2023)으로 가파르게 올랐다. 하지만 60% 지분투자를 한 투자사와의 갈등으로 끝내 내가 키운 '마뗑킴'과 지난해 결별했다.
속상했다. 하지만 과거에 사로잡히면 오늘을 살 수 없다. 미래로 나아갈 수 없다. 내 선택의 결과니 누구 탓도, 어떤 변명도 하고 싶지 않았다. 게다가 임신과 겹쳐 신경 쓸 여력도 없었다. 깔끔하게 내려놨다. 지난 3월 첫 아이 출산 30분 전까지도 휴대폰으로 업무 처리하고, 산후조리원에선 직원들이 보내준 디자인을 컨펌했다. 쉬는 게 편치 않았다. 대표가 진심으로 누구보다 열심히 일해야 직원들이 따라온다고 생각해서다. 그렇게 지난 5월 50년 역사 패션 기업(세정)의 투자를 받아 내 이름을 딴 새 브랜드를 런칭했다.
눈 뜨는 순간부터 잠들기 직전까지, 심지어 출퇴근 전과 후도 업무의 연장이다. 저녁엔 한두 시간 SNS 라이브로 고객과 소통하고, 다음날 이중 반응이 좋은 걸 골라 입고는 잠원동 집에서 남편과 함께 출근길 카페에 들러 데일리룩을 인스타그램에 올린다. 이 과정에서 디자인·색상 등 고객 요구를 최대한 빨리 반영해 상품으로 내놓는다. 직원들은 힘들겠지만 잘하는 브랜드가 너무 많은 요즘 이렇게 하지 않으면 살아남을 수 없다.
이렇게 일에 몰두하면서 왜 아이를 낳았느냐고 묻는 사람들이 있다. 난 커리어 성장 못지않게 행복이 중요하다. 퇴근 후 남편과 김치찌개에 소주 한잔하면서 대화하는 일과 일상의 균형이 늘 기쁘고 행복했다. 당장의 성공을 위해 아이를 선택하지 않는다면 나중에 공허하고 후회할 거 같았다. 사업을 키워오면서 늘 경계하는 지점이기도 했다. 성공해서 불행해지지 말자. 돈이든, 커리어든, 명예든, 그 무엇에도 내 삶이 잡아먹히지 않았으면 좋겠다. 그렇게 다인잇을 한 번 더 성공시켜, 첫 번째 성공이 운이 아니었다는 걸 증명하고 싶다.
https://www.joongang.co.kr/article/25260802
중앙일보
"대학 왜 가" 부천 소녀의 배짱…1000억 '마뗑킴' 키워냈다
과거에 사로잡히면 오늘을 살 수 없다.
Forwarded from 전종현의 인사이트
이건 분명 준비된 자만이 알 수 있는 감이었을테다.
"부천을 떠나 큰물에서 놀 때가 됐다는 감이 왔다."
https://www.joongang.co.kr/article/25260802
"부천을 떠나 큰물에서 놀 때가 됐다는 감이 왔다."
https://www.joongang.co.kr/article/25260802
중앙일보
"대학 왜 가" 부천 소녀의 배짱…1000억 '마뗑킴' 키워냈다
과거에 사로잡히면 오늘을 살 수 없다.
Shopify의 모든 미션은 6주마다 검토됩니다. 그래서 토비, 글렌, 저는 한 방에 모여 회사의 모든 미션을 검토합니다. 따라서 회사의 어떤 미션도 최대 6주 동안 궤도에서 벗어날 수 없습니다. 변경이 필요하다면 바로 변경합니다. 대부분의 회사에서 몇 달, 몇 분기, 몇 년이 걸리는 일을 Shopify에서는 최대 6주 만에 끝낼 수 있습니다." (Source: 2023 Shopify Investor Day)
Forwarded from 여유롭고 깊게 I freebutdeep
수익률 얘기는 아니고 상반기에 느꼈던 점을 되짚어봤습니다. 글이 어렵게 쓰였던 만큼, 아직 덜 깨달은 것을 의무감에 작성한 것 같습니다. 무언가 명료하게 말할 수 있다는 건 속이 시원한 일이지만, 그러기 위해서는 정말 많은 고민과 공부가 수반되네요. 언젠가는 쉽고 심플하게 해보고 싶습니다. (딸깍)
https://freebutdeep.substack.com/p/34-2024 #투자
https://freebutdeep.substack.com/p/34-2024 #투자
freebutdeep's thoughts (프벗디)
#34 / 2024년 상반기 결산
(견고하지만) 유연하게. (기민하지만) 침착하게. (힘들어도) 럭키비키.
https://maily.so/capitaledge/posts/99ed5dd7
매트리스를 판매하던 캐스퍼는 헐값에 매각되었고 실리콘밸리의 신발로 주목받았던 올버즈는 상장 후 주가가 99% 하락한 상황입니다.
그럼에도 불구하고 여전히 소비자 시장에 집중하는 투자자들이 있습니다. DTC 모델이 어려움을 겪은 것이지, 소비자 섹터에서는 여전히 새로운 기업들이 탄생하고 빠르게 성장하며 소비자들의 지갑을 열게 하는 사례들이 계속해서 나타나고 있기 때문입니다.
매트리스를 판매하던 캐스퍼는 헐값에 매각되었고 실리콘밸리의 신발로 주목받았던 올버즈는 상장 후 주가가 99% 하락한 상황입니다.
그럼에도 불구하고 여전히 소비자 시장에 집중하는 투자자들이 있습니다. DTC 모델이 어려움을 겪은 것이지, 소비자 섹터에서는 여전히 새로운 기업들이 탄생하고 빠르게 성장하며 소비자들의 지갑을 열게 하는 사례들이 계속해서 나타나고 있기 때문입니다.
CapitalEDGE
생수를 팔아 유니콘이 된 기업, 리퀴드데스
리퀴드데스를 통해 알아보는 벤처 투자 성공 방식
일본은 왜 미국의 침범을 받고 난 뒤에 확 변화할 수 있었는가?
지방의 힘. 지방의 번주들이 전쟁하고 패배하면서 배워야한다는 것을 깨닫고, 그들끼리 경쟁하면서 발전할 수 있었음. 각 지방끼리의 열망이 빠른 변화를 만들었음.
집단 지성이 시너지가 나려면 중앙 집권이 아니라 서로 달라야 시너지가 나올 수 있음.
서양과 국지전을 치르면서 제국이 될 것이냐 식민지가 될 것이냐라는 선택을 직시했음.
세상을 어떻게 바라볼 것이냐
지방의 힘. 지방의 번주들이 전쟁하고 패배하면서 배워야한다는 것을 깨닫고, 그들끼리 경쟁하면서 발전할 수 있었음. 각 지방끼리의 열망이 빠른 변화를 만들었음.
집단 지성이 시너지가 나려면 중앙 집권이 아니라 서로 달라야 시너지가 나올 수 있음.
서양과 국지전을 치르면서 제국이 될 것이냐 식민지가 될 것이냐라는 선택을 직시했음.
세상을 어떻게 바라볼 것이냐
👍1
Forwarded from 최선생네 반지하
정치가 (쇼토쿠 태자)에서
사상가 (후쿠자와 유치키)를 거쳐
경제인 (시부사와 에이이치) 까지.
시부사와 에이이치 관련 여러 영상이 있지만 이창민 교수님 영상을 보시면 그가 얼마나 위대한 인물이었는지 알 수 있습니다. 이창민 교수님의 일본정독 영상들은 사실 4화 뿐만 아니라 전부 다 귀하고 좋은 내용입니다.
https://n.news.naver.com/mnews/article/023/0003844258
https://youtu.be/QnRT2tfRMAA?si=t3fHb0hROGJZDuiq&t=2220
(이창민의 일본정독 4화: 37분부터)
사상가 (후쿠자와 유치키)를 거쳐
경제인 (시부사와 에이이치) 까지.
시부사와 에이이치 관련 여러 영상이 있지만 이창민 교수님 영상을 보시면 그가 얼마나 위대한 인물이었는지 알 수 있습니다. 이창민 교수님의 일본정독 영상들은 사실 4화 뿐만 아니라 전부 다 귀하고 좋은 내용입니다.
https://n.news.naver.com/mnews/article/023/0003844258
https://youtu.be/QnRT2tfRMAA?si=t3fHb0hROGJZDuiq&t=2220
(이창민의 일본정독 4화: 37분부터)
Naver
기업 500곳 세운 ‘자본주의 설계자’...日은 왜 그를 120년만에 소환했나
‘1만엔 새 지폐 주인공’ 시부사와 에이이치 대해부 WEEKLY BIZ 뉴스레터 구독하기 ☞ https://page.stibee.com/subnoscriptions/146096 방구석 도쿄통신 뉴스레터 구독하기 ☞ ht
2024년의 절반이 갔다. 어느새 벤처투자자로서 일하는 시간보다 사업을 하는 포지션이 된 시간이 3배가 넘어간다. 투자자와 사업가의 차이는 생각보다 매우 큰 것 같다.
거의 12년째 사업을 하는 입장에서 벤처캐피탈리스트로서는 결코 이해하지 못했을 것 같은 점들이 많다. 몇 가지 떠오르는 것을 보면,
1) 계획대로 되는게 단 한가지도 없다는 것을 알게 된다. 10가지 가설을 실행하다보면 그래도 되는게 2-3개는 있지 않을까 생각하지만, 실제로는 10개를 시도해도 (야속하리만큼) 단 1개도 계획대로 되는게 없다는 것을 확인하게 되는게 다반사다.
2) 휴가 등을 내서 자리를 비우면 반드시 그 기간 동안에 문제가 터진다. 휴식, 리프레쉬 등을 이유로 짧건 길건 약간의 휴가를 세팅하고 나면, 공교롭게도 반드시 그 자리를 비우는 기간 동안에 문제가 터지고, 그래서 휴가는 물거품이 된다. 그래서 언젠가부터 미리 휴가 기간을 잡을 수 없다.
3) 가끔 생각했던 정도의 성과가 나서 관련된 구성원들과 celebration을 하고 나면, 한달 이내에 반드시 큰 문제나 예상치 못한 negative event가 생긴다. 그래서 좋은 일이 생겨도 온전히 즐기거나 축하하기가 쉽지 않다.
이런걸 보면 내가 굳이 왜 이런 고생길을 굳이 택해서 가야하나 싶다가도, 가뭄에 콩나듯이 다들 안될거라 얘기했는데 1년에 한두번 정도 되는 이벤트를 겪다보면, 이게 참 마약처럼 중독성이 있다는걸 알게 된다. 고생길인줄 알면서도, 다시 일어나서 할 수 밖에 없는 변태 같은 중독성 🙂
그래서 여러 갑론을박이 있더라도 창업자들 사이에는 무언의 공감대라는 것을 깔고 간다. 각기 지고 있는 무게는 다르더라도 큰 짐을 지고 가는, 그 과정에서 나름의 희열 포인트가 있는 변태 같은 돌연변이종.
박지웅 대표님.
거의 12년째 사업을 하는 입장에서 벤처캐피탈리스트로서는 결코 이해하지 못했을 것 같은 점들이 많다. 몇 가지 떠오르는 것을 보면,
1) 계획대로 되는게 단 한가지도 없다는 것을 알게 된다. 10가지 가설을 실행하다보면 그래도 되는게 2-3개는 있지 않을까 생각하지만, 실제로는 10개를 시도해도 (야속하리만큼) 단 1개도 계획대로 되는게 없다는 것을 확인하게 되는게 다반사다.
2) 휴가 등을 내서 자리를 비우면 반드시 그 기간 동안에 문제가 터진다. 휴식, 리프레쉬 등을 이유로 짧건 길건 약간의 휴가를 세팅하고 나면, 공교롭게도 반드시 그 자리를 비우는 기간 동안에 문제가 터지고, 그래서 휴가는 물거품이 된다. 그래서 언젠가부터 미리 휴가 기간을 잡을 수 없다.
3) 가끔 생각했던 정도의 성과가 나서 관련된 구성원들과 celebration을 하고 나면, 한달 이내에 반드시 큰 문제나 예상치 못한 negative event가 생긴다. 그래서 좋은 일이 생겨도 온전히 즐기거나 축하하기가 쉽지 않다.
이런걸 보면 내가 굳이 왜 이런 고생길을 굳이 택해서 가야하나 싶다가도, 가뭄에 콩나듯이 다들 안될거라 얘기했는데 1년에 한두번 정도 되는 이벤트를 겪다보면, 이게 참 마약처럼 중독성이 있다는걸 알게 된다. 고생길인줄 알면서도, 다시 일어나서 할 수 밖에 없는 변태 같은 중독성 🙂
그래서 여러 갑론을박이 있더라도 창업자들 사이에는 무언의 공감대라는 것을 깔고 간다. 각기 지고 있는 무게는 다르더라도 큰 짐을 지고 가는, 그 과정에서 나름의 희열 포인트가 있는 변태 같은 돌연변이종.
박지웅 대표님.