Continuous Learning_Startup & Investment
https://youtu.be/tfL0ZpYBLrw
트럼프와 바이든의 경제 정책
서머스: 트럼프 대통령은 인플레이션과 규제 문제를 지적할 것입니다. 규제와 독점 금지 정책에 과도한 부분이 있었고, 초기 거시 경제 자극 정책이 인플레이션을 유발했습니다.
바이든의 반론: 트럼프의 정책은 비이성적이고 인플레이션을 유발할 위험이 큽니다. 트럼프의 정책은 아르헨티나와 같은 경제를 모방하며, 중앙은행의 독립성을 훼손하고 재정 적자를 키우며, 보호주의를 강화합니다.
경제 확장과 디스인플레이션
경제 확장: 현재 경제 확장은 건강하지만 영원하지 않습니다. 이는 경제 성장이 지속되고 있지만 언제든지 종료될 수 있다는 의미입니다.
디스인플레이션: 디스인플레이션(물가상승률의 둔화)에 대해 지나치게 낙관적이라는 견해를 갖고 있습니다. 이는 인플레이션이 여전히 높은 수준에서 유지되고 있으며, 통화 정책이 충분히 제한적이지 않다고 보기 때문입니다.
통화 정책: 서머스는 인플레이션을 억제하기 위해서는 현재보다 더 높은 이자율이 필요하다고 생각합니다. 높은 이자율은 소비와 투자를 줄여 경제 활동을 둔화시키고, 이를 통해 인플레이션을 억제할 수 있습니다.
실업률 증가: 인플레이션을 효과적으로 낮추기 위해서는 실업률이 증가해야 한다고 믿습니다. 이는 실업률 증가가 경제의 과열을 막고 물가를 안정시키는 데 도움이 될 수 있다는 전통적인 경제 이론에 기반합니다.
긍정적인 공급 충격: 최근 몇 년간 예상을 뛰어넘는 긍정적인 공급 충격이 발생했습니다. 예를 들어, 석유 가격 하락, 이민으로 인한 노동 공급 증가, 의료 비용의 안정 등이 포함됩니다. 이러한 요소들이 인플레이션 억제에 기여했습니다.
중국 경제의 문제
과도한 저축 문제: 중국의 과도한 저축은 국내 소비를 억제하고 경제 성장을 방해합니다. 저축이 많다는 것은 소비가 상대적으로 적다는 것을 의미하며, 이는 경제 성장의 동력 중 하나인 내수 진작에 어려움을 줍니다.
투자와 성장의 한계: 과도한 저축은 결국 경제 내 투자와 성장의 한계를 초래합니다. 저축이 너무 많으면 그 자금이 생산적으로 사용되지 않고 경제 전체의 효율성을 떨어뜨릴 수 있습니다.
중국 정부의 대응: 중국 정부는 저축을 줄이고 소비를 늘리기 위해 다양한 정책을 시행할 수 있습니다. 예를 들어, 사회 안전망을 강화하여 국민들이 저축에 대한 필요성을 덜 느끼게 하거나, 소비를 장려하기 위한 세제 혜택을 제공할 수 있습니다.
독재 국가의 외부 전가 시도와 결과
단기 평가: 독재 국가들은 경제적 어려움을 외부 갈등이나 무역 분쟁으로 전가하여 내부 결속을 강화하려는 시도를 합니다. 이러한 시도는 단기적으로는 효과가 있을 수 있습니다. 예를 들어, 국민의 관심을 외부로 돌려 내부 문제에 대한 비판을 줄일 수 있습니다.
장기 평가: 이러한 전략은 장기적으로는 경제적 문제를 해결하지 못하고 오히려 악화시킬 수 있습니다. 외부 갈등은 국제 무역 및 외교 관계를 악화시키고, 경제 제재나 무역 장벽 등의 결과를 초래할 수 있습니다. 이는 경제 성장에 부정적인 영향을 미칩니다.
최근 사례:
중국: 중국은 미국과의 무역 갈등을 통해 내부 문제를 외부로 전가하려는 시도를 했습니다. 이는 단기적으로 중국 내 반미 감정을 강화하고 내부 결속을 다지는 효과가 있었지만, 장기적으로는 경제 성장에 부정적인 영향을 미쳤습니다.
러시아: 러시아는 우크라이나 침공을 통해 내부의 경제적 문제를 외부로 전가하려 했습니다. 이는 초기에는 국내 결속을 다지는 효과가 있었지만, 국제 제재로 인해 경제적으로 큰 타격을 받았습니다.
중남미: 베네수엘라와 같은 중남미 국가들은 경제 문제를 외부로 전가하려는 시도를 했습니다. 이는 내부적으로 일시적인 효과가 있었지만, 경제적 문제를 근본적으로 해결하지는 못했습니다.
아르헨티나의 경제 정책과 서머스의 평가
최근 아르헨티나의 경제 정책: 최근 아르헨티나 대통령은 재정 적자 감축, 통화 안정, 외환 관리 등의 정책을 펴고 있습니다.
서머스의 평가: 서머스는 이러한 정책들이 성공할 가능성이 낮다고 평가합니다. 이는 아르헨티나의 경제적 구조적 문제, 정치적 불안정성, 그리고 국제 금융 시장의 신뢰 부족 등 때문입니다.
ESG에 대한 서머스의 비판
서머스의 비판 이유:
과대평가: 서머스는 ESG 투자가 현재 과대평가되고 있으며, 실제 성과가 기대에 못 미칠 것으로 봅니다. 이는 ESG 관련 규제와 정책이 아직 초기 단계에 있으며, 기업들이 이에 적응하는 데 시간이 걸릴 것으로 예상하기 때문입니다.
효율성 문제: ESG 기준이 일관되지 않거나 측정 방법이 부족할 수 있으며, 이는 기업들이 효과적으로 ESG 목표를 달성하는 데 장애가 될 수 있습니다.
ESG 성과 저조의 영향:
투자자 신뢰 하락: ESG 성과가 기대에 못 미칠 경우, 투자자들은 ESG 투자에 대한 신뢰를 잃을 수 있으며, 이는 ESG 관련 자금 유입이 감소할 수 있습니다.
정책 수정: 정부와 규제 기관은 ESG 정책을 재검토하고 수정할 가능성이 있습니다. 이는 기업들에게 새로운 도전 과제를 안겨줄 수 있습니다.
사회적 영향: ESG 목표가 달성되지 않으면 환경, 사회적 문제, 지배구조 개선 등의 목표가 달성되지 않아 장기적으로 지속 가능한 발전에 부정적인 영향을 미칠 수 있습니다.
서머스: 트럼프 대통령은 인플레이션과 규제 문제를 지적할 것입니다. 규제와 독점 금지 정책에 과도한 부분이 있었고, 초기 거시 경제 자극 정책이 인플레이션을 유발했습니다.
바이든의 반론: 트럼프의 정책은 비이성적이고 인플레이션을 유발할 위험이 큽니다. 트럼프의 정책은 아르헨티나와 같은 경제를 모방하며, 중앙은행의 독립성을 훼손하고 재정 적자를 키우며, 보호주의를 강화합니다.
경제 확장과 디스인플레이션
경제 확장: 현재 경제 확장은 건강하지만 영원하지 않습니다. 이는 경제 성장이 지속되고 있지만 언제든지 종료될 수 있다는 의미입니다.
디스인플레이션: 디스인플레이션(물가상승률의 둔화)에 대해 지나치게 낙관적이라는 견해를 갖고 있습니다. 이는 인플레이션이 여전히 높은 수준에서 유지되고 있으며, 통화 정책이 충분히 제한적이지 않다고 보기 때문입니다.
통화 정책: 서머스는 인플레이션을 억제하기 위해서는 현재보다 더 높은 이자율이 필요하다고 생각합니다. 높은 이자율은 소비와 투자를 줄여 경제 활동을 둔화시키고, 이를 통해 인플레이션을 억제할 수 있습니다.
실업률 증가: 인플레이션을 효과적으로 낮추기 위해서는 실업률이 증가해야 한다고 믿습니다. 이는 실업률 증가가 경제의 과열을 막고 물가를 안정시키는 데 도움이 될 수 있다는 전통적인 경제 이론에 기반합니다.
긍정적인 공급 충격: 최근 몇 년간 예상을 뛰어넘는 긍정적인 공급 충격이 발생했습니다. 예를 들어, 석유 가격 하락, 이민으로 인한 노동 공급 증가, 의료 비용의 안정 등이 포함됩니다. 이러한 요소들이 인플레이션 억제에 기여했습니다.
중국 경제의 문제
과도한 저축 문제: 중국의 과도한 저축은 국내 소비를 억제하고 경제 성장을 방해합니다. 저축이 많다는 것은 소비가 상대적으로 적다는 것을 의미하며, 이는 경제 성장의 동력 중 하나인 내수 진작에 어려움을 줍니다.
투자와 성장의 한계: 과도한 저축은 결국 경제 내 투자와 성장의 한계를 초래합니다. 저축이 너무 많으면 그 자금이 생산적으로 사용되지 않고 경제 전체의 효율성을 떨어뜨릴 수 있습니다.
중국 정부의 대응: 중국 정부는 저축을 줄이고 소비를 늘리기 위해 다양한 정책을 시행할 수 있습니다. 예를 들어, 사회 안전망을 강화하여 국민들이 저축에 대한 필요성을 덜 느끼게 하거나, 소비를 장려하기 위한 세제 혜택을 제공할 수 있습니다.
독재 국가의 외부 전가 시도와 결과
단기 평가: 독재 국가들은 경제적 어려움을 외부 갈등이나 무역 분쟁으로 전가하여 내부 결속을 강화하려는 시도를 합니다. 이러한 시도는 단기적으로는 효과가 있을 수 있습니다. 예를 들어, 국민의 관심을 외부로 돌려 내부 문제에 대한 비판을 줄일 수 있습니다.
장기 평가: 이러한 전략은 장기적으로는 경제적 문제를 해결하지 못하고 오히려 악화시킬 수 있습니다. 외부 갈등은 국제 무역 및 외교 관계를 악화시키고, 경제 제재나 무역 장벽 등의 결과를 초래할 수 있습니다. 이는 경제 성장에 부정적인 영향을 미칩니다.
최근 사례:
중국: 중국은 미국과의 무역 갈등을 통해 내부 문제를 외부로 전가하려는 시도를 했습니다. 이는 단기적으로 중국 내 반미 감정을 강화하고 내부 결속을 다지는 효과가 있었지만, 장기적으로는 경제 성장에 부정적인 영향을 미쳤습니다.
러시아: 러시아는 우크라이나 침공을 통해 내부의 경제적 문제를 외부로 전가하려 했습니다. 이는 초기에는 국내 결속을 다지는 효과가 있었지만, 국제 제재로 인해 경제적으로 큰 타격을 받았습니다.
중남미: 베네수엘라와 같은 중남미 국가들은 경제 문제를 외부로 전가하려는 시도를 했습니다. 이는 내부적으로 일시적인 효과가 있었지만, 경제적 문제를 근본적으로 해결하지는 못했습니다.
아르헨티나의 경제 정책과 서머스의 평가
최근 아르헨티나의 경제 정책: 최근 아르헨티나 대통령은 재정 적자 감축, 통화 안정, 외환 관리 등의 정책을 펴고 있습니다.
서머스의 평가: 서머스는 이러한 정책들이 성공할 가능성이 낮다고 평가합니다. 이는 아르헨티나의 경제적 구조적 문제, 정치적 불안정성, 그리고 국제 금융 시장의 신뢰 부족 등 때문입니다.
ESG에 대한 서머스의 비판
서머스의 비판 이유:
과대평가: 서머스는 ESG 투자가 현재 과대평가되고 있으며, 실제 성과가 기대에 못 미칠 것으로 봅니다. 이는 ESG 관련 규제와 정책이 아직 초기 단계에 있으며, 기업들이 이에 적응하는 데 시간이 걸릴 것으로 예상하기 때문입니다.
효율성 문제: ESG 기준이 일관되지 않거나 측정 방법이 부족할 수 있으며, 이는 기업들이 효과적으로 ESG 목표를 달성하는 데 장애가 될 수 있습니다.
ESG 성과 저조의 영향:
투자자 신뢰 하락: ESG 성과가 기대에 못 미칠 경우, 투자자들은 ESG 투자에 대한 신뢰를 잃을 수 있으며, 이는 ESG 관련 자금 유입이 감소할 수 있습니다.
정책 수정: 정부와 규제 기관은 ESG 정책을 재검토하고 수정할 가능성이 있습니다. 이는 기업들에게 새로운 도전 과제를 안겨줄 수 있습니다.
사회적 영향: ESG 목표가 달성되지 않으면 환경, 사회적 문제, 지배구조 개선 등의 목표가 달성되지 않아 장기적으로 지속 가능한 발전에 부정적인 영향을 미칠 수 있습니다.
Forwarded from BZCF | 비즈까페
말은 쉽지만 행동은 어렵죠. 존경합니다. https://news.nate.com/view/20240630n17666
네이트 뉴스
94세 버핏, 유언장 바꿨다…"재산 180조, 세 자녀 재단에 줄 것"
한눈에 보는 오늘 : 세계 - 뉴스 : 94세 버핏, 유언장 수정 발표재산 99% 공익목적 사용선언사망후 재단 만들고 자녀 운영교육·사회정의 목적 사용할듯부와 경영권의 대물림 대신명예와 책임 자녀들에 상속 세계적인 투자자 워런 버핏(93) 버크셔 해서웨이 회장이 사후 재산의 대부분을 세 자
https://youtu.be/Ti6Gft5xO1s?si=BMf4_KB8Ln2J2iPD
Experts tell you what will not happen large change is driven by entrepreneur led companies.
Experts tell you what will not happen large change is driven by entrepreneur led companies.
Continuous Learning_Startup & Investment
https://youtu.be/neQbqOhp8w0?si=4jkOepMI8yjFpuCv
No Priors: Welcome back to No Priors. We're excited to talk to Karan Goel and Albert Gu, the co-founders of Cartesia and authors behind revolutionary models such as S4 and Mamba. They're leading a rebellion against the dominant architecture of Transformers, and we’re excited to talk to them about their company today. Welcome, Karan and Albert.
Karan Goel & Albert Gu: Thank you, nice to be here.
Use Cases for Cartesia and Sonic
No Priors: Tell us a little more about Cartesia, the product, and what people can do with it today.
Karan Goel: Definitely. We launched Sonic, a really fast text-to-speech engine. Some exciting use cases include interactive, low-latency voice generation. We've seen a lot of interest in gaming, where players can interact with characters and NPCs in real-time. Another area is voice agents, where low latency is crucial. We’ve managed to reduce latency by 150 milliseconds and aim to shave off another 600 milliseconds over the next year.
Karan Goel & Albert Gu’s Professional Backgrounds
No Priors: Can you talk about your backgrounds and how you ended up starting Cartesia?
Albert Gu: Karan and I both came from the same PhD group at Stanford. I worked on sequence modeling during my PhD, starting with problems at DeepMind. I became interested in recurrent models around the same time Transformers gained popularity. Karan and I collaborated on the S4 model, which showed the effectiveness of state space models. Recently, I proposed Mamba, which has shown promising results in language modeling. I’ve also started as a professor at CMU, continuing research while also working on Cartesia.
Karan Goel: I grew up in India, from an engineering family. I initially aimed to be a doctor but switched to engineering due to low aptitude in biology. After IIT and grad school, I ended up at Stanford, working on reinforcement learning. Chris Ray, our PhD adviser, was skeptical about reinforcement learning, leading me to explore other areas. Albert and I worked together on various projects, including S4, which drew me into the field.
State Space Models (SSMs) versus Transformer-Based Architectures
No Priors: Could you tell us more about SSMs and how they differ from Transformer-based architectures?
Albert Gu: SSMs originated from recurrent neural networks and focus on processing sequences one at a time, updating beliefs or states with new information. This approach can be loosely inspired by brain functions. SSMs are particularly good at modeling perceptual signals, like raw waveforms and pixels, which are less compressible than text data. Recent models like Mamba have improved at handling text data. One key advantage of SSMs is their linear scaling, providing constant time processing for new tokens, unlike Transformers' quadratic scaling. However, both models have their strengths and weaknesses, and hybrid models combining SSMs and Transformers have shown promising results.
Domain Applications for Hybrid Approaches
No Priors: Are there specific domains where you see applications for these hybrid approaches?
Albert Gu: Currently, most applications are focused on text, as that's where interest lies. However, SSMs have been applied to DNA modeling, pre-training on long DNA sequences for tasks like detecting point mutations.
Text to Speech and Voice
No Priors: How did your research lead to focusing on text-to-speech and voice generation?
Albert Gu: We wanted to demonstrate the versatility of our models in practical applications. Audio seemed like a natural fit due to its real-time processing requirements. We thought it would be a cool first application.
Karan Goel: Audio and multimodal data are interesting because they are information-sparse, allowing for fast processing and large context handling. Audio, in particular, has many emerging commercial applications, like voice agents and gaming. Efficient models can also be deployed on smaller hardware, pushing inference closer to the edge rather than relying on data centers.
Karan Goel & Albert Gu: Thank you, nice to be here.
Use Cases for Cartesia and Sonic
No Priors: Tell us a little more about Cartesia, the product, and what people can do with it today.
Karan Goel: Definitely. We launched Sonic, a really fast text-to-speech engine. Some exciting use cases include interactive, low-latency voice generation. We've seen a lot of interest in gaming, where players can interact with characters and NPCs in real-time. Another area is voice agents, where low latency is crucial. We’ve managed to reduce latency by 150 milliseconds and aim to shave off another 600 milliseconds over the next year.
Karan Goel & Albert Gu’s Professional Backgrounds
No Priors: Can you talk about your backgrounds and how you ended up starting Cartesia?
Albert Gu: Karan and I both came from the same PhD group at Stanford. I worked on sequence modeling during my PhD, starting with problems at DeepMind. I became interested in recurrent models around the same time Transformers gained popularity. Karan and I collaborated on the S4 model, which showed the effectiveness of state space models. Recently, I proposed Mamba, which has shown promising results in language modeling. I’ve also started as a professor at CMU, continuing research while also working on Cartesia.
Karan Goel: I grew up in India, from an engineering family. I initially aimed to be a doctor but switched to engineering due to low aptitude in biology. After IIT and grad school, I ended up at Stanford, working on reinforcement learning. Chris Ray, our PhD adviser, was skeptical about reinforcement learning, leading me to explore other areas. Albert and I worked together on various projects, including S4, which drew me into the field.
State Space Models (SSMs) versus Transformer-Based Architectures
No Priors: Could you tell us more about SSMs and how they differ from Transformer-based architectures?
Albert Gu: SSMs originated from recurrent neural networks and focus on processing sequences one at a time, updating beliefs or states with new information. This approach can be loosely inspired by brain functions. SSMs are particularly good at modeling perceptual signals, like raw waveforms and pixels, which are less compressible than text data. Recent models like Mamba have improved at handling text data. One key advantage of SSMs is their linear scaling, providing constant time processing for new tokens, unlike Transformers' quadratic scaling. However, both models have their strengths and weaknesses, and hybrid models combining SSMs and Transformers have shown promising results.
Domain Applications for Hybrid Approaches
No Priors: Are there specific domains where you see applications for these hybrid approaches?
Albert Gu: Currently, most applications are focused on text, as that's where interest lies. However, SSMs have been applied to DNA modeling, pre-training on long DNA sequences for tasks like detecting point mutations.
Text to Speech and Voice
No Priors: How did your research lead to focusing on text-to-speech and voice generation?
Albert Gu: We wanted to demonstrate the versatility of our models in practical applications. Audio seemed like a natural fit due to its real-time processing requirements. We thought it would be a cool first application.
Karan Goel: Audio and multimodal data are interesting because they are information-sparse, allowing for fast processing and large context handling. Audio, in particular, has many emerging commercial applications, like voice agents and gaming. Efficient models can also be deployed on smaller hardware, pushing inference closer to the edge rather than relying on data centers.
Continuous Learning_Startup & Investment
https://youtu.be/neQbqOhp8w0?si=4jkOepMI8yjFpuCv
Data, Size of Models, and Efficiency
No Priors: Apple recently announced models running on devices at around three billion parameters. How does this relate to your focus on efficiency?
Karan Goel: The initial wave of companies focused on scaling data and compute, leading to great models. The second wave focuses on efficiency, enabling powerful models to run cheaply and repeatedly at scale. Our technology aims to make high-capability models run efficiently on smaller devices, moving from data centers to the edge.
Recent Launch of Text to Speech Product
No Priors: Cartesia recently launched its text-to-speech product, which is impressive in terms of performance. Can you tell us more about that launch?
Karan Goel: We wanted to put our technology to work, demonstrating efficient audio generation. Text-to-speech is a longstanding field, yet there’s still room for improvement. Our goal is to create engaging, high-quality speech that people would want to interact with for more than 30 seconds.
Multi-modality & Building Blocks
No Priors: How has your pioneering work on SSMs impacted your approach to multi-modality or speech?
Albert Gu: Multi-modality hasn't been the primary motivation, but different modalities present different challenges, influencing the design of our models. SSMs are versatile building blocks that can be applied to various modalities, including audio and text.
What’s Next at Cartesia?
No Priors: What’s next for Cartesia? Will you focus on Sonic and audio, or explore other modalities?
Karan Goel: We’re excited about Sonic, showing the potential for real-time, low-latency audio generation. We aim to bring Sonic on-device, enhancing its capabilities and efficiency. Long-term, we’re developing multimodal models that can converse intelligently, integrating audio and text reasoning. Our goal is to build versatile models that run efficiently on various devices.
Latency in Text to Speech
No Priors: Latency is a significant issue in text-to-speech applications. How does multimodality address this?
Karan Goel: Reducing latency is crucial. Orchestrating multiple models adds overhead, making it inefficient. We aim to create seamless, integrated models that handle multimodal tasks efficiently, reducing latency and improving performance.
Choosing Research Problems Based on Aesthetic
No Priors: How do you choose research problems?
Albert Gu: I choose problems based on aesthetic appeal. Some solutions feel elegant and correct, driving my interest. This approach guided the development of SSMs and continues to influence my work.
Product Demo
No Priors: Can you show us a demo of your product?
Karan Goel: Sure. Here’s our Sonic text-to-speech model running on a MacBook in real-time. [Demo showing the model generating speech quickly and efficiently.] This demonstrates the speed and quality of our model.
Cartesia Team & Hiring
No Priors: How large is your team, and are you hiring?
Karan Goel: We have 15 people and 8 interns. We’re hiring across the engineering stack, especially for model roles. We’re excited to have talented people join us in building the future.
No Priors: Thank you for joining us.
Karan Goel & Albert Gu: Thank you.
No Priors: Apple recently announced models running on devices at around three billion parameters. How does this relate to your focus on efficiency?
Karan Goel: The initial wave of companies focused on scaling data and compute, leading to great models. The second wave focuses on efficiency, enabling powerful models to run cheaply and repeatedly at scale. Our technology aims to make high-capability models run efficiently on smaller devices, moving from data centers to the edge.
Recent Launch of Text to Speech Product
No Priors: Cartesia recently launched its text-to-speech product, which is impressive in terms of performance. Can you tell us more about that launch?
Karan Goel: We wanted to put our technology to work, demonstrating efficient audio generation. Text-to-speech is a longstanding field, yet there’s still room for improvement. Our goal is to create engaging, high-quality speech that people would want to interact with for more than 30 seconds.
Multi-modality & Building Blocks
No Priors: How has your pioneering work on SSMs impacted your approach to multi-modality or speech?
Albert Gu: Multi-modality hasn't been the primary motivation, but different modalities present different challenges, influencing the design of our models. SSMs are versatile building blocks that can be applied to various modalities, including audio and text.
What’s Next at Cartesia?
No Priors: What’s next for Cartesia? Will you focus on Sonic and audio, or explore other modalities?
Karan Goel: We’re excited about Sonic, showing the potential for real-time, low-latency audio generation. We aim to bring Sonic on-device, enhancing its capabilities and efficiency. Long-term, we’re developing multimodal models that can converse intelligently, integrating audio and text reasoning. Our goal is to build versatile models that run efficiently on various devices.
Latency in Text to Speech
No Priors: Latency is a significant issue in text-to-speech applications. How does multimodality address this?
Karan Goel: Reducing latency is crucial. Orchestrating multiple models adds overhead, making it inefficient. We aim to create seamless, integrated models that handle multimodal tasks efficiently, reducing latency and improving performance.
Choosing Research Problems Based on Aesthetic
No Priors: How do you choose research problems?
Albert Gu: I choose problems based on aesthetic appeal. Some solutions feel elegant and correct, driving my interest. This approach guided the development of SSMs and continues to influence my work.
Product Demo
No Priors: Can you show us a demo of your product?
Karan Goel: Sure. Here’s our Sonic text-to-speech model running on a MacBook in real-time. [Demo showing the model generating speech quickly and efficiently.] This demonstrates the speed and quality of our model.
Cartesia Team & Hiring
No Priors: How large is your team, and are you hiring?
Karan Goel: We have 15 people and 8 interns. We’re hiring across the engineering stack, especially for model roles. We’re excited to have talented people join us in building the future.
No Priors: Thank you for joining us.
Karan Goel & Albert Gu: Thank you.
좋은 삶을 위한 안내서 https://m.yes24.com/Goods/Detail/108551375
1. 스토아주의자들의 목표는 모든 감정을 몰아내는 것이 아니라 부정적인 감정만을 몰아내는 것이다. 신경안정제로 얻는 무감각 상태가 아니라, 분노, 슬픔, 불안, 두려움 등의 부정적 감정이 최소화된 동시에 기쁨 등의 긍정적 감정이 가득찬 마음 상태.
1. 자기가 가진 것에서 기쁨을 찾으며 내면의 기쁨 외에 다른 기쁨을 바라지 않을 것이다.
2. 욕망에 관해서) 만족할 줄 모르는 마음을 극복하지 않고는 좋은 삶, 의미 있는 삶을 살 수 없다는 것이었다. 끝없이 더 가지려는 성향을 다스리는 좋은 방법이 지금 가진 것에 만족하는 것.
3. 우정과 부 등 삶이 선사하는 좋은 것은 즐기되 거기에 집착해서는 안된다고 보았다. 스토아 철학자들은 삶이 주는 선물을 즐기는 데서 종종 벗어나 지금 즐기고 있는 것을 언제든 잃을 수 있다는 사실을 자주 숙고해야한다고 보았다.
2. 스토아 철학을 수련하는데에는 비용이 든다. 삶의 철학을 갖지 않았을 때 치르는 비용은 이보다 더 크다. 무치한 것을 좇으며 하루하루를 보내다 결국 소중한 삶을 낭비하는 위험이 더 큰 비용이다.
3. 우리는 운명이 쓴 연극에 등장하는 배우에 지나지 않는다. 우리는 연극의 배역을 선택할 수 없다. 어떤 배역이 주어지든 최선을 다해 연기할 뿐이다.
4. 성가신 사람을 대할 때는 나를 성가시에 여기는 사람도 존재한다는 사실을 기억하라. 상대의 잘못에 짜증이 날 때는 잠시 멈춰 자신의 결점에 대해서 생각하라. 그러면 상대의 결점에 공감하며 관대하게 대할 수 있다.
5. 다른 사람에 대한 나의 생각을 통제하면, 그들이 우리 삶에 미치는 부정적인 영향을 줄일수 있다. 주변 사람의 행동과 말, 생각과 계획에 대해 추측하는데에 시간을 낭비하지 말아야한다. 그들에 관해 제멋대로 상상하고 질투하고 시기하고 의심해서는 안된다. 마르쿠스에 따르면 훌륭한 스토아주의자는 공공의 이익을 위해서가 아니면 다른 사람의 생각에 대해 생각하지 않는다.
6. 우리 내면에 분노와 증오, 복수심이 일어날 때 할 수 있는 최상의 복수는 그 사람과 똑같이 되기를 거부하는 것이다.
7. 사람들이 불행한 이유는 가치있는 것이 무엇인지 모르기 때문이다. 제대로 모르기 때문에 자신을 행복하게 해주는 것이 아니라 불안하고 비참하게 만드는 것을 좇으며 하루 하루를 보낸다.
8. 자유를 지키려면 나에 관한 사람들의 평판에 무심해야한다. 사람들의 불인정이 싫다면 그만큼 사람들의 인정에도 초연해야한다.
9. 스토아 철학자들은 자유를 중시했다. 우리가 가진 힘을 타인에게 넘겨주는 행위는 무엇이든 꺼렸다. 사회적 지위를 좇는다는 것은 우리를 지배하는 힘을 다른 사람들에게 넘겨주는 것과 같다.
10. 죽은 뒤 명성은 공허한 명성이다. 죽은자는 명성을 누릴 수 없다. 미래 세대가 한번도 본 적 없는 사람을 칭찬할 것이라 기대하는 것도 부질없다.
11. 부를 가진다고 슬픔 없는 삶을 살 수 없으며 늙으면 부가 우리를 위로할 수도 없다. 부는 물질적 사치를 얻고 감각적 쾌락을 누리게 하지만 진정한 만족을 가져다주지도 슬픔을 물리치지도 못한다.
12. 평범한 삶, 기본만 갖춘 생활에서 기쁨을 찾는 능력이 중요하다.
13. 두려움을 피하는 3가지 방법
1. 자신의 품성에서 최선을 다해 기쁨을 찾는다.
2. 그것을 잃을 때를 준비한다. 지금 누리는 것들이 행운의 사건임을 기억한다.
3. 눈이 높아지지 않도록 유의한다. 최고가 아니면 기쁨을 못 느끼는 사람이 되지 않도록 조심한다.
14. 쉽게 얻을 수 있고 누구도 앗아갈 수 없는 것을 즐겼기 때문에 삶에서 즐길 것이 아주 많았다. 그들은 있는 그대로의 자신을 즐겼으며 지금 이대로의 삶과 세상을 즐겼다. 이것은 결코 작은 성취가 아니다.
15. 운을 정복하기보다 자기 자신을 정복하라. 기존의 질서를 바꾸기보다 자신의 욕망을 바꾸려고 노력하라. 자신의 생각 외에 어떤 것도 완벽히 통제할 수 없음을 믿으라. 문제 해결에 최선을 다했다면 더 이상 할 수 있는 일이 없다고 믿으라.
1. 스토아주의자들의 목표는 모든 감정을 몰아내는 것이 아니라 부정적인 감정만을 몰아내는 것이다. 신경안정제로 얻는 무감각 상태가 아니라, 분노, 슬픔, 불안, 두려움 등의 부정적 감정이 최소화된 동시에 기쁨 등의 긍정적 감정이 가득찬 마음 상태.
1. 자기가 가진 것에서 기쁨을 찾으며 내면의 기쁨 외에 다른 기쁨을 바라지 않을 것이다.
2. 욕망에 관해서) 만족할 줄 모르는 마음을 극복하지 않고는 좋은 삶, 의미 있는 삶을 살 수 없다는 것이었다. 끝없이 더 가지려는 성향을 다스리는 좋은 방법이 지금 가진 것에 만족하는 것.
3. 우정과 부 등 삶이 선사하는 좋은 것은 즐기되 거기에 집착해서는 안된다고 보았다. 스토아 철학자들은 삶이 주는 선물을 즐기는 데서 종종 벗어나 지금 즐기고 있는 것을 언제든 잃을 수 있다는 사실을 자주 숙고해야한다고 보았다.
2. 스토아 철학을 수련하는데에는 비용이 든다. 삶의 철학을 갖지 않았을 때 치르는 비용은 이보다 더 크다. 무치한 것을 좇으며 하루하루를 보내다 결국 소중한 삶을 낭비하는 위험이 더 큰 비용이다.
3. 우리는 운명이 쓴 연극에 등장하는 배우에 지나지 않는다. 우리는 연극의 배역을 선택할 수 없다. 어떤 배역이 주어지든 최선을 다해 연기할 뿐이다.
4. 성가신 사람을 대할 때는 나를 성가시에 여기는 사람도 존재한다는 사실을 기억하라. 상대의 잘못에 짜증이 날 때는 잠시 멈춰 자신의 결점에 대해서 생각하라. 그러면 상대의 결점에 공감하며 관대하게 대할 수 있다.
5. 다른 사람에 대한 나의 생각을 통제하면, 그들이 우리 삶에 미치는 부정적인 영향을 줄일수 있다. 주변 사람의 행동과 말, 생각과 계획에 대해 추측하는데에 시간을 낭비하지 말아야한다. 그들에 관해 제멋대로 상상하고 질투하고 시기하고 의심해서는 안된다. 마르쿠스에 따르면 훌륭한 스토아주의자는 공공의 이익을 위해서가 아니면 다른 사람의 생각에 대해 생각하지 않는다.
6. 우리 내면에 분노와 증오, 복수심이 일어날 때 할 수 있는 최상의 복수는 그 사람과 똑같이 되기를 거부하는 것이다.
7. 사람들이 불행한 이유는 가치있는 것이 무엇인지 모르기 때문이다. 제대로 모르기 때문에 자신을 행복하게 해주는 것이 아니라 불안하고 비참하게 만드는 것을 좇으며 하루 하루를 보낸다.
8. 자유를 지키려면 나에 관한 사람들의 평판에 무심해야한다. 사람들의 불인정이 싫다면 그만큼 사람들의 인정에도 초연해야한다.
9. 스토아 철학자들은 자유를 중시했다. 우리가 가진 힘을 타인에게 넘겨주는 행위는 무엇이든 꺼렸다. 사회적 지위를 좇는다는 것은 우리를 지배하는 힘을 다른 사람들에게 넘겨주는 것과 같다.
10. 죽은 뒤 명성은 공허한 명성이다. 죽은자는 명성을 누릴 수 없다. 미래 세대가 한번도 본 적 없는 사람을 칭찬할 것이라 기대하는 것도 부질없다.
11. 부를 가진다고 슬픔 없는 삶을 살 수 없으며 늙으면 부가 우리를 위로할 수도 없다. 부는 물질적 사치를 얻고 감각적 쾌락을 누리게 하지만 진정한 만족을 가져다주지도 슬픔을 물리치지도 못한다.
12. 평범한 삶, 기본만 갖춘 생활에서 기쁨을 찾는 능력이 중요하다.
13. 두려움을 피하는 3가지 방법
1. 자신의 품성에서 최선을 다해 기쁨을 찾는다.
2. 그것을 잃을 때를 준비한다. 지금 누리는 것들이 행운의 사건임을 기억한다.
3. 눈이 높아지지 않도록 유의한다. 최고가 아니면 기쁨을 못 느끼는 사람이 되지 않도록 조심한다.
14. 쉽게 얻을 수 있고 누구도 앗아갈 수 없는 것을 즐겼기 때문에 삶에서 즐길 것이 아주 많았다. 그들은 있는 그대로의 자신을 즐겼으며 지금 이대로의 삶과 세상을 즐겼다. 이것은 결코 작은 성취가 아니다.
15. 운을 정복하기보다 자기 자신을 정복하라. 기존의 질서를 바꾸기보다 자신의 욕망을 바꾸려고 노력하라. 자신의 생각 외에 어떤 것도 완벽히 통제할 수 없음을 믿으라. 문제 해결에 최선을 다했다면 더 이상 할 수 있는 일이 없다고 믿으라.
예스24
좋은 삶을 위한 안내서 - 예스24
한 번뿐인 인생 잘못 살았다 후회하지 않도록, 자기 삶의 철학을 마련하려는 이에게 전하는 스토아철학의 지혜. 부정적 시각화, 통제의 이분법 등 스토아철학자들이 고안한 평정심의 기술을 통해 독자들은 걱정을 줄이는 법, 지난 일을 내려놓는 법, 통제 가능한 일에 ...
👍2❤1
모든 만남/미팅에 최선을 다해야한다.
그냥 지나칠 수도 있었던 미팅이(큰 아젠다 없이 진행되었던 미팅이), 나중에 좋은 의미의 큰 impact 가 되어 돌아오는 경우를 종종 경험한다. 일례로, 유저분과 진행했던 미팅이 나중에 나비효과가 되어 투자 유치로 이어지기도 하고, 큰 B2B Deal 로 이어지기도 한다.
그런 경험을 몇 번 한 이후로는, '이것 저것 재지 말고, 모든 미팅/만남에 최선을 다하자' 생각하며 미팅을 진행하고 있다.
미팅을 진행하고 사람을 만날 때, 습관적으로 다짐하는 부분은 아래와 같다.
1. 상대방을 섣불리 판단하지 않는다. (상대방을 Judge 하면 안된다. 나의 편협함과 어리석음을 드러날 뿐이며, 큰 기회를 놓치는 지름길이다)
2, 나를 필요로 하는 사람/자리가 있으면 최대한 간다. 가서 최선을 다한다. (바쁜척하지 않고 튕기지 않는다. 시간이 안될때는 최대한 양해를 구한다)
3. 예민하거나 까다롭게 굴지 않는다. (상대방을 피곤하게만 할 뿐이다)
4. 너무 내 아젠다만 내세우지 않는다. 상대방에게 부탁하고 싶은 내용이 있을 때에는, 1) 양해를 구하고, 2) 솔직하게 도움을 구한다.
5, 미팅 중 소개받는 사람이 있다면 (예: 이 분에게 연락해 보세요) , 연락처 받은 후 최대한 빠르게 연락하고, 최선을 다해 만난다 (소개해준 분이 피해받지 않게 한다)
6. 회신은 최대한 빨리 한다.
7. 대화 중 남 이야기 하지 않는다 (남 이야기는 좋은 이야기라 해도 왠만하면 안하는 것이 더 좋다)
8. 아이컨택 잘하고, 온전히 집중한다. (이야기에 집중하지 않으면 바로 티가 난다)
9. 상대방이 불편할 수 있는 표현/행동은 최대한 피하고, 정치/인종/종교 등 민감한 부분은 화두에 올리지 않는다.
10. 선의의 도움을 제안할 때에도, 지킬 수 있고 & 실행할 수 있는 것만 제안한다. (순간의 정의감(?)에 사로잡혀 공수표 날리면 안된다)
11. 인사 잘하고, 청결함을 유지한다.
특히 창업자는 모든 만남에 최선을 다할 필요가 있다. 회사의 성장에 모든 가능성이 열려있을 수 있음은, 창업자의 태도에 달려있다.
그냥 지나칠 수도 있었던 미팅이(큰 아젠다 없이 진행되었던 미팅이), 나중에 좋은 의미의 큰 impact 가 되어 돌아오는 경우를 종종 경험한다. 일례로, 유저분과 진행했던 미팅이 나중에 나비효과가 되어 투자 유치로 이어지기도 하고, 큰 B2B Deal 로 이어지기도 한다.
그런 경험을 몇 번 한 이후로는, '이것 저것 재지 말고, 모든 미팅/만남에 최선을 다하자' 생각하며 미팅을 진행하고 있다.
미팅을 진행하고 사람을 만날 때, 습관적으로 다짐하는 부분은 아래와 같다.
1. 상대방을 섣불리 판단하지 않는다. (상대방을 Judge 하면 안된다. 나의 편협함과 어리석음을 드러날 뿐이며, 큰 기회를 놓치는 지름길이다)
2, 나를 필요로 하는 사람/자리가 있으면 최대한 간다. 가서 최선을 다한다. (바쁜척하지 않고 튕기지 않는다. 시간이 안될때는 최대한 양해를 구한다)
3. 예민하거나 까다롭게 굴지 않는다. (상대방을 피곤하게만 할 뿐이다)
4. 너무 내 아젠다만 내세우지 않는다. 상대방에게 부탁하고 싶은 내용이 있을 때에는, 1) 양해를 구하고, 2) 솔직하게 도움을 구한다.
5, 미팅 중 소개받는 사람이 있다면 (예: 이 분에게 연락해 보세요) , 연락처 받은 후 최대한 빠르게 연락하고, 최선을 다해 만난다 (소개해준 분이 피해받지 않게 한다)
6. 회신은 최대한 빨리 한다.
7. 대화 중 남 이야기 하지 않는다 (남 이야기는 좋은 이야기라 해도 왠만하면 안하는 것이 더 좋다)
8. 아이컨택 잘하고, 온전히 집중한다. (이야기에 집중하지 않으면 바로 티가 난다)
9. 상대방이 불편할 수 있는 표현/행동은 최대한 피하고, 정치/인종/종교 등 민감한 부분은 화두에 올리지 않는다.
10. 선의의 도움을 제안할 때에도, 지킬 수 있고 & 실행할 수 있는 것만 제안한다. (순간의 정의감(?)에 사로잡혀 공수표 날리면 안된다)
11. 인사 잘하고, 청결함을 유지한다.
특히 창업자는 모든 만남에 최선을 다할 필요가 있다. 회사의 성장에 모든 가능성이 열려있을 수 있음은, 창업자의 태도에 달려있다.
In case you missed it: Chrome is adding a Gemini Nano AI model right inside your browser via a new
Spent some time this weekend putting together a simple open source browser extension using Chrome’s experimental local LLM API and Cartesia's super-fast TTS model ⚡️
It can:
→ Summarize highlighted text (Cmd+Shift+S)
→ Explain content as if you're 5 years old (Cmd+Shift+E)
... all on-device!
Code: https://lnkd.in/gyWPHyK7
https://www.linkedin.com/posts/varunshenoy_ai-ugcPost-7213965233600495616-K4CE?utm_source=share&utm_medium=member_ios
window.ai API.Spent some time this weekend putting together a simple open source browser extension using Chrome’s experimental local LLM API and Cartesia's super-fast TTS model ⚡️
It can:
→ Summarize highlighted text (Cmd+Shift+S)
→ Explain content as if you're 5 years old (Cmd+Shift+E)
... all on-device!
Code: https://lnkd.in/gyWPHyK7
https://www.linkedin.com/posts/varunshenoy_ai-ugcPost-7213965233600495616-K4CE?utm_source=share&utm_medium=member_ios
lnkd.in
LinkedIn
This link will take you to a page that’s not on LinkedIn
공부뿐만이 아니라, 어려서부터 웬만한 건 다 직접 결정했다. 물론 무슨 문제가 생기면 부모님이 나와 같이 해결 방법을 찾았고, 평소 대화를 많이 했다. 그래도 여전히 결정은 내 몫이었다. 진로나 인생 방향도 내가 선택했고, 부모님은 존중했다.
그러니 되려 앞으로 어떻게 살아야 할지 생각이 많았다. 내가 뭘 좋아하고 뭘 원하는지 늘 골똘히 생각하며 답을 찾았다. 그게 사업이었다.
어쩌면 혼자만의 열등감이었지 모른다. 어쨌든 얹잖을 때가 적지 않았지만, 그때나 지금이나 불편한 상황을 맞닥뜨리면 오히려 긍정적 자극을 받는다. 가령 2021년 '마뗑킴'이 처음 투자받을 즈음 "'룩 북(브랜드 스타일을 보여주는 사진집)' 없는 브랜드가 무슨 브랜드냐"는 소리를 들었다. 아무리 업계 관행이라지만, 룩 북 필요성을 못 느끼는데 남이 하니까 무조건 따라 하고 싶진 않았다. 그들 입맛을 맞추는 대신 "내가 맞다는 걸 보여주겠다"고 다짐했다.
금수저는커녕 두 딸 대학 학비도 빠듯한 평범한 맞벌이 가정의 고졸 학력인 내가 성공하는 사례를 보여주고 싶었다. 내겐 그런 존재가 없었기에, 비슷한 꿈을 꾸는 이들에게 길라잡이가 되고 싶다.
동대문은 같은 디자인을 최소 두 장 사야 했기에, 원했던 15만 원짜리 멋진 디자인 대신 개당 2만~3만 원대 값싼 점퍼 두 장을 골라 블로그에 올렸다. 안 팔렸다.
축 처진 나를 지켜보던 어머니가 "얼마면 되겠느냐"고 물었다. "30만원. " 그 돈으로 동대문에 달려가 거친 상인들 상대하며 점퍼 두 장을 샀다. 막차는 진작에 끊기고 수중엔 4000~5000원뿐이었다. 카페에서 유자차를 앞에 두고 부천가는 첫차를 기다리며 포스트잇에 이렇게 썼다. "성공할 거다. " 이 메모는 자기실현적 예언이 됐다.
6개월쯤 지나니 옷 살 돈 말고도 100만원쯤 남아 새 시도를 했다. 단일 품목이 아니라 여기저기서 코트·스카프 등으로 직접 코디해 화보처럼 찍어 올렸는데, 월 몇천만원 매출이 날 만큼 대박이 났다. 1년쯤 지나자 고객들이 이런저런 요구를 담아 "직접 디자인해달라"고 해서 제작까지 뛰어들었다.
패션 전문 투자사 등 여러 곳이 투자를 제안해왔다. 경영 능력의 한계를 뼈저리게 느꼈기에 가장 많은 돈을 투자하겠다는 곳을 골랐다. 매출은 150억(2021), 500억(2022), 1000억원(2023)으로 가파르게 올랐다. 하지만 60% 지분투자를 한 투자사와의 갈등으로 끝내 내가 키운 '마뗑킴'과 지난해 결별했다.
속상했다. 하지만 과거에 사로잡히면 오늘을 살 수 없다. 미래로 나아갈 수 없다. 내 선택의 결과니 누구 탓도, 어떤 변명도 하고 싶지 않았다. 게다가 임신과 겹쳐 신경 쓸 여력도 없었다. 깔끔하게 내려놨다. 지난 3월 첫 아이 출산 30분 전까지도 휴대폰으로 업무 처리하고, 산후조리원에선 직원들이 보내준 디자인을 컨펌했다. 쉬는 게 편치 않았다. 대표가 진심으로 누구보다 열심히 일해야 직원들이 따라온다고 생각해서다. 그렇게 지난 5월 50년 역사 패션 기업(세정)의 투자를 받아 내 이름을 딴 새 브랜드를 런칭했다.
눈 뜨는 순간부터 잠들기 직전까지, 심지어 출퇴근 전과 후도 업무의 연장이다. 저녁엔 한두 시간 SNS 라이브로 고객과 소통하고, 다음날 이중 반응이 좋은 걸 골라 입고는 잠원동 집에서 남편과 함께 출근길 카페에 들러 데일리룩을 인스타그램에 올린다. 이 과정에서 디자인·색상 등 고객 요구를 최대한 빨리 반영해 상품으로 내놓는다. 직원들은 힘들겠지만 잘하는 브랜드가 너무 많은 요즘 이렇게 하지 않으면 살아남을 수 없다.
이렇게 일에 몰두하면서 왜 아이를 낳았느냐고 묻는 사람들이 있다. 난 커리어 성장 못지않게 행복이 중요하다. 퇴근 후 남편과 김치찌개에 소주 한잔하면서 대화하는 일과 일상의 균형이 늘 기쁘고 행복했다. 당장의 성공을 위해 아이를 선택하지 않는다면 나중에 공허하고 후회할 거 같았다. 사업을 키워오면서 늘 경계하는 지점이기도 했다. 성공해서 불행해지지 말자. 돈이든, 커리어든, 명예든, 그 무엇에도 내 삶이 잡아먹히지 않았으면 좋겠다. 그렇게 다인잇을 한 번 더 성공시켜, 첫 번째 성공이 운이 아니었다는 걸 증명하고 싶다.
https://www.joongang.co.kr/article/25260802
그러니 되려 앞으로 어떻게 살아야 할지 생각이 많았다. 내가 뭘 좋아하고 뭘 원하는지 늘 골똘히 생각하며 답을 찾았다. 그게 사업이었다.
어쩌면 혼자만의 열등감이었지 모른다. 어쨌든 얹잖을 때가 적지 않았지만, 그때나 지금이나 불편한 상황을 맞닥뜨리면 오히려 긍정적 자극을 받는다. 가령 2021년 '마뗑킴'이 처음 투자받을 즈음 "'룩 북(브랜드 스타일을 보여주는 사진집)' 없는 브랜드가 무슨 브랜드냐"는 소리를 들었다. 아무리 업계 관행이라지만, 룩 북 필요성을 못 느끼는데 남이 하니까 무조건 따라 하고 싶진 않았다. 그들 입맛을 맞추는 대신 "내가 맞다는 걸 보여주겠다"고 다짐했다.
금수저는커녕 두 딸 대학 학비도 빠듯한 평범한 맞벌이 가정의 고졸 학력인 내가 성공하는 사례를 보여주고 싶었다. 내겐 그런 존재가 없었기에, 비슷한 꿈을 꾸는 이들에게 길라잡이가 되고 싶다.
동대문은 같은 디자인을 최소 두 장 사야 했기에, 원했던 15만 원짜리 멋진 디자인 대신 개당 2만~3만 원대 값싼 점퍼 두 장을 골라 블로그에 올렸다. 안 팔렸다.
축 처진 나를 지켜보던 어머니가 "얼마면 되겠느냐"고 물었다. "30만원. " 그 돈으로 동대문에 달려가 거친 상인들 상대하며 점퍼 두 장을 샀다. 막차는 진작에 끊기고 수중엔 4000~5000원뿐이었다. 카페에서 유자차를 앞에 두고 부천가는 첫차를 기다리며 포스트잇에 이렇게 썼다. "성공할 거다. " 이 메모는 자기실현적 예언이 됐다.
6개월쯤 지나니 옷 살 돈 말고도 100만원쯤 남아 새 시도를 했다. 단일 품목이 아니라 여기저기서 코트·스카프 등으로 직접 코디해 화보처럼 찍어 올렸는데, 월 몇천만원 매출이 날 만큼 대박이 났다. 1년쯤 지나자 고객들이 이런저런 요구를 담아 "직접 디자인해달라"고 해서 제작까지 뛰어들었다.
패션 전문 투자사 등 여러 곳이 투자를 제안해왔다. 경영 능력의 한계를 뼈저리게 느꼈기에 가장 많은 돈을 투자하겠다는 곳을 골랐다. 매출은 150억(2021), 500억(2022), 1000억원(2023)으로 가파르게 올랐다. 하지만 60% 지분투자를 한 투자사와의 갈등으로 끝내 내가 키운 '마뗑킴'과 지난해 결별했다.
속상했다. 하지만 과거에 사로잡히면 오늘을 살 수 없다. 미래로 나아갈 수 없다. 내 선택의 결과니 누구 탓도, 어떤 변명도 하고 싶지 않았다. 게다가 임신과 겹쳐 신경 쓸 여력도 없었다. 깔끔하게 내려놨다. 지난 3월 첫 아이 출산 30분 전까지도 휴대폰으로 업무 처리하고, 산후조리원에선 직원들이 보내준 디자인을 컨펌했다. 쉬는 게 편치 않았다. 대표가 진심으로 누구보다 열심히 일해야 직원들이 따라온다고 생각해서다. 그렇게 지난 5월 50년 역사 패션 기업(세정)의 투자를 받아 내 이름을 딴 새 브랜드를 런칭했다.
눈 뜨는 순간부터 잠들기 직전까지, 심지어 출퇴근 전과 후도 업무의 연장이다. 저녁엔 한두 시간 SNS 라이브로 고객과 소통하고, 다음날 이중 반응이 좋은 걸 골라 입고는 잠원동 집에서 남편과 함께 출근길 카페에 들러 데일리룩을 인스타그램에 올린다. 이 과정에서 디자인·색상 등 고객 요구를 최대한 빨리 반영해 상품으로 내놓는다. 직원들은 힘들겠지만 잘하는 브랜드가 너무 많은 요즘 이렇게 하지 않으면 살아남을 수 없다.
이렇게 일에 몰두하면서 왜 아이를 낳았느냐고 묻는 사람들이 있다. 난 커리어 성장 못지않게 행복이 중요하다. 퇴근 후 남편과 김치찌개에 소주 한잔하면서 대화하는 일과 일상의 균형이 늘 기쁘고 행복했다. 당장의 성공을 위해 아이를 선택하지 않는다면 나중에 공허하고 후회할 거 같았다. 사업을 키워오면서 늘 경계하는 지점이기도 했다. 성공해서 불행해지지 말자. 돈이든, 커리어든, 명예든, 그 무엇에도 내 삶이 잡아먹히지 않았으면 좋겠다. 그렇게 다인잇을 한 번 더 성공시켜, 첫 번째 성공이 운이 아니었다는 걸 증명하고 싶다.
https://www.joongang.co.kr/article/25260802
중앙일보
"대학 왜 가" 부천 소녀의 배짱…1000억 '마뗑킴' 키워냈다
과거에 사로잡히면 오늘을 살 수 없다.
Forwarded from 전종현의 인사이트
이건 분명 준비된 자만이 알 수 있는 감이었을테다.
"부천을 떠나 큰물에서 놀 때가 됐다는 감이 왔다."
https://www.joongang.co.kr/article/25260802
"부천을 떠나 큰물에서 놀 때가 됐다는 감이 왔다."
https://www.joongang.co.kr/article/25260802
중앙일보
"대학 왜 가" 부천 소녀의 배짱…1000억 '마뗑킴' 키워냈다
과거에 사로잡히면 오늘을 살 수 없다.
Shopify의 모든 미션은 6주마다 검토됩니다. 그래서 토비, 글렌, 저는 한 방에 모여 회사의 모든 미션을 검토합니다. 따라서 회사의 어떤 미션도 최대 6주 동안 궤도에서 벗어날 수 없습니다. 변경이 필요하다면 바로 변경합니다. 대부분의 회사에서 몇 달, 몇 분기, 몇 년이 걸리는 일을 Shopify에서는 최대 6주 만에 끝낼 수 있습니다." (Source: 2023 Shopify Investor Day)
Forwarded from 여유롭고 깊게 I freebutdeep
수익률 얘기는 아니고 상반기에 느꼈던 점을 되짚어봤습니다. 글이 어렵게 쓰였던 만큼, 아직 덜 깨달은 것을 의무감에 작성한 것 같습니다. 무언가 명료하게 말할 수 있다는 건 속이 시원한 일이지만, 그러기 위해서는 정말 많은 고민과 공부가 수반되네요. 언젠가는 쉽고 심플하게 해보고 싶습니다. (딸깍)
https://freebutdeep.substack.com/p/34-2024 #투자
https://freebutdeep.substack.com/p/34-2024 #투자
freebutdeep's thoughts (프벗디)
#34 / 2024년 상반기 결산
(견고하지만) 유연하게. (기민하지만) 침착하게. (힘들어도) 럭키비키.