Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
◦ 기술을 잘 다뤄야 하고, 그러기 위해서는 자신만의 프로젝트를 진행해야함
◦ 학교 공부도 최대한 잘해야 좋은 대학에 진학할 수 있는데, 그곳에 공동 창업자들과 아이디어가 있기 때문
• 뭔가를 만들고, 학교 공부를 잘하는 것, 이 두 가지가 전부임

• 테크놀로지를 이용해 미싱 링크를 찾아내고 자신의 프로젝트로 해결하는 것이 스타트업을 소유하는 좋은 방법이라는 PG의 의견에 동의하지만, 그의 예시들이 생존자 편향을 연상시킨다는 의견이 있음.
◦ 수많은 스타트업들이 실패하는 반면, 소수의 대기업만이 성공함.
◦ 모든 회사가 구글이 될 수는 없으며, 문제를 해결하려는 시도와 재미를 찾는 것은 중요하지만, 구글과 같은 결과를 기대하는 것은 지나칠 수 있음.
• 45세이며 학문적 배경이 뛰어나지 않은 사람도 스타트업에 참여할 기회가 있는지, 아니면 다음 생애를 기대해야 하는지에 대한 의문이 제기됨.
• 40세에 대한 병행 조언이 무엇인지 궁금해하는 의견이 있음.
◦ 프로그래밍과 손질은 여전히 적용되지만, 대학은 다시 할 수 없음.
◦ 공부는 가능하지만 젊은이들과의 연결이 부족할 것이며, 소득 손실을 감당할 수 있는지 여부가 문제됨.
◦ 많은 스타트업이 나이든 사람들에 의해 시작되며, 나이든 사람들이 직면하는 문제를 해결하는 것이 장점일 수 있음.
◦ 나이가 많은 사람들은 유니콘 기업을 만드는 것에 대해 크게 신경 쓰지 않으며, 이는 창업자보다는 투자자에게 더 적합한 목표로 보임.
• PG는 조언에서 일관성을 유지하며, '무엇이 부족한지'를 감지하고 해결책을 시도하는 능력과 자원에 대해 많이 언급함.
◦ '구글'이라는 예시는 동기 부여를 위한 것으로, 구글이 석사 학생들에 의해 창립되었다는 사실을 생략함.
◦ PG가 현재 과학적 발견 기반의 스타트업 아이디어를 찾기 위해 대학원에 가라고 조언할지 의문임.
• 구글 창립에 대한 단계적인 설명이 있음.
◦ 스탠포드 대학에 들어가 VC 사업을 시작할 때.
◦ 스탠포드의 대역폭을 사용하여 웹 크롤러를 만들 때.
◦ 알타비스타가 어떻게 하는지 관찰하고, 선 마이크로시스템즈 창립자로부터 자금을 받을 때.
◦ 팔로 알토의 자전거 가게 위 공간으로 이사할 때.
◦ 아마존 창립자로부터 추가 자금을 받을 때.
◦ 검색 광고를 판매하고 이익을 얻을 때.
• 이 글이 '정말 부자가 되기'를 주요 동기 중 하나로 언급하는 것이 흥미롭다는 의견이 있음.
◦ 특히 고등학생들에게 이것이 좋은 조언인지, 사회가 세상을 더 나은 곳으로 만드는 회사를 시작하도록 학생들을 동기 부여하는 것이 더 나은지 의문임.
• 구글을 시작하는 방법에 대해, 99.999999%의 사람들에게는 불가능하며, 나머지 0.000001%는 폴 그레이엄의 에세이를 읽는 데 시간을 낭비하지 않을 것
• 단순히 재미있는 프로젝트를 만들면 '구글'과 같은 것을 창조할 수 있다는 생각에 의문을 제기하는 의견이 있음.
◦ 스타트업 101은 많은 사람들이 겪는 고통스러운 문제를 해결해야 한다고 가르치므로, 이 조언이 모순되지 않는지 의문임.
• YC의 각 배치에서 이러한 윤리와 재미있고 스타트업으로 의도되지 않은 프로젝트가 어떻게 실행되는지 궁금해하는 의견이 있음.
◦ YC의 최근 배치에서 성장하는 판매 SaaS 회사들은 재미있는 프로젝트보다는 기업을 위한 비즈니스 기회로 보임.
◦ 이 에세이의 원칙과 최근 YC 회사들 사이에 불일치가 있는지, 더 나은 분석이 필요함.
• "스타트업 아이디어에 필요한 것은 친구들이 실제로 원하는 것이며, 이것이 전부"
• 스타트업을 시작한 사람들과 기술 회사에서 일한 사람들 중 어느 그룹의 백분위수가 부자가 되었는지에 대한 연구가 있는지 궁금함

https://news.hada.io/topic?id=13903
The rapid advances of large language models (LLMs), such as ChatGPT, are revolutionizing data science and statistics. These state-of-the-art tools can streamline complex processes. As a result, it reshapes the role of data scientists. We argue that LLMs are transforming the responsibilities of data scientists, shifting their focus from hands-on coding, data-wrangling and conducting standard analyses to assessing and managing analyses performed by these automated AIs. This evolution of roles is reminiscent of the transition from a software engineer to a product manager. We illustrate this transition with concrete data science case studies using LLMs in this paper. These developments necessitate a meaningful evolution in data science education. Pedagogy must now place greater emphasis on cultivating diverse skillsets among students, such as LLM-informed creativity, critical thinking, AI-guided programming. LLMs can also play a significant role in the classroom as interactive teaching and learning tools, contributing to personalized education. This paper discusses the opportunities, resources and open challenges for each of these directions. As with any transformative technology, integrating LLMs into education calls for careful consideration. While LLMs can perform repetitive tasks efficiently, it's crucial to remember that their role is to supplement human intelligence and creativity, not to replace it. Therefore, the new era of data science education should balance the benefits of LLMs while fostering complementary human expertise and innovations. In conclusion, the rise of LLMs heralds a transformative period for data science and its education. This paper seeks to shed light on the emerging trends, potential opportunities, and challenges accompanying this paradigm shift, hoping to spark further discourse and investigation into this exciting, uncharted territory.

https://arxiv.org/abs/2307.02792
ChatGPT와 같은 대규모 언어 모델(LLM)의 급속한 발전은 데이터 과학과 통계에 혁신을 불러일으키고 있습니다. 이러한 최첨단 도구는 복잡한 프로세스를 간소화할 수 있습니다. 그 결과 데이터 과학자의 역할도 재편되고 있습니다. 데이터 과학자의 책임이 코딩, 데이터 랭글링, 표준 분석 수행에서 자동화된 AI가 수행하는 분석의 평가 및 관리로 전환되면서 LLM이 데이터 과학자의 역할을 변화시키고 있다고 주장합니다. 이러한 역할의 변화는 소프트웨어 엔지니어에서 제품 관리자로의 전환을 연상시킵니다. 이 백서에서는 LLM을 사용한 구체적인 데이터 과학 사례 연구를 통해 이러한 변화를 설명합니다. 이러한 발전은 데이터 과학 교육에도 의미 있는 진화를 요구합니다. 이제 교육학은 LLM에 기반한 창의성, 비판적 사고, AI 가이드 프로그래밍과 같은 다양한 스킬셋을 학생들에게 배양하는 데 더 중점을 두어야 합니다. LLM은 또한 교실에서 대화형 교육 및 학습 도구로서 중요한 역할을 수행하여 개인 맞춤형 교육에 기여할 수 있습니다. 이 백서에서는 이러한 각 방향에 대한 기회, 리소스 및 미해결 과제에 대해 논의합니다. 다른 혁신적인 기술과 마찬가지로 LLM을 교육에 통합하려면 신중한 고려가 필요합니다. LLM은 반복적인 작업을 효율적으로 수행할 수 있지만, 그 역할은 인간의 지능과 창의성을 보완하는 것이지 대체하는 것이 아니라는 점을 기억하는 것이 중요합니다. 따라서 새로운 데이터 과학 교육의 시대는 LLM의 장점과 상호보완적인 인간의 전문성과 혁신을 육성하는 데 균형을 맞춰야 합니다. 결론적으로, LLM의 등장은 데이터 과학과 그 교육의 변혁기를 예고합니다. 이 백서는 이러한 패러다임 전환에 따른 새로운 트렌드, 잠재적 기회, 도전 과제를 조명하여 이 흥미진진하고 미지의 영역에 대한 더 많은 담론과 연구를 촉발하고자 합니다.
SNS가 발전하며 취향의 알고리즘화와 함께 사람들과의 관계를 느슨하게 해주는 코로나 시대가 도래하자, 소비는 대중과의 동조화보다 서브컬쳐 내의 동조화의 흐름으로 바뀌었다. 보고 싶은 것 보는 세상.

https://blog.naver.com/emp930204/223393465471 #소비재 #ㅇㅈ
👍1
보이저엑스는 인공지능 스타트업이지만 인공지능 때문에 큰일이라고 생각한다. 회사도 큰일이고 구성원도 큰일이다.
엘지전자는 폰 잘 만드는 회사였지만 스마트폰 대응을 잘 못 했고, 삼성전자는 반도체 잘 만드는 회사였지만 인공지능 반도체 대응을 제대로 못 해서 고생중이다.
보이저엑스는 인공지능 스타트업이지만 인공지능 대응 제대로 못 하면 큰 일 날 것 같다. 모든 인공지능 스타트업도 마찬가지, 모든 소프트웨어 회사 심지어 구글과 애플도 마찬가지다.
인공지능이 아닌 다른 회사들은 더하고. 게임이나 쇼핑등은 당연하고 반도체니 자동차니 조선이니 하는 제조업도 그렇고 패션이니 영화니 음악이니... 의료니 국방이니 교육이니, 아무튼, *모든* 산업이 다 바뀔 거다.
모든 산업의 회사나 조직이 그렇다면 그게 어디 회사만 그렇겠나. 모든 직군의 직업인 직장인도 마찬가지로 엄청난 영향을 받을 거다. 엄청나다라는 말로 다 표현하기 힘들다고 본다.
그나마 그걸 알고 있는 회사나 조직이나 개인은 다행이라고 본다. 대비할 시간이라도 가질 수 있을 거기에.
인공지능 혁명은 아직 시작도 안 되었고. 산업혁명 같은 단어로는 담을 수도 없다.
FSD 1개월 무료 체험 시행과 동시에 차량 인도 시 FSD 체험 의무화(hard requirement)하라는 일론의 이메일. 변곡점이라고 생각 🤔

#TSLA #테슬라
Neuralink's patient plays chess with mind 🧠 

Neuralink, Elon Musk's venture into brain-computer interfaces (BCI), showcased a landmark achievement by enabling Noland Arbaugh, a paralyzed 29-year-old, to play chess and Civilization using only his thoughts. The live demonstration of Arbaugh's interaction with the BCI highlighted the device's capability to interpret brain signals into movements, marking a significant stride towards enhancing the quality of life for individuals with disabilities. Despite prior scrutiny, Neuralink's progress, alongside its competitors, underscores the evolving landscape of BCI technology, awaiting FDA approval to potentially transform the lives of those living with paralysis.
Idea #1: LLMs as Agents
- LLMs have the potential to be powerful agents, defined as (1) choosing a sequence of actions to take - through reasoning/planning or hard-coded chains – and (2) executing that sequence of actions
- @AndrewYNg and @hwchase17: some of the capabilities of agents are fairly well understood and robust (tool use, reflection, chaining together actions in @LangChainAI) and are already entering production applications, while other capabilities are more emergent (planning/reasoning, multiple agents, memory)
- Examples: @zapier or @glean for actions, @cognition_labs for reasoning
- @karpathy had an elegant prediction that self-contained agents spinning up & down is roughly where are headed in the manifestation of AGI into the different nooks and crannies of the economy.

Idea #2: Planning & Reasoning
- Planning & reasoning was a major emphasis at our event and a close cousin to the “agents” topic, as the most critical and actively researched sub-topic of agents.
- If you make the comparison to AlphaGo and other AI gameplay, Step 1 (pre-training/imitation learning) only takes you so far, while Step 2 (reinforcement learning, monte carlo tree search, value function iteration) is what actually made those AIs superhuman.
- A similar analogy holds for LLMs, where we have only done pre-training but haven’t added the inference-time compute to reach superhuman level performance.
- These insights are not solely lessons from gameplay, they are broad-sweeping lessons from 70 years of AI research. The two methods that scale arbitrarily and generally are search and learning (see Richard Sutton's The Bitter Lesson). Search has been under-explored for its importance.
Exciting times for AI research...

Idea #3: Practical AI Use in Production
- Smaller/cheaper/but still “pretty smart” models were a consistent theme in our event. The customer example that was most salient was @ServiceNow, which is focused on costs and holding gross margins and has been running 10x smaller models on A100s.
- In addition, we discussed speed/latency, expanding context windows/RAG, AI safety, interpretability, and the CIO as “on the rise” as the key buyer for AI that makes enterprises more efficient internally.

Idea #4: What to Expect from the Foundation Model Companies
- Bigger smarter models
- Less big, less expensive, pretty smart models
- More developer platform capabilities
- Different focus areas: @MistralAI on developer and open-source, @AnthropicAI on the enterprise

Idea #5: Implications for AI Startups!
- The model layer is changing rapidly and getting better, faster, cheaper
- Smart: focus on building applications that will get better as the models get smarter
- Not smart: don't spend time patching holes in the current models that will disappear as the models themselves improve, this is not a durable place to build a company

Assume that the foundation will get smarter and cheaper, and all the little nuances (latency, etc) smooth over... what great applications can you build?

I feel lucky for what an exceptional AI community we are part of (or an AI "coral reef" as @karpathy would say), and how information dense the exchange of ideas was.

https://x.com/sonyatweetybird/status/1772356006481420447?s=46&t=h5Byg6Wosg8MJb4pbPSDow
👍1
The integration and deployment of large language model (LLM)-based intelligent agents have been fraught with challenges that compromise their efficiency and efficacy. Among these issues are sub-optimal scheduling and resource allocation of agent requests over the LLM, the difficulties in maintaining context during interactions between agent and LLM, and the complexities inherent in integrating heterogeneous agents with different capabilities and specializations. The rapid increase of agent quantity and complexity further exacerbates these issues, often leading to bottlenecks and sub-optimal utilization of resources. Inspired by these challenges, this paper presents AIOS, an LLM agent operating system, which embeds large language model into operating systems (OS). Specifically, AIOS is designed to optimize resource allocation, facilitate context switch across agents, enable concurrent execution of agents, provide tool service for agents, and maintain access control for agents. We present the architecture of such an operating system, outline the core challenges it aims to resolve, and provide the basic design and implementation of the AIOS. Our experiments on concurrent execution of multiple agents demonstrate the reliability and efficiency of our AIOS modules. Through this, we aim to not only improve the performance and efficiency of LLM agents but also to pioneer for better development and deployment of the AIOS ecosystem in the future. The project is open-source at this https URL.
옳고 그름보다 중요한 것은 마음의 따뜻함입니다. 모든 사람은 각자의 전투를 치르며 사는데, 이를 알고서 서로에게 친절해야 합니다. 옳고 그른 것보다 마음이 따뜻한 사람이 되는 것이 훨씬 중요합니다. 자비로운 마음으로 자기 자신과 타인을 대할 줄 아는 사람이 될 때, 진정한 자기 존중과 타인 존중이 이루어집니다.
4
That is one of works i would like to do someday.