https://youtu.be/mqJ5YKlMIaM?si=ExGciQShPnWMF7oh
시즌제 운영:
약 40일 정도의 기간을 시즌으로 설정하고, 시즌마다 명확한 목표를 세워 달성하고자 함.
시즌이 끝나면 회고를 통해 성공 요인을 분석하고, 이를 바탕으로 핵심 가치를 정립해 나감.
시즌 사이에는 피트스탑(Pit-stop) 기간을 두어 문제점과 기회 요인을 파악하고 우선순위를 설정.
구성원 주도의 문제 해결:
구성원들이 함께 문제를 정의하고 해결 방안을 모색하는 것을 중시함.
스쿼드 단위로 구성원들이 자발적으로 모여 문제를 해결하고자 함.
대표가 일방적으로 문제와 해답을 제시하기보다는, 구성원들의 의견을 존중하고 합의를 이끌어 내고자 함.
핵심 가치 기반의 의사결정:
회사의 핵심 가치를 의사결정의 기준으로 삼음.
대표의 결정이라도 핵심 가치에 부합하지 않으면 구성원들이 자유롭게 의견을 개진할 수 있음.
이를 통해 조직의 유연성과 적응력을 높이고자 함.
정보의 투명한 공유:
개인의 연봉과 보상을 제외한 모든 정보를 구성원들과 공유함.
경영진의 법인 카드 사용 내역과 회사의 재무 상황 등을 공개하여 구성원들이 정보에 기반한 의사결정을 할 수 있도록 함.
자율과 책임의 조화:
구성원들에게 문제 해결의 자율성을 부여하되, 그에 따른 책임도 함께 짐.
스스로 문제를 찾고 해결하고자 하는 구성원들의 열정과 몰입을 이끌어 내고자 함.
시즌제 운영:
약 40일 정도의 기간을 시즌으로 설정하고, 시즌마다 명확한 목표를 세워 달성하고자 함.
시즌이 끝나면 회고를 통해 성공 요인을 분석하고, 이를 바탕으로 핵심 가치를 정립해 나감.
시즌 사이에는 피트스탑(Pit-stop) 기간을 두어 문제점과 기회 요인을 파악하고 우선순위를 설정.
구성원 주도의 문제 해결:
구성원들이 함께 문제를 정의하고 해결 방안을 모색하는 것을 중시함.
스쿼드 단위로 구성원들이 자발적으로 모여 문제를 해결하고자 함.
대표가 일방적으로 문제와 해답을 제시하기보다는, 구성원들의 의견을 존중하고 합의를 이끌어 내고자 함.
핵심 가치 기반의 의사결정:
회사의 핵심 가치를 의사결정의 기준으로 삼음.
대표의 결정이라도 핵심 가치에 부합하지 않으면 구성원들이 자유롭게 의견을 개진할 수 있음.
이를 통해 조직의 유연성과 적응력을 높이고자 함.
정보의 투명한 공유:
개인의 연봉과 보상을 제외한 모든 정보를 구성원들과 공유함.
경영진의 법인 카드 사용 내역과 회사의 재무 상황 등을 공개하여 구성원들이 정보에 기반한 의사결정을 할 수 있도록 함.
자율과 책임의 조화:
구성원들에게 문제 해결의 자율성을 부여하되, 그에 따른 책임도 함께 짐.
스스로 문제를 찾고 해결하고자 하는 구성원들의 열정과 몰입을 이끌어 내고자 함.
YouTube
탑티어 기업에서 배운 귀납적 성공 방정식 | 모요 안동건
이번 영상은 국내 대표 스타트업인 리멤버 서비스를 운영하는 드라마앤컴퍼니와 토스를 운영하는 비바리퍼블리카를 거쳐 알뜰폰 중개 플랫폼 모요를 창업한 안동건 대표의 이야기입니다.
안동건 대표님은 여러 스타트업을 거치면서 어떻게 작은 팀이 고속 성장을 만들어내는지,
훌륭한 개인보다 뛰어난 팀으로 일하는 방법은 무엇인지, 좋은 서비스를 만들어내는 조직문화는 무엇인지에 대한 답을 찾아나갔는데요.
이후 모요라는 스타트업을 창업하여 급격하게 증가하는 알뜰폰 수요에…
안동건 대표님은 여러 스타트업을 거치면서 어떻게 작은 팀이 고속 성장을 만들어내는지,
훌륭한 개인보다 뛰어난 팀으로 일하는 방법은 무엇인지, 좋은 서비스를 만들어내는 조직문화는 무엇인지에 대한 답을 찾아나갔는데요.
이후 모요라는 스타트업을 창업하여 급격하게 증가하는 알뜰폰 수요에…
We live in such strange times. Apple, a company famous for its secrecy, published a paper with staggering amount of details on their multimodal foundation model. Those who are supposed to be open are now wayyy less than Apple.
MM1 is a treasure trove of analysis. They discuss lots of architecture designs and even disclose that they train on GPT-4V-generated data. They provide exact scaling law coefficients (to 4 significant figures), MoE settings, and even optimal learning rate functions.
I have not seen this level of details from a big tech's whitepaper for a very, very long time. I'm also shocked they didn't put any effort on PR. MM1 just gets dropped, like a Mistral magnet link, on Arxiv out of nowhere.
Apple's so back! Paper: https://lnkd.in/g5hDiU2k
MM1 is a treasure trove of analysis. They discuss lots of architecture designs and even disclose that they train on GPT-4V-generated data. They provide exact scaling law coefficients (to 4 significant figures), MoE settings, and even optimal learning rate functions.
I have not seen this level of details from a big tech's whitepaper for a very, very long time. I'm also shocked they didn't put any effort on PR. MM1 just gets dropped, like a Mistral magnet link, on Arxiv out of nowhere.
Apple's so back! Paper: https://lnkd.in/g5hDiU2k
arXiv.org
MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training
In this work, we discuss building performant Multimodal Large Language Models (MLLMs). In particular, we study the importance of various architecture components and data choices. Through careful...
Continuous Learning_Startup & Investment
https://youtu.be/fjHtjT7GO1c?si=8-5qW3RPzEupVIU2
AI code asisstant -> AI Coder
Chatbot -> Assistant -> Agent.
처음엔 특정 직군의 생산성을 높이는 수준이지만 장기적으로 그 직군의 워크 플로우를 대체해가면서 여러 Agent를 다루는 1명의 생산성이 급격히 오르는 게 일반화되지 않을지.
Chatbot -> Assistant -> Agent.
처음엔 특정 직군의 생산성을 높이는 수준이지만 장기적으로 그 직군의 워크 플로우를 대체해가면서 여러 Agent를 다루는 1명의 생산성이 급격히 오르는 게 일반화되지 않을지.
전종현의 인사이트
공부를 하면 할수록 답하기 어려운 AI의 미래. 세계 최고의 투자자들 또한 마찬가지인가보다. 퓨 https://blog.eladgil.com/p/things-i-dont-know-about-ai
Frontier models keep getting more and more expensive to train, while commodity models drop in price each year as performance goes up (for example, it is probably ~5X cheaper to train GPT-3.5 equivalent now than 2 years ago)
As model scale has gotten larger, funding increasingly has been primarily coming from the cloud providers / big tech. For example, Microsoft invested $10B+ in OpenAI, while Anthropic raised $7B between Amazon and Google. NVIDIA is also a big investor in foundation model companies of many types. The venture funding for these companies in contrast is a tiny drop in the ocean in comparison
For example, Azure from Microsoft generates $25B in revenue a quarter. The ~$10B OpenAI investment by Microsoft is roughly 6 weeks of Azure revenue. AI is having a big impact on Azure revenue revently. Indeed Azure grew 6 percentage points in Q2 2024 from AI - which would put it at an annualized increase of $5-6B (or 50% of its investment in OpenAI! Per year!). Obviously revenue is not net income but this is striking nonetheless, and suggests the big clouds have an economic reason to fund more large scale models over time.
How does this impact the long term economics and market structure for LLMs? Does this mean we will see the end of new frontier LLM companies soon due to a lack of enough capital and talent for new entrants? Or do they keep funding large models hoping some will convert on their clouds to revenue?
Do governments back (or direct their purchasing to) regional AI champions? Will national governments differentially spend on local models a la Boeing vs Airbus in aerospace? Do governments want to support models that reflect their local values, languages, etc? Besides cloud providers and global big tech (think also e.g. Alibaba, Rakuten etc) the other big sources of potential capital are countries. There are now great model companies in Europe (e.g. Mistral), Japan, India, UAE, China and other countries. If so, there may be a few multi-billion AI foundation model regional companies created just off of government revenue.
A number of these have open but less existential questions (for example how much of RLHF turns into RLAIF).
to constrained GPU / GPU arb? In the absence of GPU on the main cloud providers companies are scrambling to find sufficient GPU for their needs, accelerating adoption of new startups with their own GPU clouds. One potential strategy NVIDIA could be doing is preferentially allocating GPU to these new providers to decrease bargaining power of hyperscalers and to fragment the market, as well as to accelerate the industry via startups. When does the GPU bottleneck end and how does that impact new AI cloud providers? It seems like an end to GPU shortages on the main clouds would be negative for companies whose only business is GPU cloud, while those with more tools and services should have an easier transition if this were to happen.
What else gets consolidated into AI clouds? Do they cross sell embeddings & RAG? Continuous updates? Fine tuning? Other services? How does that impact data labelers or others with overlapping offerings? What gets consolidated directly into model providers vs via the clouds?
Which companies in the AI cloud will pursue which business model?
◦ It is important to note there are really 2 market segments in the AI cloud world (a) startups (b) mid-market and enterprise. It seems likely that “GPU only” business model default works with the startup segment(who have fewer cloud needs), but for large enterprises adoption may be more driven by GPU cloud constraints on major platforms. Do companies providing developer tooling, API endpoints, and/or specialized hardware, or other aspects morph into two other analogous models - (a) “Snowflake/Databricks for AI” model or (b) “Cloudflare for AI”? If so, which ones adopt which model?
How big do the new AI clouds become? As large as Heroku, Digital Ocean, Snowflake, or AWS? What is the size of outcome and utilization scale for this class of company?
For example, Azure from Microsoft generates $25B in revenue a quarter. The ~$10B OpenAI investment by Microsoft is roughly 6 weeks of Azure revenue. AI is having a big impact on Azure revenue revently. Indeed Azure grew 6 percentage points in Q2 2024 from AI - which would put it at an annualized increase of $5-6B (or 50% of its investment in OpenAI! Per year!). Obviously revenue is not net income but this is striking nonetheless, and suggests the big clouds have an economic reason to fund more large scale models over time.
How does this impact the long term economics and market structure for LLMs? Does this mean we will see the end of new frontier LLM companies soon due to a lack of enough capital and talent for new entrants? Or do they keep funding large models hoping some will convert on their clouds to revenue?
Do governments back (or direct their purchasing to) regional AI champions? Will national governments differentially spend on local models a la Boeing vs Airbus in aerospace? Do governments want to support models that reflect their local values, languages, etc? Besides cloud providers and global big tech (think also e.g. Alibaba, Rakuten etc) the other big sources of potential capital are countries. There are now great model companies in Europe (e.g. Mistral), Japan, India, UAE, China and other countries. If so, there may be a few multi-billion AI foundation model regional companies created just off of government revenue.
A number of these have open but less existential questions (for example how much of RLHF turns into RLAIF).
to constrained GPU / GPU arb? In the absence of GPU on the main cloud providers companies are scrambling to find sufficient GPU for their needs, accelerating adoption of new startups with their own GPU clouds. One potential strategy NVIDIA could be doing is preferentially allocating GPU to these new providers to decrease bargaining power of hyperscalers and to fragment the market, as well as to accelerate the industry via startups. When does the GPU bottleneck end and how does that impact new AI cloud providers? It seems like an end to GPU shortages on the main clouds would be negative for companies whose only business is GPU cloud, while those with more tools and services should have an easier transition if this were to happen.
What else gets consolidated into AI clouds? Do they cross sell embeddings & RAG? Continuous updates? Fine tuning? Other services? How does that impact data labelers or others with overlapping offerings? What gets consolidated directly into model providers vs via the clouds?
Which companies in the AI cloud will pursue which business model?
◦ It is important to note there are really 2 market segments in the AI cloud world (a) startups (b) mid-market and enterprise. It seems likely that “GPU only” business model default works with the startup segment(who have fewer cloud needs), but for large enterprises adoption may be more driven by GPU cloud constraints on major platforms. Do companies providing developer tooling, API endpoints, and/or specialized hardware, or other aspects morph into two other analogous models - (a) “Snowflake/Databricks for AI” model or (b) “Cloudflare for AI”? If so, which ones adopt which model?
How big do the new AI clouds become? As large as Heroku, Digital Ocean, Snowflake, or AWS? What is the size of outcome and utilization scale for this class of company?
<대단한 사람을 대단하게 보지 않기>
예전에 부부/가족 상담을 장기간 훈련받은 적이 있다. 첫날 수업에 교수님이 좀 늦게 오셨다. 오셔서 왜 늦었는지 얘기를 했는데 남편이 양말 찾아달라고 해서 싸웠다고 했다. 사실 충격이었다. 부부 상담을 배우러 온 자리인데 강사가 첫날 부부 싸움했다고 이실직고를 한 셈이니까.
근데 교수님이 이렇게 해설을 했다. "여러분이 저를 이상적이고 대단한 어떤 사람으로 보는 거는 배움에 도움이 안돼요."
맞는 이야기라고 생각했다. 그리고 이게 내 학습의 핵심을 관통하고 있다고 생각이 들었다. 대학시절부터 알고 있는 후배 하나가 얼마전에 그러더라. "그 어떤 대단한 사람도 창준이 형이 옆에 오면 그 사람이 빛을 잃는 거 같아요." 나는 대단한 사람을 대단하게 보지 않으려고, 그러면서 그로부터 배우려고 노력해 왔던 거 같다. 그게 내 기본적인 학습 태도였다.
마찬가지로 내가 교육을 할 때에도 나는 나를 오히려 할인해서 보여주기도 한다. 잘 몰라요. 안 읽어 봤어요. 저는 유학 안갔어요. 학부 졸업이에요, 자격증 없어요 등등.
근데 반대로 자신을 있는 대로 한참 올려놓는 사람들이 있다. 그 사람 주변을 보면 제대로 못배운 사람들 투성이다. 본인이 그렇게 만들어 놓은 거다.
예전에 부부/가족 상담을 장기간 훈련받은 적이 있다. 첫날 수업에 교수님이 좀 늦게 오셨다. 오셔서 왜 늦었는지 얘기를 했는데 남편이 양말 찾아달라고 해서 싸웠다고 했다. 사실 충격이었다. 부부 상담을 배우러 온 자리인데 강사가 첫날 부부 싸움했다고 이실직고를 한 셈이니까.
근데 교수님이 이렇게 해설을 했다. "여러분이 저를 이상적이고 대단한 어떤 사람으로 보는 거는 배움에 도움이 안돼요."
맞는 이야기라고 생각했다. 그리고 이게 내 학습의 핵심을 관통하고 있다고 생각이 들었다. 대학시절부터 알고 있는 후배 하나가 얼마전에 그러더라. "그 어떤 대단한 사람도 창준이 형이 옆에 오면 그 사람이 빛을 잃는 거 같아요." 나는 대단한 사람을 대단하게 보지 않으려고, 그러면서 그로부터 배우려고 노력해 왔던 거 같다. 그게 내 기본적인 학습 태도였다.
마찬가지로 내가 교육을 할 때에도 나는 나를 오히려 할인해서 보여주기도 한다. 잘 몰라요. 안 읽어 봤어요. 저는 유학 안갔어요. 학부 졸업이에요, 자격증 없어요 등등.
근데 반대로 자신을 있는 대로 한참 올려놓는 사람들이 있다. 그 사람 주변을 보면 제대로 못배운 사람들 투성이다. 본인이 그렇게 만들어 놓은 거다.
Continuous Learning_Startup & Investment
As model scale has gotten larger, funding increasingly has been primarily coming from the cloud providers / big tech. For example, Microsoft invested $10B+ in OpenAI, while Anthropic raised $7B between Amazon and Google. NVIDIA is also a big investor in foundation…
프론티어 모델은 트레이닝 비용이 점점 더 비싸지는 반면, 커머셜 모델은 성능이 향상됨에 따라 매년 가격이 하락합니다(예: 2년 전보다 현재 GPT-3.5 동급을 트레이닝하는 데 약 5배 저렴함).
모델 규모가 커짐에 따라 자금은 주로 클라우드 제공업체/대형 기술 업체에서 점점 더 많이 조달되고 있습니다. 예를 들어, Microsoft는 OpenAI에 100억 달러 이상을 투자했고, Anthropic은 Amazon과 Google 사이에서 70억 달러를 모금했습니다. NVIDIA는 또한 다양한 유형의 재단 모델 회사에 큰 투자를 하고 있습니다. 이에 비해 이러한 기업에 대한 벤처 자금은 매우 미미한 수준입니다.
예를 들어 Microsoft의 Azure는 분기당 250억 달러의 수익을 창출합니다. Microsoft가 OpenAI에 투자한 약 100억 달러는 Azure 매출의 약 6주에 해당하는 금액입니다. AI는 Azure 수익에 지속적으로 큰 영향을 미치고 있습니다. 실제로 Azure는 2024년 2분기에 AI로 인해 6% 포인트 성장했으며, 이는 연간 50~60억 달러(또는 연간 OpenAI 투자의 50%!)의 증가율에 해당합니다. 물론 수익이 순이익은 아니지만, 그럼에도 불구하고 이는 놀라운 수치이며 대형 클라우드가 시간이 지남에 따라 더 큰 규모의 모델에 투자할 경제적 이유가 있음을 시사합니다.
이것이 장기적으로 LLM의 경제성과 시장 구조에 어떤 영향을 미칠까요? 이는 신규 진입자를 위한 충분한 자본과 인재 부족으로 인해 곧 새로운 프런티어 LLM 기업의 종말을 보게 될 것임을 의미할까요? 아니면 일부가 클라우드에서 수익으로 전환되기를 바라며 대형 모델에 계속 자금을 지원할까요?
정부는 지역 AI 챔피언을 지원(또는 직접 구매)할까요? 각국 정부는 항공우주 분야의 보잉과 에어버스처럼 지역 모델에 차등적으로 지출할 것인가? 정부는 현지의 가치, 언어 등을 반영하는 모델을 지원하길 원하나요? 클라우드 제공업체와 글로벌 대기업(예: 알리바바, 라쿠텐 등) 외에 잠재적 자본의 또 다른 큰 원천은 국가입니다. 현재 유럽(예: 미스트랄), 일본, 인도, UAE, 중국 및 기타 국가에 훌륭한 모델 기업이 있습니다. 그렇다면 정부 수입만으로 수십억 달러 규모의 AI 기반 모델 지역 기업이 몇 개 탄생할 수도 있습니다.
이들 중 상당수는 실존적인 질문(예: RLHF가 얼마나 RLAIF로 전환되는지 등)을 가지고 있습니다.
제한된 GPU/GPU arb로 전환할 수 있을까요? 주요 클라우드 제공업체에 GPU가 없는 상황에서 기업들은 필요에 맞는 충분한 GPU를 찾기 위해 노력하고 있으며, 자체 GPU 클라우드를 갖춘 새로운 스타트업의 채택을 가속화하고 있습니다. NVIDIA가 취할 수 있는 한 가지 잠재적인 전략은 이러한 신규 공급업체에 GPU를 우선적으로 할당하여 하이퍼스케일러의 협상력을 낮추고 시장을 세분화하는 동시에 스타트업을 통해 업계를 가속화하는 것입니다. GPU 병목 현상은 언제 끝나며, 이는 새로운 AI 클라우드 제공업체에 어떤 영향을 미치나요? 메인 클라우드에서 GPU 부족 현상이 종료되면 GPU 클라우드가 유일한 사업인 기업에게는 부정적일 수 있지만, 더 많은 도구와 서비스를 보유한 기업에게는 전환이 더 쉬울 것으로 보입니다.
AI 클라우드로 통합되는 또 다른 항목은 무엇인가요? 임베딩과 RAG를 교차 판매하나요? 지속적인 업데이트? 미세 조정? 다른 서비스? 데이터 라벨러나 중복되는 서비스를 제공하는 다른 업체에는 어떤 영향이 있나요? 모델 제공업체에 직접 통합되는 것과 클라우드를 통해 통합되는 것은 무엇인가요?
AI 클라우드에서 어떤 기업이 어떤 비즈니스 모델을 추구할 것인가?
AI 클라우드 세계에는 (a) 스타트업 (b) 미드마켓 및 엔터프라이즈 두 가지 시장 세그먼트가 존재한다는 점에 주목할 필요가 있습니다. 클라우드에 대한 요구가 적은 스타트업 부문에서는 "GPU 전용" 비즈니스 모델이 기본으로 적용될 가능성이 높지만, 대기업의 경우 주요 플랫폼의 GPU 클라우드 제약으로 인해 도입이 더 많이 이루어질 수 있습니다. 개발자 도구, API 엔드포인트 및/또는 특수 하드웨어 등을 제공하는 회사는 (a) "Snowflake/Databricks for AI" 모델 또는 (b) "Cloudflare for AI"라는 두 가지 유사한 모델로 변모하나요? 그렇다면 어떤 모델이 어떤 모델을 채택하나요?
새로운 AI 클라우드는 얼마나 큰 규모인가요? Heroku, Digital Ocean, Snowflake 또는 AWS만큼 큰 규모인가요? 이 등급의 회사의 성과 및 활용 규모는 어느 정도인가요?
모델 규모가 커짐에 따라 자금은 주로 클라우드 제공업체/대형 기술 업체에서 점점 더 많이 조달되고 있습니다. 예를 들어, Microsoft는 OpenAI에 100억 달러 이상을 투자했고, Anthropic은 Amazon과 Google 사이에서 70억 달러를 모금했습니다. NVIDIA는 또한 다양한 유형의 재단 모델 회사에 큰 투자를 하고 있습니다. 이에 비해 이러한 기업에 대한 벤처 자금은 매우 미미한 수준입니다.
예를 들어 Microsoft의 Azure는 분기당 250억 달러의 수익을 창출합니다. Microsoft가 OpenAI에 투자한 약 100억 달러는 Azure 매출의 약 6주에 해당하는 금액입니다. AI는 Azure 수익에 지속적으로 큰 영향을 미치고 있습니다. 실제로 Azure는 2024년 2분기에 AI로 인해 6% 포인트 성장했으며, 이는 연간 50~60억 달러(또는 연간 OpenAI 투자의 50%!)의 증가율에 해당합니다. 물론 수익이 순이익은 아니지만, 그럼에도 불구하고 이는 놀라운 수치이며 대형 클라우드가 시간이 지남에 따라 더 큰 규모의 모델에 투자할 경제적 이유가 있음을 시사합니다.
이것이 장기적으로 LLM의 경제성과 시장 구조에 어떤 영향을 미칠까요? 이는 신규 진입자를 위한 충분한 자본과 인재 부족으로 인해 곧 새로운 프런티어 LLM 기업의 종말을 보게 될 것임을 의미할까요? 아니면 일부가 클라우드에서 수익으로 전환되기를 바라며 대형 모델에 계속 자금을 지원할까요?
정부는 지역 AI 챔피언을 지원(또는 직접 구매)할까요? 각국 정부는 항공우주 분야의 보잉과 에어버스처럼 지역 모델에 차등적으로 지출할 것인가? 정부는 현지의 가치, 언어 등을 반영하는 모델을 지원하길 원하나요? 클라우드 제공업체와 글로벌 대기업(예: 알리바바, 라쿠텐 등) 외에 잠재적 자본의 또 다른 큰 원천은 국가입니다. 현재 유럽(예: 미스트랄), 일본, 인도, UAE, 중국 및 기타 국가에 훌륭한 모델 기업이 있습니다. 그렇다면 정부 수입만으로 수십억 달러 규모의 AI 기반 모델 지역 기업이 몇 개 탄생할 수도 있습니다.
이들 중 상당수는 실존적인 질문(예: RLHF가 얼마나 RLAIF로 전환되는지 등)을 가지고 있습니다.
제한된 GPU/GPU arb로 전환할 수 있을까요? 주요 클라우드 제공업체에 GPU가 없는 상황에서 기업들은 필요에 맞는 충분한 GPU를 찾기 위해 노력하고 있으며, 자체 GPU 클라우드를 갖춘 새로운 스타트업의 채택을 가속화하고 있습니다. NVIDIA가 취할 수 있는 한 가지 잠재적인 전략은 이러한 신규 공급업체에 GPU를 우선적으로 할당하여 하이퍼스케일러의 협상력을 낮추고 시장을 세분화하는 동시에 스타트업을 통해 업계를 가속화하는 것입니다. GPU 병목 현상은 언제 끝나며, 이는 새로운 AI 클라우드 제공업체에 어떤 영향을 미치나요? 메인 클라우드에서 GPU 부족 현상이 종료되면 GPU 클라우드가 유일한 사업인 기업에게는 부정적일 수 있지만, 더 많은 도구와 서비스를 보유한 기업에게는 전환이 더 쉬울 것으로 보입니다.
AI 클라우드로 통합되는 또 다른 항목은 무엇인가요? 임베딩과 RAG를 교차 판매하나요? 지속적인 업데이트? 미세 조정? 다른 서비스? 데이터 라벨러나 중복되는 서비스를 제공하는 다른 업체에는 어떤 영향이 있나요? 모델 제공업체에 직접 통합되는 것과 클라우드를 통해 통합되는 것은 무엇인가요?
AI 클라우드에서 어떤 기업이 어떤 비즈니스 모델을 추구할 것인가?
AI 클라우드 세계에는 (a) 스타트업 (b) 미드마켓 및 엔터프라이즈 두 가지 시장 세그먼트가 존재한다는 점에 주목할 필요가 있습니다. 클라우드에 대한 요구가 적은 스타트업 부문에서는 "GPU 전용" 비즈니스 모델이 기본으로 적용될 가능성이 높지만, 대기업의 경우 주요 플랫폼의 GPU 클라우드 제약으로 인해 도입이 더 많이 이루어질 수 있습니다. 개발자 도구, API 엔드포인트 및/또는 특수 하드웨어 등을 제공하는 회사는 (a) "Snowflake/Databricks for AI" 모델 또는 (b) "Cloudflare for AI"라는 두 가지 유사한 모델로 변모하나요? 그렇다면 어떤 모델이 어떤 모델을 채택하나요?
새로운 AI 클라우드는 얼마나 큰 규모인가요? Heroku, Digital Ocean, Snowflake 또는 AWS만큼 큰 규모인가요? 이 등급의 회사의 성과 및 활용 규모는 어느 정도인가요?
# automating software engineering
In my mind, automating software engineering will look similar to automating driving. E.g. in self-driving the progression of increasing autonomy and higher abstraction looks something like:
1. first the human performs all driving actions manually
2. then the AI helps keep the lane
3. then it slows for the car ahead
4. then it also does lane changes and takes forks
5. then it also stops at signs/lights and takes turns
6. eventually you take a feature complete solution and grind on the quality until you achieve full self-driving.
There is a progression of the AI doing more and the human doing less, but still providing oversight. In Software engineering, the progression is shaping up similar:
1. first the human writes the code manually
2. then GitHub Copilot autocompletes a few lines
3. then ChatGPT writes chunks of code
4. then you move to larger and larger code diffs (e.g. Cursor copilot++ style, nice demo here https://youtube.com/watch?v=Smklr44N8QU)
5....
Devin is an impressive demo of what perhaps follows next: coordinating a number of tools that a developer needs to string together to write code: a Terminal, a Browser, a Code editor, etc., and human oversight that moves to increasingly higher level of abstraction.
There is a lot of work not just on the AI part but also the UI/UX part. How does a human provide oversight? What are they looking at? How do they nudge the AI down a different path? How do they debug what went wrong? It is very likely that we will have to change up the code editor, substantially.
In any case, software engineering is on track to change substantially. And it will look a lot more like supervising the automation, while pitching in high-level commands, ideas or progression strategies, in English.
Good luck to the team!
In my mind, automating software engineering will look similar to automating driving. E.g. in self-driving the progression of increasing autonomy and higher abstraction looks something like:
1. first the human performs all driving actions manually
2. then the AI helps keep the lane
3. then it slows for the car ahead
4. then it also does lane changes and takes forks
5. then it also stops at signs/lights and takes turns
6. eventually you take a feature complete solution and grind on the quality until you achieve full self-driving.
There is a progression of the AI doing more and the human doing less, but still providing oversight. In Software engineering, the progression is shaping up similar:
1. first the human writes the code manually
2. then GitHub Copilot autocompletes a few lines
3. then ChatGPT writes chunks of code
4. then you move to larger and larger code diffs (e.g. Cursor copilot++ style, nice demo here https://youtube.com/watch?v=Smklr44N8QU)
5....
Devin is an impressive demo of what perhaps follows next: coordinating a number of tools that a developer needs to string together to write code: a Terminal, a Browser, a Code editor, etc., and human oversight that moves to increasingly higher level of abstraction.
There is a lot of work not just on the AI part but also the UI/UX part. How does a human provide oversight? What are they looking at? How do they nudge the AI down a different path? How do they debug what went wrong? It is very likely that we will have to change up the code editor, substantially.
In any case, software engineering is on track to change substantially. And it will look a lot more like supervising the automation, while pitching in high-level commands, ideas or progression strategies, in English.
Good luck to the team!
YouTube
Is Cursor's Copilot++ BETTER than Github Copilot? FAST AI Coding Master Class
The way we code is changing and evolving, and that means we NEED TO ADAPT.
The days of manually writing out every line of code is far over. If you're still typing every line - this is a wake up call for you. I don't want you to get left behind in the wave…
The days of manually writing out every line of code is far over. If you're still typing every line - this is a wake up call for you. I don't want you to get left behind in the wave…
Forwarded from 전종현의 인사이트
최근에 SWE-bench에서 우수한 결과를 도출했다고 발표하고 & Founders Fund 등으로부터 $21m 투자를 유치해서 화제가 된 Devin 개발사 Cognition. 내가 개발자도 아니고 직접 서비스를 써본 것도 아니라서 정확한 평가를 내리기는 어려우나, 소프트웨어 개발이 AI로 대체되어가는건 분명하다는걸 다시 한번 일깨워준 프로덕트임에는 틀림 없다.
안드레 카파시는 Devin 데모를 보면서 자율주행의 발전과 비슷하다고 느꼈다고 한다. 두 영역의 발전으로부터 다른 영역 또한 어떻게 발전할지 큰 힌트를 얻을 수 있는듯.
https://www.cognition-labs.com/introducing-devin
https://twitter.com/karpathy/status/1767598414945292695?s=20&utm_source=substack&utm_medium=email
안드레 카파시는 Devin 데모를 보면서 자율주행의 발전과 비슷하다고 느꼈다고 한다. 두 영역의 발전으로부터 다른 영역 또한 어떻게 발전할지 큰 힌트를 얻을 수 있는듯.
https://www.cognition-labs.com/introducing-devin
https://twitter.com/karpathy/status/1767598414945292695?s=20&utm_source=substack&utm_medium=email
X (formerly Twitter)
Andrej Karpathy (@karpathy) on X
# automating software engineering
In my mind, automating software engineering will look similar to automating driving. E.g. in self-driving the progression of increasing autonomy and higher abstraction looks something like:
1. first the human performs all…
In my mind, automating software engineering will look similar to automating driving. E.g. in self-driving the progression of increasing autonomy and higher abstraction looks something like:
1. first the human performs all…
Continuous Learning_Startup & Investment
프론티어 모델은 트레이닝 비용이 점점 더 비싸지는 반면, 커머셜 모델은 성능이 향상됨에 따라 매년 가격이 하락합니다(예: 2년 전보다 현재 GPT-3.5 동급을 트레이닝하는 데 약 5배 저렴함). 모델 규모가 커짐에 따라 자금은 주로 클라우드 제공업체/대형 기술 업체에서 점점 더 많이 조달되고 있습니다. 예를 들어, Microsoft는 OpenAI에 100억 달러 이상을 투자했고, Anthropic은 Amazon과 Google 사이에서 70억 달러를 모금했습니다.…
NAVER
AI 에 대해 모르는 것들 (ft. Elad Gil)
대부분의 시장에서는 시간이 지날수록 더 명확해집니다. 하지만 생성 AI("AI")에서는 그 반...