Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
번지에서는 AI 가 미팅을 받아쓰고 요약을 하고 있습니다. 계산해 봤더니 한건당 300원 정도더라고요. 좋은 요약을 만들기까지와 과정과 시행착오를 공유하려 합니다.

“STT(받아쓰기) 퀄리티가 너무 좋지 않아요. 개선할 수 없을까요?"

제가 번지와 함께 하고 처음 받은 요청입니다. 이때 까지는 사람이 미팅을 요약하고 공유하고 있었는데 받아쓰기 퀄리티가 좋지 않으니 미팅 영상을 다시 돌려가면서 봐야하니 엄청난 리소스가 소비되고 있었죠. 그래서 받아쓰기가 잘 되면 영상을 보지 않고 텍스트만 읽어서 요약하면 되니 훨씬 시간이 줄어들 것이라는 생각이었죠.

왜 영상을 봐야하고 받아쓰기를 해야 하냐고요?
번지는 인재가 필요한 고객사에게 문제를 해결할 수 있는 인재를 매칭하는 플랫폼입니다. 그렇기에 인재를 요청한 고객사와 꼭 30분 이상의 미팅을 하고 문제를 정의하는데요. 이 과정에서 고객사에서 말한 문제와 실제 문제가 다른 경우가 많죠. 그렇기에 고객사와 깊이있는 대화를 주고 받으며 문제를 다시 정의해야 하고 이 정보를 기반으로 인재 매칭을 준비하게 됩니다. 그래서 당연하게도 이 미팅 데이터가 저희에게는 너무너무 중요한 정보인거죠.


< 문제 해결하러 가기 >

Step 1. 받아쓰기 잘하게 만들기

처음 받아쓰기 문제를 받았을때는 다양한 STT 모델을 찾아보기 시작했어요. 제가 Data Scientist 로도 오랫동안 일했기에 좋은 STT 모델을 찾아서 적용하면 충분히 개선할 수 있을 것 같았거든요. 그래서 허깅페이스, 구글등 여러 곳을 돌아다니면서 모델을 찾아봤고 OpenAI 의 Whisper 모델이 가장 뛰어나다고 판단할 수 있게 되었습니다. 그리고 Whisper 모델은 공개되어 있어서 무료기도 하고요. 특히 Whisper 는 세가지 모델이 있는데 가장 큰 large-v2 모델을 쓰면 한국어도 아주 잘 받아쓸 수 있다고 하더라고요. 그래서 이래저래 테스트를 해 보았고 이 모델을 쓰기로 결정했습니다. Medium, small 모델의 수준은 기대에 미치지 못하더라고요.


Step 2. 모델 구축하기

이제 모델이 정해졌으니 서버를 구축해서 모델을 서비스 할 준비를 하면 됩니다. API 서버를 만들고 모델과 연동해서 미팅영상파일을 받아서 처리후에 Whisper 모델이 받아쓰기 한 텍스트를 응답해주면 됩니다. 장비를 산정해 봈고 꽤 비싼 장비를 준비해야 하더라고요. 비용이 꽤 크게 필요할 것 같았습니다. 이때부터 고민이 시작되었습니다. 
지금은 하루에 10~20개의 미팅을 처리할텐데… 이렇게 구축하고 비용을 쓰는 게 맞나?
내가 지금 해결하려는 문제에 가장 적절한 방법은 찾은 것이 맞나?
제가 해왔던 일들을 의심하기 시작했습니다.


Reset. 다시 처음부터 시작하기

“STT(받아쓰기) 퀄리티가 너무 좋지 않아요. 개선할 수 없을까요?
제가 받은 요청은 분명 이것이었습니다. 이 문제에 대한 해결이라면 저는 적절한 방식으로 접근하고 있었습니다.

하지만, 저는 문제를 더 깊이 살펴보지 못했습니다.
팀이 필요한 것은 단순히 “STT 고도화” 가 아니었습니다.
팀이 필요한 것은 모든 미팅을 “접근 하기 쉬운 형태로 변환(STT)” 하고 “잘 정리(요약)” 하는 것이었습니다.
그래야 그 정보를 번지팀의 본업인 "고객사의 요구사항을 이해하고 적절한 인재를 매칭하는 일"에 활용할 수 있기 때문입니다.


이 때부터 저는 STT모델이 아니라 번지가 고객사를 만나고 인재를 추천하는 모든 순간을 AI를 이용해서 더 효율화 할 수 없을까 고민하기 시작했습니다.
그래서 좋은 받아쓰기와 요약을 만들기 위해 아래 과정들을 진행하게 됩니다.
1. ChatGPT API (STT, Chat Completion) 를 적극 사용한다
2. API 를 잘 쓰기 위해서 우리의 데이터를 거기에 맞춘다 
3. 요약 자동화 하기 위해 미팅 솔루션을 콜라보에서 줌으로 바꾼다
4. 팀원들의 피드백을 들으면서 ChatGPT 프롬프트를 바꾸고 여러 버전을 테스트 한다.
5. 슬랙을 이용해서 쉽게 접근할 수 있도록 만든다.
6. 쌓인 데이터로 더 큰 가능성을 발견한다.

글이 길어져서 이번에는 저희 생각의 과정들을 적어 보았습니다.
다음 글에는 위의 자세한 과정과 시도했던 방법들을 더 적어보려 합니다.

ChatGPT 를 처음 써보면 뭐든지 다 해줄 것 같습니다.
내 업무에도 적용하면 모든 게 다 자동화 될 것 같은 기분이 들죠.
하지만 막상 그렇게 했을 때 뭔가 부족하고 아쉬울 때가 많습니다. 그리고는 아직 AI는 멀었네... 하고 생각하죠.

가장 중요한 것은 문제를 제대로 이해하고 AI 를 어떻게 쓸지 판단하는 것이라고 생각합니다.
PO로 전향하면서 많이 했던 고민들인데 요즘 AI를 활용하면서 더 많이 고민하고 있습니다.
AI 를 어떻게 쓸지 고민을 하는 분들이 있다면 함께 얘기 나누면 좋을 것 같습니다.
👍1
https://youtu.be/mqJ5YKlMIaM?si=ExGciQShPnWMF7oh

시즌제 운영:
약 40일 정도의 기간을 시즌으로 설정하고, 시즌마다 명확한 목표를 세워 달성하고자 함.
시즌이 끝나면 회고를 통해 성공 요인을 분석하고, 이를 바탕으로 핵심 가치를 정립해 나감.
시즌 사이에는 피트스탑(Pit-stop) 기간을 두어 문제점과 기회 요인을 파악하고 우선순위를 설정.
구성원 주도의 문제 해결:
구성원들이 함께 문제를 정의하고 해결 방안을 모색하는 것을 중시함.
스쿼드 단위로 구성원들이 자발적으로 모여 문제를 해결하고자 함.
대표가 일방적으로 문제와 해답을 제시하기보다는, 구성원들의 의견을 존중하고 합의를 이끌어 내고자 함.
핵심 가치 기반의 의사결정:
회사의 핵심 가치를 의사결정의 기준으로 삼음.
대표의 결정이라도 핵심 가치에 부합하지 않으면 구성원들이 자유롭게 의견을 개진할 수 있음.
이를 통해 조직의 유연성과 적응력을 높이고자 함.
정보의 투명한 공유:
개인의 연봉과 보상을 제외한 모든 정보를 구성원들과 공유함.
경영진의 법인 카드 사용 내역과 회사의 재무 상황 등을 공개하여 구성원들이 정보에 기반한 의사결정을 할 수 있도록 함.
자율과 책임의 조화:
구성원들에게 문제 해결의 자율성을 부여하되, 그에 따른 책임도 함께 짐.
스스로 문제를 찾고 해결하고자 하는 구성원들의 열정과 몰입을 이끌어 내고자 함.
We live in such strange times. Apple, a company famous for its secrecy, published a paper with staggering amount of details on their multimodal foundation model. Those who are supposed to be open are now wayyy less than Apple.

MM1 is a treasure trove of analysis. They discuss lots of architecture designs and even disclose that they train on GPT-4V-generated data. They provide exact scaling law coefficients (to 4 significant figures), MoE settings, and even optimal learning rate functions.

I have not seen this level of details from a big tech's whitepaper for a very, very long time. I'm also shocked they didn't put any effort on PR. MM1 just gets dropped, like a Mistral magnet link, on Arxiv out of nowhere.

Apple's so back! Paper: https://lnkd.in/g5hDiU2k
Continuous Learning_Startup & Investment
https://youtu.be/fjHtjT7GO1c?si=8-5qW3RPzEupVIU2
AI code asisstant -> AI Coder

Chatbot -> Assistant -> Agent.

처음엔 특정 직군의 생산성을 높이는 수준이지만 장기적으로 그 직군의 워크 플로우를 대체해가면서 여러 Agent를 다루는 1명의 생산성이 급격히 오르는 게 일반화되지 않을지.
전종현의 인사이트
공부를 하면 할수록 답하기 어려운 AI의 미래. 세계 최고의 투자자들 또한 마찬가지인가보다. 퓨 https://blog.eladgil.com/p/things-i-dont-know-about-ai
Frontier models keep getting more and more expensive to train, while commodity models drop in price each year as performance goes up (for example, it is probably ~5X cheaper to train GPT-3.5 equivalent now than 2 years ago)
As model scale has gotten larger, funding increasingly has been primarily coming from the cloud providers / big tech. For example, Microsoft invested $10B+ in OpenAI, while Anthropic raised $7B between Amazon and Google. NVIDIA is also a big investor in foundation model companies of many types. The venture funding for these companies in contrast is a tiny drop in the ocean in comparison

For example, Azure from Microsoft generates $25B in revenue a quarter. The ~$10B OpenAI investment by Microsoft is roughly 6 weeks of Azure revenue. AI is having a big impact on Azure revenue revently. Indeed Azure grew 6 percentage points in Q2 2024 from AI - which would put it at an annualized increase of $5-6B (or 50% of its investment in OpenAI! Per year!). Obviously revenue is not net income but this is striking nonetheless, and suggests the big clouds have an economic reason to fund more large scale models over time.

How does this impact the long term economics and market structure for LLMs? Does this mean we will see the end of new frontier LLM companies soon due to a lack of enough capital and talent for new entrants? Or do they keep funding large models hoping some will convert on their clouds to revenue?

Do governments back (or direct their purchasing to) regional AI champions? Will national governments differentially spend on local models a la Boeing vs Airbus in aerospace? Do governments want to support models that reflect their local values, languages, etc? Besides cloud providers and global big tech (think also e.g. Alibaba, Rakuten etc) the other big sources of potential capital are countries. There are now great model companies in Europe (e.g. Mistral), Japan, India, UAE, China and other countries. If so, there may be a few multi-billion AI foundation model regional companies created just off of government revenue.

A number of these have open but less existential questions (for example how much of RLHF turns into RLAIF).

to constrained GPU / GPU arb? In the absence of GPU on the main cloud providers companies are scrambling to find sufficient GPU for their needs, accelerating adoption of new startups with their own GPU clouds. One potential strategy NVIDIA could be doing is preferentially allocating GPU to these new providers to decrease bargaining power of hyperscalers and to fragment the market, as well as to accelerate the industry via startups. When does the GPU bottleneck end and how does that impact new AI cloud providers? It seems like an end to GPU shortages on the main clouds would be negative for companies whose only business is GPU cloud, while those with more tools and services should have an easier transition if this were to happen.

What else gets consolidated into AI clouds? Do they cross sell embeddings & RAG? Continuous updates? Fine tuning? Other services? How does that impact data labelers or others with overlapping offerings? What gets consolidated directly into model providers vs via the clouds?

Which companies in the AI cloud will pursue which business model?
◦ It is important to note there are really 2 market segments in the AI cloud world (a) startups (b) mid-market and enterprise. It seems likely that “GPU only” business model default works with the startup segment(who have fewer cloud needs), but for large enterprises adoption may be more driven by GPU cloud constraints on major platforms. Do companies providing developer tooling, API endpoints, and/or specialized hardware, or other aspects morph into two other analogous models - (a) “Snowflake/Databricks for AI” model or (b) “Cloudflare for AI”? If so, which ones adopt which model?

How big do the new AI clouds become? As large as Heroku, Digital Ocean, Snowflake, or AWS? What is the size of outcome and utilization scale for this class of company?
<대단한 사람을 대단하게 보지 않기>
예전에 부부/가족 상담을 장기간 훈련받은 적이 있다. 첫날 수업에 교수님이 좀 늦게 오셨다. 오셔서 왜 늦었는지 얘기를 했는데 남편이 양말 찾아달라고 해서 싸웠다고 했다. 사실 충격이었다. 부부 상담을 배우러 온 자리인데 강사가 첫날 부부 싸움했다고 이실직고를 한 셈이니까.
근데 교수님이 이렇게 해설을 했다. "여러분이 저를 이상적이고 대단한 어떤 사람으로 보는 거는 배움에 도움이 안돼요."
맞는 이야기라고 생각했다. 그리고 이게 내 학습의 핵심을 관통하고 있다고 생각이 들었다. 대학시절부터 알고 있는 후배 하나가 얼마전에 그러더라. "그 어떤 대단한 사람도 창준이 형이 옆에 오면 그 사람이 빛을 잃는 거 같아요." 나는 대단한 사람을 대단하게 보지 않으려고, 그러면서 그로부터 배우려고 노력해 왔던 거 같다. 그게 내 기본적인 학습 태도였다.
마찬가지로 내가 교육을 할 때에도 나는 나를 오히려 할인해서 보여주기도 한다. 잘 몰라요. 안 읽어 봤어요. 저는 유학 안갔어요. 학부 졸업이에요, 자격증 없어요 등등.
근데 반대로 자신을 있는 대로 한참 올려놓는 사람들이 있다. 그 사람 주변을 보면 제대로 못배운 사람들 투성이다. 본인이 그렇게 만들어 놓은 거다.
Continuous Learning_Startup & Investment
As model scale has gotten larger, funding increasingly has been primarily coming from the cloud providers / big tech. For example, Microsoft invested $10B+ in OpenAI, while Anthropic raised $7B between Amazon and Google. NVIDIA is also a big investor in foundation…
프론티어 모델은 트레이닝 비용이 점점 더 비싸지는 반면, 커머셜 모델은 성능이 향상됨에 따라 매년 가격이 하락합니다(예: 2년 전보다 현재 GPT-3.5 동급을 트레이닝하는 데 약 5배 저렴함).

모델 규모가 커짐에 따라 자금은 주로 클라우드 제공업체/대형 기술 업체에서 점점 더 많이 조달되고 있습니다. 예를 들어, Microsoft는 OpenAI에 100억 달러 이상을 투자했고, Anthropic은 Amazon과 Google 사이에서 70억 달러를 모금했습니다. NVIDIA는 또한 다양한 유형의 재단 모델 회사에 큰 투자를 하고 있습니다. 이에 비해 이러한 기업에 대한 벤처 자금은 매우 미미한 수준입니다.

예를 들어 Microsoft의 Azure는 분기당 250억 달러의 수익을 창출합니다. Microsoft가 OpenAI에 투자한 약 100억 달러는 Azure 매출의 약 6주에 해당하는 금액입니다. AI는 Azure 수익에 지속적으로 큰 영향을 미치고 있습니다. 실제로 Azure는 2024년 2분기에 AI로 인해 6% 포인트 성장했으며, 이는 연간 50~60억 달러(또는 연간 OpenAI 투자의 50%!)의 증가율에 해당합니다. 물론 수익이 순이익은 아니지만, 그럼에도 불구하고 이는 놀라운 수치이며 대형 클라우드가 시간이 지남에 따라 더 큰 규모의 모델에 투자할 경제적 이유가 있음을 시사합니다.

이것이 장기적으로 LLM의 경제성과 시장 구조에 어떤 영향을 미칠까요? 이는 신규 진입자를 위한 충분한 자본과 인재 부족으로 인해 곧 새로운 프런티어 LLM 기업의 종말을 보게 될 것임을 의미할까요? 아니면 일부가 클라우드에서 수익으로 전환되기를 바라며 대형 모델에 계속 자금을 지원할까요?

정부는 지역 AI 챔피언을 지원(또는 직접 구매)할까요? 각국 정부는 항공우주 분야의 보잉과 에어버스처럼 지역 모델에 차등적으로 지출할 것인가? 정부는 현지의 가치, 언어 등을 반영하는 모델을 지원하길 원하나요? 클라우드 제공업체와 글로벌 대기업(예: 알리바바, 라쿠텐 등) 외에 잠재적 자본의 또 다른 큰 원천은 국가입니다. 현재 유럽(예: 미스트랄), 일본, 인도, UAE, 중국 및 기타 국가에 훌륭한 모델 기업이 있습니다. 그렇다면 정부 수입만으로 수십억 달러 규모의 AI 기반 모델 지역 기업이 몇 개 탄생할 수도 있습니다.

이들 중 상당수는 실존적인 질문(예: RLHF가 얼마나 RLAIF로 전환되는지 등)을 가지고 있습니다.

제한된 GPU/GPU arb로 전환할 수 있을까요? 주요 클라우드 제공업체에 GPU가 없는 상황에서 기업들은 필요에 맞는 충분한 GPU를 찾기 위해 노력하고 있으며, 자체 GPU 클라우드를 갖춘 새로운 스타트업의 채택을 가속화하고 있습니다. NVIDIA가 취할 수 있는 한 가지 잠재적인 전략은 이러한 신규 공급업체에 GPU를 우선적으로 할당하여 하이퍼스케일러의 협상력을 낮추고 시장을 세분화하는 동시에 스타트업을 통해 업계를 가속화하는 것입니다. GPU 병목 현상은 언제 끝나며, 이는 새로운 AI 클라우드 제공업체에 어떤 영향을 미치나요? 메인 클라우드에서 GPU 부족 현상이 종료되면 GPU 클라우드가 유일한 사업인 기업에게는 부정적일 수 있지만, 더 많은 도구와 서비스를 보유한 기업에게는 전환이 더 쉬울 것으로 보입니다.

AI 클라우드로 통합되는 또 다른 항목은 무엇인가요? 임베딩과 RAG를 교차 판매하나요? 지속적인 업데이트? 미세 조정? 다른 서비스? 데이터 라벨러나 중복되는 서비스를 제공하는 다른 업체에는 어떤 영향이 있나요? 모델 제공업체에 직접 통합되는 것과 클라우드를 통해 통합되는 것은 무엇인가요?

AI 클라우드에서 어떤 기업이 어떤 비즈니스 모델을 추구할 것인가?
AI 클라우드 세계에는 (a) 스타트업 (b) 미드마켓 및 엔터프라이즈 두 가지 시장 세그먼트가 존재한다는 점에 주목할 필요가 있습니다. 클라우드에 대한 요구가 적은 스타트업 부문에서는 "GPU 전용" 비즈니스 모델이 기본으로 적용될 가능성이 높지만, 대기업의 경우 주요 플랫폼의 GPU 클라우드 제약으로 인해 도입이 더 많이 이루어질 수 있습니다. 개발자 도구, API 엔드포인트 및/또는 특수 하드웨어 등을 제공하는 회사는 (a) "Snowflake/Databricks for AI" 모델 또는 (b) "Cloudflare for AI"라는 두 가지 유사한 모델로 변모하나요? 그렇다면 어떤 모델이 어떤 모델을 채택하나요?

새로운 AI 클라우드는 얼마나 큰 규모인가요? Heroku, Digital Ocean, Snowflake 또는 AWS만큼 큰 규모인가요? 이 등급의 회사의 성과 및 활용 규모는 어느 정도인가요?
# automating software engineering

In my mind, automating software engineering will look similar to automating driving. E.g. in self-driving the progression of increasing autonomy and higher abstraction looks something like:

1. first the human performs all driving actions manually
2. then the AI helps keep the lane
3. then it slows for the car ahead
4. then it also does lane changes and takes forks
5. then it also stops at signs/lights and takes turns
6. eventually you take a feature complete solution and grind on the quality until you achieve full self-driving.

There is a progression of the AI doing more and the human doing less, but still providing oversight. In Software engineering, the progression is shaping up similar:

1. first the human writes the code manually
2. then GitHub Copilot autocompletes a few lines
3. then ChatGPT writes chunks of code
4. then you move to larger and larger code diffs (e.g. Cursor copilot++ style, nice demo here https://youtube.com/watch?v=Smklr44N8QU)
5....
Devin is an impressive demo of what perhaps follows next: coordinating a number of tools that a developer needs to string together to write code: a Terminal, a Browser, a Code editor, etc., and human oversight that moves to increasingly higher level of abstraction.

There is a lot of work not just on the AI part but also the UI/UX part. How does a human provide oversight? What are they looking at? How do they nudge the AI down a different path? How do they debug what went wrong? It is very likely that we will have to change up the code editor, substantially.

In any case, software engineering is on track to change substantially. And it will look a lot more like supervising the automation, while pitching in high-level commands, ideas or progression strategies, in English.

Good luck to the team!
최근에 SWE-bench에서 우수한 결과를 도출했다고 발표하고 & Founders Fund 등으로부터 $21m 투자를 유치해서 화제가 된 Devin 개발사 Cognition. 내가 개발자도 아니고 직접 서비스를 써본 것도 아니라서 정확한 평가를 내리기는 어려우나, 소프트웨어 개발이 AI로 대체되어가는건 분명하다는걸 다시 한번 일깨워준 프로덕트임에는 틀림 없다.

안드레 카파시는 Devin 데모를 보면서 자율주행의 발전과 비슷하다고 느꼈다고 한다. 두 영역의 발전으로부터 다른 영역 또한 어떻게 발전할지 큰 힌트를 얻을 수 있는듯.

https://www.cognition-labs.com/introducing-devin

https://twitter.com/karpathy/status/1767598414945292695?s=20&utm_source=substack&utm_medium=email