오픈소스가 쏘아올린 작은 공 - SAM.
Meta가 요즘 계속 오픈소스로 재미를 보고 있는 것 같은데, LlaMa 이외에도 SAM도 폭발적으로 확산되고 있네요.
김진성 교수님이 Segment Anything Model (SAM) for Radiation Oncology 논문을 소개해주셔서 이 참에 잠시 찾아보면서 깜짝 놀랐네요. 4월5일 Meat에서 SAM을 발표한 이후로 github 별표는 벌써 3.5만개를 넘어섰고 arXiv 논문들도 어마어마하다는.
그중에서도 의료영상 분할 쪽만해도 제법 되고 있고, SAM 관련 서베이 논문들은 계속 쏟아져 나오고, 목록을 정리하고 있는 github 리포들도 많더군요. 이미 어느 정도 생태계를 굳혔다고 말해도 될 것 같네요.
잠깐 20분 정도 찾은 것들만해도 이 정도 링크들이니. 정말 오픈소스의 힘이란 ..... #SAM
Awesome Segment Anything
https://github.com/Hedlen/awesome-segment-anything
Segment Anything Model (SAM) for Medical Image Segmentation.
https://github.com/YichiZhang98/SAM4MIS
Segment Anything Model (SAM) for Radiation Oncology
https://arxiv.org/abs/2306.11730
Segment Anything
https://arxiv.org/abs/2304.02643
Segment Anything Model for Medical Image Analysis: an Experimental Study
https://arxiv.org/abs/2304.10517
Segment Anything in Medical Images
https://arxiv.org/abs/2304.12306
SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and More
https://arxiv.org/abs/2304.09148
SAM.MD: Zero-shot medical image segmentation capabilities of the Segment Anything Model
https://arxiv.org/abs/2304.05396
When SAM Meets Medical Images: An Investigation of Segment Anything Model (SAM) on Multi-phase Liver Tumor Segmentation
https://arxiv.org/abs/2304.08506
Segment Anything Model for Medical Images?
https://arxiv.org/abs/2304.14660
SAMM (Segment Any Medical Model): A 3D Slicer Integration to SAM
https://arxiv.org/abs/2304.05622
SAM on Medical Images: A Comprehensive Study on Three Prompt Modes
https://arxiv.org/abs/2305.00035
Computer-Vision Benchmark Segment-Anything Model (SAM) in Medical Images: Accuracy in 12 Datasets
https://arxiv.org/abs/2304.09324
Medical SAM Adapter: Adapting Segment Anything Model for Medical Image Segmentation
https://arxiv.org/abs/2304.12620
Zero-shot performance of the Segment Anything Model (SAM) in 2D medical imaging: A comprehensive evaluation and practical guidelines
https://arxiv.org/abs/2305.00109
Personalize Segment Anything Model with One Shot
https://arxiv.org/abs/2305.03048
How Segment Anything Model (SAM) Boost Medical Image Segmentation?
https://arxiv.org/abs/2305.03678
Customized Segment Anything Model for Medical Image Segmentation
https://arxiv.org/abs/2304.13785
Segment Anything Model (SAM) Enhanced Pseudo Labels for Weakly Supervised Semantic Segmentation
https://arxiv.org/abs/2305.05803
Segment Anything Model (SAM) Meets Glass: Mirror and Transparent Objects Cannot Be Easily Detected
https://arxiv.org/abs/2305.00278
Segment Anything in High Quality
https://arxiv.org/abs/2306.01567
Segment Anything Model (SAM) for Digital Pathology: Assess Zero-shot Segmentation on Whole Slide Imaging
https://arxiv.org/abs/2304.04155
SAM3D: Zero-Shot 3D Object Detection via Segment Anything Model
https://arxiv.org/abs/2306.02245
DeSAM: Decoupling Segment Anything Model for Generalizable Medical Image Segmentation
https://arxiv.org/abs/2306.00499
A Survey on Segment Anything Model (SAM): Vision Foundation Model Meets Prompt Engineering
https://arxiv.org/abs/2306.06211
A Comprehensive Survey on Segment Anything Model for Vision and Beyond
https://arxiv.org/abs/2305.08196
Meta가 요즘 계속 오픈소스로 재미를 보고 있는 것 같은데, LlaMa 이외에도 SAM도 폭발적으로 확산되고 있네요.
김진성 교수님이 Segment Anything Model (SAM) for Radiation Oncology 논문을 소개해주셔서 이 참에 잠시 찾아보면서 깜짝 놀랐네요. 4월5일 Meat에서 SAM을 발표한 이후로 github 별표는 벌써 3.5만개를 넘어섰고 arXiv 논문들도 어마어마하다는.
그중에서도 의료영상 분할 쪽만해도 제법 되고 있고, SAM 관련 서베이 논문들은 계속 쏟아져 나오고, 목록을 정리하고 있는 github 리포들도 많더군요. 이미 어느 정도 생태계를 굳혔다고 말해도 될 것 같네요.
잠깐 20분 정도 찾은 것들만해도 이 정도 링크들이니. 정말 오픈소스의 힘이란 ..... #SAM
Awesome Segment Anything
https://github.com/Hedlen/awesome-segment-anything
Segment Anything Model (SAM) for Medical Image Segmentation.
https://github.com/YichiZhang98/SAM4MIS
Segment Anything Model (SAM) for Radiation Oncology
https://arxiv.org/abs/2306.11730
Segment Anything
https://arxiv.org/abs/2304.02643
Segment Anything Model for Medical Image Analysis: an Experimental Study
https://arxiv.org/abs/2304.10517
Segment Anything in Medical Images
https://arxiv.org/abs/2304.12306
SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and More
https://arxiv.org/abs/2304.09148
SAM.MD: Zero-shot medical image segmentation capabilities of the Segment Anything Model
https://arxiv.org/abs/2304.05396
When SAM Meets Medical Images: An Investigation of Segment Anything Model (SAM) on Multi-phase Liver Tumor Segmentation
https://arxiv.org/abs/2304.08506
Segment Anything Model for Medical Images?
https://arxiv.org/abs/2304.14660
SAMM (Segment Any Medical Model): A 3D Slicer Integration to SAM
https://arxiv.org/abs/2304.05622
SAM on Medical Images: A Comprehensive Study on Three Prompt Modes
https://arxiv.org/abs/2305.00035
Computer-Vision Benchmark Segment-Anything Model (SAM) in Medical Images: Accuracy in 12 Datasets
https://arxiv.org/abs/2304.09324
Medical SAM Adapter: Adapting Segment Anything Model for Medical Image Segmentation
https://arxiv.org/abs/2304.12620
Zero-shot performance of the Segment Anything Model (SAM) in 2D medical imaging: A comprehensive evaluation and practical guidelines
https://arxiv.org/abs/2305.00109
Personalize Segment Anything Model with One Shot
https://arxiv.org/abs/2305.03048
How Segment Anything Model (SAM) Boost Medical Image Segmentation?
https://arxiv.org/abs/2305.03678
Customized Segment Anything Model for Medical Image Segmentation
https://arxiv.org/abs/2304.13785
Segment Anything Model (SAM) Enhanced Pseudo Labels for Weakly Supervised Semantic Segmentation
https://arxiv.org/abs/2305.05803
Segment Anything Model (SAM) Meets Glass: Mirror and Transparent Objects Cannot Be Easily Detected
https://arxiv.org/abs/2305.00278
Segment Anything in High Quality
https://arxiv.org/abs/2306.01567
Segment Anything Model (SAM) for Digital Pathology: Assess Zero-shot Segmentation on Whole Slide Imaging
https://arxiv.org/abs/2304.04155
SAM3D: Zero-Shot 3D Object Detection via Segment Anything Model
https://arxiv.org/abs/2306.02245
DeSAM: Decoupling Segment Anything Model for Generalizable Medical Image Segmentation
https://arxiv.org/abs/2306.00499
A Survey on Segment Anything Model (SAM): Vision Foundation Model Meets Prompt Engineering
https://arxiv.org/abs/2306.06211
A Comprehensive Survey on Segment Anything Model for Vision and Beyond
https://arxiv.org/abs/2305.08196
GitHub
GitHub - Hedlen/awesome-segment-anything: Tracking and collecting papers/projects/others related to Segment Anything.
Tracking and collecting papers/projects/others related to Segment Anything. - Hedlen/awesome-segment-anything
Continuous Learning_Startup & Investment
Are we at the beginning of a new era of small models? Here is our newest LLM trained fully in my team at Microsoft Research: *phi-1 achieves 51% on HumanEval w. only 1.3B parameters & 7B tokens training dataset* Any other >50% HumanEval model is >1000x bigger…
"Textbooks Are All You Need" is making rounds:
twitter.com/SebastienBubec…
reminding me of my earlier tweet :). TinyStories is also an inspiring read:
twitter.com/EldanRonen/sta…
We'll probably see a lot more creative "scaling down" work: prioritizing data quality and diversity over quantity, a lot more synthetic data generation, and small but highly capable expert models.
twitter.com/SebastienBubec…
reminding me of my earlier tweet :). TinyStories is also an inspiring read:
twitter.com/EldanRonen/sta…
We'll probably see a lot more creative "scaling down" work: prioritizing data quality and diversity over quantity, a lot more synthetic data generation, and small but highly capable expert models.
파라미터 효율적 파인튜닝 기법 LoRA(Low-Rank Adaptation of Large Language Models)는 간명한 구조, 우수한 효과, 유연한 확장성으로 인해 크게 주목받았다. 이는 유출된 구글의 내부 문건 'We Have No Moat, and Neither Does OpenAI'에서도 언급된 사실이다.
LoRA는 언어 모델에서 시작됐지만 행렬 (그리고 당연히 다차원 텐서까지) 학습이 존재하는 곳이라면 어디든 적용이 가능하기 때문에 이미지 생성을 위한 디퓨전 모델에도 적용되기 시작했다. (Shimo Ryu가 스테이블 디퓨전에 최초로 접목시켰다.)
LoRA 구조의 단순성 때문에 다양한 변종이 태동하지 않을까 생각했는데 아니나 다를까, 이미지 생성 씬에서는 LoCon, LoHa 같은 기법이 유행 중이다. LoCon는 합성곱 레이어에 단순히 LoRA를 확장 적용한 것인 반면, LoHa는 특기할 만하다.
LoHa(LoRA with Hadamard Product Representation)는 Kohaku-Blueleaf가 스테이블 디퓨전 웹 UI 생태계에 가져온 것으로 사실 비공식 명칭이다. 이 구현물은 2021년 포스텍 논문 'FedPara: Low-Rank Hadamard Product for Communication-Efficient Federated Learning'(https://arxiv.org/abs/2108.06098)에 근거한다.
논문의 핵심 아이디어를 짧게 언급하자면, 모델 가중치를 두 개의 저차원 행렬 곱으로 분해하는 기존 방식(LoRA) 대신, 저차원 행렬 곱 두 쌍의 아마다르 곱(Hadamard Product)으로 분해하여 학습하는 것이다. 이러면 뭐가 좋을까? LoRA로 재구성한 행렬의 계수(Rank)가 (적어도) R이라면 같은 파라미터 개수로 LoHa 방식은 R 제곱 이상인 계수를 달성할 수 있다. 그러니까 동일한 모델 크기로 더 높은 표현력을 확보하게 되는 것이다. 물론 약간의 연산 비용이 더 추가되지만 말이다.
이미지 생성 씬에서는 LoHa가 LoRA보다 스타일 학습에 더 효과적이라는 평이 많지만 여전히 학술적으로 검증된 바 없다. 재밌는 건 LoHa라고 불리는 이 FedPara 기법은 생성형 AI와 무관하게 연합 학습의 맥락에서 만들어졌다는 점이다. 디바이스의 통신량(파라미터 개수)을 줄이면서 모델의 표현력을 최대한 잃지 않기 위해 고안된 방법이다.
LoRA는 언어 모델에서 시작됐지만 행렬 (그리고 당연히 다차원 텐서까지) 학습이 존재하는 곳이라면 어디든 적용이 가능하기 때문에 이미지 생성을 위한 디퓨전 모델에도 적용되기 시작했다. (Shimo Ryu가 스테이블 디퓨전에 최초로 접목시켰다.)
LoRA 구조의 단순성 때문에 다양한 변종이 태동하지 않을까 생각했는데 아니나 다를까, 이미지 생성 씬에서는 LoCon, LoHa 같은 기법이 유행 중이다. LoCon는 합성곱 레이어에 단순히 LoRA를 확장 적용한 것인 반면, LoHa는 특기할 만하다.
LoHa(LoRA with Hadamard Product Representation)는 Kohaku-Blueleaf가 스테이블 디퓨전 웹 UI 생태계에 가져온 것으로 사실 비공식 명칭이다. 이 구현물은 2021년 포스텍 논문 'FedPara: Low-Rank Hadamard Product for Communication-Efficient Federated Learning'(https://arxiv.org/abs/2108.06098)에 근거한다.
논문의 핵심 아이디어를 짧게 언급하자면, 모델 가중치를 두 개의 저차원 행렬 곱으로 분해하는 기존 방식(LoRA) 대신, 저차원 행렬 곱 두 쌍의 아마다르 곱(Hadamard Product)으로 분해하여 학습하는 것이다. 이러면 뭐가 좋을까? LoRA로 재구성한 행렬의 계수(Rank)가 (적어도) R이라면 같은 파라미터 개수로 LoHa 방식은 R 제곱 이상인 계수를 달성할 수 있다. 그러니까 동일한 모델 크기로 더 높은 표현력을 확보하게 되는 것이다. 물론 약간의 연산 비용이 더 추가되지만 말이다.
이미지 생성 씬에서는 LoHa가 LoRA보다 스타일 학습에 더 효과적이라는 평이 많지만 여전히 학술적으로 검증된 바 없다. 재밌는 건 LoHa라고 불리는 이 FedPara 기법은 생성형 AI와 무관하게 연합 학습의 맥락에서 만들어졌다는 점이다. 디바이스의 통신량(파라미터 개수)을 줄이면서 모델의 표현력을 최대한 잃지 않기 위해 고안된 방법이다.
안녕하세요. 오랜만에 핀다 테크 블로그 글이 올라와서 공유 합니다.
회사의 조직을 구성할때, 기능 중심 조직/프로덕트 중심 조직으로 구성하는데
핀다는 2번째 프로덕트 중심 조직 입니다.
구성원 모두가 프로덕트(서비스)의 주인이 되어 원팀으로 담당한 서비스의 고객을 만족시키기 위해 지속적인 업무를 수행합니다.
서비스의 개선과 빠른 의사결정을 위해 프로덕트팀 내 교차기능(PO, 디자이너, 개발자 BE/FE) 인원들이 업무를 수행합니다. 빠르고 주기적으로 스스로의 업무를 회고하며 개선하는 "Empirical Process"를 따르고 있습니다.
애자일 조직에서 채용하는 스크럼 프레임워크를 기반으로 각 프로덕트 조직에서 조금씩 유연하게 따르고 있습니다. 개인적으로 일하는 방식이 매우 짜임새 있게 구성된 프로덕트 조직이 있는데, 해당 조직의 시니어 개발자이신 Hyeong Rae Kim님 작성하신 "일하는 방식"의 글입니다. 추천합니다.
항상 "Product Principle"을 일깨워 주시는 최성호 대표님께 감사드립니다.
https://medium.com/finda-tech/%EC%9A%B0%EB%A6%AC%EC%9D%98-%EA%B0%9C%EB%B0%9C%EB%AC%B8%ED%99%94%EB%8A%94-%EC%9D%B4%EB%A0%87%EA%B2%8C-%EC%84%B1%EC%9E%A5%ED%95%A9%EB%8B%88%EB%8B%A4-8f57b06ca549
회사의 조직을 구성할때, 기능 중심 조직/프로덕트 중심 조직으로 구성하는데
핀다는 2번째 프로덕트 중심 조직 입니다.
구성원 모두가 프로덕트(서비스)의 주인이 되어 원팀으로 담당한 서비스의 고객을 만족시키기 위해 지속적인 업무를 수행합니다.
서비스의 개선과 빠른 의사결정을 위해 프로덕트팀 내 교차기능(PO, 디자이너, 개발자 BE/FE) 인원들이 업무를 수행합니다. 빠르고 주기적으로 스스로의 업무를 회고하며 개선하는 "Empirical Process"를 따르고 있습니다.
애자일 조직에서 채용하는 스크럼 프레임워크를 기반으로 각 프로덕트 조직에서 조금씩 유연하게 따르고 있습니다. 개인적으로 일하는 방식이 매우 짜임새 있게 구성된 프로덕트 조직이 있는데, 해당 조직의 시니어 개발자이신 Hyeong Rae Kim님 작성하신 "일하는 방식"의 글입니다. 추천합니다.
항상 "Product Principle"을 일깨워 주시는 최성호 대표님께 감사드립니다.
https://medium.com/finda-tech/%EC%9A%B0%EB%A6%AC%EC%9D%98-%EA%B0%9C%EB%B0%9C%EB%AC%B8%ED%99%94%EB%8A%94-%EC%9D%B4%EB%A0%87%EA%B2%8C-%EC%84%B1%EC%9E%A5%ED%95%A9%EB%8B%88%EB%8B%A4-8f57b06ca549
Medium
우리의 개발문화는 이렇게 성장합니다
안녕하세요, FINDA 현금그로스 PG 자산/신용관리 PT 백엔드 개발자 김형래 입니다.
❤1
https://youtu.be/QWvrCuuFsjg?list=PLlrxD0HtieHjolPmqWVyk446uLMPWo4oP
Nvidia도 회사가 보유한 데이터를 바탕으로 가공해서 대형 모델을 학습시키거나 혹은 대형 모델을 Finetunning시켜주는 인프라쪽을 준비하고 있네요. AWS, Google, MS 등 빅테크 뿐만아니라 Mosaic ML 등 여러 스타트업 플레이어들도 이 시장을 보고 있을텐데 좀 더 살펴봐야겠네요 ㅎㅎ
Nvidia도 회사가 보유한 데이터를 바탕으로 가공해서 대형 모델을 학습시키거나 혹은 대형 모델을 Finetunning시켜주는 인프라쪽을 준비하고 있네요. AWS, Google, MS 등 빅테크 뿐만아니라 Mosaic ML 등 여러 스타트업 플레이어들도 이 시장을 보고 있을텐데 좀 더 살펴봐야겠네요 ㅎㅎ
YouTube
Build Customize and Deploy LLMs At-Scale on Azure with NVIDIA NeMo | DISFP08
Enterprises need to customize LLMs or build one from scratch to take full advantage of Generative AI. This technical session covers how NVIDIA NeMo allows enterprises to build their custom language/image models or customize an existing foundation model and…
Similar approach from MS https://youtu.be/2meEvuWAyXs
YouTube
Build and maintain your company Copilot with Azure ML and GPT-4 | BRK211H
Large AI models and AI-embedded applications like ChatGPT are transforming the way we live and work, made possible by the confluence of advancements in big data, algorithms, and powerful AI supercomputers. Harnessing these technologies for real-world applications…
Continuous Learning_Startup & Investment
This is the way how we can serve personalized service by leveraging AI. Data, Model and engineering to combine those two will be important.
1. Overview of Foundation Models and Azure Machine Learning (00:00:00 - 00:05:00)
Greg Buehrer introduces the popularity and application of foundation models like GPT-4 across industries, using Azure Machine Learning. He highlights SynerAI's usage of Azure for analyzing news articles and presents upcoming Azure updates.
2. Deploying Open Source Models and Large Language Models on Azure (00:05:00 - 00:10:00)
Buehrer and Seth Juarez delve into Azure ML's capabilities in generative AI application development, focusing on the Native Model Support and Model Catalog. They explore challenges of Large Language Models (LLMs) through the example of the Eurovision Song Contest and discuss Retrieval Augmented Generation (RAG).
3. Demo: Copilot AI Chatbot for Contoso (00:10:00 - 00:15:00)
The speakers demonstrate a chatbot application built for an outdoor company, Contoso. The chatbot uses Azure Cognitive Search and a RAG model to aid customer service agents by generating accurate and contextually relevant replies.
4. Building Chatbots using LangChain Framework (00:15:00 - 00:20:00)
Daniel Schneider and Seth Juarez discuss how they used the LangChain framework to handle customer intent, product search, and product RAG for their chatbot. They demonstrate how these components work together in the app.
5. Introduction to Prompt Flow in Azure Machine Learning (00:20:00 - 00:25:00)
Prompt Flow, a new Azure ML feature, is introduced. It allows users to run LLM apps in the cloud, experiment with prompts, deploy the app, and monitor its performance. Schneider demonstrates its usage with a chatbot.
6. Improving Classifier Accuracy with One-Shot Pattern (00:25:00 - 00:30:00)
Schneider and Juarez show how to improve the accuracy of the chatbot's customer intent detection by creating a prompt variant using the one-shot pattern. They demonstrate how this change improves the accuracy of the model.
7. Calculating Groundedness of Model Responses (00:30:00 - 00:35:00)
The speakers measure the groundedness (how well responses are based on given context) of their chatbot model's responses using GPT-4. They highlight the importance of responsible groundedness optimization.
8. Deploying Models and Monitoring Performance in Azure Machine Learning (00:35:00 - 00:40:00)
Schneider and Juarez discuss how to deploy models and endpoints in Azure ML and how to use GPT-4 to create vector indices for querying in RAG and Prompt Flow. They also stress the importance of monitoring for maintaining a deployed model.
9. Introduction to the Model Catalog (00:40:00 - End)
The speakers introduce the Model Catalog, a platform where users can fine-tune pre-existing models. They invite users to sign up for access to the platform.
Please note that while this summary condenses the key points, it may omit some detailed discussions, examples, and demonstrations included in the original talk. It would be beneficial to review the full discussion for a comprehensive understanding.
Greg Buehrer introduces the popularity and application of foundation models like GPT-4 across industries, using Azure Machine Learning. He highlights SynerAI's usage of Azure for analyzing news articles and presents upcoming Azure updates.
2. Deploying Open Source Models and Large Language Models on Azure (00:05:00 - 00:10:00)
Buehrer and Seth Juarez delve into Azure ML's capabilities in generative AI application development, focusing on the Native Model Support and Model Catalog. They explore challenges of Large Language Models (LLMs) through the example of the Eurovision Song Contest and discuss Retrieval Augmented Generation (RAG).
3. Demo: Copilot AI Chatbot for Contoso (00:10:00 - 00:15:00)
The speakers demonstrate a chatbot application built for an outdoor company, Contoso. The chatbot uses Azure Cognitive Search and a RAG model to aid customer service agents by generating accurate and contextually relevant replies.
4. Building Chatbots using LangChain Framework (00:15:00 - 00:20:00)
Daniel Schneider and Seth Juarez discuss how they used the LangChain framework to handle customer intent, product search, and product RAG for their chatbot. They demonstrate how these components work together in the app.
5. Introduction to Prompt Flow in Azure Machine Learning (00:20:00 - 00:25:00)
Prompt Flow, a new Azure ML feature, is introduced. It allows users to run LLM apps in the cloud, experiment with prompts, deploy the app, and monitor its performance. Schneider demonstrates its usage with a chatbot.
6. Improving Classifier Accuracy with One-Shot Pattern (00:25:00 - 00:30:00)
Schneider and Juarez show how to improve the accuracy of the chatbot's customer intent detection by creating a prompt variant using the one-shot pattern. They demonstrate how this change improves the accuracy of the model.
7. Calculating Groundedness of Model Responses (00:30:00 - 00:35:00)
The speakers measure the groundedness (how well responses are based on given context) of their chatbot model's responses using GPT-4. They highlight the importance of responsible groundedness optimization.
8. Deploying Models and Monitoring Performance in Azure Machine Learning (00:35:00 - 00:40:00)
Schneider and Juarez discuss how to deploy models and endpoints in Azure ML and how to use GPT-4 to create vector indices for querying in RAG and Prompt Flow. They also stress the importance of monitoring for maintaining a deployed model.
9. Introduction to the Model Catalog (00:40:00 - End)
The speakers introduce the Model Catalog, a platform where users can fine-tune pre-existing models. They invite users to sign up for access to the platform.
Please note that while this summary condenses the key points, it may omit some detailed discussions, examples, and demonstrations included in the original talk. It would be beneficial to review the full discussion for a comprehensive understanding.
💡 만약 인공지능이 처음부터 끝까지 모든 경험을 새롭게 디자인한다면, 여행과 항공업계는 어떻게 바뀔까요?
저는 최근 #여행, #숙박, #항공 분야에서 AI가 미치는 영향에 대해서 조사하고 글을 써봤습니다.
🌐 숙박과 항공 분야의 주요 기업과 고객이 여전히 겪고있는 불편함(가격 투명성의 부재, 정보/사용자 경험의 파편화)을 살펴봅니다.
💾 여행 업계 주요 기업별 보유한 데이터와 협업/경쟁 상황에 대해서 알아봅니다.
🚧 지금까지 이 문제들이 적절히 해결되지 않은 이유로는 분산화, 단일 기업의 한계, 레거시 시스템에 대한 의존 등이 있습니다.
🔮 그동안 해결되지 않았던 문제를 #AI 가 해결할 수 있을지 살펴보고, AI기반의 초개인화 추천, AI 컨시어지, 음성/이미지/영상 기반의 새로운 UX가 가져올 변화에 대해서 살펴볼 예정입니다.
📊 서비스 제공업체(호텔, 항공사), 온라인 여행 대행사와 메타검색 플랫폼, 전국적인 배급 시스템, 그리고 대형 기술 기업이 AI를 활용하기 위한 전략은 무엇이고 앞으로 경쟁상황이 어떻게 바뀔지를 살펴봅니다.
🧐 여행업은 기존 기업간의 경쟁만 있을까요? 아니면 과거 인터넷이 나왔을 때 메타 서치 플랫폼이라는 새로운 플레이어가 나왔던 것처럼 스타트업에게는 새로운 기회일까요?
🤯 스타트업에게 기회라면 데이터, 돈도 많지 않은 스타트업이 어떤 방식으로 제품을 만들고 고객에게 가치를 전달할 수 있을까요? 이미 데이터도 많고 돈도 많은 기존 플레이어와 경쟁할 수 있을까요?
그럴 수 있다고 봅니다. 자세한 내용은 노션 글에서 확인해주세요.
https://matthewcontinuouslearning.notion.site/AI...
저는 최근 #여행, #숙박, #항공 분야에서 AI가 미치는 영향에 대해서 조사하고 글을 써봤습니다.
🌐 숙박과 항공 분야의 주요 기업과 고객이 여전히 겪고있는 불편함(가격 투명성의 부재, 정보/사용자 경험의 파편화)을 살펴봅니다.
💾 여행 업계 주요 기업별 보유한 데이터와 협업/경쟁 상황에 대해서 알아봅니다.
🚧 지금까지 이 문제들이 적절히 해결되지 않은 이유로는 분산화, 단일 기업의 한계, 레거시 시스템에 대한 의존 등이 있습니다.
🔮 그동안 해결되지 않았던 문제를 #AI 가 해결할 수 있을지 살펴보고, AI기반의 초개인화 추천, AI 컨시어지, 음성/이미지/영상 기반의 새로운 UX가 가져올 변화에 대해서 살펴볼 예정입니다.
📊 서비스 제공업체(호텔, 항공사), 온라인 여행 대행사와 메타검색 플랫폼, 전국적인 배급 시스템, 그리고 대형 기술 기업이 AI를 활용하기 위한 전략은 무엇이고 앞으로 경쟁상황이 어떻게 바뀔지를 살펴봅니다.
🧐 여행업은 기존 기업간의 경쟁만 있을까요? 아니면 과거 인터넷이 나왔을 때 메타 서치 플랫폼이라는 새로운 플레이어가 나왔던 것처럼 스타트업에게는 새로운 기회일까요?
🤯 스타트업에게 기회라면 데이터, 돈도 많지 않은 스타트업이 어떤 방식으로 제품을 만들고 고객에게 가치를 전달할 수 있을까요? 이미 데이터도 많고 돈도 많은 기존 플레이어와 경쟁할 수 있을까요?
그럴 수 있다고 봅니다. 자세한 내용은 노션 글에서 확인해주세요.
https://matthewcontinuouslearning.notion.site/AI...
This Telegram is a record of a journey of standing on the shoulders of giants and finding our own. I write relatively long posts on my blog and a lot of short ones on Twitter. Below are the channels I usually write on.
Blog: https://continuous-learning.ghost.io/
Korean blog: https://bit.ly/3r1YXpl
Twitter: https://twitter.com/MinseokMatthew
Telegram Channel: https://news.1rj.ru/str/+oonhLBMoVtdjNjI1
Blog: https://continuous-learning.ghost.io/
Korean blog: https://bit.ly/3r1YXpl
Twitter: https://twitter.com/MinseokMatthew
Telegram Channel: https://news.1rj.ru/str/+oonhLBMoVtdjNjI1
Startup, Investment and Life
Matthew Minseok Kim's Insights into Startups, Life, and Technology
Discover the intersection of startups, life, and technology with Matthew Minseok Kim. Explore investment strategies, leadership insights, and the latest in AI, energy, and more.
Continuous Learning_Startup & Investment pinned «This Telegram is a record of a journey of standing on the shoulders of giants and finding our own. I write relatively long posts on my blog and a lot of short ones on Twitter. Below are the channels I usually write on. Blog: https://continuous-learning.ghost.io/…»
It reminds some books and legendary entrpreneurs including hard things about hard things, Kraftonway, Jaechul Kim, Chung Juyung, Shoe dog, only paronia survived, Adapting to Endure, Grit, That will never work, Good to great.
Han Kim
얼마전 뉴욕서 fireside chat 하면서 질문을 하나 받았다 -- 우리 경험상 아주 크게 된 회사들 가장 큰 공통점이 뭔지.
우리는 투자할때 시장, 제품, 기술력, 또 창업팀 살펴보고 결정한다. 그런데 결국에는 그 어떤 한가지가 뛰어나게 중요하지 않았다. 제일 중요한것은 회사문화 였다. 어려움이 닥쳤을때마다 집요하게 파고 들어서 극복할수 있는 습관이 문화에 베어있는지가 결국 가장 중요한 요소가 되었다.
우리는 한국서만... 매출이 제로 에서 1조 넘는것을 크래프톤, 쿠팡, 배민 또 토스 초기 투자가로서 옆에서 응원 하면서 지켜봤다. 다들 뛰어난 사람들, 또 엄청난 기술을 보유하고 있었고 또 운도 있었다. 하지만... 그들 공통점은 중간에 아주 자주 엄청난 어려움들이 많았지만 주저앉지 않았다는 거다. 그들은 아주 작은 회사시절부터 문제가 있으면 무조건 해결할수 있는 체력을 키웠기때문 더 큰 시련이 닥쳤을때 당황하지 않고 극복하고 있다.
그래서 우리는 처음부터 우리는 최고다 그래서 무조건 성공 할거다 하는 분들을 경계한다. 이것만 되면 쉽게 성공 할 겁니다 하고 이야기 하면 우리는 도망간다.
사업은 오랜기간동안 어려움을 수없이 많이 극복 해야만 어느정도 성공할수 있는거고...또 계속 더 큰 어려움 도전 해야만 더 클수 있는거다.
지금도 어떤 해결책 찾으려고 고생하는 회사대표들/팀 멤버들... 더 잘되려고 힘든거니.. 화이팅 입니다!
Han Kim
얼마전 뉴욕서 fireside chat 하면서 질문을 하나 받았다 -- 우리 경험상 아주 크게 된 회사들 가장 큰 공통점이 뭔지.
우리는 투자할때 시장, 제품, 기술력, 또 창업팀 살펴보고 결정한다. 그런데 결국에는 그 어떤 한가지가 뛰어나게 중요하지 않았다. 제일 중요한것은 회사문화 였다. 어려움이 닥쳤을때마다 집요하게 파고 들어서 극복할수 있는 습관이 문화에 베어있는지가 결국 가장 중요한 요소가 되었다.
우리는 한국서만... 매출이 제로 에서 1조 넘는것을 크래프톤, 쿠팡, 배민 또 토스 초기 투자가로서 옆에서 응원 하면서 지켜봤다. 다들 뛰어난 사람들, 또 엄청난 기술을 보유하고 있었고 또 운도 있었다. 하지만... 그들 공통점은 중간에 아주 자주 엄청난 어려움들이 많았지만 주저앉지 않았다는 거다. 그들은 아주 작은 회사시절부터 문제가 있으면 무조건 해결할수 있는 체력을 키웠기때문 더 큰 시련이 닥쳤을때 당황하지 않고 극복하고 있다.
그래서 우리는 처음부터 우리는 최고다 그래서 무조건 성공 할거다 하는 분들을 경계한다. 이것만 되면 쉽게 성공 할 겁니다 하고 이야기 하면 우리는 도망간다.
사업은 오랜기간동안 어려움을 수없이 많이 극복 해야만 어느정도 성공할수 있는거고...또 계속 더 큰 어려움 도전 해야만 더 클수 있는거다.
지금도 어떤 해결책 찾으려고 고생하는 회사대표들/팀 멤버들... 더 잘되려고 힘든거니.. 화이팅 입니다!
👍2
Unconference_Generative AI (https://foundationcapital.com/genai-2023/)
- AI로 서비스를 만들고 있는 빌더들만이 모여서, 고민하는 주제를 소수(10명 이내)로 아주 상세한 주제들을 다룸.
- 모든 세션을 리드하는 사람은 해당 주제를 깊게 고민해본 전문가이며, 세션에 참가하는 인원들도 관련 문제를 풀고 있는 사람들.
- 녹화를 진행하지 않아서 서로 편하게 토론을 할 수 있음.
-> 시너지가 날 수밖에 없는 컨퍼런스
=> AI 제품을 열심히 만들고 계시다면, DM 주세요 🙂 AI 제품을 진지하게 만들고 있는 분들끼리 소수의 커뮤니티를 만들고 있습니다.
이 날 토론에 참여했던 참석자의 기록 https://foundationcapital.com/top-takeaways-from-our-generative-ai-unconference/
1. AI 네이티브 스타트업은 기존 기업이 AI 기능을 단순히 붙이는 것보다 주요 이점이 있습니다.
스타트업은 빠른 실험과 실행이라는 이점을 활용해야 합니다. 성공적인 전략에는 특정 업종에 집중하고, 네트워크 효과를 구축하고, 데이터 해자를 만드는 것이 포함될 수 있습니다. 기존 기업은 단순히 기존 제품군에 AI를 추가하는 ‘AI 통합자’가 되는 경향이 있으며, 이는 스타트업이 유통에서 불리한 위치에 놓일 수 있습니다. 그러나 ‘AI 네이티브‘는 AI를 핵심으로 제품을 설계하여 고유하고 우수한 기능을 제공함으로써 기존 업체로부터 의미 있는 시장 점유율을 확보할 수 있습니다. 스타트업의 과제는 이러한 AI 네이티브 제품에 대한 기회가 어디에 존재하는지 파악하는 것입니다.
2. 소프트웨어 애플리케이션 구축에 대한 기존의 규칙이 여전히 적용된다.
소프트웨어 개발의 전통적인 규칙은 여전히 유효합니다. 향후에는 기반 모델이 일반화될 가능성이 높지만, 현재는 모델 선택이 중요합니다. AI 제품의 가치는 프롬프트, 임베딩, 컨텍스트 창 관리, 직관적인 UX 디자인과 같은 기술적 결정이 포함된 모델을 중심으로 구축된 아키텍처에 따라 달라집니다. 제너레이티브 AI는 도구이지 모든 문제에 대한 해결책이 아닙니다. 모든 스타트업은 타겟 사용자 기반의 중요한 문제를 파악하고 제너레이티브 AI가 이를 해결하는 데 가장 적합한 도구인지 판단하는 것부터 시작해야 합니다.
3. “청바지와 곡괭이를 판다는 것” 이 항상 통하지 않는다.
‘곡괭이와 청바지를 파는 것‘이 제너레이티브 AI에 통하지 않을 수 있습니다. 모델 자체가 워낙 빠르게 바뀌고 있기 때문에 인프라도 계속 변화합니다. 따라서 인프라와 애플리케이션을 별개로 보지말고 둘이 상호작용하면서 빠르게 바뀌는 무언가로 보는 게 좋습니다. 혁신은 종종 애플리케이션 개발(전구, 이메일 등)에서 시작하여 지원 도구(전력망, 이더넷 등)를 만들도록 동기를 부여합니다. 이러한 도구는 더 많은 애플리케이션을 위한 길을 열어주고, 더 많은 도구로 이어져 선순환을 만들어냅니다. 인프라 구축자는 가상의 미래를 위한 ‘선심성 설계’를 하는 대신 이 사이클에 참여하여 애플리케이션 계층의 동료들과 최대한 긴밀한 관계를 유지해야 합니다.
4. 인터페이스는 모델만큼은 아니더라도 모델만큼 중요합니다.
인터페이스는 기술과 상호 작용하는 새로운 방식을 창출하는 제너레이티브 AI 영역에서 매우 중요합니다. 언어 모델(LLM)을 통해 인간은 컴퓨터와 보다 자연스럽고 유동적인 방식으로 소통할 수 있습니다. 이러한 변화는 ‘AI 원주민’인 스타트업에게 기회를 제공하는 동시에 ‘AI 통합자‘인 기존 기업에게는 위협이 될 수 있습니다. 직관적인 인터페이스를 갖춘 LLM인 ChatGPT가 대표적인 예입니다. ‘검색 엔진‘에서 ‘답변 엔진’으로의 전환이 진행 중이며, 기존의 검색창을 대화형 인터페이스로 대체하고 있습니다. 이는 광고주가 아닌 사용자를 중심으로 설계된 인터넷으로 이어질 수 있으며, 기존의 인터넷 유통 방식에 지각변동을 일으킬 수 있습니다.
5. 채팅창은 시작에 불과하다
인터페이스는 제너레이티브 AI 영역에서 매우 중요하며, 기술과 상호 작용하는 새로운 방식을 만들어냅니다. 언어 모델(LLM)을 통해 인간은 컴퓨터와 보다 자연스럽고 유동적인 방식으로 소통할 수 있습니다. 이러한 변화는 ‘AI Native’인 스타트업에게 기회를 제공하는 동시에 ’AI 기능을 추가하는’인 기존 기업에게는 위협이 될 수 있습니다. 직관적인 인터페이스를 갖춘 LLM인 ChatGPT가 대표적인 예입니다. ’검색 엔진’에서 ’답변 엔진’으로의 전환이 진행 중이며, 기존의 검색창을 대화형 인터페이스로 대체하고 있습니다. 이는 광고주가 아닌 사용자를 중심으로 설계된 인터넷으로 이어질 수 있으며, 기존의 인터넷 배포 방식을 잠재적으로 파괴할 수 있습니다.
6. 오픈소스 모델의 증가
2023년 봄은 아마도 AI의 ’안드로이드 모멘트’로 기억될 정도로 오픈소스 모델이 각광받고 있습니다. LLaMA, 알파카, 비쿠나, 돌리, 코알라 등 GPT-3의 성능에 필적하는 다양한 오픈 소스 모델이 출시되었습니다. 이러한 모델들은 더 나은 기본 모델, 더 나은 튜닝 데이터, 사람의 피드백을 결합하여 계속 개선될 것입니다. 모든 모델이 “충분히 좋은” 수준이 되면 오픈 소스와 독점적 모델 간의 차별화는 비용, 지연 시간, 사용 및 사용자 지정의 용이성, 설명 가능성, 개인정보 보호, 보안과 같은 요소로 옮겨갈 것입니다. 데이터 프라이버시 및 보안에 대한 우려로 인해 더 많은 기업이 자체 가상 프라이빗 클라우드 내에서 맞춤형 제너레이티브 모델을 실행하는 것을 고려하고 있습니다. 독점적인 LLM도 발전하겠지만, 일반적인 사용 사례의 대부분은 오픈 소스 모델에서 다루어질 것으로 예상됩니다.
7. 작은 것이 새로운 큰 효과를 만들 수 있습니다.
AI 발전을 위해 모델 크기와 데이터를 늘리는 오랜 접근 방식은 모델이 크다고 해서 반드시 성능이 향상되는 것은 아니며 과도한 컴퓨팅 리소스를 소모하기 때문에 수익이 감소하는 시점에 가까워지고 있습니다. 이에 대한 대안으로 더 잘 선별된 학습 데이터, 가지치기, 정량화, 증류, 낮은 순위 적응 등의 방법을 사용하여 더 작고 효율적인 모델이 개발되고 있습니다. 이러한 모델은 품질을 유지하면서 크기를 줄여 특정 작업에서 대형 모델과 동등하거나 더 나은 성능을 발휘할 수 있음을 입증하고 있습니다. 이는 대규모의 일반 모델이 특정 작업을 해당 작업에 맞게 미세 조정된 소규모 모델에 지시하는 새로운 접근 방식으로 이어질 수 있습니다. 이러한 추세는 스타트업에 영향을 미치며, 잠재적으로 AI를 민주화하고 AI 파워의 더 나은 분배로 이어질 수 있습니다. 또한 이러한 소규모 모델은 보안상의 이점을 제공하여 온프레미스 및 온디바이스 작동이 가능하므로 데이터를 더 안전하게 유지할 수 있습니다.
----
Matthew’s Note
개인적인 생각으로 고객의 문제를 AI로 풀고자하는 팀이 주목해야하는 건 사용자 경험의 전환이라고 생각한다.
과거에 PC기반에서 스마트폰 기반으로 넘어왔을 때 스타트업(우버, Airbnb)들이 성장할 수 있었던건 사용자 경험의 전환을 레버리지해서 새로운 비즈니스 모델을 만들었기 때문이라 생각한다. 모바일은 PC를 사용하는 시간과 공간을 확장시켜서 고객이 언제 어디서나 PC/Internet을 사용할 수 있게 만들었고 이로 인해 실시간 위치를 확인할 수 있는 가치를 제공했다. 우버는 본인의 위치 주변의 자동차들과 연결될 수 있는 가치를, 에어비앤비는 본인의 위치 혹은 본인이 여행갈 곳의 위치 기반으로 주변 숙소들과 연결할 수 있는 가치를 제공했다.
AI 역시 사용자 경험을 크게 변화시킨다. 과거에 키워드로 소통하는 방식에서 자연어로 소통하는 방식으로, 빠른 시일 내에 키보드 기반 소통에서 목소리 기반 소통으로, 미리 설계된 룰 베이스 기반 커뮤니케이션에서 고객의 데이터와 상황에 맞는 다양한 맞춤형 컨텐츠로 소통하면서 초 개인화된 경험과 흡사 사람과 이야기하는 듯한 경험을 제공하게 될 것이다. 그런데, 이 경험이 어떤 모습일지 많은 사람들이 상상할 뿐 결국에는 많은 실험을 거쳐 답을 찾아내는 회사들에 의해서 Next 사용자 경험이 새롭게 정의될 것이다. 스타트업은 큰 기업보다 빠르고, 잃을 게 없기 때문에 새로운 창의적 문제해결을 할 수 있기 때문에 스타트업들에게 새로운 기회가 있다고 생각한다.
- AI로 서비스를 만들고 있는 빌더들만이 모여서, 고민하는 주제를 소수(10명 이내)로 아주 상세한 주제들을 다룸.
- 모든 세션을 리드하는 사람은 해당 주제를 깊게 고민해본 전문가이며, 세션에 참가하는 인원들도 관련 문제를 풀고 있는 사람들.
- 녹화를 진행하지 않아서 서로 편하게 토론을 할 수 있음.
-> 시너지가 날 수밖에 없는 컨퍼런스
=> AI 제품을 열심히 만들고 계시다면, DM 주세요 🙂 AI 제품을 진지하게 만들고 있는 분들끼리 소수의 커뮤니티를 만들고 있습니다.
이 날 토론에 참여했던 참석자의 기록 https://foundationcapital.com/top-takeaways-from-our-generative-ai-unconference/
1. AI 네이티브 스타트업은 기존 기업이 AI 기능을 단순히 붙이는 것보다 주요 이점이 있습니다.
스타트업은 빠른 실험과 실행이라는 이점을 활용해야 합니다. 성공적인 전략에는 특정 업종에 집중하고, 네트워크 효과를 구축하고, 데이터 해자를 만드는 것이 포함될 수 있습니다. 기존 기업은 단순히 기존 제품군에 AI를 추가하는 ‘AI 통합자’가 되는 경향이 있으며, 이는 스타트업이 유통에서 불리한 위치에 놓일 수 있습니다. 그러나 ‘AI 네이티브‘는 AI를 핵심으로 제품을 설계하여 고유하고 우수한 기능을 제공함으로써 기존 업체로부터 의미 있는 시장 점유율을 확보할 수 있습니다. 스타트업의 과제는 이러한 AI 네이티브 제품에 대한 기회가 어디에 존재하는지 파악하는 것입니다.
2. 소프트웨어 애플리케이션 구축에 대한 기존의 규칙이 여전히 적용된다.
소프트웨어 개발의 전통적인 규칙은 여전히 유효합니다. 향후에는 기반 모델이 일반화될 가능성이 높지만, 현재는 모델 선택이 중요합니다. AI 제품의 가치는 프롬프트, 임베딩, 컨텍스트 창 관리, 직관적인 UX 디자인과 같은 기술적 결정이 포함된 모델을 중심으로 구축된 아키텍처에 따라 달라집니다. 제너레이티브 AI는 도구이지 모든 문제에 대한 해결책이 아닙니다. 모든 스타트업은 타겟 사용자 기반의 중요한 문제를 파악하고 제너레이티브 AI가 이를 해결하는 데 가장 적합한 도구인지 판단하는 것부터 시작해야 합니다.
3. “청바지와 곡괭이를 판다는 것” 이 항상 통하지 않는다.
‘곡괭이와 청바지를 파는 것‘이 제너레이티브 AI에 통하지 않을 수 있습니다. 모델 자체가 워낙 빠르게 바뀌고 있기 때문에 인프라도 계속 변화합니다. 따라서 인프라와 애플리케이션을 별개로 보지말고 둘이 상호작용하면서 빠르게 바뀌는 무언가로 보는 게 좋습니다. 혁신은 종종 애플리케이션 개발(전구, 이메일 등)에서 시작하여 지원 도구(전력망, 이더넷 등)를 만들도록 동기를 부여합니다. 이러한 도구는 더 많은 애플리케이션을 위한 길을 열어주고, 더 많은 도구로 이어져 선순환을 만들어냅니다. 인프라 구축자는 가상의 미래를 위한 ‘선심성 설계’를 하는 대신 이 사이클에 참여하여 애플리케이션 계층의 동료들과 최대한 긴밀한 관계를 유지해야 합니다.
4. 인터페이스는 모델만큼은 아니더라도 모델만큼 중요합니다.
인터페이스는 기술과 상호 작용하는 새로운 방식을 창출하는 제너레이티브 AI 영역에서 매우 중요합니다. 언어 모델(LLM)을 통해 인간은 컴퓨터와 보다 자연스럽고 유동적인 방식으로 소통할 수 있습니다. 이러한 변화는 ‘AI 원주민’인 스타트업에게 기회를 제공하는 동시에 ‘AI 통합자‘인 기존 기업에게는 위협이 될 수 있습니다. 직관적인 인터페이스를 갖춘 LLM인 ChatGPT가 대표적인 예입니다. ‘검색 엔진‘에서 ‘답변 엔진’으로의 전환이 진행 중이며, 기존의 검색창을 대화형 인터페이스로 대체하고 있습니다. 이는 광고주가 아닌 사용자를 중심으로 설계된 인터넷으로 이어질 수 있으며, 기존의 인터넷 유통 방식에 지각변동을 일으킬 수 있습니다.
5. 채팅창은 시작에 불과하다
인터페이스는 제너레이티브 AI 영역에서 매우 중요하며, 기술과 상호 작용하는 새로운 방식을 만들어냅니다. 언어 모델(LLM)을 통해 인간은 컴퓨터와 보다 자연스럽고 유동적인 방식으로 소통할 수 있습니다. 이러한 변화는 ‘AI Native’인 스타트업에게 기회를 제공하는 동시에 ’AI 기능을 추가하는’인 기존 기업에게는 위협이 될 수 있습니다. 직관적인 인터페이스를 갖춘 LLM인 ChatGPT가 대표적인 예입니다. ’검색 엔진’에서 ’답변 엔진’으로의 전환이 진행 중이며, 기존의 검색창을 대화형 인터페이스로 대체하고 있습니다. 이는 광고주가 아닌 사용자를 중심으로 설계된 인터넷으로 이어질 수 있으며, 기존의 인터넷 배포 방식을 잠재적으로 파괴할 수 있습니다.
6. 오픈소스 모델의 증가
2023년 봄은 아마도 AI의 ’안드로이드 모멘트’로 기억될 정도로 오픈소스 모델이 각광받고 있습니다. LLaMA, 알파카, 비쿠나, 돌리, 코알라 등 GPT-3의 성능에 필적하는 다양한 오픈 소스 모델이 출시되었습니다. 이러한 모델들은 더 나은 기본 모델, 더 나은 튜닝 데이터, 사람의 피드백을 결합하여 계속 개선될 것입니다. 모든 모델이 “충분히 좋은” 수준이 되면 오픈 소스와 독점적 모델 간의 차별화는 비용, 지연 시간, 사용 및 사용자 지정의 용이성, 설명 가능성, 개인정보 보호, 보안과 같은 요소로 옮겨갈 것입니다. 데이터 프라이버시 및 보안에 대한 우려로 인해 더 많은 기업이 자체 가상 프라이빗 클라우드 내에서 맞춤형 제너레이티브 모델을 실행하는 것을 고려하고 있습니다. 독점적인 LLM도 발전하겠지만, 일반적인 사용 사례의 대부분은 오픈 소스 모델에서 다루어질 것으로 예상됩니다.
7. 작은 것이 새로운 큰 효과를 만들 수 있습니다.
AI 발전을 위해 모델 크기와 데이터를 늘리는 오랜 접근 방식은 모델이 크다고 해서 반드시 성능이 향상되는 것은 아니며 과도한 컴퓨팅 리소스를 소모하기 때문에 수익이 감소하는 시점에 가까워지고 있습니다. 이에 대한 대안으로 더 잘 선별된 학습 데이터, 가지치기, 정량화, 증류, 낮은 순위 적응 등의 방법을 사용하여 더 작고 효율적인 모델이 개발되고 있습니다. 이러한 모델은 품질을 유지하면서 크기를 줄여 특정 작업에서 대형 모델과 동등하거나 더 나은 성능을 발휘할 수 있음을 입증하고 있습니다. 이는 대규모의 일반 모델이 특정 작업을 해당 작업에 맞게 미세 조정된 소규모 모델에 지시하는 새로운 접근 방식으로 이어질 수 있습니다. 이러한 추세는 스타트업에 영향을 미치며, 잠재적으로 AI를 민주화하고 AI 파워의 더 나은 분배로 이어질 수 있습니다. 또한 이러한 소규모 모델은 보안상의 이점을 제공하여 온프레미스 및 온디바이스 작동이 가능하므로 데이터를 더 안전하게 유지할 수 있습니다.
----
Matthew’s Note
개인적인 생각으로 고객의 문제를 AI로 풀고자하는 팀이 주목해야하는 건 사용자 경험의 전환이라고 생각한다.
과거에 PC기반에서 스마트폰 기반으로 넘어왔을 때 스타트업(우버, Airbnb)들이 성장할 수 있었던건 사용자 경험의 전환을 레버리지해서 새로운 비즈니스 모델을 만들었기 때문이라 생각한다. 모바일은 PC를 사용하는 시간과 공간을 확장시켜서 고객이 언제 어디서나 PC/Internet을 사용할 수 있게 만들었고 이로 인해 실시간 위치를 확인할 수 있는 가치를 제공했다. 우버는 본인의 위치 주변의 자동차들과 연결될 수 있는 가치를, 에어비앤비는 본인의 위치 혹은 본인이 여행갈 곳의 위치 기반으로 주변 숙소들과 연결할 수 있는 가치를 제공했다.
AI 역시 사용자 경험을 크게 변화시킨다. 과거에 키워드로 소통하는 방식에서 자연어로 소통하는 방식으로, 빠른 시일 내에 키보드 기반 소통에서 목소리 기반 소통으로, 미리 설계된 룰 베이스 기반 커뮤니케이션에서 고객의 데이터와 상황에 맞는 다양한 맞춤형 컨텐츠로 소통하면서 초 개인화된 경험과 흡사 사람과 이야기하는 듯한 경험을 제공하게 될 것이다. 그런데, 이 경험이 어떤 모습일지 많은 사람들이 상상할 뿐 결국에는 많은 실험을 거쳐 답을 찾아내는 회사들에 의해서 Next 사용자 경험이 새롭게 정의될 것이다. 스타트업은 큰 기업보다 빠르고, 잃을 게 없기 때문에 새로운 창의적 문제해결을 할 수 있기 때문에 스타트업들에게 새로운 기회가 있다고 생각한다.
❤1
Forwarded from BZCF | 비즈까페
"처음부터 멋진 회사는 없습니다. 처음에는 모든 회사가 아무것도 없죠. 대신 기대를 하지 않고, 직접 자신이 무언가를 만들어낼 수 있다면 멋진 보상과 결과가 기다리고 있습니다.
저는 6년 동안 Airbnb에서 일했습니다. 그리고 100배를 성장시켰죠. 저는 회사가 변하는 모습을 모두 지켜봤습니다. 그 과정에서 발생한 모든 도전들도 옆에서 보았고요. 항상 저희는 "무슨 일이 있어도 이겨낼 것"이라는 태도로 임했고, 실제로 그랬습니다. 저는 이 귀중한 저의 경험에서 배운 5가지의 레슨을 공유하고 싶습니다."
https://blog.naver.com/bizucafe/223135842362
저는 6년 동안 Airbnb에서 일했습니다. 그리고 100배를 성장시켰죠. 저는 회사가 변하는 모습을 모두 지켜봤습니다. 그 과정에서 발생한 모든 도전들도 옆에서 보았고요. 항상 저희는 "무슨 일이 있어도 이겨낼 것"이라는 태도로 임했고, 실제로 그랬습니다. 저는 이 귀중한 저의 경험에서 배운 5가지의 레슨을 공유하고 싶습니다."
https://blog.naver.com/bizucafe/223135842362
NAVER
에어비엔비를 100배 성장시키며 얻은 교훈
👍2