Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
한 달 가까이 Llama2 70B H100/A100에서 생짜로 돌려보고 파인 튜닝도 해보고 양자화도 해보고 맥에서 돌려보고 등등등 갖고 논 결과 요약.

토크나이저가 한국어를 좀 많이 깨먹는 식으로 한국어를 정의하고 있어서 파인튜닝으로 한국어 성능을 끌어 올릴 수 있는 범위 한계가 명확함. 의외로 훈련 데이터가 충분치 않은거 같다는 생각이 듦. (repetitive output을 만들어내기가 쉬움.) 12B와 70B는 하늘과 땅 차이임. (34B 내놓아라~) Falcon 40B와 일대일 비교를 하면 느낌이 꼭 ChatGPT 3.5/4 비교하는 기분이 남. (천상 말고 지상에서.) 동시에 영어권에선 이정도면 ChatGPT 3.5에 기분상 비벼볼만하지 않나? 하는 생각도 든다.

https://ksc23.talkativot.com 에 KSC 2023 기간동안 오픈해 놓는 중. 양자화 안한 Llama 70B-chat 및 래블업, 업스테이지 파인튠 모델들을 올려 놓았으니 직접 가지고 놀아보셔도 됩니다.
1👏1😭1
<투자의 달인이기 이전에 장사의 달인이었던 워런 버핏>

1. ‘오마하의 현인' 워런 버핏은 역사상 가장 성공적인 투자자 중 한 명입니다.

2. (워런 버핏은) 2022년 3월 기준, 블룸버그 세계 최고 부호 순위에서 5위를 차지하고 있습니다. 부호 순위를 쭉 보면, 일론 머스크, 제프 베조스, 빌 게이츠 등 직접 창업을 하여 큰 부를 이룬 사람들이 대부분인데, 버핏이 투자 실력을 바탕으로 그 자리까지 올랐다는 사실이 놀랍습니다.

3. 1930년 네브라스카주 오마하에서 태어난 그는 펜실베이니아대학교 와튼 스쿨을 거쳐 컬럼비아대학원에서 벤저민 그레이엄으로부터 투자를 배웠습니다.

4. 1953년 그레이엄의 회사 ‘그레이엄-뉴먼 코퍼레이션'에 합류했다가 1956년 회사의 청산과 함께 본인의 펀드를 시작했습니다. ‘버핏 파트너십'으로 불린 이 펀드는 13년간 연평균 29.5%라는 엄청난 성과를 냈습니다.

5. (이후) 1969년 펀드를 청산하면서 펀드의 주요 재산이던 ‘버크셔 해서웨이'를 현물로 인수, 개인 최대주주 자리에 올랐습니다. (그리고) 버핏이 회사를 지배하기 시작한 1965년부터 2021년까지 버크셔 해서웨이의 주식 연평균 수익률은 20.1%로, S&P500의 10.5% 대비 9.6%p 초과수익을 냈습니다.

6. 1965년 S&P500에 1달러를 투자했다면 2021년말 302달러가 됩니다. (그런데) 같은 기간 버크셔 해서웨이에 투자한 1달러는 3만 6416달러 됩니다.

7. 워런 버핏은 훌륭한 투자자로서 성공을 거두었을 뿐 아니라, 이 사회가 건강하게 유지될 수 있도록 헌신해왔습니다. 1973년 ‘오마하 선'의 대주주로서 지역 공익 단체의 비리를 파헤쳐 퓰리처상을 수상한 바 있습니다.

8. 버핏은 11살 때 처음으로 주식을 매수하면서 투자자의 길로 들어섰습니다. 13살에 처음으로 세금 신고를 했습니다.

9. (그런데) 버핏은 6살 때부터 껌을 팔아서 돈을 벌었습니다. 9살 때에는 코카콜라를 팔았고, 신문배달을 하고, 잡지도 팔았습니다. 중고 골프공도 팔고, 미식축구 경기장에서 땅콩과 팝콘도 팔았습니다.

10. 10살 때 <1000달러를 버는 1000가지 방법>이라는 책을 읽고 복리의 마술을 깨달은 워런 버핏은, 35살에 백만장자가 될 거라고 선언했습니다.

11. 이듬해 그는 실제로 주식을 매수함으로써 복리 성장의 첫걸을 뗐습니다. 17살에는 회사를 설립하고 핀볼 기계를 설치하여 운영하는 사업을 했습니다. (즉) 버핏은 10대 때 이미 투자와 사업을 병행하며 돈을 모으고 경험을 쌓았습니다.

12. (그렇게) 버핏은 20살이 되던 1950년에 이미 1만 달러가량을 저축했고, 30살인 1960년에 재산 100만 달러를 모아서 11살 때의 선언을 5년 초과 달성했고, 35살이 된 1965년에는 3700만 달러를 소유했습니다. 이때 이미 미국 내 최고 부자의 반열에 올라섰지요.

13. (정리하면) 버핏은 유년기에 누구보다 빨리 돈과 사업에 눈을 떠서 재산을 모으기 시작했습니다. 청년기에는 펀드매니저로서 막대한 재산을 긁어모았습니다. 장년기 이후에는 지주회사의 경영자로서 일반적인 펀드매니저가 쓸 수 없는 방법으로 큰돈을 더 크게 불려갔습니다.

- 홍진채, <거인의 어깨 1> 중
투자자들은 중국에 '리먼 사태'가 닥칠까 우려하고 있습니다.
2022년 말 1,080억 달러를 관리하던 난해한 금융 상품 판매업체가 최근 포위된 부동산 부문에서 금융 전염병이 확산될 수 있다는 우려를 불러일으켰습니다. 많은 개발자에게 자금을 제공한 중룽이 관리하는 4개의 신탁 상품이 최근 중국 상장 기업 3곳에 1,400만 달러를 지급하지 못했습니다. 소셜 미디어에서 일부 개인 투자자들은 중룽이나 중룽의 거대 모기업인 중즈 엔터프라이즈 그룹의 다른 부서에서 제공한 상품에서 약속된 지급금을 받지 못했다고 말하며 당국에 신고했습니다. 두 회사 모두 이러한 의혹에 대해 공개적으로 대응하지 않았으며, 논평 요청에도 응답하지 않았습니다.

길거리에서 들은 이야기: 중국에 대한 어두운 전망은 위안화 약세를 의미할 수 있지만, 급락을 기대하지는 마세요. (읽기)

https://www.wsj.com/finance/currencies/get-ready-for-a-weaker-yuan-50dfb196
지난해 인도 여성의 노동력 비중은 24%로 2018년의 21%보다 증가했지만, 사우디아라비아에 이어 세계 12번째로 낮은 수치입니다. 경제학자들은 두 가지 주요 요인, 즉 일자리 창출이 미약하여 일자리를 차지하기 위한 경쟁이 치열하고 여성의 역할을 가정에서 강조하는 매우 보수적인 문화가 그 원인으로 꼽습니다. 더 많은 여성을 노동력으로 끌어들이지 못하면 서구 기업들이 제조업에서 중국을 대체할 수 있는 대안을 모색하는 가운데 인도의 젊은 인구 통계를 활용하려는 계획이 복잡해집니다.
https://10point.cmail19.com/t/d-l-vjhullk-iuhthuudhd-yh/

SpaceX는 1분기에 소폭의 수익을 올렸습니다.
WSJ이 입수한 문서에 따르면, 엘론 머스크의 비상장 로켓 회사는 15억 달러의 매출에 5,500만 달러의 수익을 올렸으며, 이는 회사의 재무 상황을 엿볼 수 있는 드문 수치입니다. 아직 검증되지 않은 기술적으로 까다로운 로켓에 돈을 쏟아붓고 있는 SpaceX의 손실은 2년 동안 줄어들고 있지만 여전히 상당했습니다. 이 같은 결과는 팰컨 로켓의 가격 인상과 경쟁사의 신차 출시 지연이 영향을 미쳤을 가능성이 높습니다.
OpenAI 의장 그렉 브록만이 트위터에 이런 말을 남겼네요.
"일부 예외를 제외하면, AI의 가장 큰 영향력은 소프트웨어와 머신러닝 모두에 전문가인 사람들로부터 나옵니다.
대부분의 사람들은 그 반대를 예상하지만, 일반적으로 소프트웨어보다 머신러닝을 학습하는 것이 훨씬 빠릅니다.
따라서 뛰어난 소프트웨어 엔지니어는 AI 분야에서 더 큰 잠재력을 발휘하는 경향이 있습니다."
브록만의 경우 원래부터 인공지능 연구자가 아닌 소프트웨어 쪽에서 인공지능 쪽으로 왔기 때문에 그렇게 느낀다 싶네요.

https://twitter.com/gdb/status/1692699977628242279

그레그가 AI를 공부하는 방법에 대해서 이야기한 블로그:

https://blog.gregbrockman.com/its-time-to-become-an-ml-engineer
https://blog.gregbrockman.com/how-i-became-a-machine-learning-practitioner
1
LLM 연구의 공개 과제들 10가지
# 환각(Hallucination) 감소 및 측정
- 회사에서 LLM을 채택하는데 가장 큰 장애물은 환각
- 환각을 완화하고 측정하기 위한 지표를 개발하는 것은 인기 있는 연구 주제로 많은 스타트업들이 집중하고 있음
- 환각을 줄이기 위한 임시 팁으로 프롬프트에 컨텍스트 추가하기, Chain-Of-Thought, Self-Consistency, 모델에게 간결한 답을 요청하기 등이 있음
# 컨텍스트 길이 및 컨텍스트 구성 최적화
- 대부분의 질문에는 컨텍스트가 필요함
- SituatedQA 논문에 의하면 정보 검색 질문의 상당부분이 컨텍스트에 따라 답변이 다름(NQ-Open 데이터셋의 16.5%가 해당)
- 회사의 사례에서는 훨씬 더 높을 것(고객 지원 챗봇이라면, 해당 고객의 기록이나 제품에 대한 정보가 컨텍스트)
- 컨텍스트 길이는 RAG(Retrieval Augmented Generation)에 특히 중요
- RAG는 2단계로 동작
- 청킹(인덱싱) : LLM에서 사용할 모든 문서를 수집. 임베딩을 생성하고 임베딩을 LLM에넣기위해 청크로 분할하고, 임베딩을 벡터 DB에 저장
- 쿼리: 사용자가 쿼리를 보내면 LLM이 쿼리를 임베딩으로 변환. 벡터 데이터베이스에서 임베딩과 가장 유사한 청크를 가져옴
- 컨텍스트 킬이가 길수록 더 청크를 많이 넣을수 있음. 모델이 억세스할수 있는 정보가 많아지면 응답이 더 좋아지겠죠?
- 항상 그런것음 아님. 모델이 사용하는 컨텍스트의 양과 해당 모델이 컨텍스트를 얼마나 효율적으로 사용하는가는 서로 다른 질문임
- 모델 컨텍스트 길이를 늘리려는 노력과 함께 컨텍스트를 효율적으로 만들기 위한 노력도 있음
- 프롬프트 엔지니어링 또는 프롬프트 컨스트럭션이라고 부름
- 예를 들어 최근 논문은 모델이 컨텍스트의 중간보다 처음 이나 끝에서 정보를 더 잘 이해한다는 것
# 다른 데이터 양식들(Modalities) 통합
- Multimodiality 는 매우 강력하지만 아직 과소평과됨
- 중요한 이유들
- 의료,로봇공학,전자 상거래,소매,게임,엔터테인먼트등 다양한 데이터를 다루는 사례가 있음
- 의학적 예측에는 텍스트(의사의 노트, 설문지) 와 이미지(CT, X-Ray, MRI)가 필요
- 제품 메타데이터에는 이미지, 비디오, 설명 및 표 형식 데이터가 포함
- 멀티모달리티는 모델 성능의 큰 향상을 가져올 것
- 텍스트만 이해하는 모델 보다 텍스트와 이미지를 이해할 수 있는 모델이 성능이 좋음
- 텍스트 기반 모델에는 엄청난 텍스트 데이터가 필요하므로 곧 모델을 훈련하는데 필요한 인터넷 데이터가 고갈될 것이라는 우려도 있음
- 텍스트가 부족해지면 다른 데이터 양식을 활용해야 함
- 특히 기대하고 있는 것 : 시각 장애가 있는 사람들이 멀티모달리티를 통해 인터넷을 검색하고 현실세계를 탐색할 수 있게 할 것
# LLM을 더 빠르고 저렴하게 만들기
- GPT-3.5가 2022년 11월에 나왔을 때, 많은 사람들이 레이턴시 및 프로덕션에서의 사용 비용에 대해 우려했음
- 하지만 레이턴시/비용 분석은 그 이후로 많이 바뀌었음
- 반년도 안지나서, 커뮤니티는 GPT-3.5 메모리 공간의 2%만으로, 성능면에서 GPT-3.5에 매우 근접한 모델을 만드는 방법을 찾았음
- 핵심: 충분히 좋은 것을 만들면, 사람들은 빠르고 저렴하게 만드는 방법을 알아낼 것
- 4년전에 정리한 모델 최적화/압축을 위한 4가지 주요 기술
- Quantization(양자화): 가장 일반적인 모델 최적화 방법. 매개변수를 나타내는데 더 적은 비트를 사용하여 모델의 크기를 줄임. 부동소수점 32비트 대신 16비트, 심지어 4비트도 사용
- Knowledge distillation(지식 증류): 작은 모델(학생)이 더 큰 모델이나 모델의 앙상블(선생)을 모방하도록 훈련시키기
- Low-rank factorization(저차원 행렬분해): 매개변수의 수를 줄이기 위해 고차원 텐서를 저차원 텐서로 교체. 예를 들어, 3x3 텐서를 3x1과 1x3 텐서의 곱으로 분해하여 9개의 매개변수 대신 6개의 매개변수만 갖게 하는 것
- Pruning(가지치기)
- 지금도 이 4가지 기술은 관련있고 인기가 있음. Alpaca는 지식 증류기법을 사용했고, QLoRA는 저차원 행렬분해와 양자화의 조합을 사용했음
# 새로운 모델 아키텍처 설계
- 2012년 AlexNet 이후로 LSTM, seq2seq 등 많은 아키텍처가 유행하고 사라짐
- 이에 비해 Transformer는 매우 끈질김. 2017년에 나왔고, 언제까지 유행할지 궁금
- Transformer를 능가하는 새로운 아키텍처를 개발하는 것은 쉽지 않음. 지난 6년간 엄청 최적화 되었음
- 새로운 아키텍처는 오늘날 사람들이 관심을 가질만한 규모로 성능을 발휘해야함
- 트랜스포머는 원래 TPU에서 빠르게 실행되도록 설계되었고, 나중에 GPU에 최적화 되었음
- 2021년엔 Chris Ré’의 연구실에서 S4를 중심으로 많은 흥분이 있었음.
최근에도 여전히 새로운 아키텍처에 투자를 하고 있으며, 가장 최근엔 스타트업 Together와 공동으로 Monarch Mixer 아키텍쳐를 개발했음
# GPU 대안 개발
- GPU는 2012년 AlexNet 이후 딥러닝을 위한 지배적인 하드웨어
- AlexNet이 인기있는 이유중 하나는 GPU를 성공적으로 사용하여 신경망을 훈련시킨 첫번째 논문이라는 것
GPU 이전에는 AlexNet 규모로 모델을 훈련하려면 수천개의 CPU를 사용해야 했음
수천개의 CPU에 비해 2개의 GPU는 박사 및 연구자들한테 훨씬 접근이 쉬웠고, 딥러닝 연구 붐을 일으켰음
- 지난 10년동안 대기업/스타트업 및 많은 회사들이 AI를 위한 새로운 하드웨어를 만들려고 시도했음
- 가장 눈에 띄는 것은 구글의 TPU, Graphcore의 IPU, Cerebras
- SambaNova는 새로운 AI칩 개발을 위해 10억달러 이상을 펀딩받았찌만, 생성형 AI플랫폼으로 피봇했음
- 한동안 양자컴퓨팅에 많은 기대가 있었고, 주요 플레이어는 다음과 같음
- IBM의 QPU
- 구글의 컨텀컴퓨터는 올해초에 Nature에 양자 오류 감소에 대한 주요 이정표를 발표했음. 양자 가상머신은 Google Colab을 통해 억세스 가능
- MIT 양자 엔지니어링 센터, 막스플랑크 양자 광학 연구소, 시카고 양자거래소, 오크리지 국립연구소등
- 매우 흥미로운 또 다른 방향은 Photonic 칩
- 오늘날의 칩들은 전기를 이용하여 데이터를 이동하므로 많은 전력을 소비하고 레이턴시도 발생
- 광자칩은 광자를 사용하여 데이터를 이동하고 더 빠르고 효율적인 컴퓨팅을 위해 빛의 속도를 활용함
- Lightmatter ($270M), Ayar Labs ($220M), Lightelligence ($200M+) 및 Luminous Computing ($115M)을 포함하여 이 분야의 다양한 스타트업이 수억 달러를 펀딩받음
# 에이전트를 사용 가능하게 만들기
- 에이전트는 인터넷 검색, 이메일 보내기, 예약등과 같은 작업을 수행할 수 있는 LLM
- 이 글의 다른 연구 방향들과 비교해보면 가장 초기의 분야라고 할 수 있음
- 참신함과 막대한 잠재력 때문에 에이전트에는 열광적인 인기가 있음
- Auto-GPT는 이제 GitHub Star 수 기준 25번째로 인기있는 Repo임
- GPT-Engineering 도 또 다른 인기있는 저장소
- 설레임에도 불구하고 LLM이 행동할수 있는 권한을 위임받을 만큼 신뢰할 수 있고 성능이 있는지에 대해서는 여전히 의구심이 있음
- 이 분야에서 가장 주목할 만한 스타트업은 Adept
- 2명의 Transformer 공동 저자와 전 OpenAI VP가 설립해서 지금까지 거의 5억달러를 펀딩
# Human Preference를 통한 학습 개선
- RLHF, Reinforcement Learning from Human Preference 는 멋지지만 다소 Hacky함
사람들이 LLM을 교육하는 더 좋은 방법을 알아내더라도 놀랍지 않을 것. RLHF에는 다음과 같은 미해결 질문이 있음
- 인간의 선호도를 수학적으로 표현하는 방법은?
- 현재 인간의 선호도는 비교에 의해 결정됨
- 인간 라벨러는 응답 A가 응답 B보다 나은지 여부를 결정하지만, 응답 A가 응답 B보다 얼마나 더 나은지는 고려하지 않음
- 인간의 취향은?
- Anthropic은 유용함, 정직함, 무해함이라는 세 가지 축을 따라 모델 응답의 품질을 측정했음
- DeepMind는 대부분의 사람들을 기쁘게 하는 응답을 생성하려고 함
- 우리는 입장을 취할 수 있는 AI를 원할까, 아니면 잠재적으로 논쟁의 여지가 있는 주제를 피하는 평범한 AI를 원할까?
- 문화, 종교, 정치적 성향 등의 차이를 고려할 때 누구의 선호가 "인간적" 선호일까 ?
- 모든 잠재 사용자를 충분히 대표할 수 있는 훈련 데이터를 얻는 데는 많은 어려움이 있음
예를 들어, OpenAI의 InstructGPT 데이터의 경우 65세 이상의 레이블러가 없었음. 라벨러는 주로 필리핀인과 방글라데시인
- 커뮤니티 주도의 노력은, 그들의 의도는 훌륭하지만 편향된 데이터로 이어질 수 있음
예를 들어, OpenAssistant 데이터 세트의 경우 응답자 222명 중 201명(90.5%)이 남성이라고 밝혔음
# 채팅 인터페이스의 효율성 향상
- ChatGPT 이후로 채팅이 다양한 작업에 적합한 인터페이스인지에 대한 여러 논의가 있었음
- 이는 새로운 논의가 아니며, 아시아에서는 채팅이 약 10년동안 슈퍼앱의 인터페이스로 사용되었음
- 개인적으로 이런 이유로 채팅 인터페이스를 좋아함
- 채팅은 이전에 컴퓨터나 인터넷에 노출되지 않을 사람을 포함하여 빠르게 사용방법을 배울 수 있는 인터페이스
- 채팅 인터페이스는 접근성이 있음. 손이 바쁘면 텍스트 대신 음성을 사용할 수 있음
- 채팅은 믿을수 없을정도로 강력한 인터페이스임. 어떤 요청이든 할 수 있고, 응답이 좋지 않은 경우에도 응답을 제공함
- 하지만 아직 채팅 인터페이스를 개선할 수 있다고 생각되는 영역들이 있음
- 턴당 여러개의 메시지
- Multimodal 입력
- 워크플로우에 생성AI 통합
- 메시지 편집 및 삭제
# 비영어권 언어용 LLM 구축
- 현재 English-First LLM은 성능, 대기 시간 및 속도 면에서 다른 언어에 대해서는 잘 작동하지 않음
- 이 글의 몇몇 초기 독자들은 이 방향을 포함해야 한다고 생각하지 않는다고 이야기 했음
- 이는 연구보다는 물류(Logistics) 문제에 가까움. 우리는 이미 그 방법을 알고 있고 돈과 노력을 투자하기만 하면 된다는 것
하지만 이는 사실이 아님. 대부분의 언어는 리소스가 부족함. 영어나 중국어에 비해 고품질 데이터가 훨씬 적고, 대규모 모델을 훈련하는 데에는 다른 기술이 필요할 수 있음
- 더 비관적인 사람들은 미래에 많은 언어가 사라지고 인터넷이 영어와 만다린 이라는 2개의 언어로 구성 된 두개의 세계로 만들어질 것이라고도 함. Esperando 기억하는 사람 있나요?
- 기계 번역 및 챗봇과 같은 AI 도구가 언어 학습에 미치는 영향은 아직 불분명함
그것들이 사람들이 새로운 언어를 더 빨리 배우도록 도울까, 아니면 새로운 언어를 배울 필요를 완전히 없앨까?
요즘 스타트업하며 특히 더 절실히 느끼는 것은, 고정비와 변동비의 개념을 명확하게 인지하고, 무엇을 늘릴지에 대한 일관적 전략을 세우는 것이 중요하다는 것이다.

고정비에 투자하는 것에는 위험이 따른다. 고정비를 상쇄할 만한 매출/수익이 나오지 않으면 회사가 무너질 수 있기 때문이다. 대표적 고정비 항목은 인건비이다.

다만, 고정비에 투자하는 이유는 자산을 만들기 위해서이다. 기존 자산을 더 좋은 자산으로 만들거나, 새로운 자산을 만들지 않으면, 회사가 건전한 성장을 만들어 나가기는 어렵다. IT 스타트업은 기술 또는 상품이 자산인데, 기술/상품을 만드는 것은 사람이기에, 무엇을 만들기 위해 사람에 얼마를 투자할지? 해당 자산은 언제 매출/수익을 만들 수 있으며, 투자를 상쇄하는 시점은 언제 오는지에 대한 예측, 결정이 중요하다.

최악은 변동비와 고정비가 함께 올라가는 구조이다. 특정 부분을 Insoucring 하기로 결정하여 팀을 build-up 했는데, 해당 팀에서 '저희 외주도 함께 쓰면 안되요?' 등 하며 변동비까지 높이는 상황이다. 변동비를 쓸꺼면 고정비를 최소화하고, 고정비를 쓸꺼면 변동비를 최소화 해야 하는데, 둘 다 올라가는 구조가 빠르게 무너지는 회사들의 공통된 특징이기도 하면서도, 많은 스타트업에서 공통적으로 경험하는 무서운 시행착오 이기도 하다.

과거 글에서, 훌륭한 인재를 모시는 경우, 일정 기간 동안은 해당 팀에 대한 버짓 통제를 강화해야 한다고 말했던 이유이기도 하다.

Ringle은 고정비를 투자 전략을 취하고 있는 예이다. 1) [기술 개발] 튜터-유저 간 모든 수업 내용에 대해 영어 실력을 진단하기 위한 CAF 진단 엔진(AI 기반의 진단 엔진)을 만들고, [상품 개발] Teens 라는 새로운 상품을 런칭하고, [역량 강화] 팀 내 홍보를 효율적으로 하기 위해 외주에 의존하기 보다는 Creative 팀을 내부에 구축했다. 그래서 마음이 항시 바쁘다. Asset 에 투자한 만큼 ROI 가 더 빠르게 나올 수 있도록, '무엇을 어떻게 더 잘할 수 있을지?' 매일 매일 고민해야 하기 때문이다. 칼을 꺼냈으면 무라도 썰어야 한다는 속담이 항시 생각나기도 한다.

어떤 전략을 취하는지는 회사의 비전, 성향, 업의 특징 등에 따라 달라지기 때문에, 어떤 전략이 정답이다 라고 말할 수는 없다. 그렇지만, 변동비 중심 전략을 취했으면 고정비를 최소화하며 성장해야 하고, 고정비 중심 전략을 취하면 변동비를 최소화하며 빠르게 매출/수익을 내는 방향으로 성장해야 한다. 각 전략에 따른 최적 실행 방안을 구축하지 못하고, 이것도 저것도 아는 방향으로 운영하며 두 비용이 동시에 올라가는 구조는 절대 피해야 한다.
GPT3.5 파인튜닝 공개되었습니다.

가격은 일반 (input $0.0015 / 1K tokens) 대비 약 10배 정도 비싸다고 할 수 있고 GPT4의 (input $0.03 / 1K tokens) 절반 정도 되네요. GPT3.5를 도메인 특화 등에 파인튜닝해서 GPT4보다 더 좋은 성능을 낼 수 있다면 이익이겠습니다.

Training: $0.008 / 1K Tokens
Usage input: $0.012 / 1K Tokens
Usage output: $0.016 / 1K Tokens

치열한 도메인 특화 경쟁이 시작되었고, 이를 통해 GPT4를 넘어서는 멋진 특화 모델들을 많이 볼 수 있을 것 같습니다. 멋진 세상입니다!

--
https://platform.openai.com/docs/guides/fine-tuning
Starting today, you can now fine-tune GPT-3.5 Turbo for custom use cases. Read more about the new fine-tuning capabilities in our latest blog post.
Fine-tuning use cases
Since the release of GPT-3.5 Turbo, developers and businesses have asked for the ability to customize the model to create unique and differentiated experiences for their users. With this launch, developers can now run supervised fine-tuning to make this model perform better for their use cases. In our early results, we have seen developer achieve:

Improved steerability
Reliable output formatting
Consistent custom tone

In addition to increased performance, fine-tuning also enables businesses to shorten their prompts while ensuring similar performance.

Pricing
Fine-tuning costs are broken down into two buckets: the initial training cost and usage cost:

Training: $0.008 / 1K Tokens
Usage input: $0.012 / 1K Tokens
Usage output: $0.016 / 1K Tokens
LLM은 비용이 많이 들지만, 더 적은 비용으로 더 나은 성능을 얻을 수 있다면 어떨까요? 제 박사 과정 학생인 링지아오 첸과 제임스 저우와 함께 진행한 이 연구는 여러 LLM 제공업체를 결합하고 각 모델 간의 차이를 활용하여 다양한 NLP 작업에서 동일한 비용으로 GPT-4보다 성능을 4% 향상시키거나 80% 이상 저렴한 비용으로 동일한 성능을 얻을 수 있음을 보여줍니다.

논문: https://lnkd.in/gSBPVum6
https://youtu.be/M9EZ7YM88uQ
메타에서 speech-to-text, speech-to-speech, text-to-text 번역이 가능하고 100개의 언어를 지원하는 멀티 모달, 멀티 링궐 번역 모델 SeamlessM4T를 공개했습니다.
기능도, 성능도 놀랍지만, 이번에도 오픈소스로 모델까지 공개했습니다. (단, 상업적 이용은 불가) 역시 진격의 메타!!
https://ai.meta.com/.../models.../seamless-communication/