Bay Area 에 거주하며 가장 만족하는 것은 '다름'을 신경 쓸 필요가 없는, 그래서 너무나도 '단조로운 삶'이다.
옷은 파타고니아 2~3벌, 룰루레몬에서 산 바지 2~3개, 올버즈 신발 1~2개면 충분하다. 편하고, 기능적이고, 무엇보다 다들 그렇게 입기에 어떤 상황에서든 유사 복장을 착용해도 된다 (IR 할 때에도, 유저를 만날 때에도, 팀과 미팅을 할 때에도, client 를 만날 때에도, 발표를 할 때에도 말이다)
차도 전 세계에서 평균 소득 대비 가장 기능적인 선택을 하는 지역이지 않을까 싶다.
사람을 만나 대화하는 공간도 선택지가 단조롭다. 주변에 뭐 먹고 마실때가 많지 않기도 하다. 그래서, 회사 내 카페 (Ringle 이 위치한 wework 내 공간) 또는 블루보틀, 필즈커피, 스타벅스, 쿠파카페 등 이용한다. 어디서 어떻게 만날지 고민을 덜 하는 것 같다. (개인적으로는 스탠포드 내 GSB 나 Green Library에 있는 쿠파에서 이야기 할 때가 가장 좋다)
그리고, 꽤 많은 시간을 사람과 만나 대화하는데 사용하는데, 그 대화와 고민의 중심은 '나' 와 '너', 그리고 '우리 (가족이 될 수도, 팀/회사가 될 수도, 지역사회가 될 수도, 유저가 될 수도...)'에 집중된 듯 하다. 그래서, 사람들이 어떤 고민을 하는지, 어떤 unmet needs 가 있는지, 어떤 문제들에 둘려쌓여 살아가는지 들을 수 있다. (덤으로 Bay Area 에 있으면, 한국에서 많은 분들이 출장/여행으로 방문하기에, 한국에 있을 때 대비, 한국에 거주 중인 지인/유저를 더 많이 만날 수 있는 아이러니함이 있다. 여기에 방문하는 분들과는 한국에서 대비 더 솔직한 대화를 나눌 수 있어 여러모로 좋다)
개인적으로는, 즐길거리가 풍성한 도시의 삶 보다는, 일과 가족에 집중할 수 있는 삶을 선호하기에, 위와 같은 이 곳 분위기가 잘 맞는 듯 하다.
혁신과 좋은 제품은 '선택과 집중'에서 나오고 '단조로움'에서 나온다고 생각하는데, 그래서 이 곳 주변에 세상의 주목을 받는 기술과 회사들이 많이 나오는 것이 아닐까 싶다.
더 많은 분들이 이 곳에 오면 좋겠다.
옷은 파타고니아 2~3벌, 룰루레몬에서 산 바지 2~3개, 올버즈 신발 1~2개면 충분하다. 편하고, 기능적이고, 무엇보다 다들 그렇게 입기에 어떤 상황에서든 유사 복장을 착용해도 된다 (IR 할 때에도, 유저를 만날 때에도, 팀과 미팅을 할 때에도, client 를 만날 때에도, 발표를 할 때에도 말이다)
차도 전 세계에서 평균 소득 대비 가장 기능적인 선택을 하는 지역이지 않을까 싶다.
사람을 만나 대화하는 공간도 선택지가 단조롭다. 주변에 뭐 먹고 마실때가 많지 않기도 하다. 그래서, 회사 내 카페 (Ringle 이 위치한 wework 내 공간) 또는 블루보틀, 필즈커피, 스타벅스, 쿠파카페 등 이용한다. 어디서 어떻게 만날지 고민을 덜 하는 것 같다. (개인적으로는 스탠포드 내 GSB 나 Green Library에 있는 쿠파에서 이야기 할 때가 가장 좋다)
그리고, 꽤 많은 시간을 사람과 만나 대화하는데 사용하는데, 그 대화와 고민의 중심은 '나' 와 '너', 그리고 '우리 (가족이 될 수도, 팀/회사가 될 수도, 지역사회가 될 수도, 유저가 될 수도...)'에 집중된 듯 하다. 그래서, 사람들이 어떤 고민을 하는지, 어떤 unmet needs 가 있는지, 어떤 문제들에 둘려쌓여 살아가는지 들을 수 있다. (덤으로 Bay Area 에 있으면, 한국에서 많은 분들이 출장/여행으로 방문하기에, 한국에 있을 때 대비, 한국에 거주 중인 지인/유저를 더 많이 만날 수 있는 아이러니함이 있다. 여기에 방문하는 분들과는 한국에서 대비 더 솔직한 대화를 나눌 수 있어 여러모로 좋다)
개인적으로는, 즐길거리가 풍성한 도시의 삶 보다는, 일과 가족에 집중할 수 있는 삶을 선호하기에, 위와 같은 이 곳 분위기가 잘 맞는 듯 하다.
혁신과 좋은 제품은 '선택과 집중'에서 나오고 '단조로움'에서 나온다고 생각하는데, 그래서 이 곳 주변에 세상의 주목을 받는 기술과 회사들이 많이 나오는 것이 아닐까 싶다.
더 많은 분들이 이 곳에 오면 좋겠다.
❤1
Private Credit Explained In Just 3 Minutes (Cheat Sheet) 🤯
So what is it?
Private credit is a type of debt financing provided by non-bank lenders, allowing smaller to mid-sized companies to access funding.
It is not traded or issued on public markets and is typically unrated and illiquid.
What are the main types of Private Credit strategies?
• Direct lending = loans made directly from lenders to support growth, acquisitions, refinancing
• Venture debt = loans to venture-backed companies by a specialized financier
• Distressed & special situations = Troubled companies at a discount, usually on the secondary market
• Mezzanine = Subordinated between debt and equity usually with embedded equity instruments
Who are some of the biggest private credit funds?
Ares Management Corporation, Oaktree Capital Management, L.P., The Carlyle Group, Blackstone, Sixth Street, Bain Capital.
Why do investors allocate to private credit?
• Income generation
• Resilience
• Reduction in price volatility
• Return enhancement (illiquidity premium)
• Diversification
How big is the private credit market?
• The market has surged from around $500 billion in 2015 to approximately $1.5 trillion today.
Why has the market got so big?
• Banks pulling back from lending (banking crisis)
• Low rates pushing investors to seek higher yields
• Floating rate nature (direct lending) mitigates risk when rates rise
So what is it?
Private credit is a type of debt financing provided by non-bank lenders, allowing smaller to mid-sized companies to access funding.
It is not traded or issued on public markets and is typically unrated and illiquid.
What are the main types of Private Credit strategies?
• Direct lending = loans made directly from lenders to support growth, acquisitions, refinancing
• Venture debt = loans to venture-backed companies by a specialized financier
• Distressed & special situations = Troubled companies at a discount, usually on the secondary market
• Mezzanine = Subordinated between debt and equity usually with embedded equity instruments
Who are some of the biggest private credit funds?
Ares Management Corporation, Oaktree Capital Management, L.P., The Carlyle Group, Blackstone, Sixth Street, Bain Capital.
Why do investors allocate to private credit?
• Income generation
• Resilience
• Reduction in price volatility
• Return enhancement (illiquidity premium)
• Diversification
How big is the private credit market?
• The market has surged from around $500 billion in 2015 to approximately $1.5 trillion today.
Why has the market got so big?
• Banks pulling back from lending (banking crisis)
• Low rates pushing investors to seek higher yields
• Floating rate nature (direct lending) mitigates risk when rates rise
NYT의 칼럼니스트 데이빗 브룩스의 이번 주 주말판 칼럼은 흥미롭고도 의미심장한 주제를 다루고 있다. 미국의 젊은이들이 점점 더 결혼을 안 하고 따라서 출생률도 저하되는 것이 미국에서도 우려되는 현상인 가 보다.
버지니아 대 브래드 윌콕스교수의 조사 자료에 의하면 18~40세의 성인 중 75%가 부자로 여유 있게 사는 것이 인생에서 가장 중요하다고 답했다고 한다. 결혼이 중요하다고 한 사람은 32% 뿐. 부모들도 마찬가지다. 퓨 리서치 센터의 조사에 의하면 88%의 부모가 자기 아이들이 재정적으로 독립하는 것이 인생에서 가장 중요한 일이라고 했다. 결혼이 매우 중요하다고 생각하는 부모는 21% 뿐이었다.
2006년에는 50%의 젊은이들이 결혼이 매우 중요하다고 답했는데, 2020년에는 29%만이 그렇다고 대답했다. 사회학자 앤드루 셜린의 용어를 빌리자면 그들은 결혼을 더 이상 주춧돌(corner stone)로 보는 것이 아니라 건물 꼭대기를 장식하는 갓돌(capstone)로 보는 것이다. 다시 말하면 성공적으로 커리어를 다 쌓은 뒤 마지막에 덧붙이는 화려한 장식이라는 거다.
이런 태도 때문에 미국의 결혼률은 급격히 떨어지고 있다. 1980년에는 40대의 6%만이 한 번도 결혼을 안 했는데, 2021년에는 40대의 무려 25%가 한 번도 결혼을 하지 않은 상태다.
그러나 시카고대 경제학과 교수 샘 펠츠먼은 지난 달 발표한 연구 논문에서 결혼이 ‘행복한 사람과 불행한 사람’을 결정해 주는 가장 중요한 구별요소(differentiator)라고 했다. 자신의 인생에 만족하다고 답한 사람 중 결혼한 사람이 결혼하지 않은 사람보다 30% 더 많았다는 것이다. 소득이 행복에 영향을 미치기는 하지만 그렇게 중요하지는 않다고도 했다.
윌콕스도 곧 발간될 ‘결혼하라’는 제목의 책에서 결혼의 퀄리티가 인생 만족의 가장 중요한 지표라고 말했다. 원만한 결혼 생활을 하는 사람들이 ‘매우 행복하다’라고 답한 비율은 결혼하지 않았거나 불행한 결혼 생활을 하는 사람들에 비해 545%나 높았다고 한다. 그는 이어서 “인생의 행복을 포괄적으로 살펴 볼 때 당신이 얼마나 교육을 많이 받았는지, 얼마나 돈을 많이 버는지, 얼마나 자주 성관계를 갖는지, 또는 당신 일에 얼마나 만족하는지 는 행복을 결정하는 데 중요한 요소가 아니다”라고 말했다.
결국 커리어가 아무리 훌륭해도 결혼 생활이 불행하면 그 인생은 불행한 것이고, 커리어가 시원치 않아도 결혼 생활이 행복하면 그건 행복한 인생이다, 라고 데이빗 브룩스는 결론짓는다. 판에 박힌 진부한 이야기일지 몰라도 이건 자명한 진실이라면서.
우리나라의 출생률 저하 문제도 이런 식의 접근이 필요하지 않을까. 한국의 많은 부모들도 자녀들에게 결혼은 중요하지 않아, 커리어가 더 중요해, 이렇게 말하고 있지 않은가.
버지니아 대 브래드 윌콕스교수의 조사 자료에 의하면 18~40세의 성인 중 75%가 부자로 여유 있게 사는 것이 인생에서 가장 중요하다고 답했다고 한다. 결혼이 중요하다고 한 사람은 32% 뿐. 부모들도 마찬가지다. 퓨 리서치 센터의 조사에 의하면 88%의 부모가 자기 아이들이 재정적으로 독립하는 것이 인생에서 가장 중요한 일이라고 했다. 결혼이 매우 중요하다고 생각하는 부모는 21% 뿐이었다.
2006년에는 50%의 젊은이들이 결혼이 매우 중요하다고 답했는데, 2020년에는 29%만이 그렇다고 대답했다. 사회학자 앤드루 셜린의 용어를 빌리자면 그들은 결혼을 더 이상 주춧돌(corner stone)로 보는 것이 아니라 건물 꼭대기를 장식하는 갓돌(capstone)로 보는 것이다. 다시 말하면 성공적으로 커리어를 다 쌓은 뒤 마지막에 덧붙이는 화려한 장식이라는 거다.
이런 태도 때문에 미국의 결혼률은 급격히 떨어지고 있다. 1980년에는 40대의 6%만이 한 번도 결혼을 안 했는데, 2021년에는 40대의 무려 25%가 한 번도 결혼을 하지 않은 상태다.
그러나 시카고대 경제학과 교수 샘 펠츠먼은 지난 달 발표한 연구 논문에서 결혼이 ‘행복한 사람과 불행한 사람’을 결정해 주는 가장 중요한 구별요소(differentiator)라고 했다. 자신의 인생에 만족하다고 답한 사람 중 결혼한 사람이 결혼하지 않은 사람보다 30% 더 많았다는 것이다. 소득이 행복에 영향을 미치기는 하지만 그렇게 중요하지는 않다고도 했다.
윌콕스도 곧 발간될 ‘결혼하라’는 제목의 책에서 결혼의 퀄리티가 인생 만족의 가장 중요한 지표라고 말했다. 원만한 결혼 생활을 하는 사람들이 ‘매우 행복하다’라고 답한 비율은 결혼하지 않았거나 불행한 결혼 생활을 하는 사람들에 비해 545%나 높았다고 한다. 그는 이어서 “인생의 행복을 포괄적으로 살펴 볼 때 당신이 얼마나 교육을 많이 받았는지, 얼마나 돈을 많이 버는지, 얼마나 자주 성관계를 갖는지, 또는 당신 일에 얼마나 만족하는지 는 행복을 결정하는 데 중요한 요소가 아니다”라고 말했다.
결국 커리어가 아무리 훌륭해도 결혼 생활이 불행하면 그 인생은 불행한 것이고, 커리어가 시원치 않아도 결혼 생활이 행복하면 그건 행복한 인생이다, 라고 데이빗 브룩스는 결론짓는다. 판에 박힌 진부한 이야기일지 몰라도 이건 자명한 진실이라면서.
우리나라의 출생률 저하 문제도 이런 식의 접근이 필요하지 않을까. 한국의 많은 부모들도 자녀들에게 결혼은 중요하지 않아, 커리어가 더 중요해, 이렇게 말하고 있지 않은가.
❤2
Humans should focus on bigger problems.
Human history is a story of capabilities and tools.
New capabilities are rare. They're often discovered rather than invented. In the early ages, we got fire. In the 1800s, we got electricity. In the 1900s, we got computing. And in the 2000s, we are getting artificial intelligence.
Tools are invented. They operate on a shorter timescale. They are how humans interact with our capabilities. They are about details and craft and enjoyment for their user, as well as expansion and nurturement and real-world applicability of their underlying capability.
Tool builders take a capability and turn it into something useful and enjoyable to make the world better.
We are tool builders. We're taking AI, and we're turning it into something useful and enjoyable to make the world better.
Concretely, we're building Cursor. It's our attempt at a new way to write code. We're early, so don't expect too much. But it's the start of something that we think will both radically increase productivity and be immensely enjoyable to use. If we succeed, it will mean the reallocation of human intelligence toward greater and greater problems.
We're excited. If you're excited too, please reach out to us at hiring@anysphere.co or read more about what we're looking for here.
— Aman, Sualeh, Michael, Arvid, and the entire (tiny) Anysphere team
인간은 더 큰 문제에 집중해야 합니다.
인류의 역사는 능력과 도구의 이야기입니다.
새로운 능력은 드뭅니다. 발명되기보다는 발견되는 경우가 많습니다. 초기에는 불을 발견했습니다. 1800년대에는 전기가 생겼습니다. 1900년대에는 컴퓨터가 등장했습니다. 그리고 2000년대에는 인공 지능이 등장했습니다.
도구가 발명되었습니다. 도구는 더 짧은 시간 내에 작동합니다. 도구는 인간이 우리의 능력과 상호작용하는 방식입니다. 도구는 사용자를 위한 디테일과 기술, 즐거움뿐만 아니라 기본 능력의 확장 및 육성, 실제 적용 가능성까지 고려합니다.
툴 빌더는 하나의 기능을 더 나은 세상을 만드는 데 유용하고 즐거운 것으로 전환합니다.
우리는 툴 빌더입니다. 우리는 AI를 더 나은 세상을 만들기 위해 유용하고 즐거운 것으로 바꾸고 있습니다.
구체적으로는 커서를 만들고 있습니다. 새로운 코드 작성 방식을 시도하고 있습니다. 아직 초기 단계이므로 너무 큰 기대는 하지 마세요. 하지만 생산성을 획기적으로 높이고 사용하기 매우 즐거울 것으로 생각되는 무언가의 시작입니다. 이 시도가 성공한다면 인간의 지능을 더 큰 문제에 재분배할 수 있게 될 것입니다.
저희는 흥분됩니다. 여러분도 기대가 되신다면 hiring@anysphere.co 으로 문의하시거나 여기에서 저희가 찾고 있는 것에 대해 자세히 읽어보세요.
https://www.cursor.so/
MIT 학생 4명이 만들고 있는 AI based IDE(Copilot과 경쟁하는 포지션)
Human history is a story of capabilities and tools.
New capabilities are rare. They're often discovered rather than invented. In the early ages, we got fire. In the 1800s, we got electricity. In the 1900s, we got computing. And in the 2000s, we are getting artificial intelligence.
Tools are invented. They operate on a shorter timescale. They are how humans interact with our capabilities. They are about details and craft and enjoyment for their user, as well as expansion and nurturement and real-world applicability of their underlying capability.
Tool builders take a capability and turn it into something useful and enjoyable to make the world better.
We are tool builders. We're taking AI, and we're turning it into something useful and enjoyable to make the world better.
Concretely, we're building Cursor. It's our attempt at a new way to write code. We're early, so don't expect too much. But it's the start of something that we think will both radically increase productivity and be immensely enjoyable to use. If we succeed, it will mean the reallocation of human intelligence toward greater and greater problems.
We're excited. If you're excited too, please reach out to us at hiring@anysphere.co or read more about what we're looking for here.
— Aman, Sualeh, Michael, Arvid, and the entire (tiny) Anysphere team
인간은 더 큰 문제에 집중해야 합니다.
인류의 역사는 능력과 도구의 이야기입니다.
새로운 능력은 드뭅니다. 발명되기보다는 발견되는 경우가 많습니다. 초기에는 불을 발견했습니다. 1800년대에는 전기가 생겼습니다. 1900년대에는 컴퓨터가 등장했습니다. 그리고 2000년대에는 인공 지능이 등장했습니다.
도구가 발명되었습니다. 도구는 더 짧은 시간 내에 작동합니다. 도구는 인간이 우리의 능력과 상호작용하는 방식입니다. 도구는 사용자를 위한 디테일과 기술, 즐거움뿐만 아니라 기본 능력의 확장 및 육성, 실제 적용 가능성까지 고려합니다.
툴 빌더는 하나의 기능을 더 나은 세상을 만드는 데 유용하고 즐거운 것으로 전환합니다.
우리는 툴 빌더입니다. 우리는 AI를 더 나은 세상을 만들기 위해 유용하고 즐거운 것으로 바꾸고 있습니다.
구체적으로는 커서를 만들고 있습니다. 새로운 코드 작성 방식을 시도하고 있습니다. 아직 초기 단계이므로 너무 큰 기대는 하지 마세요. 하지만 생산성을 획기적으로 높이고 사용하기 매우 즐거울 것으로 생각되는 무언가의 시작입니다. 이 시도가 성공한다면 인간의 지능을 더 큰 문제에 재분배할 수 있게 될 것입니다.
저희는 흥분됩니다. 여러분도 기대가 되신다면 hiring@anysphere.co 으로 문의하시거나 여기에서 저희가 찾고 있는 것에 대해 자세히 읽어보세요.
https://www.cursor.so/
MIT 학생 4명이 만들고 있는 AI based IDE(Copilot과 경쟁하는 포지션)
Cursor
Built to make you extraordinarily productive, Cursor is the best way to code with AI.
❤2
"What would someone need a personal computer for?"
->
"What would someone need a personal LLM node for?"
->
"What would someone need a personal LLM node for?"
Continuous Learning_Startup & Investment
https://github.com/smol-ai/GodMode/
You might also see a lot of chat aggregators with their own UX.
한 달 가까이 Llama2 70B H100/A100에서 생짜로 돌려보고 파인 튜닝도 해보고 양자화도 해보고 맥에서 돌려보고 등등등 갖고 논 결과 요약.
토크나이저가 한국어를 좀 많이 깨먹는 식으로 한국어를 정의하고 있어서 파인튜닝으로 한국어 성능을 끌어 올릴 수 있는 범위 한계가 명확함. 의외로 훈련 데이터가 충분치 않은거 같다는 생각이 듦. (repetitive output을 만들어내기가 쉬움.) 12B와 70B는 하늘과 땅 차이임. (34B 내놓아라~) Falcon 40B와 일대일 비교를 하면 느낌이 꼭 ChatGPT 3.5/4 비교하는 기분이 남. (천상 말고 지상에서.) 동시에 영어권에선 이정도면 ChatGPT 3.5에 기분상 비벼볼만하지 않나? 하는 생각도 든다.
https://ksc23.talkativot.com 에 KSC 2023 기간동안 오픈해 놓는 중. 양자화 안한 Llama 70B-chat 및 래블업, 업스테이지 파인튠 모델들을 올려 놓았으니 직접 가지고 놀아보셔도 됩니다.
토크나이저가 한국어를 좀 많이 깨먹는 식으로 한국어를 정의하고 있어서 파인튜닝으로 한국어 성능을 끌어 올릴 수 있는 범위 한계가 명확함. 의외로 훈련 데이터가 충분치 않은거 같다는 생각이 듦. (repetitive output을 만들어내기가 쉬움.) 12B와 70B는 하늘과 땅 차이임. (34B 내놓아라~) Falcon 40B와 일대일 비교를 하면 느낌이 꼭 ChatGPT 3.5/4 비교하는 기분이 남. (천상 말고 지상에서.) 동시에 영어권에선 이정도면 ChatGPT 3.5에 기분상 비벼볼만하지 않나? 하는 생각도 든다.
https://ksc23.talkativot.com 에 KSC 2023 기간동안 오픈해 놓는 중. 양자화 안한 Llama 70B-chat 및 래블업, 업스테이지 파인튠 모델들을 올려 놓았으니 직접 가지고 놀아보셔도 됩니다.
app651.asia02.app.backend.ai
Talkativot UI
UI for LLM/sLLMs
❤1👏1😭1
<투자의 달인이기 이전에 장사의 달인이었던 워런 버핏>
1. ‘오마하의 현인' 워런 버핏은 역사상 가장 성공적인 투자자 중 한 명입니다.
2. (워런 버핏은) 2022년 3월 기준, 블룸버그 세계 최고 부호 순위에서 5위를 차지하고 있습니다. 부호 순위를 쭉 보면, 일론 머스크, 제프 베조스, 빌 게이츠 등 직접 창업을 하여 큰 부를 이룬 사람들이 대부분인데, 버핏이 투자 실력을 바탕으로 그 자리까지 올랐다는 사실이 놀랍습니다.
3. 1930년 네브라스카주 오마하에서 태어난 그는 펜실베이니아대학교 와튼 스쿨을 거쳐 컬럼비아대학원에서 벤저민 그레이엄으로부터 투자를 배웠습니다.
4. 1953년 그레이엄의 회사 ‘그레이엄-뉴먼 코퍼레이션'에 합류했다가 1956년 회사의 청산과 함께 본인의 펀드를 시작했습니다. ‘버핏 파트너십'으로 불린 이 펀드는 13년간 연평균 29.5%라는 엄청난 성과를 냈습니다.
5. (이후) 1969년 펀드를 청산하면서 펀드의 주요 재산이던 ‘버크셔 해서웨이'를 현물로 인수, 개인 최대주주 자리에 올랐습니다. (그리고) 버핏이 회사를 지배하기 시작한 1965년부터 2021년까지 버크셔 해서웨이의 주식 연평균 수익률은 20.1%로, S&P500의 10.5% 대비 9.6%p 초과수익을 냈습니다.
6. 1965년 S&P500에 1달러를 투자했다면 2021년말 302달러가 됩니다. (그런데) 같은 기간 버크셔 해서웨이에 투자한 1달러는 3만 6416달러 됩니다.
7. 워런 버핏은 훌륭한 투자자로서 성공을 거두었을 뿐 아니라, 이 사회가 건강하게 유지될 수 있도록 헌신해왔습니다. 1973년 ‘오마하 선'의 대주주로서 지역 공익 단체의 비리를 파헤쳐 퓰리처상을 수상한 바 있습니다.
8. 버핏은 11살 때 처음으로 주식을 매수하면서 투자자의 길로 들어섰습니다. 13살에 처음으로 세금 신고를 했습니다.
9. (그런데) 버핏은 6살 때부터 껌을 팔아서 돈을 벌었습니다. 9살 때에는 코카콜라를 팔았고, 신문배달을 하고, 잡지도 팔았습니다. 중고 골프공도 팔고, 미식축구 경기장에서 땅콩과 팝콘도 팔았습니다.
10. 10살 때 <1000달러를 버는 1000가지 방법>이라는 책을 읽고 복리의 마술을 깨달은 워런 버핏은, 35살에 백만장자가 될 거라고 선언했습니다.
11. 이듬해 그는 실제로 주식을 매수함으로써 복리 성장의 첫걸을 뗐습니다. 17살에는 회사를 설립하고 핀볼 기계를 설치하여 운영하는 사업을 했습니다. (즉) 버핏은 10대 때 이미 투자와 사업을 병행하며 돈을 모으고 경험을 쌓았습니다.
12. (그렇게) 버핏은 20살이 되던 1950년에 이미 1만 달러가량을 저축했고, 30살인 1960년에 재산 100만 달러를 모아서 11살 때의 선언을 5년 초과 달성했고, 35살이 된 1965년에는 3700만 달러를 소유했습니다. 이때 이미 미국 내 최고 부자의 반열에 올라섰지요.
13. (정리하면) 버핏은 유년기에 누구보다 빨리 돈과 사업에 눈을 떠서 재산을 모으기 시작했습니다. 청년기에는 펀드매니저로서 막대한 재산을 긁어모았습니다. 장년기 이후에는 지주회사의 경영자로서 일반적인 펀드매니저가 쓸 수 없는 방법으로 큰돈을 더 크게 불려갔습니다.
- 홍진채, <거인의 어깨 1> 중
1. ‘오마하의 현인' 워런 버핏은 역사상 가장 성공적인 투자자 중 한 명입니다.
2. (워런 버핏은) 2022년 3월 기준, 블룸버그 세계 최고 부호 순위에서 5위를 차지하고 있습니다. 부호 순위를 쭉 보면, 일론 머스크, 제프 베조스, 빌 게이츠 등 직접 창업을 하여 큰 부를 이룬 사람들이 대부분인데, 버핏이 투자 실력을 바탕으로 그 자리까지 올랐다는 사실이 놀랍습니다.
3. 1930년 네브라스카주 오마하에서 태어난 그는 펜실베이니아대학교 와튼 스쿨을 거쳐 컬럼비아대학원에서 벤저민 그레이엄으로부터 투자를 배웠습니다.
4. 1953년 그레이엄의 회사 ‘그레이엄-뉴먼 코퍼레이션'에 합류했다가 1956년 회사의 청산과 함께 본인의 펀드를 시작했습니다. ‘버핏 파트너십'으로 불린 이 펀드는 13년간 연평균 29.5%라는 엄청난 성과를 냈습니다.
5. (이후) 1969년 펀드를 청산하면서 펀드의 주요 재산이던 ‘버크셔 해서웨이'를 현물로 인수, 개인 최대주주 자리에 올랐습니다. (그리고) 버핏이 회사를 지배하기 시작한 1965년부터 2021년까지 버크셔 해서웨이의 주식 연평균 수익률은 20.1%로, S&P500의 10.5% 대비 9.6%p 초과수익을 냈습니다.
6. 1965년 S&P500에 1달러를 투자했다면 2021년말 302달러가 됩니다. (그런데) 같은 기간 버크셔 해서웨이에 투자한 1달러는 3만 6416달러 됩니다.
7. 워런 버핏은 훌륭한 투자자로서 성공을 거두었을 뿐 아니라, 이 사회가 건강하게 유지될 수 있도록 헌신해왔습니다. 1973년 ‘오마하 선'의 대주주로서 지역 공익 단체의 비리를 파헤쳐 퓰리처상을 수상한 바 있습니다.
8. 버핏은 11살 때 처음으로 주식을 매수하면서 투자자의 길로 들어섰습니다. 13살에 처음으로 세금 신고를 했습니다.
9. (그런데) 버핏은 6살 때부터 껌을 팔아서 돈을 벌었습니다. 9살 때에는 코카콜라를 팔았고, 신문배달을 하고, 잡지도 팔았습니다. 중고 골프공도 팔고, 미식축구 경기장에서 땅콩과 팝콘도 팔았습니다.
10. 10살 때 <1000달러를 버는 1000가지 방법>이라는 책을 읽고 복리의 마술을 깨달은 워런 버핏은, 35살에 백만장자가 될 거라고 선언했습니다.
11. 이듬해 그는 실제로 주식을 매수함으로써 복리 성장의 첫걸을 뗐습니다. 17살에는 회사를 설립하고 핀볼 기계를 설치하여 운영하는 사업을 했습니다. (즉) 버핏은 10대 때 이미 투자와 사업을 병행하며 돈을 모으고 경험을 쌓았습니다.
12. (그렇게) 버핏은 20살이 되던 1950년에 이미 1만 달러가량을 저축했고, 30살인 1960년에 재산 100만 달러를 모아서 11살 때의 선언을 5년 초과 달성했고, 35살이 된 1965년에는 3700만 달러를 소유했습니다. 이때 이미 미국 내 최고 부자의 반열에 올라섰지요.
13. (정리하면) 버핏은 유년기에 누구보다 빨리 돈과 사업에 눈을 떠서 재산을 모으기 시작했습니다. 청년기에는 펀드매니저로서 막대한 재산을 긁어모았습니다. 장년기 이후에는 지주회사의 경영자로서 일반적인 펀드매니저가 쓸 수 없는 방법으로 큰돈을 더 크게 불려갔습니다.
- 홍진채, <거인의 어깨 1> 중
투자자들은 중국에 '리먼 사태'가 닥칠까 우려하고 있습니다.
2022년 말 1,080억 달러를 관리하던 난해한 금융 상품 판매업체가 최근 포위된 부동산 부문에서 금융 전염병이 확산될 수 있다는 우려를 불러일으켰습니다. 많은 개발자에게 자금을 제공한 중룽이 관리하는 4개의 신탁 상품이 최근 중국 상장 기업 3곳에 1,400만 달러를 지급하지 못했습니다. 소셜 미디어에서 일부 개인 투자자들은 중룽이나 중룽의 거대 모기업인 중즈 엔터프라이즈 그룹의 다른 부서에서 제공한 상품에서 약속된 지급금을 받지 못했다고 말하며 당국에 신고했습니다. 두 회사 모두 이러한 의혹에 대해 공개적으로 대응하지 않았으며, 논평 요청에도 응답하지 않았습니다.
길거리에서 들은 이야기: 중국에 대한 어두운 전망은 위안화 약세를 의미할 수 있지만, 급락을 기대하지는 마세요. (읽기)
https://www.wsj.com/finance/currencies/get-ready-for-a-weaker-yuan-50dfb196
2022년 말 1,080억 달러를 관리하던 난해한 금융 상품 판매업체가 최근 포위된 부동산 부문에서 금융 전염병이 확산될 수 있다는 우려를 불러일으켰습니다. 많은 개발자에게 자금을 제공한 중룽이 관리하는 4개의 신탁 상품이 최근 중국 상장 기업 3곳에 1,400만 달러를 지급하지 못했습니다. 소셜 미디어에서 일부 개인 투자자들은 중룽이나 중룽의 거대 모기업인 중즈 엔터프라이즈 그룹의 다른 부서에서 제공한 상품에서 약속된 지급금을 받지 못했다고 말하며 당국에 신고했습니다. 두 회사 모두 이러한 의혹에 대해 공개적으로 대응하지 않았으며, 논평 요청에도 응답하지 않았습니다.
길거리에서 들은 이야기: 중국에 대한 어두운 전망은 위안화 약세를 의미할 수 있지만, 급락을 기대하지는 마세요. (읽기)
https://www.wsj.com/finance/currencies/get-ready-for-a-weaker-yuan-50dfb196
WSJ
Get Ready for a Weaker Yuan
The currency could reach levels not seen since before the global financial crisis, though a big, uncontrolled selloff is still unlikely.
https://10point.cmail19.com/t/d-l-vjhullk-iuhthuudhd-yh/
SpaceX는 1분기에 소폭의 수익을 올렸습니다.
WSJ이 입수한 문서에 따르면, 엘론 머스크의 비상장 로켓 회사는 15억 달러의 매출에 5,500만 달러의 수익을 올렸으며, 이는 회사의 재무 상황을 엿볼 수 있는 드문 수치입니다. 아직 검증되지 않은 기술적으로 까다로운 로켓에 돈을 쏟아붓고 있는 SpaceX의 손실은 2년 동안 줄어들고 있지만 여전히 상당했습니다. 이 같은 결과는 팰컨 로켓의 가격 인상과 경쟁사의 신차 출시 지연이 영향을 미쳤을 가능성이 높습니다.
SpaceX는 1분기에 소폭의 수익을 올렸습니다.
WSJ이 입수한 문서에 따르면, 엘론 머스크의 비상장 로켓 회사는 15억 달러의 매출에 5,500만 달러의 수익을 올렸으며, 이는 회사의 재무 상황을 엿볼 수 있는 드문 수치입니다. 아직 검증되지 않은 기술적으로 까다로운 로켓에 돈을 쏟아붓고 있는 SpaceX의 손실은 2년 동안 줄어들고 있지만 여전히 상당했습니다. 이 같은 결과는 팰컨 로켓의 가격 인상과 경쟁사의 신차 출시 지연이 영향을 미쳤을 가능성이 높습니다.
WSJ
How the Rise of SpaceX Is Reshaping NASA
The rise of SpaceX as the dominant force for U.S. rocket launches has meant that NASA’s role is now evolving. To find out what this means for the future of the
OpenAI 의장 그렉 브록만이 트위터에 이런 말을 남겼네요.
"일부 예외를 제외하면, AI의 가장 큰 영향력은 소프트웨어와 머신러닝 모두에 전문가인 사람들로부터 나옵니다.
대부분의 사람들은 그 반대를 예상하지만, 일반적으로 소프트웨어보다 머신러닝을 학습하는 것이 훨씬 빠릅니다.
따라서 뛰어난 소프트웨어 엔지니어는 AI 분야에서 더 큰 잠재력을 발휘하는 경향이 있습니다."
브록만의 경우 원래부터 인공지능 연구자가 아닌 소프트웨어 쪽에서 인공지능 쪽으로 왔기 때문에 그렇게 느낀다 싶네요.
https://twitter.com/gdb/status/1692699977628242279
그레그가 AI를 공부하는 방법에 대해서 이야기한 블로그:
https://blog.gregbrockman.com/its-time-to-become-an-ml-engineer
https://blog.gregbrockman.com/how-i-became-a-machine-learning-practitioner
"일부 예외를 제외하면, AI의 가장 큰 영향력은 소프트웨어와 머신러닝 모두에 전문가인 사람들로부터 나옵니다.
대부분의 사람들은 그 반대를 예상하지만, 일반적으로 소프트웨어보다 머신러닝을 학습하는 것이 훨씬 빠릅니다.
따라서 뛰어난 소프트웨어 엔지니어는 AI 분야에서 더 큰 잠재력을 발휘하는 경향이 있습니다."
브록만의 경우 원래부터 인공지능 연구자가 아닌 소프트웨어 쪽에서 인공지능 쪽으로 왔기 때문에 그렇게 느낀다 싶네요.
https://twitter.com/gdb/status/1692699977628242279
그레그가 AI를 공부하는 방법에 대해서 이야기한 블로그:
https://blog.gregbrockman.com/its-time-to-become-an-ml-engineer
https://blog.gregbrockman.com/how-i-became-a-machine-learning-practitioner
X (formerly Twitter)
Greg Brockman (@gdb) on X
With some exceptions, the biggest impacts in AI come from people who are experts at both software and machine learning.
Though most people expect the opposite, it’s generally much faster to learn ML than software.
So great software engineers tend to have…
Though most people expect the opposite, it’s generally much faster to learn ML than software.
So great software engineers tend to have…
❤1
LLM 연구의 공개 과제들 10가지
# 환각(Hallucination) 감소 및 측정
- 회사에서 LLM을 채택하는데 가장 큰 장애물은 환각
- 환각을 완화하고 측정하기 위한 지표를 개발하는 것은 인기 있는 연구 주제로 많은 스타트업들이 집중하고 있음
- 환각을 줄이기 위한 임시 팁으로 프롬프트에 컨텍스트 추가하기, Chain-Of-Thought, Self-Consistency, 모델에게 간결한 답을 요청하기 등이 있음
# 컨텍스트 길이 및 컨텍스트 구성 최적화
- 대부분의 질문에는 컨텍스트가 필요함
- SituatedQA 논문에 의하면 정보 검색 질문의 상당부분이 컨텍스트에 따라 답변이 다름(NQ-Open 데이터셋의 16.5%가 해당)
- 회사의 사례에서는 훨씬 더 높을 것(고객 지원 챗봇이라면, 해당 고객의 기록이나 제품에 대한 정보가 컨텍스트)
- 컨텍스트 길이는 RAG(Retrieval Augmented Generation)에 특히 중요
- RAG는 2단계로 동작
- 청킹(인덱싱) : LLM에서 사용할 모든 문서를 수집. 임베딩을 생성하고 임베딩을 LLM에넣기위해 청크로 분할하고, 임베딩을 벡터 DB에 저장
- 쿼리: 사용자가 쿼리를 보내면 LLM이 쿼리를 임베딩으로 변환. 벡터 데이터베이스에서 임베딩과 가장 유사한 청크를 가져옴
- 컨텍스트 킬이가 길수록 더 청크를 많이 넣을수 있음. 모델이 억세스할수 있는 정보가 많아지면 응답이 더 좋아지겠죠?
- 항상 그런것음 아님. 모델이 사용하는 컨텍스트의 양과 해당 모델이 컨텍스트를 얼마나 효율적으로 사용하는가는 서로 다른 질문임
- 모델 컨텍스트 길이를 늘리려는 노력과 함께 컨텍스트를 효율적으로 만들기 위한 노력도 있음
- 프롬프트 엔지니어링 또는 프롬프트 컨스트럭션이라고 부름
- 예를 들어 최근 논문은 모델이 컨텍스트의 중간보다 처음 이나 끝에서 정보를 더 잘 이해한다는 것
# 다른 데이터 양식들(Modalities) 통합
- Multimodiality 는 매우 강력하지만 아직 과소평과됨
- 중요한 이유들
- 의료,로봇공학,전자 상거래,소매,게임,엔터테인먼트등 다양한 데이터를 다루는 사례가 있음
- 의학적 예측에는 텍스트(의사의 노트, 설문지) 와 이미지(CT, X-Ray, MRI)가 필요
- 제품 메타데이터에는 이미지, 비디오, 설명 및 표 형식 데이터가 포함
- 멀티모달리티는 모델 성능의 큰 향상을 가져올 것
- 텍스트만 이해하는 모델 보다 텍스트와 이미지를 이해할 수 있는 모델이 성능이 좋음
- 텍스트 기반 모델에는 엄청난 텍스트 데이터가 필요하므로 곧 모델을 훈련하는데 필요한 인터넷 데이터가 고갈될 것이라는 우려도 있음
- 텍스트가 부족해지면 다른 데이터 양식을 활용해야 함
- 특히 기대하고 있는 것 : 시각 장애가 있는 사람들이 멀티모달리티를 통해 인터넷을 검색하고 현실세계를 탐색할 수 있게 할 것
# LLM을 더 빠르고 저렴하게 만들기
- GPT-3.5가 2022년 11월에 나왔을 때, 많은 사람들이 레이턴시 및 프로덕션에서의 사용 비용에 대해 우려했음
- 하지만 레이턴시/비용 분석은 그 이후로 많이 바뀌었음
- 반년도 안지나서, 커뮤니티는 GPT-3.5 메모리 공간의 2%만으로, 성능면에서 GPT-3.5에 매우 근접한 모델을 만드는 방법을 찾았음
- 핵심: 충분히 좋은 것을 만들면, 사람들은 빠르고 저렴하게 만드는 방법을 알아낼 것
- 4년전에 정리한 모델 최적화/압축을 위한 4가지 주요 기술
- Quantization(양자화): 가장 일반적인 모델 최적화 방법. 매개변수를 나타내는데 더 적은 비트를 사용하여 모델의 크기를 줄임. 부동소수점 32비트 대신 16비트, 심지어 4비트도 사용
- Knowledge distillation(지식 증류): 작은 모델(학생)이 더 큰 모델이나 모델의 앙상블(선생)을 모방하도록 훈련시키기
- Low-rank factorization(저차원 행렬분해): 매개변수의 수를 줄이기 위해 고차원 텐서를 저차원 텐서로 교체. 예를 들어, 3x3 텐서를 3x1과 1x3 텐서의 곱으로 분해하여 9개의 매개변수 대신 6개의 매개변수만 갖게 하는 것
- Pruning(가지치기)
- 지금도 이 4가지 기술은 관련있고 인기가 있음. Alpaca는 지식 증류기법을 사용했고, QLoRA는 저차원 행렬분해와 양자화의 조합을 사용했음
# 새로운 모델 아키텍처 설계
- 2012년 AlexNet 이후로 LSTM, seq2seq 등 많은 아키텍처가 유행하고 사라짐
- 이에 비해 Transformer는 매우 끈질김. 2017년에 나왔고, 언제까지 유행할지 궁금
- Transformer를 능가하는 새로운 아키텍처를 개발하는 것은 쉽지 않음. 지난 6년간 엄청 최적화 되었음
- 새로운 아키텍처는 오늘날 사람들이 관심을 가질만한 규모로 성능을 발휘해야함
- 트랜스포머는 원래 TPU에서 빠르게 실행되도록 설계되었고, 나중에 GPU에 최적화 되었음
- 2021년엔 Chris Ré’의 연구실에서 S4를 중심으로 많은 흥분이 있었음.
최근에도 여전히 새로운 아키텍처에 투자를 하고 있으며, 가장 최근엔 스타트업 Together와 공동으로 Monarch Mixer 아키텍쳐를 개발했음
# GPU 대안 개발
- GPU는 2012년 AlexNet 이후 딥러닝을 위한 지배적인 하드웨어
- AlexNet이 인기있는 이유중 하나는 GPU를 성공적으로 사용하여 신경망을 훈련시킨 첫번째 논문이라는 것
GPU 이전에는 AlexNet 규모로 모델을 훈련하려면 수천개의 CPU를 사용해야 했음
수천개의 CPU에 비해 2개의 GPU는 박사 및 연구자들한테 훨씬 접근이 쉬웠고, 딥러닝 연구 붐을 일으켰음
- 지난 10년동안 대기업/스타트업 및 많은 회사들이 AI를 위한 새로운 하드웨어를 만들려고 시도했음
- 가장 눈에 띄는 것은 구글의 TPU, Graphcore의 IPU, Cerebras
- SambaNova는 새로운 AI칩 개발을 위해 10억달러 이상을 펀딩받았찌만, 생성형 AI플랫폼으로 피봇했음
- 한동안 양자컴퓨팅에 많은 기대가 있었고, 주요 플레이어는 다음과 같음
- IBM의 QPU
- 구글의 컨텀컴퓨터는 올해초에 Nature에 양자 오류 감소에 대한 주요 이정표를 발표했음. 양자 가상머신은 Google Colab을 통해 억세스 가능
- MIT 양자 엔지니어링 센터, 막스플랑크 양자 광학 연구소, 시카고 양자거래소, 오크리지 국립연구소등
- 매우 흥미로운 또 다른 방향은 Photonic 칩
- 오늘날의 칩들은 전기를 이용하여 데이터를 이동하므로 많은 전력을 소비하고 레이턴시도 발생
- 광자칩은 광자를 사용하여 데이터를 이동하고 더 빠르고 효율적인 컴퓨팅을 위해 빛의 속도를 활용함
- Lightmatter ($270M), Ayar Labs ($220M), Lightelligence ($200M+) 및 Luminous Computing ($115M)을 포함하여 이 분야의 다양한 스타트업이 수억 달러를 펀딩받음
# 에이전트를 사용 가능하게 만들기
- 에이전트는 인터넷 검색, 이메일 보내기, 예약등과 같은 작업을 수행할 수 있는 LLM
- 이 글의 다른 연구 방향들과 비교해보면 가장 초기의 분야라고 할 수 있음
- 참신함과 막대한 잠재력 때문에 에이전트에는 열광적인 인기가 있음
- Auto-GPT는 이제 GitHub Star 수 기준 25번째로 인기있는 Repo임
- GPT-Engineering 도 또 다른 인기있는 저장소
- 설레임에도 불구하고 LLM이 행동할수 있는 권한을 위임받을 만큼 신뢰할 수 있고 성능이 있는지에 대해서는 여전히 의구심이 있음
- 이 분야에서 가장 주목할 만한 스타트업은 Adept
- 2명의 Transformer 공동 저자와 전 OpenAI VP가 설립해서 지금까지 거의 5억달러를 펀딩
# Human Preference를 통한 학습 개선
# 환각(Hallucination) 감소 및 측정
- 회사에서 LLM을 채택하는데 가장 큰 장애물은 환각
- 환각을 완화하고 측정하기 위한 지표를 개발하는 것은 인기 있는 연구 주제로 많은 스타트업들이 집중하고 있음
- 환각을 줄이기 위한 임시 팁으로 프롬프트에 컨텍스트 추가하기, Chain-Of-Thought, Self-Consistency, 모델에게 간결한 답을 요청하기 등이 있음
# 컨텍스트 길이 및 컨텍스트 구성 최적화
- 대부분의 질문에는 컨텍스트가 필요함
- SituatedQA 논문에 의하면 정보 검색 질문의 상당부분이 컨텍스트에 따라 답변이 다름(NQ-Open 데이터셋의 16.5%가 해당)
- 회사의 사례에서는 훨씬 더 높을 것(고객 지원 챗봇이라면, 해당 고객의 기록이나 제품에 대한 정보가 컨텍스트)
- 컨텍스트 길이는 RAG(Retrieval Augmented Generation)에 특히 중요
- RAG는 2단계로 동작
- 청킹(인덱싱) : LLM에서 사용할 모든 문서를 수집. 임베딩을 생성하고 임베딩을 LLM에넣기위해 청크로 분할하고, 임베딩을 벡터 DB에 저장
- 쿼리: 사용자가 쿼리를 보내면 LLM이 쿼리를 임베딩으로 변환. 벡터 데이터베이스에서 임베딩과 가장 유사한 청크를 가져옴
- 컨텍스트 킬이가 길수록 더 청크를 많이 넣을수 있음. 모델이 억세스할수 있는 정보가 많아지면 응답이 더 좋아지겠죠?
- 항상 그런것음 아님. 모델이 사용하는 컨텍스트의 양과 해당 모델이 컨텍스트를 얼마나 효율적으로 사용하는가는 서로 다른 질문임
- 모델 컨텍스트 길이를 늘리려는 노력과 함께 컨텍스트를 효율적으로 만들기 위한 노력도 있음
- 프롬프트 엔지니어링 또는 프롬프트 컨스트럭션이라고 부름
- 예를 들어 최근 논문은 모델이 컨텍스트의 중간보다 처음 이나 끝에서 정보를 더 잘 이해한다는 것
# 다른 데이터 양식들(Modalities) 통합
- Multimodiality 는 매우 강력하지만 아직 과소평과됨
- 중요한 이유들
- 의료,로봇공학,전자 상거래,소매,게임,엔터테인먼트등 다양한 데이터를 다루는 사례가 있음
- 의학적 예측에는 텍스트(의사의 노트, 설문지) 와 이미지(CT, X-Ray, MRI)가 필요
- 제품 메타데이터에는 이미지, 비디오, 설명 및 표 형식 데이터가 포함
- 멀티모달리티는 모델 성능의 큰 향상을 가져올 것
- 텍스트만 이해하는 모델 보다 텍스트와 이미지를 이해할 수 있는 모델이 성능이 좋음
- 텍스트 기반 모델에는 엄청난 텍스트 데이터가 필요하므로 곧 모델을 훈련하는데 필요한 인터넷 데이터가 고갈될 것이라는 우려도 있음
- 텍스트가 부족해지면 다른 데이터 양식을 활용해야 함
- 특히 기대하고 있는 것 : 시각 장애가 있는 사람들이 멀티모달리티를 통해 인터넷을 검색하고 현실세계를 탐색할 수 있게 할 것
# LLM을 더 빠르고 저렴하게 만들기
- GPT-3.5가 2022년 11월에 나왔을 때, 많은 사람들이 레이턴시 및 프로덕션에서의 사용 비용에 대해 우려했음
- 하지만 레이턴시/비용 분석은 그 이후로 많이 바뀌었음
- 반년도 안지나서, 커뮤니티는 GPT-3.5 메모리 공간의 2%만으로, 성능면에서 GPT-3.5에 매우 근접한 모델을 만드는 방법을 찾았음
- 핵심: 충분히 좋은 것을 만들면, 사람들은 빠르고 저렴하게 만드는 방법을 알아낼 것
- 4년전에 정리한 모델 최적화/압축을 위한 4가지 주요 기술
- Quantization(양자화): 가장 일반적인 모델 최적화 방법. 매개변수를 나타내는데 더 적은 비트를 사용하여 모델의 크기를 줄임. 부동소수점 32비트 대신 16비트, 심지어 4비트도 사용
- Knowledge distillation(지식 증류): 작은 모델(학생)이 더 큰 모델이나 모델의 앙상블(선생)을 모방하도록 훈련시키기
- Low-rank factorization(저차원 행렬분해): 매개변수의 수를 줄이기 위해 고차원 텐서를 저차원 텐서로 교체. 예를 들어, 3x3 텐서를 3x1과 1x3 텐서의 곱으로 분해하여 9개의 매개변수 대신 6개의 매개변수만 갖게 하는 것
- Pruning(가지치기)
- 지금도 이 4가지 기술은 관련있고 인기가 있음. Alpaca는 지식 증류기법을 사용했고, QLoRA는 저차원 행렬분해와 양자화의 조합을 사용했음
# 새로운 모델 아키텍처 설계
- 2012년 AlexNet 이후로 LSTM, seq2seq 등 많은 아키텍처가 유행하고 사라짐
- 이에 비해 Transformer는 매우 끈질김. 2017년에 나왔고, 언제까지 유행할지 궁금
- Transformer를 능가하는 새로운 아키텍처를 개발하는 것은 쉽지 않음. 지난 6년간 엄청 최적화 되었음
- 새로운 아키텍처는 오늘날 사람들이 관심을 가질만한 규모로 성능을 발휘해야함
- 트랜스포머는 원래 TPU에서 빠르게 실행되도록 설계되었고, 나중에 GPU에 최적화 되었음
- 2021년엔 Chris Ré’의 연구실에서 S4를 중심으로 많은 흥분이 있었음.
최근에도 여전히 새로운 아키텍처에 투자를 하고 있으며, 가장 최근엔 스타트업 Together와 공동으로 Monarch Mixer 아키텍쳐를 개발했음
# GPU 대안 개발
- GPU는 2012년 AlexNet 이후 딥러닝을 위한 지배적인 하드웨어
- AlexNet이 인기있는 이유중 하나는 GPU를 성공적으로 사용하여 신경망을 훈련시킨 첫번째 논문이라는 것
GPU 이전에는 AlexNet 규모로 모델을 훈련하려면 수천개의 CPU를 사용해야 했음
수천개의 CPU에 비해 2개의 GPU는 박사 및 연구자들한테 훨씬 접근이 쉬웠고, 딥러닝 연구 붐을 일으켰음
- 지난 10년동안 대기업/스타트업 및 많은 회사들이 AI를 위한 새로운 하드웨어를 만들려고 시도했음
- 가장 눈에 띄는 것은 구글의 TPU, Graphcore의 IPU, Cerebras
- SambaNova는 새로운 AI칩 개발을 위해 10억달러 이상을 펀딩받았찌만, 생성형 AI플랫폼으로 피봇했음
- 한동안 양자컴퓨팅에 많은 기대가 있었고, 주요 플레이어는 다음과 같음
- IBM의 QPU
- 구글의 컨텀컴퓨터는 올해초에 Nature에 양자 오류 감소에 대한 주요 이정표를 발표했음. 양자 가상머신은 Google Colab을 통해 억세스 가능
- MIT 양자 엔지니어링 센터, 막스플랑크 양자 광학 연구소, 시카고 양자거래소, 오크리지 국립연구소등
- 매우 흥미로운 또 다른 방향은 Photonic 칩
- 오늘날의 칩들은 전기를 이용하여 데이터를 이동하므로 많은 전력을 소비하고 레이턴시도 발생
- 광자칩은 광자를 사용하여 데이터를 이동하고 더 빠르고 효율적인 컴퓨팅을 위해 빛의 속도를 활용함
- Lightmatter ($270M), Ayar Labs ($220M), Lightelligence ($200M+) 및 Luminous Computing ($115M)을 포함하여 이 분야의 다양한 스타트업이 수억 달러를 펀딩받음
# 에이전트를 사용 가능하게 만들기
- 에이전트는 인터넷 검색, 이메일 보내기, 예약등과 같은 작업을 수행할 수 있는 LLM
- 이 글의 다른 연구 방향들과 비교해보면 가장 초기의 분야라고 할 수 있음
- 참신함과 막대한 잠재력 때문에 에이전트에는 열광적인 인기가 있음
- Auto-GPT는 이제 GitHub Star 수 기준 25번째로 인기있는 Repo임
- GPT-Engineering 도 또 다른 인기있는 저장소
- 설레임에도 불구하고 LLM이 행동할수 있는 권한을 위임받을 만큼 신뢰할 수 있고 성능이 있는지에 대해서는 여전히 의구심이 있음
- 이 분야에서 가장 주목할 만한 스타트업은 Adept
- 2명의 Transformer 공동 저자와 전 OpenAI VP가 설립해서 지금까지 거의 5억달러를 펀딩
# Human Preference를 통한 학습 개선
- RLHF, Reinforcement Learning from Human Preference 는 멋지지만 다소 Hacky함
사람들이 LLM을 교육하는 더 좋은 방법을 알아내더라도 놀랍지 않을 것. RLHF에는 다음과 같은 미해결 질문이 있음
- 인간의 선호도를 수학적으로 표현하는 방법은?
- 현재 인간의 선호도는 비교에 의해 결정됨
- 인간 라벨러는 응답 A가 응답 B보다 나은지 여부를 결정하지만, 응답 A가 응답 B보다 얼마나 더 나은지는 고려하지 않음
- 인간의 취향은?
- Anthropic은 유용함, 정직함, 무해함이라는 세 가지 축을 따라 모델 응답의 품질을 측정했음
- DeepMind는 대부분의 사람들을 기쁘게 하는 응답을 생성하려고 함
- 우리는 입장을 취할 수 있는 AI를 원할까, 아니면 잠재적으로 논쟁의 여지가 있는 주제를 피하는 평범한 AI를 원할까?
- 문화, 종교, 정치적 성향 등의 차이를 고려할 때 누구의 선호가 "인간적" 선호일까 ?
- 모든 잠재 사용자를 충분히 대표할 수 있는 훈련 데이터를 얻는 데는 많은 어려움이 있음
예를 들어, OpenAI의 InstructGPT 데이터의 경우 65세 이상의 레이블러가 없었음. 라벨러는 주로 필리핀인과 방글라데시인
- 커뮤니티 주도의 노력은, 그들의 의도는 훌륭하지만 편향된 데이터로 이어질 수 있음
예를 들어, OpenAssistant 데이터 세트의 경우 응답자 222명 중 201명(90.5%)이 남성이라고 밝혔음
# 채팅 인터페이스의 효율성 향상
- ChatGPT 이후로 채팅이 다양한 작업에 적합한 인터페이스인지에 대한 여러 논의가 있었음
- 이는 새로운 논의가 아니며, 아시아에서는 채팅이 약 10년동안 슈퍼앱의 인터페이스로 사용되었음
- 개인적으로 이런 이유로 채팅 인터페이스를 좋아함
- 채팅은 이전에 컴퓨터나 인터넷에 노출되지 않을 사람을 포함하여 빠르게 사용방법을 배울 수 있는 인터페이스
- 채팅 인터페이스는 접근성이 있음. 손이 바쁘면 텍스트 대신 음성을 사용할 수 있음
- 채팅은 믿을수 없을정도로 강력한 인터페이스임. 어떤 요청이든 할 수 있고, 응답이 좋지 않은 경우에도 응답을 제공함
- 하지만 아직 채팅 인터페이스를 개선할 수 있다고 생각되는 영역들이 있음
- 턴당 여러개의 메시지
- Multimodal 입력
- 워크플로우에 생성AI 통합
- 메시지 편집 및 삭제
# 비영어권 언어용 LLM 구축
- 현재 English-First LLM은 성능, 대기 시간 및 속도 면에서 다른 언어에 대해서는 잘 작동하지 않음
- 이 글의 몇몇 초기 독자들은 이 방향을 포함해야 한다고 생각하지 않는다고 이야기 했음
- 이는 연구보다는 물류(Logistics) 문제에 가까움. 우리는 이미 그 방법을 알고 있고 돈과 노력을 투자하기만 하면 된다는 것
하지만 이는 사실이 아님. 대부분의 언어는 리소스가 부족함. 영어나 중국어에 비해 고품질 데이터가 훨씬 적고, 대규모 모델을 훈련하는 데에는 다른 기술이 필요할 수 있음
- 더 비관적인 사람들은 미래에 많은 언어가 사라지고 인터넷이 영어와 만다린 이라는 2개의 언어로 구성 된 두개의 세계로 만들어질 것이라고도 함. Esperando 기억하는 사람 있나요?
- 기계 번역 및 챗봇과 같은 AI 도구가 언어 학습에 미치는 영향은 아직 불분명함
그것들이 사람들이 새로운 언어를 더 빨리 배우도록 도울까, 아니면 새로운 언어를 배울 필요를 완전히 없앨까?
사람들이 LLM을 교육하는 더 좋은 방법을 알아내더라도 놀랍지 않을 것. RLHF에는 다음과 같은 미해결 질문이 있음
- 인간의 선호도를 수학적으로 표현하는 방법은?
- 현재 인간의 선호도는 비교에 의해 결정됨
- 인간 라벨러는 응답 A가 응답 B보다 나은지 여부를 결정하지만, 응답 A가 응답 B보다 얼마나 더 나은지는 고려하지 않음
- 인간의 취향은?
- Anthropic은 유용함, 정직함, 무해함이라는 세 가지 축을 따라 모델 응답의 품질을 측정했음
- DeepMind는 대부분의 사람들을 기쁘게 하는 응답을 생성하려고 함
- 우리는 입장을 취할 수 있는 AI를 원할까, 아니면 잠재적으로 논쟁의 여지가 있는 주제를 피하는 평범한 AI를 원할까?
- 문화, 종교, 정치적 성향 등의 차이를 고려할 때 누구의 선호가 "인간적" 선호일까 ?
- 모든 잠재 사용자를 충분히 대표할 수 있는 훈련 데이터를 얻는 데는 많은 어려움이 있음
예를 들어, OpenAI의 InstructGPT 데이터의 경우 65세 이상의 레이블러가 없었음. 라벨러는 주로 필리핀인과 방글라데시인
- 커뮤니티 주도의 노력은, 그들의 의도는 훌륭하지만 편향된 데이터로 이어질 수 있음
예를 들어, OpenAssistant 데이터 세트의 경우 응답자 222명 중 201명(90.5%)이 남성이라고 밝혔음
# 채팅 인터페이스의 효율성 향상
- ChatGPT 이후로 채팅이 다양한 작업에 적합한 인터페이스인지에 대한 여러 논의가 있었음
- 이는 새로운 논의가 아니며, 아시아에서는 채팅이 약 10년동안 슈퍼앱의 인터페이스로 사용되었음
- 개인적으로 이런 이유로 채팅 인터페이스를 좋아함
- 채팅은 이전에 컴퓨터나 인터넷에 노출되지 않을 사람을 포함하여 빠르게 사용방법을 배울 수 있는 인터페이스
- 채팅 인터페이스는 접근성이 있음. 손이 바쁘면 텍스트 대신 음성을 사용할 수 있음
- 채팅은 믿을수 없을정도로 강력한 인터페이스임. 어떤 요청이든 할 수 있고, 응답이 좋지 않은 경우에도 응답을 제공함
- 하지만 아직 채팅 인터페이스를 개선할 수 있다고 생각되는 영역들이 있음
- 턴당 여러개의 메시지
- Multimodal 입력
- 워크플로우에 생성AI 통합
- 메시지 편집 및 삭제
# 비영어권 언어용 LLM 구축
- 현재 English-First LLM은 성능, 대기 시간 및 속도 면에서 다른 언어에 대해서는 잘 작동하지 않음
- 이 글의 몇몇 초기 독자들은 이 방향을 포함해야 한다고 생각하지 않는다고 이야기 했음
- 이는 연구보다는 물류(Logistics) 문제에 가까움. 우리는 이미 그 방법을 알고 있고 돈과 노력을 투자하기만 하면 된다는 것
하지만 이는 사실이 아님. 대부분의 언어는 리소스가 부족함. 영어나 중국어에 비해 고품질 데이터가 훨씬 적고, 대규모 모델을 훈련하는 데에는 다른 기술이 필요할 수 있음
- 더 비관적인 사람들은 미래에 많은 언어가 사라지고 인터넷이 영어와 만다린 이라는 2개의 언어로 구성 된 두개의 세계로 만들어질 것이라고도 함. Esperando 기억하는 사람 있나요?
- 기계 번역 및 챗봇과 같은 AI 도구가 언어 학습에 미치는 영향은 아직 불분명함
그것들이 사람들이 새로운 언어를 더 빨리 배우도록 도울까, 아니면 새로운 언어를 배울 필요를 완전히 없앨까?
요즘 스타트업하며 특히 더 절실히 느끼는 것은, 고정비와 변동비의 개념을 명확하게 인지하고, 무엇을 늘릴지에 대한 일관적 전략을 세우는 것이 중요하다는 것이다.
고정비에 투자하는 것에는 위험이 따른다. 고정비를 상쇄할 만한 매출/수익이 나오지 않으면 회사가 무너질 수 있기 때문이다. 대표적 고정비 항목은 인건비이다.
다만, 고정비에 투자하는 이유는 자산을 만들기 위해서이다. 기존 자산을 더 좋은 자산으로 만들거나, 새로운 자산을 만들지 않으면, 회사가 건전한 성장을 만들어 나가기는 어렵다. IT 스타트업은 기술 또는 상품이 자산인데, 기술/상품을 만드는 것은 사람이기에, 무엇을 만들기 위해 사람에 얼마를 투자할지? 해당 자산은 언제 매출/수익을 만들 수 있으며, 투자를 상쇄하는 시점은 언제 오는지에 대한 예측, 결정이 중요하다.
최악은 변동비와 고정비가 함께 올라가는 구조이다. 특정 부분을 Insoucring 하기로 결정하여 팀을 build-up 했는데, 해당 팀에서 '저희 외주도 함께 쓰면 안되요?' 등 하며 변동비까지 높이는 상황이다. 변동비를 쓸꺼면 고정비를 최소화하고, 고정비를 쓸꺼면 변동비를 최소화 해야 하는데, 둘 다 올라가는 구조가 빠르게 무너지는 회사들의 공통된 특징이기도 하면서도, 많은 스타트업에서 공통적으로 경험하는 무서운 시행착오 이기도 하다.
과거 글에서, 훌륭한 인재를 모시는 경우, 일정 기간 동안은 해당 팀에 대한 버짓 통제를 강화해야 한다고 말했던 이유이기도 하다.
Ringle은 고정비를 투자 전략을 취하고 있는 예이다. 1) [기술 개발] 튜터-유저 간 모든 수업 내용에 대해 영어 실력을 진단하기 위한 CAF 진단 엔진(AI 기반의 진단 엔진)을 만들고, [상품 개발] Teens 라는 새로운 상품을 런칭하고, [역량 강화] 팀 내 홍보를 효율적으로 하기 위해 외주에 의존하기 보다는 Creative 팀을 내부에 구축했다. 그래서 마음이 항시 바쁘다. Asset 에 투자한 만큼 ROI 가 더 빠르게 나올 수 있도록, '무엇을 어떻게 더 잘할 수 있을지?' 매일 매일 고민해야 하기 때문이다. 칼을 꺼냈으면 무라도 썰어야 한다는 속담이 항시 생각나기도 한다.
어떤 전략을 취하는지는 회사의 비전, 성향, 업의 특징 등에 따라 달라지기 때문에, 어떤 전략이 정답이다 라고 말할 수는 없다. 그렇지만, 변동비 중심 전략을 취했으면 고정비를 최소화하며 성장해야 하고, 고정비 중심 전략을 취하면 변동비를 최소화하며 빠르게 매출/수익을 내는 방향으로 성장해야 한다. 각 전략에 따른 최적 실행 방안을 구축하지 못하고, 이것도 저것도 아는 방향으로 운영하며 두 비용이 동시에 올라가는 구조는 절대 피해야 한다.
고정비에 투자하는 것에는 위험이 따른다. 고정비를 상쇄할 만한 매출/수익이 나오지 않으면 회사가 무너질 수 있기 때문이다. 대표적 고정비 항목은 인건비이다.
다만, 고정비에 투자하는 이유는 자산을 만들기 위해서이다. 기존 자산을 더 좋은 자산으로 만들거나, 새로운 자산을 만들지 않으면, 회사가 건전한 성장을 만들어 나가기는 어렵다. IT 스타트업은 기술 또는 상품이 자산인데, 기술/상품을 만드는 것은 사람이기에, 무엇을 만들기 위해 사람에 얼마를 투자할지? 해당 자산은 언제 매출/수익을 만들 수 있으며, 투자를 상쇄하는 시점은 언제 오는지에 대한 예측, 결정이 중요하다.
최악은 변동비와 고정비가 함께 올라가는 구조이다. 특정 부분을 Insoucring 하기로 결정하여 팀을 build-up 했는데, 해당 팀에서 '저희 외주도 함께 쓰면 안되요?' 등 하며 변동비까지 높이는 상황이다. 변동비를 쓸꺼면 고정비를 최소화하고, 고정비를 쓸꺼면 변동비를 최소화 해야 하는데, 둘 다 올라가는 구조가 빠르게 무너지는 회사들의 공통된 특징이기도 하면서도, 많은 스타트업에서 공통적으로 경험하는 무서운 시행착오 이기도 하다.
과거 글에서, 훌륭한 인재를 모시는 경우, 일정 기간 동안은 해당 팀에 대한 버짓 통제를 강화해야 한다고 말했던 이유이기도 하다.
Ringle은 고정비를 투자 전략을 취하고 있는 예이다. 1) [기술 개발] 튜터-유저 간 모든 수업 내용에 대해 영어 실력을 진단하기 위한 CAF 진단 엔진(AI 기반의 진단 엔진)을 만들고, [상품 개발] Teens 라는 새로운 상품을 런칭하고, [역량 강화] 팀 내 홍보를 효율적으로 하기 위해 외주에 의존하기 보다는 Creative 팀을 내부에 구축했다. 그래서 마음이 항시 바쁘다. Asset 에 투자한 만큼 ROI 가 더 빠르게 나올 수 있도록, '무엇을 어떻게 더 잘할 수 있을지?' 매일 매일 고민해야 하기 때문이다. 칼을 꺼냈으면 무라도 썰어야 한다는 속담이 항시 생각나기도 한다.
어떤 전략을 취하는지는 회사의 비전, 성향, 업의 특징 등에 따라 달라지기 때문에, 어떤 전략이 정답이다 라고 말할 수는 없다. 그렇지만, 변동비 중심 전략을 취했으면 고정비를 최소화하며 성장해야 하고, 고정비 중심 전략을 취하면 변동비를 최소화하며 빠르게 매출/수익을 내는 방향으로 성장해야 한다. 각 전략에 따른 최적 실행 방안을 구축하지 못하고, 이것도 저것도 아는 방향으로 운영하며 두 비용이 동시에 올라가는 구조는 절대 피해야 한다.
GPT3.5 파인튜닝 공개되었습니다.
가격은 일반 (input $0.0015 / 1K tokens) 대비 약 10배 정도 비싸다고 할 수 있고 GPT4의 (input $0.03 / 1K tokens) 절반 정도 되네요. GPT3.5를 도메인 특화 등에 파인튜닝해서 GPT4보다 더 좋은 성능을 낼 수 있다면 이익이겠습니다.
Training: $0.008 / 1K Tokens
Usage input: $0.012 / 1K Tokens
Usage output: $0.016 / 1K Tokens
치열한 도메인 특화 경쟁이 시작되었고, 이를 통해 GPT4를 넘어서는 멋진 특화 모델들을 많이 볼 수 있을 것 같습니다. 멋진 세상입니다!
--
https://platform.openai.com/docs/guides/fine-tuning
Starting today, you can now fine-tune GPT-3.5 Turbo for custom use cases. Read more about the new fine-tuning capabilities in our latest blog post.
Fine-tuning use cases
Since the release of GPT-3.5 Turbo, developers and businesses have asked for the ability to customize the model to create unique and differentiated experiences for their users. With this launch, developers can now run supervised fine-tuning to make this model perform better for their use cases. In our early results, we have seen developer achieve:
Improved steerability
Reliable output formatting
Consistent custom tone
In addition to increased performance, fine-tuning also enables businesses to shorten their prompts while ensuring similar performance.
Pricing
Fine-tuning costs are broken down into two buckets: the initial training cost and usage cost:
Training: $0.008 / 1K Tokens
Usage input: $0.012 / 1K Tokens
Usage output: $0.016 / 1K Tokens
가격은 일반 (input $0.0015 / 1K tokens) 대비 약 10배 정도 비싸다고 할 수 있고 GPT4의 (input $0.03 / 1K tokens) 절반 정도 되네요. GPT3.5를 도메인 특화 등에 파인튜닝해서 GPT4보다 더 좋은 성능을 낼 수 있다면 이익이겠습니다.
Training: $0.008 / 1K Tokens
Usage input: $0.012 / 1K Tokens
Usage output: $0.016 / 1K Tokens
치열한 도메인 특화 경쟁이 시작되었고, 이를 통해 GPT4를 넘어서는 멋진 특화 모델들을 많이 볼 수 있을 것 같습니다. 멋진 세상입니다!
--
https://platform.openai.com/docs/guides/fine-tuning
Starting today, you can now fine-tune GPT-3.5 Turbo for custom use cases. Read more about the new fine-tuning capabilities in our latest blog post.
Fine-tuning use cases
Since the release of GPT-3.5 Turbo, developers and businesses have asked for the ability to customize the model to create unique and differentiated experiences for their users. With this launch, developers can now run supervised fine-tuning to make this model perform better for their use cases. In our early results, we have seen developer achieve:
Improved steerability
Reliable output formatting
Consistent custom tone
In addition to increased performance, fine-tuning also enables businesses to shorten their prompts while ensuring similar performance.
Pricing
Fine-tuning costs are broken down into two buckets: the initial training cost and usage cost:
Training: $0.008 / 1K Tokens
Usage input: $0.012 / 1K Tokens
Usage output: $0.016 / 1K Tokens
Openai
Model optimization | OpenAI API
We couldn't find the page you were looking for.