Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
GPT-4는 추론 엔진(Reasoning Engine)입니다. https://every.to/chain-of-thought/gpt-4-is-a-reasoning-engine

GPT 모델은 데이터 베이스가 아니라, 추론 엔진이라는 것이 중요합니다.
AI 유용성 향상이 추론 능력의 향상 뿐 아니라, 정확한 타이밍(적시)에 유용한 지식을 엑세스 하는 능력 향상에서 비롯될 것이라고 (글쓴이가) 예측하기에 중요합니다.
GPT의 웹 검색 베이스 기반 (GPT Model : Browing)은 웹 조사를 수행하여 자체 지식 기반을 만듭니다. 그런 다음에 수집된 정보를 분석하여 보다 정확한 답변을 추출하는 것입니다.
GPT-4가 인터넷, 혹은 데이터베이스에 연결되면 모호한 통계적 추론에 의존할 필요가 없습니다. 대신하여 명확한 답변을 생성할 수 있습니다.
이런 지식에서 적시에 적합한 지식을 찾는 것, AI에서는 일반적으로 벡터 데이터베이스로 수행됩니다.
실제로 AI를 구축하는 회사의 성공을 전체적으로 나타내는 투자를 하고 싶다면 벡터 데이터베이스 제공업체 또는 이들의 바스켓에 투자하는 것이 현명한 조치입니다(파인콘 etc.)
개인 지식 저장소는 매우 가치가 있을 겁니다.
우리는 입력의 중요성을 과소 평가하는 경향이 있는 듯 합니다. AI로 정확한 결과를 얻기 위해서는 입력한 정보가 무엇인지가 중요합니다. 그 답은 우리가 분석을 위하여 제공하는 정보에 의해 크게 좌우됩니다.
👍2
안녕하세요, AGI Town in Seoul에서 다가오는 금요일 저녁 6:30에 역삼역 부근에서 '게임/엔터 업계에서의 AI 적용'이라는 주제로 밋업을 진행합니다.

🏄‍♂️ 혹시 게임업계에서 AI를 어떻게 적용하는지 고민하고 계셨던 분, AI 리서처/개발자로서 게임 분야에 활용에 대해서 고민했거나 관심이 크신 분이라면 이번 Meetup에 참석하셔서 같이 토론해봐요!

이번 밋업에서는 아래 주제에 대해서 다룰 예정입니다.

🌟 HYBE IM의 조영조님이 AI와 메타휴먼을 이용해 현실감 넘치는 디지털 캐릭터를 만드는 노하우를 공유해주실 겁니다. 창의력과 기술이 만나 탄생하는 새로운 세계를 경험하실 수 있는 기회입니다. 🎨🔬

🌟 너디스타의 정병익님은 AI가 적용된 수집형 RPG를 만드는 방법에 대해 이야기해주실 것입니다. RPG의 미래에 대해 궁금해하셨다면, 이 세션은 놓치지 마세요. 🧩🎲

🌟 김성완님이 생성 AI를 이용한 게임 개발에 대해 설명해주실 겁니다. 최근 Stanford에서 발표한 Generative Agents: Interactive Simulacra of Human Behavior 논문 재밌게 읽었는데, 실제 업계에 계신분들은 생성 AI를 어떻게 활용하려고 할까요?

AGI Town in Seoul이 지향하는 바는 단순 지식을 공유하는 것에서 끝나는 것이 아니라 기술을 깊게 연구한 리서처들과 서비스를 개발해본 엔지니어들이 모여 특정 주제를 깊게 논의해서 가치있는 무언가를 만들어냄에 있습니다.

🔥 신청 링크: https://lu.ma/jjlxyi8m 🔥

🫡기업, VC 중에서 간단히 후원해주실 수 있는 분들은 agitowninseoul@gmail.com로 후원 문의 부탁드립니다. 후원기업 로고는 행사에서 사용될 장표 하단에 노출되고 행사 시작 전후로 해당 후원사실에 대해서 공유드립니다. 샌프란시스코(SF)에서도 많은 VC들이 AI 관련 행사를 후원하며 생태계가 커질 수 있었습니다. 🙇‍♀️

🙏이번 밋업에서는 게임 업계를 주제로 하는 만큼 관련 산업에 계시거나 AI리서처/빌더인 분들 위주로 초대드리고 있습니다.
🔥1
https://youtu.be/5Qaxz2e2dVg

이 비디오에서는 Elastic의 전체적인 벡터 데이터베이스와 타사 모델을 활용할 수 있는 기능에 중점을 두고 벡터 검색, 임베딩, 그리고 대규모 검색 환경을 개선하는 데 있어 그 중요성에 대해 자세히 설명합니다. Elastic의 Michael Helderbrand 박사가 벡터 검색 개념을 소개하며, 고차원 공간 내에서 정확히 일치하지 않더라도 의미적으로 유사한 데이터를 찾을 수 있는 벡터 검색의 기능을 설명합니다. 대규모로 벡터 검색을 수행하려면 소스 데이터를 저장하고 이를 벡터로 변환하는 반복 가능한 프로세스를 포함하는 벡터로 가득 찬 데이터베이스를 만들어야 합니다.

벡터 검색에서 임베딩은 데이터를 클러스터링하고 모델을 통해 실행하여 벡터 검색에 사용되는 출력 벡터를 생성할 수 있기 때문에 매우 중요합니다. Burt와 같은 모델은 레이어로 학습되도록 구조화되어 있어 특정 작업에 맞게 미세 조정하는 데 도움이 됩니다. 다양한 유형의 데이터에 대한 신속한 검색을 위한 인덱싱의 중요성도 강조됩니다.

이 동영상에서는 보다 정확한 결과를 위한 하이브리드 스코어링, 패싯을 통한 검색 결과의 동적 계산 및 집계 가능성, 데이터 보호 및 사용자 권한 할당을 위한 역할 기반 액세스 제어 등 벡터 검색의 사용자 경험 측면에 대해 다룹니다. 특히, Elastic 검색은 다양한 타사 모델을 통합할 수 있는 전체론적 벡터 데이터베이스로 제공됩니다.

Elastic 검색의 텍스트 기반 검색 엔진 측면을 벡터 검색에 대한 장점에 중점을 두고 자세히 살펴봅니다. Elastic 검색은 시맨틱 검색과 문서 확장을 제공하므로 데이터 과학 팀이 없는 사용자도 쉽게 사용할 수 있습니다. 상호 순위 융합 기능은 정규화 없이도 서로 다른 등급 시스템을 쉽게 혼합할 수 있게 해줍니다. Elastic Search Relevance Engine, 즉 Ezra는 개인화 및 이미지 검색과 정서 분석을 포함해 최적의 검색 환경을 구축하기 위한 도구를 번들로 제공합니다.

검색 환경을 개선하기 위한 ChatGPT의 잠재력에 대해 논의하면서, 발표자는 자연어와 문맥을 이해하여 고객의 검색 환경을 간소화할 수 있는 능력을 확인합니다. 그러나 공개 학습 데이터는 ChatGPT를 제한하며, 비공개 데이터로 미세 조정이 필요합니다. 관련성 있는 최신 문서를 확보하기 위한 보다 비용 효율적인 대안으로 Elasticsearch와 생성형 AI의 통합이 제안됩니다.

이어서 컨퍼런스 초록을 크롤링하여 벡터화하고 챗봇이 문서를 읽고 요약할 수 있도록 지원하는 Elastic의 기능을 보여주는 실제 데모가 이어집니다. 정확하고 관련성 높은 결과를 제공하기 위해 벡터 검색 기술과 다른 정교한 관련성 순위 기능을 혼합하는 것의 중요성이 강조됩니다.

법률 애플리케이션으로 넘어가서, 연사는 Relativity가 데이터 검색을 사용하여 법무팀이 데이터를 정리하고, 진실을 발견하고, 조치를 취하는 데 어떻게 도움을 주는지에 대해 설명합니다. Microsoft의 ‘변화를 위한 정의’ 프로그램과 비영리 단체 및 로펌의 무료 봉사 활동에서 Relativity의 기술이 어떤 역할을 하는지도 강조합니다.

법적 절차에서 AI 사용에 대한 잠재적인 우려를 다루고 투명성, 공정성, 책임성에 중점을 둔 Relativity의 AI 원칙을 소개합니다. 또한 Relativity 8.8 버전에서 하이브리드 검색과 벡터 검색을 모두 사용할 수 있음을 확인합니다.

마지막으로, 동영상에서는 순수 벡터 검색과 스파스 인코더 모델을 동시에 실행하는 방법과 Elasticsearch에서 1024보다 큰 차원을 지원하는 계획에 대해 설명합니다. 보안, 통합 가시성, 데이터 과학자를 위한 사용자 정의 모델 구축과 같은 다른 핵심 사용 사례에서 머신 러닝을 사용하는 방법도 살펴봅니다.

기업가와 투자자를 위한 주요 내용은 다음과 같습니다:

- 대규모 데이터 세트를 처리하고 검색 환경을 개선하는 데 있어 벡터 검색과 임베딩의 중요성.
- 시맨틱 검색, 문서 확장을 제공하고 데이터 과학 팀이 필요하지 않은 Elastic 검색과 같은 텍스트 기반 검색 엔진 사용의 이점.
- 한계에도 불구하고 검색 환경을 개선하는 데 있어 ChatGPT와 같은 AI 도구의 잠재력.
- 법률 프로세스, 보안, 통합 가시성 등 다양한 분야에서 AI와 머신 러닝의 역할.
- 투명하고 공정하며 책임감 있는 AI 사용을 보장하는 데 있어 AI 원칙의 중요성.
We’re thrilled to open a new chapter at ElevenLabs!

Today we are announcing a set of new voice AI products & our $19M Series A round led by Nat Friedman, Daniel Gross, & Andreessen Horowitz to help us make content universally accessible in any voice and any language.

This investment amplifies our ambition to establish a leading voice AI research hub and build great products for publishing, gaming, entertainment, creative and conversational applications.

We are grateful to work with Nat, Daniel and Jennifer, Bryan & Justine from the a16z team. Thank you to all the new amazing angels also joining us on this journey: Ali Albazaz, Namat B., Siqi Chen, Brendan Iribe, Mike Krieger, Gerard M., Anjney Midha, Dima Shvets, Aravind Srinivas, Mustafa Suleyman, Tim O'Reilly, Guillermo Rauch, as well as strategic venture funds: Creator Ventures, SVA, industry partners & users: Embark Studios, Storytel, TheSoul Publishing and to Credo Ventures & Concept Ventures for their continued support.

Read more here: https://lnkd.in/d3KKQ58s
펀딩성공이 재앙의 시작이다.

이때가 우리회사 역사상 진짜 위험한 시기로 들어가는 것이어요. 연료가 생겨서 1.사람뽑고 2.새로운 일 벌리고 3.멋지고 뽀대나는 회사처럼 보이고 싶은 것들을 실현할 돈이 생겼거든요.

이때가 진짜 위험 할 때이어요. 기존 잘하던 본진도 망가트리고 말죠. 펀딩하고 돈쓰고 망하는 스타트업들이 너무 많아요. 무엇보다도 젊은 창업자들이 큰 돈과 권력 그리고 인기의 맛을 보고 취해 부패하는 것이 위기를 부르는 가장 큰 위험이어요.

초보 경영자들에게는 거의 불가능할만큼 힘든 일이지만 "돈이 안들어 온 것처럼" 평심을 유지하는게 첫번째 과제이어요. 장기적인 프로젝트, 미래의 비전을 위한 일에는 돈을 쓰지 말고 "지금 당장 매출을 내는" 일에만 돈을 더 쓰려고 이를 악물고 돈주머니를 꼭꼭 묶어도 조직은 느슨해지고 돈은 술술 새는 게 자연의 이치예요.

재앙의 첫째 증거가 직원이 느는거예요. 창업자 마음과 회사에 인원을 늘려야하는 이유는 수십가지가 있는데 그동안은 돈이 없어서 못 늘렸다가 이제는 돈이 있으니 그 늘릴 이유에 합당하게 인원이 당연히 늘 거예요. 여기서부터 투자 유치에 성공의 결과적 재앙이 시작되어요.

당연한 결과로 회사는 적자가 커지고 초보 경영자는 절벽을 만나도 그 늘어난 인원을 어쩌지 못한채 다 같이 절벽으로 떨어지고 말아요. 역설적이게도 펀딩을 안했으면 생존력도 커지고 런웨이도 더 길어졌을텐데.

펀딩성공이 재앙의 시작이라고 생각하세요.

#권도균 #스타트업경영 #경영수업 #창업의시작 #프라이머 #엑셀러레이터 #primer #accelerator
Forwarded from BZCF | 비즈까페
투자자 워렌 버핏은 그만의 시간 관리 비법이 있습니다. 그가 최고의 자리에 오르고, 자리를 유지할 수 있는 비결로서 많은 사람들에게 알려져 있기도 하고요. 워렌 버핏은 3가지 단계로 나누어 자신의 시간을 관리하는데, 그의 개인의 삶에 적용할 뿐 아니라 버크셔와 그 주변인들에게 이 방법을 꼭 사용해 보라고 추천하는 것으로 유명하죠. 그 전략에 관한 글을 번역했습니다.

https://blog.naver.com/bizucafe/223134109331
https://www.linkedin.com/posts/andrewchen_the-real-story-of-how-facebook-almost-acquired-activity-7076984976591753218-J8l7?utm_source=share&utm_medium=member_desktop

Excellent essay from Noam Bardin:
“The real story of how Facebook almost acquired Waze, but we ended up with Google”

https://lnkd.in/g76G8u-G

Lots of great learnings, summarized by chatGPT 😎

1. The co-founders of Waze established a valuation framework before entertaining acquisition offers. They decided to reject offers less than $750M and accept offers above $1B, but would consider proposals in the $750M-$1B range depending on the acquirer.
2. Waze approached potential strategic partners to help accelerate user acquisition, including Microsoft, Amazon, and Facebook, leading to potential acquisition discussions.
3. The founders established relationships with potential acquirers' product teams well in advance, providing a critical foundation for the acquisition process.
4. Initial negotiations with Google ended in a $450M offer which was rejected based on the pre-established valuation framework. This prompted backlash from the board but the founders remained firm.
5. Facebook offered to acquire Waze for $1B swiftly after being informed of a competing offer. Despite initial enthusiasm, the due diligence process revealed gaps and tension between the Waze and Facebook teams, leading to the deal falling through.
6. Following the leak of the Facebook deal, Google presented an unsolicited term sheet of $1.15B. Despite accusations of information leakage, Waze's fiduciary duty led them to consider the offer, leading to a fallout with Facebook.
7. With no counteroffer from Facebook, Waze accepted Google's offer and closed the transaction in eight days.
8. In hindsight, despite the potential financial benefits of a Facebook deal, the Waze co-founder believed Google was the right choice due to cultural fit, their commitment to Waze's independence, and Facebook's subsequent controversies.
9. The lessons learned included: building relationships with potential acquirers early, having a clear valuation framework, recognizing partnership discussions as catalysts for acquisition, understanding the personal nature of acquisitions, and being aware of the divergence in interests between founders and investors during an acquisition.
10. The final key lesson was understanding the power of negotiation, having a red line, and being willing to walk away to secure a better deal.
I like his point of view and learned many things from the leader of one of the largest travel platform.

https://youtu.be/aZ-BjJZxNoA

In this section, Airbnb CEO Brian Chesky discusses his company's approach to AI and how they plan to use it for personalization. Chesky explains that there are several large language models, or base models, which he compares to highways. On top of these base models, companies can build more personalized and tuned models based on their own customer data. Chesky's vision for Airbnb's use of AI involves building robust customer profiles to personalize travel recommendations and becoming the ultimate AI concierge for travelers. He explains that this will require designing unique AI interfaces beyond just text inputs and combining art and science to understand human psychology. In the short-term, Chesky plans to increase productivity by making his engineers 30% more efficient.

Airbnb CEO Brian Chesky discusses the importance of using productivity tools, such as co-pilot and chat CPT, to maximize productivity and efficiency. Chesky also delves into the need for unique interfaces that are custom-designed to meet the specific needs of each task. He adds that AI will be critical for personalizing the customer experience and improving the matching process in the future, allowing for authentic and unique experiences for each individual customer. However, Chesky acknowledges that there is also a risk of machines becoming so advanced that they become difficult to discern from humans, and that identity authentication will be a critical factor going forward.

Airbnb CEO Brian Chesky discusses the importance of brand authenticity and of building a robust personal profile through verifying customers’ identities. He also expresses excitement about the possibilities of AI matching users with delightful experiences, even things they didn’t know would make them happy. Chesky believes that AI will disrupt traditional business models, but also create millions of new startups as it becomes more accessible. He argues that trying to ban AI is like trying to ban electricity, and encourages people to view AI as a tool to be embraced rather than a threat to be feared.

the benefits of AI as a creative tool and the importance of thinking of AI as a tool for creativity. He discusses how AI helps him discover first principles in really interesting ideas, but also notes that we do not know what jobs can be created because they have not been created yet. Finally, they touch on how marketplaces like Airbnb, Etsy and Uber allow people to create new careers for themselves and how this will be incredible for society.
👍1
Continuous Learning_Startup & Investment
안녕하세요, AGI Town in Seoul에서 다가오는 금요일 저녁 6:30에 역삼역 부근에서 '게임/엔터 업계에서의 AI 적용'이라는 주제로 밋업을 진행합니다. 🏄‍♂️ 혹시 게임업계에서 AI를 어떻게 적용하는지 고민하고 계셨던 분, AI 리서처/개발자로서 게임 분야에 활용에 대해서 고민했거나 관심이 크신 분이라면 이번 Meetup에 참석하셔서 같이 토론해봐요! 이번 밋업에서는 아래 주제에 대해서 다룰 예정입니다. 🌟 HYBE IM의 조영조님이…
혹시 이번주 금요일에 진행되는 오프라인 밋업에 후원(샌드위치/커피 구매비)을 해주실 수 있는 팀이 있으실까요~?

기업, VC 중에서 간단히 후원해주실 수 있는 분들은 DM으로 후원 문의 부탁드립니다. 후원기업 로고는 행사에서 사용될 장표 하단에 노출되고 행사 시작 전후로 해당 후원사실에 대해서 공유드립니다. 관심있으신 분들은 @MatthewMinseokKim으로 메세지 주세요!
Are we at the beginning of a new era of small models? Here is our newest LLM trained fully in my team at Microsoft Research:

*phi-1 achieves 51% on HumanEval w. only 1.3B parameters & 7B tokens training dataset*

Any other >50% HumanEval model is >1000x bigger (e.g., WizardCoder from last week is 10x in model size and 100x in dataset size).

How did we achieve this? It can be summarized in 5 words:

*Textbooks Are All You Need*

https://lnkd.in/gFUJaafT
Continuous Learning_Startup & Investment
Are we at the beginning of a new era of small models? Here is our newest LLM trained fully in my team at Microsoft Research: *phi-1 achieves 51% on HumanEval w. only 1.3B parameters & 7B tokens training dataset* Any other >50% HumanEval model is >1000x bigger…
Can small, custom LLMs do the job? Another controversial, amazing paper, this time from MSFT Research. What's the secret--textbook quality data.

They describe phi-1, a new large language model specifically for python coding that only has only 1.3B parameters, is trained with only 7B tokens, and claims to achieve nearly SOTA accuracy on the Human-Eval benchmark. They also claim that it "displays surprising emergent properties" after it is finetuned:

"We hypothesize that such high-quality data dramatically improves the learning efficiency of language models for code as they provide clear, self-contained, instructive, and balanced examples of coding concepts and skills"

Notice that while phi-1 does seem to perform well in evaluations, it is still a research model. It has trouble with variations in its prompts, and does not deal well with longer prompts. It's not going to compete with StarCoder or ChatGPT, so don't expect to make a new Flask app with it.

I could not find the model so I can't evaluate it myself; if anyone knows how or does, please post it in the comments.

It seems that, like the Falcon models, having great data lets you do great things.

"Textbooks Are All You Need:" https://lnkd.in/g8YdiWMP
This time, Ralph Clark and I planned for a get together with our better halves, and got a chance to reminisce old times, and catch up on family and friends. Lots of wine too.

이 친구는 알토스에서 1996년에 첫 투자한 회사 재무를 맡으면서 인연이 시작되었고... 그후 우리가 투자한 두개 회사 재무/대표를 맡으면서 계속 이어갔다. 지금은 (우리가 투자 하지 않은) 상장회사 대표로서 시애틀로 이사가서 오랫동안 못보던 사이였는데 지난주 우연히 길거리에서 마주쳐서 저녁을 같이 하게 되었다.

오랜 이야기 나눴는데... 그중 공감 깊었던 것은:

어린 나이에 어설프게 성공하지 않은게 너무 다행 이였다. 괜히 내가 뛰어나서 성공했다고 착각하고 같은 성공을 할거라 기대하면서 지낸 사람들은 불쌍해 보인다. 운 좋았다 생각하고 착실하게 노력하는 사람들은 잘 하고 있더라.

(참고로 이분이 우리랑 같이 한 첫회사는 상장해서 조단위 회사로 갔다가 버블이 꺼지면서 망했고... 두번째 회사도 투자금 회수도 못할정도 가격에 팔렸고...세번째 회사는 좋은 가격으로 매각 했었다. 회사가 망해도 (손실 나도) 서로에게 신뢰를 주면 이렇게 인연이 계속 된다.)
1
오픈소스가 쏘아올린 작은 공 - SAM.

Meta가 요즘 계속 오픈소스로 재미를 보고 있는 것 같은데, LlaMa 이외에도 SAM도 폭발적으로 확산되고 있네요.

김진성 교수님이 Segment Anything Model (SAM) for Radiation Oncology 논문을 소개해주셔서 이 참에 잠시 찾아보면서 깜짝 놀랐네요. 4월5일 Meat에서 SAM을 발표한 이후로 github 별표는 벌써 3.5만개를 넘어섰고 arXiv 논문들도 어마어마하다는.

그중에서도 의료영상 분할 쪽만해도 제법 되고 있고, SAM 관련 서베이 논문들은 계속 쏟아져 나오고, 목록을 정리하고 있는 github 리포들도 많더군요. 이미 어느 정도 생태계를 굳혔다고 말해도 될 것 같네요.

잠깐 20분 정도 찾은 것들만해도 이 정도 링크들이니. 정말 오픈소스의 힘이란 ..... #SAM

Awesome Segment Anything
https://github.com/Hedlen/awesome-segment-anything

Segment Anything Model (SAM) for Medical Image Segmentation.
https://github.com/YichiZhang98/SAM4MIS

Segment Anything Model (SAM) for Radiation Oncology
https://arxiv.org/abs/2306.11730

Segment Anything
https://arxiv.org/abs/2304.02643

Segment Anything Model for Medical Image Analysis: an Experimental Study
https://arxiv.org/abs/2304.10517

Segment Anything in Medical Images
https://arxiv.org/abs/2304.12306

SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and More
https://arxiv.org/abs/2304.09148

SAM.MD: Zero-shot medical image segmentation capabilities of the Segment Anything Model
https://arxiv.org/abs/2304.05396

When SAM Meets Medical Images: An Investigation of Segment Anything Model (SAM) on Multi-phase Liver Tumor Segmentation
https://arxiv.org/abs/2304.08506

Segment Anything Model for Medical Images?
https://arxiv.org/abs/2304.14660

SAMM (Segment Any Medical Model): A 3D Slicer Integration to SAM
https://arxiv.org/abs/2304.05622

SAM on Medical Images: A Comprehensive Study on Three Prompt Modes
https://arxiv.org/abs/2305.00035

Computer-Vision Benchmark Segment-Anything Model (SAM) in Medical Images: Accuracy in 12 Datasets
https://arxiv.org/abs/2304.09324

Medical SAM Adapter: Adapting Segment Anything Model for Medical Image Segmentation
https://arxiv.org/abs/2304.12620

Zero-shot performance of the Segment Anything Model (SAM) in 2D medical imaging: A comprehensive evaluation and practical guidelines
https://arxiv.org/abs/2305.00109

Personalize Segment Anything Model with One Shot
https://arxiv.org/abs/2305.03048

How Segment Anything Model (SAM) Boost Medical Image Segmentation?
https://arxiv.org/abs/2305.03678

Customized Segment Anything Model for Medical Image Segmentation
https://arxiv.org/abs/2304.13785

Segment Anything Model (SAM) Enhanced Pseudo Labels for Weakly Supervised Semantic Segmentation
https://arxiv.org/abs/2305.05803

Segment Anything Model (SAM) Meets Glass: Mirror and Transparent Objects Cannot Be Easily Detected
https://arxiv.org/abs/2305.00278

Segment Anything in High Quality
https://arxiv.org/abs/2306.01567

Segment Anything Model (SAM) for Digital Pathology: Assess Zero-shot Segmentation on Whole Slide Imaging
https://arxiv.org/abs/2304.04155

SAM3D: Zero-Shot 3D Object Detection via Segment Anything Model
https://arxiv.org/abs/2306.02245

DeSAM: Decoupling Segment Anything Model for Generalizable Medical Image Segmentation
https://arxiv.org/abs/2306.00499

A Survey on Segment Anything Model (SAM): Vision Foundation Model Meets Prompt Engineering
https://arxiv.org/abs/2306.06211

A Comprehensive Survey on Segment Anything Model for Vision and Beyond
https://arxiv.org/abs/2305.08196
Continuous Learning_Startup & Investment
Are we at the beginning of a new era of small models? Here is our newest LLM trained fully in my team at Microsoft Research: *phi-1 achieves 51% on HumanEval w. only 1.3B parameters & 7B tokens training dataset* Any other >50% HumanEval model is >1000x bigger…
"Textbooks Are All You Need" is making rounds:
twitter.com/SebastienBubec
reminding me of my earlier tweet :). TinyStories is also an inspiring read:
twitter.com/EldanRonen/sta
We'll probably see a lot more creative "scaling down" work: prioritizing data quality and diversity over quantity, a lot more synthetic data generation, and small but highly capable expert models.