Continuous Learning_Startup & Investment – Telegram
Continuous Learning_Startup & Investment
2.4K subscribers
513 photos
5 videos
16 files
2.72K links
We journey together through the captivating realms of entrepreneurship, investment, life, and technology. This is my chronicle of exploration, where I capture and share the lessons that shape our world. Join us and let's never stop learning!
Download Telegram
Continuous Learning_Startup & Investment pinned «Blockchain-based AI compute protocol Gensyn has closed a $43 million Series A funding round led by a16z. This development has several implications for AI and crypto startup entrepreneurs and investors. Democratizing AI: Gensyn aims to empower developers…»
<콘텐츠 업계에서 근본적인 경쟁력은 ‘팀 파워’에서 나와요!>

1. 1995년 11월 22일, 픽사의 <토이 스토리>가 개봉했다. <토이 스토리>는 여러 면에서 모두가 숨죽이며 지켜보는 기대작이었다. 최초의 컴퓨터 애니메이션 장편 영화이자, 픽사의 첫 장편 영화였고, 존 래시터 감독의 데뷔작이었기 때문이다.

2. 결과는 대성공을 거두었다. 불과 3000만 달러의 제작비로 전 세계 박스오피스를 휩쓸며 3억 5000만 달러를 벌어들였고, 평론가들의 극찬 또한 이어졌다. 영화평론가 로저 에버트는 이렇게 말했다. “<토이 스토리>를 보며 나는 영화 애니메이션의 새로운 시대가 열리고 있음을 느꼈다”

3. <토이 스토리>의 성공은 도약의 발판이었다. 픽사가 1995년 11월에 상장할 수 있었던 것은 다 <토이 스토리> 덕분이었다. 더불어 ‘로드쇼의 대가’라고 할 수 있는 스티브 잡스의 지원 또한 뒷받침되었다.

4. (<토이 스토리>의 성공은 월트 디즈니가 1937년 회사의 명운을 걸고 내놓았던 <백설공주와 일곱 난쟁이>의 성공과 많은 부분에서 닮았지만) 픽사의 다음 행보는 디즈니와는 완전 달랐다.

5. 디즈니는 <백설공주와 일곱 난쟁이>의 성공을 재현하려고 애쓴 반면, 픽사는 1998년 <벅스 라이프>, 1999년 <토이 스토리2>를 내놓았다. 이 두 작품은 영화 산업 역사상 가장 강력한 흥행 가도의 시작을 알렸을 뿐 아니라, 예술적으로도 놀라운 성공을 거두었다.

6. 다양한 작품에 걸친 픽사의 예술적 성공은 매우 놀라웠다. 픽사 초기 영화 10편의 로튼토마토 평균 점수는 94%였고, 90%에 미치지 못한 작품은 <카>밖에 없었다. 아카데미 시상식에서 8편의 픽사 영화가 장편 애니메이션 작품상을 수상했고, 2편은 작품상 후보까지 올랐다.

7. 상업적 성공도 대단했다. 픽사 영화의 총수익률 평균은 여타 개봉 영화나 픽사 외 다른 애니메이션 영화보다 4배가량 높았다.

8. 픽사 영화의 전 세계 매출은 53억 달러에 이르며, 이는 상당한 규모의 제품 판매와 테마파크 수익을 제외한 액수다.

9. 이러한 종합적 성과도 대단하지만, (특히) 개별 작품의 성과 역시 인상적이다. 픽사가 만든 모든 영화는 총수익률에서 플러스를 기록했고, <월-E>를 제외한 모든 영화가 산업 평균 수익률을 넘어섰다.

10. (<토이 스토리>가 개봉하기 전인) 1990년까지 직원 수가 50명 미만으로 줄어들고, 스티브 잡스의 지원으로 겨우 유지되며 툭하면 파산 위기에 처했던 회사가 이처럼 놀라운 성공을 거둔 것이다.

11. (역사적으로도) 이러한 지속적인 성공은 영화 산업에서 전례 없는 일이다. 윌리엄 와일러나 스티븐 스필버그 같은 몇몇 감독과 <인디아나 존스>나 <록키> 같은 몇몇 프랜차이즈 시리즈 영화가 여러 차례 대단한 상업적 성공을 거두긴 했지만, 픽사처럼 여러 감독과 팀이 오랜 기간 깨지지 않는 기록을 세운 경우는 없었다.

12. 어떤 의미로 보나, 이보다 (뛰어난) 전략적 성취는 없을 것이다. 스티브 잡스가 보유한 순자산의 대부분 역시 애플이 아니라, 픽사를 디즈니에 매각하면서 얻은 수익이다.

13. (즉) 픽사에는 의심할 여지 없이 ‘특정한 파워’가 있다. 그렇다면 픽사는 어떤 파워를 보유하고 있는가?

14. 훌륭한 기업은 보통 천재적인 창업가 한 명을 얻은 행운으로 성장하는데, 픽사에는 스티브 잡스(=사업 천재), 에드 캣멀(=기술 천재+경영 천재), 존 래시터(=애니메이션 천재)라는 3명의 천재가 있었다. 이들 중 어느 사람이라도 없었다면 픽사 이야기는 해피엔딩이 되지 못했을 것이다.

15. 물론 이들에게도 어려움이 있었다. 세 사람의 헌신과 노력에도 불구하고, 사업 초기 픽사는 자금 부족으로 어려움을 겪었고, 잡스가 개인 돈을 쏟아부으며 살아남기 위해 고심했다.

16. (그런 의미에서) 토이 스토리의 탄생은 롤러코스터를 오르내리는 것 그 자체였다. 시작 단계부터 실패를 거듭했고, 수많은 갈등 속에서 죽기 살기로 매달리며 마감 기한을 향해 달렸다. 조직 내 정치적인 문제와 통찰의 순간이 이어졌고, 야근이 일상이 되었다.

17. (하지만 그런 상황에서도) 영화 제작 팀은 전쟁에 나갔다 돌아온 해병대 전우처럼 서로에 대한 신뢰와 존경, 이해로 가득한 깊고 탄탄한 유대를 구축했다. 그리고 뒤이어 제작한 2편의 영화는 그들의 유대를 더욱 확장하고 강화했다.

18. 그리고 이런 유대감은, 이후 ‘브레인 트러스트’로 알려진 창의적인 핵심 그룹으로 이어졌고, 이들은 픽사의 지속적 성공에 중요한 역할을 했다. (즉, 신뢰로 구성된 인적 네트워크인) ‘브레인 트러스트’가 픽사의 파워를 이루는 핵심 요인이다.

19. 그리고 경제학에서 이런 파워 유형을 ‘독점 자원’이라고 부른다. 재능 있고 수많은 경험으로 다져진 응집력 강한 베테랑 그룹의 활약이 픽사만이 가지고 있던 고유한 자원이었던 것이다.

- 해밀턴 헬머, <세븐 파워> 중
Arthur Mensch, cofounder of French AI startup Mistral, asking Emmanuel Macron about EU-level regulation of AI.

Answers:
1. premature regulation would stifle innovation.
2. More investment in computing infrastructure. France has an advantage: low-emisdion nuclear energy.
3. "We believe in open source platforms."
4. Enable the use of public data to train AI systems.
안녕하세요 바바리안리서치 김찬유입니다.

어제 장 마감 이후 Adobe의 실적 발표가 있었습니다.

먼저 실적 측면에서는 작년부터 이어진 업황 둔화 우려를 해소시키는 실적을 보여줬습니다.

업황은 작년과 달리 회복세를 유지하며 전반적으로 QoQ 상승세를 계속할 분위기라고 봐도 될 것 같습니다.

AI 관련 코멘트를 보면 1분기 출시한 Firefly, 그리고 나아가 제품군 전반에 Generative AI를 접목시키기 위해

회사가 그동안 체계적인 준비를 해왔다는 느낌을 받았습니다.

하반기에는 Firefly를 시작으로 Adobe의 AI 생태계가 어디까지 확장될 수 있는지 계속 관심을 가지고 지켜볼 필요가 있어 보입니다.
https://contents.premium.naver.com/barbarian/stockideas/contents/230616215642488lt
Forwarded from BZCF | 비즈까페
인공지능 관련 뉴스들은 하루가 무섭게 새로운 일들이 벌어집니다. 조금만 정신을 놓고 있으면 뒤쳐질 것 같은 느낌도 들고요. 그래서 시작했던 공부가 하나둘씩 쌓이다 보니 모음으로 공유할 정도가 되었네요. OpenAI부터, 테슬라까지 인공지능과 관련되어 유익했던 영상들 7개를 추려보았습니다. 주말에 시간내어 공부하시며 보시면 도움이 많이 되시지 않을까 합니다. 마음껏 공유 혹은 저장해주셔도 좋습니다.

- BZCF 텔레그램 : https://news.1rj.ru/str/bzcftel

<인공지능 한글번역 셀렉션>

1. 샘알트만 | 인공지능(Chat GPT)은 구글을 대체할 수 있을까?
- https://youtu.be/cgfFg5s_wXs

2. 일론 머스크가 새로운 인공지능 회사를 만드는 이유
- https://youtu.be/M5MT7dRo1I4

3. AI가 만드는 기회 (Nat Friedman - Former GitHub CEO)
- https://youtu.be/z47Hx-acRdU

4. 인공지능 : 우리는 이대로 괜찮을까?
- https://youtu.be/FuIsdCHPoDs

5. 2030년에는 컴퓨터와 사람의 뇌가 합쳐질 겁니다 | 레이 커즈와일
- https://youtu.be/uc66zrI28UY

6. 테슬라 자율주행의 설계자 안드레 카파시
- https://youtu.be/ay8E_moegfk

7. OpenAI 샘 알트만 | 인공지능 chatGPT는 균형을 잡아갈 것
- https://youtu.be/vZ8J36xrK3s
Continuous Learning_Startup & Investment
https://youtu.be/5cQXjboJwg0
Startups are now implementing AI rather than just talking about it

The open architecture of the web needs to be re-architected in the age of AI

The top of the funnel in web search is up for grabs and all of those dollars will be redistributed

Google may have to fight off cannibalization of core search to make its claim for the best AI

Building a conversational UI is the new way to interact with customers

https://share.snipd.com/snip/92c992f6-9826-4766-be31-209024910225

There's another way to think about this, which is the reverse of the client server model, where today you are the client, you are the node on the network and you're communicating with the center of the network, which is the server, which is the service provider and all the data sits there and you're getting data in and out of their product to suit your particular objectives.

But the future may be that more data is aggregating and accruing about you, you end up becoming a server, you then have the option.

Imagine if every individual had their own IP address and that individual IP address had behind it behind your ability to control lots of information and lots of output about all your interactions across the different network of service providers at years.

https://share.snipd.com/snip/6b55619f-14ff-469e-96d7-150fbca0ceb9
댄스가 독서보다 2배의 효과가 있다--부제. 나이가 들어도 젊고 똑똑해질수 있는 비법

1. 흥미롭게도 제가 인스타에 올린 댄스영상을 좋아하시는 분들이 많다. 제 글보다 댄스 이야기를 하시는 분들이 의외로 적지않다.

2. 내가 좋아요를 가장 많이 받은글을 보면
페북에 3000개정도가 최고였다.
링크드인도 3000개 정도가 최고였다.
그런데 인스타에 올린 한 댄스영상의 좋아요가 5000개이다. 인스타는 시작한지 얼마안되어 다른 포스트는 좋아요가 그리 많지 않은데 말입니다. 어떤 분은 그걸로 책쓰는게 대중들에게는 재미없는 리더십 책 쓰는것보다 잘팔릴거라 하셨다😅

3. 뇌와 관련된 책을 읽다보니 운동이 몸 뿐 아니라 정신에도 매우 좋은 영향을 미친다고 한다. 여기까지는 상식인데. 특히, 뉴잉글랜드의학저널의 한 논문에 의하면 규칙적 댄스는 치매 발생 위험 76프로를 감소하며, 이는 독서로 얻는 효과의 두배라고 한다.

5. 과거에는, 나이가 들수록 뇌의 연결이 끊어지고 새로운 연결이 만들어지지 않는다고 생각했다. 이에 나이가 들수록 점점 멍청해지는것은 피할수 없는 현상이라고 여겼다. 그러나, 최근 연구에 의하면 나이가 들어도 뇌에 새로운 연결이 만들어질수 있다는것이 밝혀졌다. 즉, 나이가 들어도 뇌의 기능이 발달하고 똑똑해질수 있다는 것이다.

6. 그럼, 뇌에 새로운 연결을 만드는 방법은 무엇일까? 옥스퍼드 대학에서 사람들을 대상으로 6개월간 저글링훈련을 시켰다. 그러자 나이와 무관하게 눈과손의 협업과 관련된 모든 사람들의 뇌부위가 발달했다고 한다.

7. 특히, 자신이 기존에 잘하는것보다 새로운것을 배우면 뇌에 새로운 연결이 만들어 진다고 한다.

8. 그러므로, 새로운 것을 도전하시라. 외국어든, 피아노든, 춤이든, 스포츠든 새로운것을 배울 필요가 있다. 새로운 책을 읽고 새로운 장소를 여행하는 것도 좋은 방법이다. 옛날에 배운것을 곰국 우려먹듯 사는 사람은 나이가 들수록 멍청해지지만, 항상 새로운 것을 배우는 사람은 청년처럼 살수 있다.

9. 여기에 또 하나의 보너스 굿 뉴스가 있다.
저글링을 통한 뇌 발달에 관한 옥스포드대에서의 연구에서 발견한 것은 실력과 뇌발달은 관계가 없다는 것이다. 즉, 못해도 뇌가 발달한다는 것이다.

10. 그러므로, 외국어든, 피아노든, 댄스든, 주짓스든, 요가든 뭐든 새로운것을 배울때 못한다고 자책하거나 포기할 필요가 없다. 몸이 못따라간다고 좌절할 필요도 없다. 그래도 뇌는 쑥쑥 자란다.

11. 사실 저는 배우는 것을 좋아한다. 동시에 이것저것 하지는 않아도 한가지 정도 새로운 것에 도전한다. 댄스 또한 몇달전 새롭게 시작했다. 사실 나는 운동을 매우 싫어한다. 그러나 다행히 흥이 많아 댄스는 좋다. 일주일에 한번 정도 댄스 레슨을 받고 가끔씩 연습을 할 뿐이다. 그러나 잘 하려하기보다는 어짜피 오래 살것인데 오래하려한다. 이후에는 "피아노"를 본격적으로 배울 생각이다. 나는 피아니스트 임현정씨를 좋아한다(그분의 피아노 소리보다 열정적인 그분 자체가 멋있다). 배우는 과정을 유튜브나 인스타에 남기려 한다.

12. 제 영상을 보고 셔플이나 크록하를 배우려는 분들이 늘었다고 한다. 무리하지 마시고 저 처럼 일주일에 한번씩만 하셔도 좋다. 지금은 잘하는게 중요한게 아니라 즐기는것과 지속하는게 중요하다.

13. 특히, 이글을 보는 분들의 나이가 40이 넘었다면 말이다. 50이 넘으셨다면 더더욱 새로운 걸 배우시라. 그것이 오래 건강하며 현명하게 살수 있는 비결이다.
👍4
Unifying LLMs & Knowledge Graphs

1) Incorporate KGs during LLM pre-training/ inference, enhancing LLM understanding

2) Leverage LLMs for different KG tasks (embedding, completion, construction)

3) LLMs <> KGs bidirectional reasoning (data vs knowledge)

arxiv.org/abs/2306.08302

LLM 및 지식 그래프 통합

1) LLM 사전 학습/추론 시 KG를 통합하여 LLM 이해도 향상

2) 다양한 KG 작업(임베딩, 완성, 구축)에 LLM 활용

3) LLM <> KG 양방향 추론(데이터 대 지식)

arxiv.org/abs/2306.08302

https://twitter.com/johnjnay/status/1670051081722769408?s=46&t=h5Byg6Wosg8MJb4pbPSDow
The Falcon 40B is a large-scale artificial intelligence model developed by the Technology Innovation Institute (TII) in Abu Dhabi, United Arab Emirates1. It is a foundational large language model (LLM) with 40 billion parameters and trained on one trillion tokens1. Falcon 40B is the world’s top-ranked open-source AI model on the Hugging Face leaderboard for large language models2. The model is available open source for research and commercial use, making it accessible to researchers, developers, and commercial users1.

The implications of Falcon 40B for large language models are significant. It matches the performance of other high-performing LLMs and is cost-effective3. The model is English-centric but also includes German, Spanish, French, Italian, Portuguese, Polish, Dutch, Romanian, Czech, and Swedish4. Falcon 40B’s open-source nature and royalty-free deployment can empower public and private sector entities with efficiencies such as faster project execution and reduced costs5.

For LLM startups, Falcon 40B offers an open-source alternative to proprietary models like OpenAI’s GPT-34. The model’s creator, TII, is offering the most exceptional project ideas access to training compute power as a form of investment2. This enables developers to tackle more complex and resource-intensive use cases with increased efficiency, productivity, and performance, driving innovation and expanding the possibilities for LLM startups2.

For big tech companies, Falcon 40B presents both opportunities and challenges. On one hand, the open-source nature of the model can foster collaboration and innovation, allowing big tech companies to leverage Falcon 40B’s capabilities for various applications. On the other hand, the model’s open-source availability may increase competition, as more startups and developers gain access to advanced LLM capabilities, potentially disrupting the market dominance of proprietary models from big tech companies.

Overall, Falcon 40B represents a significant milestone in the AI and LLM landscape, promoting open-source development, fostering innovation, and offering new opportunities for startups and big tech companies alike6.
https://twitter.com/TIIuae/status/1663911042559234051
https://twitter.com/TIIuae/status/1663911042559234051

The Falcon 40B is a large-scale artificial intelligence model developed by the Technology Innovation Institute (TII) in Abu Dhabi, United Arab Emirates1. It is a foundational large language model (LLM) with 40 billion parameters and trained on one trillion tokens1. Falcon 40B is the world’s top-ranked open-source AI model on the Hugging Face leaderboard for large language models2. The model is available open source for research and commercial use, making it accessible to researchers, developers, and commercial users1.

The implications of Falcon 40B for large language models are significant. It matches the performance of other high-performing LLMs and is cost-effective3. The model is English-centric but also includes German, Spanish, French, Italian, Portuguese, Polish, Dutch, Romanian, Czech, and Swedish4. Falcon 40B’s open-source nature and royalty-free deployment can empower public and private sector entities with efficiencies such as faster project execution and reduced costs5.

For LLM startups, Falcon 40B offers an open-source alternative to proprietary models like OpenAI’s GPT-34. The model’s creator, TII, is offering the most exceptional project ideas access to training compute power as a form of investment2. This enables developers to tackle more complex and resource-intensive use cases with increased efficiency, productivity, and performance, driving innovation and expanding the possibilities for LLM startups2.

For big tech companies, Falcon 40B presents both opportunities and challenges. On one hand, the open-source nature of the model can foster collaboration and innovation, allowing big tech companies to leverage Falcon 40B’s capabilities for various applications. On the other hand, the model’s open-source availability may increase competition, as more startups and developers gain access to advanced LLM capabilities, potentially disrupting the market dominance of proprietary models from big tech companies.

Overall, Falcon 40B represents a significant milestone in the AI and LLM landscape, promoting open-source development, fostering innovation, and offering new opportunities for startups and big tech companies alike6.

Comparisons with other models.

When comparing Falcon 40B to other large language models like GPT-3, ChatGPT, GPT-4, and LLaMA, Falcon 40B demonstrates impressive performance and capabilities. It outperforms other open-source models such as LLaMA, StableLM, RedPajama, and MPT3. Despite its power, Falcon 40B uses only 75% of GPT-3's training compute, 40% of Chinchilla’s, and 80% of PaLM-62B’s4. Falcon 40B is smaller than LLaMA (65 billion parameters) but has better performance on the OpenLLM leaderboard5. The model’s architecture is optimized for inference, with FlashAttention and multiquery5. It is available open source for research and commercial use, making it accessible to researchers, developers, and commercial users1.

About Flash attention

FlashAttention is a technique that speeds up the attention mechanism in the model, while multiquery attention allows the model to generate multiple queries for each token, thus better representing the token’s relationships with other tokens.

FlashAttention is an algorithm that reorders the attention computation and leverages classical techniques, such as tiling and recomputation, to significantly speed up the attention mechanism and reduce memory usage from quadratic to linear in sequence length1. It is designed to address the compute and memory bottleneck in the attention layer of transformer models, particularly when dealing with long sequences1.
Traditional attention mechanisms can be computationally expensive, as they involve a quadratic increase in memory usage and runtime with respect to sequence length1. FlashAttention addresses this issue by making the attention algorithm IO-aware, accounting for reads and writes between levels of GPU memory2. It uses tiling to reduce the number of memory reads/writes between GPU high bandwidth memory (HBM) and GPU on-chip SRAM2. This results in fewer HBM accesses than standard attention and optimizes performance for a range of SRAM sizes2.

Compared to traditional attention mechanisms, FlashAttention offers faster training and support for longer sequences without sacrificing accuracy3. It has been adopted by many organizations and research labs to speed up their training and inference processes4.

AI researchers can learn from FlashAttention’s efficient architecture and its ability to achieve exceptional performance while maintaining a compact size. Its IO-aware design and tiling technique can inspire new approaches to optimizing attention mechanisms in transformer models. AI startup founders can also benefit from the improved efficiency and performance offered by FlashAttention, enabling them to tackle more complex and resource-intensive use cases with increased productivity.