GPT-4 Hackathon Code Results
https://docs.google.com/spreadsheets/d/1tmfn8jKb7T1x7PpyO7rD023tH2zc_WDg_OHh0aVXIrw/edit#gid=174517450
https://docs.google.com/spreadsheets/d/1tmfn8jKb7T1x7PpyO7rD023tH2zc_WDg_OHh0aVXIrw/edit#gid=174517450
Google Docs
GPT-4 Hackathon Code Results
Results
Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning…
Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning Talk Topic,Name,Lightning…
Langchain Gen Mo Hackathon
https://docs.google.com/spreadsheets/d/1GqwPo1FpAbe_awmNZW5ZMH69yc5QtEr7ZYw-ckaz_mQ/edit#gid=795016726
https://docs.google.com/spreadsheets/d/1GqwPo1FpAbe_awmNZW5ZMH69yc5QtEr7ZYw-ckaz_mQ/edit#gid=795016726
Google Docs
Langchain Hackathon
Results
Name,Project 1 Liner,Demo / Code Link / Hugging Face Spaces (Proof of Code!)
Andrew Kean Gao,Twilio text service for Hindus,<a href="http://VedasGPT.org">VedasGPT.org</a>
Will Brown,Hire GPT3 to sell your product ,<a href="http://magicform.ai/">…
Name,Project 1 Liner,Demo / Code Link / Hugging Face Spaces (Proof of Code!)
Andrew Kean Gao,Twilio text service for Hindus,<a href="http://VedasGPT.org">VedasGPT.org</a>
Will Brown,Hire GPT3 to sell your product ,<a href="http://magicform.ai/">…
Continuous Learning_Startup & Investment
https://huyenchip.com/2023/04/11/llm-engineering.html https://www.linkedin.com/pulse/%25EC%258B%25A4%25EC%25A0%2584%25EC%2597%2590%25EC%2584%259C-llm-%25EC%2595%25A0%25ED%2594%258C%25EB%25A6%25AC%25EC%25BC%2580%25EC%259D%25B4%25EC%2585%2598-%25EA%25B5%25…
Vector Injection 이라는 이야기를 듣는데, 사람의 사고를 치료하는 심리 치료 혹은 뇌수술이 생각나네요…
https://youtu.be/ByhMpN2iSbc?t=1556
신경망의 맥락에서 벡터 삽입은 계산 중에 피드포워드 신경망의 특정 레이어에 벡터를 삽입하는 프로세스를 말합니다. 이 기술은 모델에 추가 정보나 제약 조건을 통합하여 잠재적으로 성능을 향상시키거나 더 복잡한 관계를 학습할 수 있도록 하는 데 사용할 수 있습니다. 피드포워드 신경망은 입력 노드에서 숨겨진 레이어를 거쳐 출력 노드로 정보가 주기나 루프 없이 한 방향으로 흐르는 인공 신경망의 한 유형입니다.
경우에 따라 이 피드포워드 프로세스의 중간에 벡터를 주입하여 네트워크의 동작에 영향을 미치거나 외부 지식을 통합하는 것이 유용할 수 있습니다.
피드포워드 프로세스 중간에 벡터를 주입하는 방법에는 여러 가지가 있습니다. 한 가지 방법은 네트워크의 특정 레이어의 가중치나 편향성을 직접 수정하여 네트워크의 내부 표현을 효과적으로 변경하는 것입니다. 또 다른 접근 방식은 주입된 벡터를 입력으로 받아 이전 레이어의 출력과 결합한 후 그 결과를 다음 레이어로 전달하는 레이어를 네트워크에 추가하는 것입니다.
신경망에 벡터를 주입하는 것은 도메인별 지식을 통합하거나 특정 제약 조건을 적용하거나 네트워크의 일반화 기능을 개선하는 등 다양한 애플리케이션에 유용할 수 있습니다. 그러나 네트워크의 성능에 부정적인 영향을 미치거나 의도하지 않은 부작용이 발생하지 않도록 벡터 주입 프로세스를 신중하게 설계하는 것이 중요합니다.
https://youtu.be/ByhMpN2iSbc?t=1556
신경망의 맥락에서 벡터 삽입은 계산 중에 피드포워드 신경망의 특정 레이어에 벡터를 삽입하는 프로세스를 말합니다. 이 기술은 모델에 추가 정보나 제약 조건을 통합하여 잠재적으로 성능을 향상시키거나 더 복잡한 관계를 학습할 수 있도록 하는 데 사용할 수 있습니다. 피드포워드 신경망은 입력 노드에서 숨겨진 레이어를 거쳐 출력 노드로 정보가 주기나 루프 없이 한 방향으로 흐르는 인공 신경망의 한 유형입니다.
경우에 따라 이 피드포워드 프로세스의 중간에 벡터를 주입하여 네트워크의 동작에 영향을 미치거나 외부 지식을 통합하는 것이 유용할 수 있습니다.
피드포워드 프로세스 중간에 벡터를 주입하는 방법에는 여러 가지가 있습니다. 한 가지 방법은 네트워크의 특정 레이어의 가중치나 편향성을 직접 수정하여 네트워크의 내부 표현을 효과적으로 변경하는 것입니다. 또 다른 접근 방식은 주입된 벡터를 입력으로 받아 이전 레이어의 출력과 결합한 후 그 결과를 다음 레이어로 전달하는 레이어를 네트워크에 추가하는 것입니다.
신경망에 벡터를 주입하는 것은 도메인별 지식을 통합하거나 특정 제약 조건을 적용하거나 네트워크의 일반화 기능을 개선하는 등 다양한 애플리케이션에 유용할 수 있습니다. 그러나 네트워크의 성능에 부정적인 영향을 미치거나 의도하지 않은 부작용이 발생하지 않도록 벡터 주입 프로세스를 신중하게 설계하는 것이 중요합니다.
YouTube
Unleashing LLMs in Production: Challenges & Opportunities. Chip Huyen, Amjad Masad & Michele Catasta
Hear how LLMs can revolutionize the way we build from leading AI experts. Join us for a panel discussion featuring Claypot AI co-founder and highly-regarded profile in the MLOps community, Chip Huyen, in conversation with Replit CEO, Amjad Masad and facilitated…
자연의 섭리는 묘하게도 비슷하네요. 근친교배가 유전학적으로 열성발현 등이 나타나 위험한 것처럼, 합성 데이터만으로 자체 순환 학습하는 것은 자기 포식 장애(Model Autophagy Disorder)에 빠질 수 있다고 하네요. 합성데이터 활용시에 고려해야 할 중요한 점이 또하나 등장한 것 같습니다.
특히 조만간 합성 데이터가 인터넷을 뒤덮으며, 그것을 다시 학습데이터 사용하고 거기서 다시 데이터를 생산해서 사용하는 루프가 생길 경우에도 이런 자기 포식 장애가 발생할 위험이 생길 수 있다는게 우려스럽네요.
제목: Self-Consuming Generative Models Go MAD
이 논문은 제너레이티브 AI 알고리즘에서 자가포식(자체 소비) 루프 현상을 탐구하고 합성 데이터를 사용하여 차세대 모델을 훈련시키는 영향을 분석합니다. 저자는 각 세대에 충분한 양의 새로운 실제 데이터가 없으면 미래 생성 모델의 품질 또는 다양성이 점진적으로 악화되는 모델 자가포식 장애(MAD)라는 조건을 발견했습니다.
주요 통찰 및 교훈:
- 제너레이티브 AI 알고리즘은 훈련 모델을 위한 데이터 합성에서 상당한 발전을 이루었습니다.
- 반복되는 훈련 과정에서 합성 데이터를 사용하면 특성을 제대로 이해하지 못하는 자가 포식 루프가 생성됩니다.
- 이 연구는 고정 또는 새로운 실제 교육 데이터의 가용성과 이전 세대 모델의 편향이 다른 세 가지 유형의 autophagous 루프에 중점을 둡니다.
- 각 세대의 불충분한 신선한 실제 데이터는 미래 생성 모델의 정밀도 또는 리콜의 감소로 이어집니다.
- 모델 자가포식 장애(MAD)는 부적절한 실제 데이터로 인해 생성 모델의 품질 또는 다양성이 점진적으로 감소하는 상태를 설명합니다.
요약:
이미지, 텍스트 및 기타 데이터 유형에 대한 생성 AI 알고리즘이 비약적으로 발전함에 따라 합성 데이터를 사용하여 차세대 모델을 훈련하려는 유혹이 커지고 있습니다. 이 과정을 반복하면 속성을 제대로 이해하지 못하는 자가포식(자가 소비) 루프가 생성됩니다. 유니티는 여러 세대의 학습을 통해 사용할 수 있는 고정된 실제 학습 데이터의 양이나 새로운 실제 학습 데이터의 양, 이전 세대 모델의 샘플이 데이터 품질과 다양성의 균형을 맞추기 위해 편향되었는지 여부가 다른 세 가지 오토파지 루프의 최첨단 생성 이미지 모델을 사용하여 철저한 분석 및 경험적 분석을 수행했습니다. 모든 시나리오에서 얻은 주요 결론은 오토파지 루프의 각 세대에 새로운 실제 데이터가 충분하지 않으면 향후 생성되는 모델의 품질(정확도)이나 다양성(리콜)이 점진적으로 감소할 수밖에 없다는 것입니다. 이러한 상태를 광우병에 비유하여 모델 자기포식 장애(MAD)라고 부릅니다.
arXiv: https://arxiv.org/abs/2307.01850
PDF: https://arxiv.org/pdf/2307.01850.pdf
arXiv-vanity: https://www.arxiv-vanity.com/papers/2307.01850
Paper page: https://huggingface.co/papers/2307.01850
Papers with code: https://paperswithcode.com/paper/self-consuming-generative-models-go-mad
특히 조만간 합성 데이터가 인터넷을 뒤덮으며, 그것을 다시 학습데이터 사용하고 거기서 다시 데이터를 생산해서 사용하는 루프가 생길 경우에도 이런 자기 포식 장애가 발생할 위험이 생길 수 있다는게 우려스럽네요.
제목: Self-Consuming Generative Models Go MAD
이 논문은 제너레이티브 AI 알고리즘에서 자가포식(자체 소비) 루프 현상을 탐구하고 합성 데이터를 사용하여 차세대 모델을 훈련시키는 영향을 분석합니다. 저자는 각 세대에 충분한 양의 새로운 실제 데이터가 없으면 미래 생성 모델의 품질 또는 다양성이 점진적으로 악화되는 모델 자가포식 장애(MAD)라는 조건을 발견했습니다.
주요 통찰 및 교훈:
- 제너레이티브 AI 알고리즘은 훈련 모델을 위한 데이터 합성에서 상당한 발전을 이루었습니다.
- 반복되는 훈련 과정에서 합성 데이터를 사용하면 특성을 제대로 이해하지 못하는 자가 포식 루프가 생성됩니다.
- 이 연구는 고정 또는 새로운 실제 교육 데이터의 가용성과 이전 세대 모델의 편향이 다른 세 가지 유형의 autophagous 루프에 중점을 둡니다.
- 각 세대의 불충분한 신선한 실제 데이터는 미래 생성 모델의 정밀도 또는 리콜의 감소로 이어집니다.
- 모델 자가포식 장애(MAD)는 부적절한 실제 데이터로 인해 생성 모델의 품질 또는 다양성이 점진적으로 감소하는 상태를 설명합니다.
요약:
이미지, 텍스트 및 기타 데이터 유형에 대한 생성 AI 알고리즘이 비약적으로 발전함에 따라 합성 데이터를 사용하여 차세대 모델을 훈련하려는 유혹이 커지고 있습니다. 이 과정을 반복하면 속성을 제대로 이해하지 못하는 자가포식(자가 소비) 루프가 생성됩니다. 유니티는 여러 세대의 학습을 통해 사용할 수 있는 고정된 실제 학습 데이터의 양이나 새로운 실제 학습 데이터의 양, 이전 세대 모델의 샘플이 데이터 품질과 다양성의 균형을 맞추기 위해 편향되었는지 여부가 다른 세 가지 오토파지 루프의 최첨단 생성 이미지 모델을 사용하여 철저한 분석 및 경험적 분석을 수행했습니다. 모든 시나리오에서 얻은 주요 결론은 오토파지 루프의 각 세대에 새로운 실제 데이터가 충분하지 않으면 향후 생성되는 모델의 품질(정확도)이나 다양성(리콜)이 점진적으로 감소할 수밖에 없다는 것입니다. 이러한 상태를 광우병에 비유하여 모델 자기포식 장애(MAD)라고 부릅니다.
arXiv: https://arxiv.org/abs/2307.01850
PDF: https://arxiv.org/pdf/2307.01850.pdf
arXiv-vanity: https://www.arxiv-vanity.com/papers/2307.01850
Paper page: https://huggingface.co/papers/2307.01850
Papers with code: https://paperswithcode.com/paper/self-consuming-generative-models-go-mad
❤2
Continuous Learning_Startup & Investment
https://blog.lablup.com/posts/#fn-5-7014be
윌버는 1901년의 강연에서 자신의 결론을 이렇게 정리했습니다. "비행에는 세 가지 문제가 있습니다. 비행기가 뜨기 위해 날개가 필요하고, 비행기가 나아가기 위해 엔진이 필요하며, 비행기를 조종할 방법이 필요합니다."[1](https://blog.lablup.com/posts/#fn-1-7014be)
윌버는 날개의 문제와 엔진의 문제는 어느정도 이미 해결되었기 때문에, 조종의 문제를 풀어야 한다고 보았습니다. 비행기 조종의 문제를 풀기 위해서는 비행기가 필요했는데, 비행기를 만들기 위해서는 비행기 조종의 문제를 풀어야 하는 상황이었습니다. 윌버는 글라이더에서 조종의 문제를 품으로써 비행기 조종의 문제를 풀 수 있다는 결론을 내렸습니다.
인류는 오랫동안 기계와 대화하고 싶어했습니다. 수많은 과학 소설과 영화들이 증거하고 있습니다.
OpenAI는 AI를 만들기 위해 세 가지 문제를 풀어야 했습니다. 컴퓨팅 인프라와 모델과 데이터입니다. 컴퓨팅 인프라가 엔진에, 모델이 날개에, 데이터가 조종에 대응한다고 볼 수 있습니다.
컴퓨팅 인프라를 관리하기 위해 OpenAI는 Kubernetes를 사용했는데, 그렇다고 그냥 가져다 쓸 수 있는 것은 아니었습니다. 2,500 노드가 되자 리눅스 커널 ARP 캐시가 넘치는 문제가 생겼고,[3](https://blog.lablup.com/posts/#fn-3-7014be) 7,500 노드가 되자 anti-affinity를 사용하기 위해 Kubernetes의 버그를 고쳐야 했습니다.[4](https://blog.lablup.com/posts/#fn-4-7014be)
비행기의 양력 방정식에 해당하는 것이 AI의 scaling law입니다. 양력 방정식이 날개의 양력을 날개의 면적과 양력 계수, 비례 상수로 설명하는 것처럼, scaling law는 AI 모델의 loss를 모델의 크기와 데이터의 크기, 멱함수 지수로 설명합니다.
라이트 형제가 존 스미턴의 비례 상수가 0.005가 아니라 0.003이라는 것을 발견한 것처럼, scaling law의 멱함수 지수는 처음에는 0.73인 것으로 생각되었지만[5](https://blog.lablup.com/posts/#fn-5-7014be) 실제로는 0.50인 것으로 밝혀졌습니다.[6](https://blog.lablup.com/posts/#fn-6-7014be) 잘못된 값이 계산된 것은 데이터의 크기에 따라 learning rate를 조정하지 않았기 때문입니다.
OpenAI는 모델의 제어가 중요한 문제라는 것을 알고 있었기 때문에, 첫 번째 GPT를 훈련하기 전에 이미 사람의 선호로부터 강화 학습을 하는 연구를 진행하고 있었습니다.[7](https://blog.lablup.com/posts/#fn-7-7014be) 이때는 로봇의 제어에 적용했는데, 라이트 형제가 비행기의 조종을 위해 새의 비행을 참고하고 비행기 대신 글라이더에 먼저 적용한 것을 연상시킵니다.
이러한 연구를 언어 모델에 적용하기 위해 사람의 선호 데이터를 수집하여 InstructGPT가 나왔습니다.[8](https://blog.lablup.com/posts/#fn-8-7014be) GPT-4 이후로 OpenAI가 연구 내용을 공개하고 있지 않기 때문에 정확히 알기는 어렵지만, 명시적인 피드백이 아니라 사용자가 생성을 재시도하거나 대화를 계속하고 중단하는 등의 암시적인 피드백으로부터도 학습할 수 있다는 연구 결과들이 나오고 있습니다.[9](https://blog.lablup.com/posts/#fn-9-7014be) 그렇다면 OpenAI는 모델을 향상시켜 사용자를 모으고 사용자를 모아 모델을 향상시키는 양성 되먹임 고리를 만들어낼 수 있을 것입니다.
윌버는 날개의 문제와 엔진의 문제는 어느정도 이미 해결되었기 때문에, 조종의 문제를 풀어야 한다고 보았습니다. 비행기 조종의 문제를 풀기 위해서는 비행기가 필요했는데, 비행기를 만들기 위해서는 비행기 조종의 문제를 풀어야 하는 상황이었습니다. 윌버는 글라이더에서 조종의 문제를 품으로써 비행기 조종의 문제를 풀 수 있다는 결론을 내렸습니다.
인류는 오랫동안 기계와 대화하고 싶어했습니다. 수많은 과학 소설과 영화들이 증거하고 있습니다.
OpenAI는 AI를 만들기 위해 세 가지 문제를 풀어야 했습니다. 컴퓨팅 인프라와 모델과 데이터입니다. 컴퓨팅 인프라가 엔진에, 모델이 날개에, 데이터가 조종에 대응한다고 볼 수 있습니다.
컴퓨팅 인프라를 관리하기 위해 OpenAI는 Kubernetes를 사용했는데, 그렇다고 그냥 가져다 쓸 수 있는 것은 아니었습니다. 2,500 노드가 되자 리눅스 커널 ARP 캐시가 넘치는 문제가 생겼고,[3](https://blog.lablup.com/posts/#fn-3-7014be) 7,500 노드가 되자 anti-affinity를 사용하기 위해 Kubernetes의 버그를 고쳐야 했습니다.[4](https://blog.lablup.com/posts/#fn-4-7014be)
비행기의 양력 방정식에 해당하는 것이 AI의 scaling law입니다. 양력 방정식이 날개의 양력을 날개의 면적과 양력 계수, 비례 상수로 설명하는 것처럼, scaling law는 AI 모델의 loss를 모델의 크기와 데이터의 크기, 멱함수 지수로 설명합니다.
라이트 형제가 존 스미턴의 비례 상수가 0.005가 아니라 0.003이라는 것을 발견한 것처럼, scaling law의 멱함수 지수는 처음에는 0.73인 것으로 생각되었지만[5](https://blog.lablup.com/posts/#fn-5-7014be) 실제로는 0.50인 것으로 밝혀졌습니다.[6](https://blog.lablup.com/posts/#fn-6-7014be) 잘못된 값이 계산된 것은 데이터의 크기에 따라 learning rate를 조정하지 않았기 때문입니다.
OpenAI는 모델의 제어가 중요한 문제라는 것을 알고 있었기 때문에, 첫 번째 GPT를 훈련하기 전에 이미 사람의 선호로부터 강화 학습을 하는 연구를 진행하고 있었습니다.[7](https://blog.lablup.com/posts/#fn-7-7014be) 이때는 로봇의 제어에 적용했는데, 라이트 형제가 비행기의 조종을 위해 새의 비행을 참고하고 비행기 대신 글라이더에 먼저 적용한 것을 연상시킵니다.
이러한 연구를 언어 모델에 적용하기 위해 사람의 선호 데이터를 수집하여 InstructGPT가 나왔습니다.[8](https://blog.lablup.com/posts/#fn-8-7014be) GPT-4 이후로 OpenAI가 연구 내용을 공개하고 있지 않기 때문에 정확히 알기는 어렵지만, 명시적인 피드백이 아니라 사용자가 생성을 재시도하거나 대화를 계속하고 중단하는 등의 암시적인 피드백으로부터도 학습할 수 있다는 연구 결과들이 나오고 있습니다.[9](https://blog.lablup.com/posts/#fn-9-7014be) 그렇다면 OpenAI는 모델을 향상시켜 사용자를 모으고 사용자를 모아 모델을 향상시키는 양성 되먹임 고리를 만들어낼 수 있을 것입니다.
❤1
As startups look to provide value with LLMs and guard their ideas, it’s probably not a great business strategy to assume your app’s secret sauce pre-prompt is not discoverable by users.
A recent paper “Prompts Should not be Seen as Secrets: Systematically Measuring Prompt Extraction Attack Success” shows just how easily a model can be instructed to “recall” its pre-prompt by request.
Paper: https://arxiv.org/abs/2307.06865 …
A recent paper “Prompts Should not be Seen as Secrets: Systematically Measuring Prompt Extraction Attack Success” shows just how easily a model can be instructed to “recall” its pre-prompt by request.
Paper: https://arxiv.org/abs/2307.06865 …
Yandex에서 LLM 분산 추론/파인튜닝 시스템인 Patals를 공개.
인터넷 상에 연결된 자원을 활용하여 BLOOM-176B 같은 진짜(?) LLM을 누구나 실행 할 수 있고, 이 네트워크에 누구나 자신의 유휴 자원을 붙일 수도 있다고. (프라이빗 네트웍 시스템 구축도 가능)
Transformers 라이브러리와 매우 유사하게 설계되어 단 몇 줄만으로 사용 할 수 있으며, 인터넷으로 분산해서 추론하는거라 속도가 느릴 것이라고 생각하지만, LLaMA-65B 추론에 5 tokens/s 정도의 속도가 나온다고.
와.. 이건 뭐.. 배우는 사람 숨 좀 쉽시다;;;
https://research.yandex.com/blog/petals-decentralized-inference-and-finetuning-of-large-language-models?fbclid=IwAR3FkB3RB304PCTERKqAnXLSIu8sZX_uluD_ZRenQ3ZeKnPmm89rjW01B-4_aem_AchbBtzRDtsOhwnuj-qy8XwD7lk5-IIN7tqMC98t9X59CXl5HYEhvRhkTc2qT2eF5uw&mibextid=Zxz2cZ
인터넷 상에 연결된 자원을 활용하여 BLOOM-176B 같은 진짜(?) LLM을 누구나 실행 할 수 있고, 이 네트워크에 누구나 자신의 유휴 자원을 붙일 수도 있다고. (프라이빗 네트웍 시스템 구축도 가능)
Transformers 라이브러리와 매우 유사하게 설계되어 단 몇 줄만으로 사용 할 수 있으며, 인터넷으로 분산해서 추론하는거라 속도가 느릴 것이라고 생각하지만, LLaMA-65B 추론에 5 tokens/s 정도의 속도가 나온다고.
와.. 이건 뭐.. 배우는 사람 숨 좀 쉽시다;;;
https://research.yandex.com/blog/petals-decentralized-inference-and-finetuning-of-large-language-models?fbclid=IwAR3FkB3RB304PCTERKqAnXLSIu8sZX_uluD_ZRenQ3ZeKnPmm89rjW01B-4_aem_AchbBtzRDtsOhwnuj-qy8XwD7lk5-IIN7tqMC98t9X59CXl5HYEhvRhkTc2qT2eF5uw&mibextid=Zxz2cZ
Yandex Research
Petals: decentralized inference and finetuning of large language models
Large language models are among the most significant recent advances in machine learning. Still, leveraging these models can be difficult: offloading and quantization have limitations, and third-party APIs are less flexible. We propose Petals, an open-source…
❤2
AI 제품을 만드시거나 관련 연구를 하시는 분들 중에서, 지금하는 고민을 다른 분들과 토론하고 싶은 분들이 있으실까요?
그동안 AI를 학습하면서 해외에서 열린 다양한 컨퍼런스, 팟캐스트를 보면서 현업에 있는 분들끼리 활발한 의견 교류를 하는 것을 지켜봤는데요. 국내에서도 AI 제품을 만들거나 리서치를 하는 분들끼리 더 많은 이야기를 하는 자리가 있으면 좋겠다는 생각을 했습니다.
그래서 준비했습니다. 다가오는 금요일 저녁 LLM(Large Language Model) Image Model에 관심이 있는 분들이 모여 다양한 주제에 대해서 깊은 토론을 해보려고 합니다.
AI에 진심이신 분들이라면 금요일 저녁에 모여서 재밌게 이야기 나눠봐요!
이번 세션에서 다룰 주제들은 아래와 같습니다.
1. GPT-4 아키텍쳐 유출에서 배울 점: 최근 GPT-4 아키텍처에 대해서 꽤 자세히 분석한 글이 공개되었는데요. Mixture of Experts, GPT-4 수준의 서비스를 제공하기 위한 아키텍쳐, 엔지니어링 기법 등 살펴볼 내용들이 많은데요. 함께 이야기해보시죠.
2. Prod 환경에서 LLM을 학습/운영하는데에 마주하는 어려움과 기회: Replit, Salesforce Scatter Labs 등 GPT-4 만큼의 대형 모델은 아니지만 자체 LLM을 학습하는 회사들이 많아지고 있습니다. LLM을 학습하고 실제 서비스에 적용할 때에 다양한 기술적 어려움이 있는데요. 자세히 살펴보시죠.
3. 다양한 Infra(Langchain 등) 비교 분석: LLM 기반 서비스 및 토이 프로젝트가 많아지면서 Langchain, Llamaindex같은 인프라가 생겨나고 있는데요. 다양한 인프라 서비스의 기능과 한계를 살펴보고 새로운 기회를 찾아보시죠.
4. SD, Chatbot을 활용한 새로운 서비스(데이팅, 게임 등): 최근의 Stable Diffusion 발전 속도는 정말 눈부신데요. 이젠 예쁜 장난감을 벗어나 쓸만한 서비스가 나올만한 타이밍이라 생각합니다. 현재 나와있는 다양한 모델을 사용해서 서비스를 만들고 있는 분들과 SD, Chatbot을 사용해서 좋은 서비스를 만드는 방법에 대해서 이야기해보시죠.
좀 더 심도있는 세션을 위해서, 컨트리뷰터와 참여자를 구분하고 있습니다. 컨트리뷰터는 해당 세션에서 다양한 어젠다를 제안하고 다양한 의견을 내는 구조라고 생각해주시면 됩니다. 컨트리뷰터로 신청해주시지 않은 세션은 모두 참여자로 구분합니다.
- 컨트리뷰터: 경험, 지식을 나눠서 세션의 내용을 풍성하게 합니다.
- 참여자: 세션이 진행되는 것을 보고 질문을 하거나 중간 중간 토론에 참여하기도합니다.
미리 살펴볼 자료
- https://matthewcontinuouslearning.notion.site/GPT-reverse...
- https://www.youtube.com/watch?v=ByhMpN2iSbc&feature=youtu.be
- https://huyenchip.com/.../real-time-machine-learning...
- https://huyenchip.com/2023/04/11/llm-engineering.html
- https://old.reddit.com/.../13fcw36/langchain_is_pointless/
- https://a16z.com/.../emerging-architectures-for-llm.../
- https://foundationcapital.com/foundation-model-ops.../
- https://youtu.be/emCoG-hA7AE
- https://youtu.be/emCoG-hA7AE
❤️ MLOps와 AI 솔루션을 제공하는 마키나락스에서 후원해주셨습니다.❤️
후원 문의는 agitowninseoul@gmail.com로 부탁드립니다.
세션 참가 신청하기: https://lu.ma/agitownjuly2
그동안 AI를 학습하면서 해외에서 열린 다양한 컨퍼런스, 팟캐스트를 보면서 현업에 있는 분들끼리 활발한 의견 교류를 하는 것을 지켜봤는데요. 국내에서도 AI 제품을 만들거나 리서치를 하는 분들끼리 더 많은 이야기를 하는 자리가 있으면 좋겠다는 생각을 했습니다.
그래서 준비했습니다. 다가오는 금요일 저녁 LLM(Large Language Model) Image Model에 관심이 있는 분들이 모여 다양한 주제에 대해서 깊은 토론을 해보려고 합니다.
AI에 진심이신 분들이라면 금요일 저녁에 모여서 재밌게 이야기 나눠봐요!
이번 세션에서 다룰 주제들은 아래와 같습니다.
1. GPT-4 아키텍쳐 유출에서 배울 점: 최근 GPT-4 아키텍처에 대해서 꽤 자세히 분석한 글이 공개되었는데요. Mixture of Experts, GPT-4 수준의 서비스를 제공하기 위한 아키텍쳐, 엔지니어링 기법 등 살펴볼 내용들이 많은데요. 함께 이야기해보시죠.
2. Prod 환경에서 LLM을 학습/운영하는데에 마주하는 어려움과 기회: Replit, Salesforce Scatter Labs 등 GPT-4 만큼의 대형 모델은 아니지만 자체 LLM을 학습하는 회사들이 많아지고 있습니다. LLM을 학습하고 실제 서비스에 적용할 때에 다양한 기술적 어려움이 있는데요. 자세히 살펴보시죠.
3. 다양한 Infra(Langchain 등) 비교 분석: LLM 기반 서비스 및 토이 프로젝트가 많아지면서 Langchain, Llamaindex같은 인프라가 생겨나고 있는데요. 다양한 인프라 서비스의 기능과 한계를 살펴보고 새로운 기회를 찾아보시죠.
4. SD, Chatbot을 활용한 새로운 서비스(데이팅, 게임 등): 최근의 Stable Diffusion 발전 속도는 정말 눈부신데요. 이젠 예쁜 장난감을 벗어나 쓸만한 서비스가 나올만한 타이밍이라 생각합니다. 현재 나와있는 다양한 모델을 사용해서 서비스를 만들고 있는 분들과 SD, Chatbot을 사용해서 좋은 서비스를 만드는 방법에 대해서 이야기해보시죠.
좀 더 심도있는 세션을 위해서, 컨트리뷰터와 참여자를 구분하고 있습니다. 컨트리뷰터는 해당 세션에서 다양한 어젠다를 제안하고 다양한 의견을 내는 구조라고 생각해주시면 됩니다. 컨트리뷰터로 신청해주시지 않은 세션은 모두 참여자로 구분합니다.
- 컨트리뷰터: 경험, 지식을 나눠서 세션의 내용을 풍성하게 합니다.
- 참여자: 세션이 진행되는 것을 보고 질문을 하거나 중간 중간 토론에 참여하기도합니다.
미리 살펴볼 자료
- https://matthewcontinuouslearning.notion.site/GPT-reverse...
- https://www.youtube.com/watch?v=ByhMpN2iSbc&feature=youtu.be
- https://huyenchip.com/.../real-time-machine-learning...
- https://huyenchip.com/2023/04/11/llm-engineering.html
- https://old.reddit.com/.../13fcw36/langchain_is_pointless/
- https://a16z.com/.../emerging-architectures-for-llm.../
- https://foundationcapital.com/foundation-model-ops.../
- https://youtu.be/emCoG-hA7AE
- https://youtu.be/emCoG-hA7AE
❤️ MLOps와 AI 솔루션을 제공하는 마키나락스에서 후원해주셨습니다.❤️
후원 문의는 agitowninseoul@gmail.com로 부탁드립니다.
세션 참가 신청하기: https://lu.ma/agitownjuly2
YouTube
Unleashing LLMs in Production: Challenges & Opportunities. Chip Huyen, Amjad Masad & Michele Catasta
Hear how LLMs can revolutionize the way we build from leading AI experts. Join us for a panel discussion featuring Claypot AI co-founder and highly-regarded profile in the MLOps community, Chip Huyen, in conversation with Replit CEO, Amjad Masad and facilitated…
❤1
Forwarded from BZCF | 비즈까페
자유로와지는 법? -----
1. 어떤 책 제목을 보니 "성공과 돈에서 자유로와지는 법"이다. 당연히 읽지 않았다. 무언가에서 자유로와져야지라고 노력할수록 더 자유로와지기 어렵기 때문이다. 코끼리를 생각하지 말아야지라고 결심하면 코끼리가 더 생각난다.
2. 성공과 돈에서 자유로와져야지 하고 결심할수록 성공과 돈이 더 생각난다.
3. 나도 무언가로부터 자유로와져야지 라고 고민한 적이 많았다. 그러나 종종 그걸 박차고 나올 힘이 없어 머물기만 했다. 왜 였을까? 막상, 거기서 나와서 하고 싶은 것에 대한 갈망이 강하지 않았기 때문이다. 원하는 것에 대한 갈망이 강하다면 기존의 무언가를 뛰쳐나올 힘이 생긴다.
4. "쇼생크 탈출"에 한 늙은 죄수가 나온다. 그는 출소한후 자살을 한다. 자유가 주어졌으나 감당할수 없었다. 그가 감옥에서 나와서 무엇을 할지 소망했다면 그의 삶은 달라졌을 것이다. 그러나 소망이 없었다. 이에 자유가 주어졌지만 의미가 없었다.
5. 그러므로, 자유는 "원하는 것에 대한 강한 갈망"으로부터 나오는 것이지 "떠나거나 회피해야할 무언가"로부터 나오는게 아니다. 한 페친이 말했듯이 free from이 아닌 free to 이다.
p.s. 흥미롭게도 이런 책을 쓰는 분들은 정말 소수를 제외하고는 대개 성공하고 돈을 벌고 있는 분들이라는 것이다. 오히려 "성공하고 돈버는 법" 이라는 책들이 더 솔직해보인다.
p.s. 한 달을 예정했는데 예정보다 일찍 페북에 돌아왔습니다. "선택"이란 어렵고도 불확실한 결정임을 다시금 실감했습니다. 내가 진정 무엇을 원하는가를 다시금 생각하는 시간이었습니다. 항상 이기려했는데, 이제 무엇이 되려는 욕망보다 자유로운 삶이 더 중요해집니다~
—
자유로운 삶은 해야하는 것보다 하고싶은 것이 많은 삶이라 생각합니다. 그 관점에서 자유는 “원하는 것에 대한 강한 갈망"이지, 떠나거나 회피해야할 무언가가 아니라는 점에 공감합니다.
나다움을 고민하다보면 나는 어떤 호기심을 가진 사람인가에 대한 생각을 하게 됩니다. 그러다보면 자연스레 내 안에 있는 다양한 호기심을 들여다보고, 그런 호기심을 쫓아가는 결정을 할 수 있는 것 같습니다.
1. 어떤 책 제목을 보니 "성공과 돈에서 자유로와지는 법"이다. 당연히 읽지 않았다. 무언가에서 자유로와져야지라고 노력할수록 더 자유로와지기 어렵기 때문이다. 코끼리를 생각하지 말아야지라고 결심하면 코끼리가 더 생각난다.
2. 성공과 돈에서 자유로와져야지 하고 결심할수록 성공과 돈이 더 생각난다.
3. 나도 무언가로부터 자유로와져야지 라고 고민한 적이 많았다. 그러나 종종 그걸 박차고 나올 힘이 없어 머물기만 했다. 왜 였을까? 막상, 거기서 나와서 하고 싶은 것에 대한 갈망이 강하지 않았기 때문이다. 원하는 것에 대한 갈망이 강하다면 기존의 무언가를 뛰쳐나올 힘이 생긴다.
4. "쇼생크 탈출"에 한 늙은 죄수가 나온다. 그는 출소한후 자살을 한다. 자유가 주어졌으나 감당할수 없었다. 그가 감옥에서 나와서 무엇을 할지 소망했다면 그의 삶은 달라졌을 것이다. 그러나 소망이 없었다. 이에 자유가 주어졌지만 의미가 없었다.
5. 그러므로, 자유는 "원하는 것에 대한 강한 갈망"으로부터 나오는 것이지 "떠나거나 회피해야할 무언가"로부터 나오는게 아니다. 한 페친이 말했듯이 free from이 아닌 free to 이다.
p.s. 흥미롭게도 이런 책을 쓰는 분들은 정말 소수를 제외하고는 대개 성공하고 돈을 벌고 있는 분들이라는 것이다. 오히려 "성공하고 돈버는 법" 이라는 책들이 더 솔직해보인다.
p.s. 한 달을 예정했는데 예정보다 일찍 페북에 돌아왔습니다. "선택"이란 어렵고도 불확실한 결정임을 다시금 실감했습니다. 내가 진정 무엇을 원하는가를 다시금 생각하는 시간이었습니다. 항상 이기려했는데, 이제 무엇이 되려는 욕망보다 자유로운 삶이 더 중요해집니다~
—
자유로운 삶은 해야하는 것보다 하고싶은 것이 많은 삶이라 생각합니다. 그 관점에서 자유는 “원하는 것에 대한 강한 갈망"이지, 떠나거나 회피해야할 무언가가 아니라는 점에 공감합니다.
나다움을 고민하다보면 나는 어떤 호기심을 가진 사람인가에 대한 생각을 하게 됩니다. 그러다보면 자연스레 내 안에 있는 다양한 호기심을 들여다보고, 그런 호기심을 쫓아가는 결정을 할 수 있는 것 같습니다.
❤1
약점을 강점으로 바꿀수 있는 3가지 관점--
1. 이런 질문을 종종 받는다. "저의 약점을 어떻게 극복해야 할까요?" 약한 집중력, 썩 좋지못한 학벌, 내성적인 성격, 과도한 적극성 등 스스로 약점이라 생각하는 영역들이 있다.
2. 어느 꼬마아이가 있었다. 매우 조용하고 말이 없었다. 그런데 이 아이에게는 한가지 특이한 행동이 있었는데 그것은 어지럽혀진 상황만 보면 정리를 해놓으려했다. 심지어 옆에 있는 친구들이 어지럽힌 것의 정리를 도와주기 까지 했다. 강박 관념이 있을 정도라서 그 어머니는 걱정을 많이 했다. 그 어머니는 그 아이의 별명을 '정리 변태' 라고 지어주기까지 했다.
3. 그녀는 중고교시절에도 청소와 정리를 도맡아 했다. 이후 이 아이는 대학을 졸업하고 한 기업의 영업 사원으로 취직한다. 그런데 고객사에 방문한 그녀는 영업을 하기보다는 고객사 사무실 정리를 도와주는데 더 관심이 있었다. 주위에 이런 동료가 있다면 여러분들은 어떤 생각을 할까? 아마 엄청나게 걱정하지 않았을까?
4. 결국 그녀는 회사를 그만두고 독립하여 최초의 '정리 컨설턴트'로 활약한다. 이후 그녀는 2016 타임지 선정 세계 영향력 인물 100인에 선정된다. 그녀는 일본인였는데 100인내 일본인으로는 그녀 외에 무라카미 하루키가 유일하였다. 이 아이가 바로 정리의 여왕 '곤도 마리에' 이다.
5. 내게 이렇게 sns에서 글쓰는 습관을 가지게 된 계기를 묻는 분들이 많다. 나는 45세 트위터를 시작으로 sns에 본격적으로 글을 쓰기 시작했다. 그 계기는 심플하다. "기억력이 약해서"이다. 책도 많이 읽고 영화도 많이보고 경험도 다양하게 했는데 기억력이 약하다보니 내 머리속에 남아 있는 것이 거의 없었다. 이에 빠르지 않은 나이였지만 매주말 기록을 결심했다. 그것이 10여년간 나의 재미요 루틴이 되었다. 덕분에 이렇게 책도 내고 영향력도 미칠수 있게 되었다.
6. 나는 학창시절부터 기억력이 약해서 잘 잊어버리고 암기를 잘 못했다. 사실 문과형에 가까왔던 내가 이과를 선택한 것도 이 이유 때문이었다. 책을 봐도 다시보면 새로 읽는 느낌이었고 영화를 봐도 줄거리가 잘 기억되지 않았다. 그런데 어떻게 공부를 잘했냐고? 그래도 논리화하고 구조화하면 머리속에 넣을수 있었다. 이에 나는 항상 복잡한 현상을 종이 한장에 논리적으로 구조화하고 요약하는 습관을 가지게 되었다. 나는 포토 기억력을 가진 사람들을 부러워했지만, 오히려 나의 엉성한 기억력 덕분에 살기위해(?) 다른 방법을 찾았고 그것이 결국 나의 핵심 경쟁력 중 하나가 되었다.
7. 어떤 분은 자신의 좋지 못한 학벌이나 경력을 감추며 부끄러워한다. 사실 이제 좋은 학벌이나 경력자는 너무 많아졌다. 하버드 같은 곳을 나오고 최고의 회사를 다니며 영어발음 멋드러지게 하고 엄청난 투자를 받아 창업으로 큰 자산을 획득한 분들의 책을 읽거나 강의를 들으면 어떤 생각이 드는가? 나도 부럽다. 그렇지만 좀 재수없다는 생각이 든다. 부럽지만 따라하기 어렵고 재수없다. 그러나 야놀자의 이수진 대표 같은 분의 이야기를 들으면 어떠한가? 나는 리스타트라는 책도 읽었지만 재수 없다는 생각이 전혀 들지 않았다. 오히려 전문대 졸업에 모텔 청소부 경력을 넘어 자수성가한 스토리는 많은 사람들에게 영감과 자신감을 준다. 내세울것이 없는 학벌과 경력이 자신만의 스토리를 더 풍성하게 할수도 있고 사람들에게 더 공감과 희망을 줄수도 있다.
8. 그러므로 약점은 세가지의 관점으로 볼 필요가 있다.
1) 약점이 재능일수 있다.
곤도 마리에 케이스처럼 큰 약점 처럼 보이는 것이 실제로는 엄청난 재능일 수 있다. 단지, 그 재능이 발현될 곳을 찾는 것이 중요하다.
2) 약점을 극복하기 위한 노력이 자신에게 새로운 강점을 만들어 줄수 있다.
나의 케이스처럼 약한 기억력이 오히려 글을 쓰고 구조화하고 정리하게 하는 재능으로 이끌었다.
3) 약점이 스토리가 될수 있다.
야놀자 이수진대표처럼 오히려 약한 학력과 경력이 사람들에게 희망과 자신감을 줄수도 있다.
9. 한번 당신의 약점을 리스트해보고 어떻게 활용할지 생각해보시라.
10. 나는 성경에 있는 이 말을 좋아한다.
"When I am weak, then I am strong"
브레네브라운의 이 말도 좋다.
"I am imperfect. But I am enough"
1. 이런 질문을 종종 받는다. "저의 약점을 어떻게 극복해야 할까요?" 약한 집중력, 썩 좋지못한 학벌, 내성적인 성격, 과도한 적극성 등 스스로 약점이라 생각하는 영역들이 있다.
2. 어느 꼬마아이가 있었다. 매우 조용하고 말이 없었다. 그런데 이 아이에게는 한가지 특이한 행동이 있었는데 그것은 어지럽혀진 상황만 보면 정리를 해놓으려했다. 심지어 옆에 있는 친구들이 어지럽힌 것의 정리를 도와주기 까지 했다. 강박 관념이 있을 정도라서 그 어머니는 걱정을 많이 했다. 그 어머니는 그 아이의 별명을 '정리 변태' 라고 지어주기까지 했다.
3. 그녀는 중고교시절에도 청소와 정리를 도맡아 했다. 이후 이 아이는 대학을 졸업하고 한 기업의 영업 사원으로 취직한다. 그런데 고객사에 방문한 그녀는 영업을 하기보다는 고객사 사무실 정리를 도와주는데 더 관심이 있었다. 주위에 이런 동료가 있다면 여러분들은 어떤 생각을 할까? 아마 엄청나게 걱정하지 않았을까?
4. 결국 그녀는 회사를 그만두고 독립하여 최초의 '정리 컨설턴트'로 활약한다. 이후 그녀는 2016 타임지 선정 세계 영향력 인물 100인에 선정된다. 그녀는 일본인였는데 100인내 일본인으로는 그녀 외에 무라카미 하루키가 유일하였다. 이 아이가 바로 정리의 여왕 '곤도 마리에' 이다.
5. 내게 이렇게 sns에서 글쓰는 습관을 가지게 된 계기를 묻는 분들이 많다. 나는 45세 트위터를 시작으로 sns에 본격적으로 글을 쓰기 시작했다. 그 계기는 심플하다. "기억력이 약해서"이다. 책도 많이 읽고 영화도 많이보고 경험도 다양하게 했는데 기억력이 약하다보니 내 머리속에 남아 있는 것이 거의 없었다. 이에 빠르지 않은 나이였지만 매주말 기록을 결심했다. 그것이 10여년간 나의 재미요 루틴이 되었다. 덕분에 이렇게 책도 내고 영향력도 미칠수 있게 되었다.
6. 나는 학창시절부터 기억력이 약해서 잘 잊어버리고 암기를 잘 못했다. 사실 문과형에 가까왔던 내가 이과를 선택한 것도 이 이유 때문이었다. 책을 봐도 다시보면 새로 읽는 느낌이었고 영화를 봐도 줄거리가 잘 기억되지 않았다. 그런데 어떻게 공부를 잘했냐고? 그래도 논리화하고 구조화하면 머리속에 넣을수 있었다. 이에 나는 항상 복잡한 현상을 종이 한장에 논리적으로 구조화하고 요약하는 습관을 가지게 되었다. 나는 포토 기억력을 가진 사람들을 부러워했지만, 오히려 나의 엉성한 기억력 덕분에 살기위해(?) 다른 방법을 찾았고 그것이 결국 나의 핵심 경쟁력 중 하나가 되었다.
7. 어떤 분은 자신의 좋지 못한 학벌이나 경력을 감추며 부끄러워한다. 사실 이제 좋은 학벌이나 경력자는 너무 많아졌다. 하버드 같은 곳을 나오고 최고의 회사를 다니며 영어발음 멋드러지게 하고 엄청난 투자를 받아 창업으로 큰 자산을 획득한 분들의 책을 읽거나 강의를 들으면 어떤 생각이 드는가? 나도 부럽다. 그렇지만 좀 재수없다는 생각이 든다. 부럽지만 따라하기 어렵고 재수없다. 그러나 야놀자의 이수진 대표 같은 분의 이야기를 들으면 어떠한가? 나는 리스타트라는 책도 읽었지만 재수 없다는 생각이 전혀 들지 않았다. 오히려 전문대 졸업에 모텔 청소부 경력을 넘어 자수성가한 스토리는 많은 사람들에게 영감과 자신감을 준다. 내세울것이 없는 학벌과 경력이 자신만의 스토리를 더 풍성하게 할수도 있고 사람들에게 더 공감과 희망을 줄수도 있다.
8. 그러므로 약점은 세가지의 관점으로 볼 필요가 있다.
1) 약점이 재능일수 있다.
곤도 마리에 케이스처럼 큰 약점 처럼 보이는 것이 실제로는 엄청난 재능일 수 있다. 단지, 그 재능이 발현될 곳을 찾는 것이 중요하다.
2) 약점을 극복하기 위한 노력이 자신에게 새로운 강점을 만들어 줄수 있다.
나의 케이스처럼 약한 기억력이 오히려 글을 쓰고 구조화하고 정리하게 하는 재능으로 이끌었다.
3) 약점이 스토리가 될수 있다.
야놀자 이수진대표처럼 오히려 약한 학력과 경력이 사람들에게 희망과 자신감을 줄수도 있다.
9. 한번 당신의 약점을 리스트해보고 어떻게 활용할지 생각해보시라.
10. 나는 성경에 있는 이 말을 좋아한다.
"When I am weak, then I am strong"
브레네브라운의 이 말도 좋다.
"I am imperfect. But I am enough"
👍2
Forwarded from BZCF | 비즈까페
멍거가 코스트코에 대해서 버핏에게 말하고.. 멍거는 너무 좋은 회사라서 그냥 투자. 버크셔는 그 뒤에서야 투자. 버핏은 멍거 말을 당시 이해하지 못해서 늦게 투자했다고 후회. 좋은 회사는 그 때 가치가 아니라 성장하면서 가치를 바꾸어버림. 복리 머신...
❤1
GPT Code Interpreter의 10가지 멋진 Use Cases 공유드립니다. WOW 입니다.
Code Interpreter의 의미는 여러분들이 말로 하면 이걸 코드로 해석해서 짜서 실행해주겠다는 것 같습니다. 그래서 코드로/프로그래밍으로 할수 있는 거의 모든일을 할수 있습니다.
(트윗 링크가 너무 많이 달려서 Thread를 좋아 하는 FB에서 이 글은 거의 노출이 안될것 같습니다.)
1. 모든 종류의 그래프를 쉽게 생성할 수 있습니다
https://twitter.com/gdb/status/1677023789807292420
2. 어떤 GIF든 MP4로 변환할 수 있습니다.
https://twitter.com/goodside/status/1652540643212767234
3. 이미지에서 색상을 추출하여 간단한 PNG 팔레트를 생성할 수 있습니다.
https://twitter.com/skirano/status/1653085442047369217
4. 데이터를 정리한 후에는 통찰력 있는 데이터 시각화를 생성할 수 있습니다.
https://twitter.com/Saboo.../status/1677016588233367568
5. CSV 파일을 GIF로 변환할 수 있습니다.
https://twitter.com/emollick/status/1653451648826757121
6. 플레이리스트를 분석하여 음악 취향을 요약할 수 있습니다.
https://twitter.com/SHL0MS/status/1652842277788692480
7. 데이터셋에서 완전히 기능하는 HTML 사이트를 생성하세요. 이건 정말 놀랍습니다!
https://twitter.com/PatrickJBlum/status/1652365030535598081
8. 쉽게 다운로드할 수 있는 주식 데이터셋을 생성하세요.
https://twitter.com/TechMemeKing/status/1653258652055138304
9. 이미지를 텍스트 파일로 변환하세요.
https://twitter.com/Saboo.../status/1654323164187377665
10. 심지어 비정형 데이터의 상세한 데이터 분석도 수행할 수 있습니다.
https://twitter.com/emollick/status/1676441469979185157
facebook.com/hunkims/posts/pfbid0apvm9LRvj52RaFN7JNLsTpHV9oYnBG6xaTFrkkPKFdVn6tVs6hd2cqXjSJ6oYeXml
Code Interpreter의 의미는 여러분들이 말로 하면 이걸 코드로 해석해서 짜서 실행해주겠다는 것 같습니다. 그래서 코드로/프로그래밍으로 할수 있는 거의 모든일을 할수 있습니다.
(트윗 링크가 너무 많이 달려서 Thread를 좋아 하는 FB에서 이 글은 거의 노출이 안될것 같습니다.)
1. 모든 종류의 그래프를 쉽게 생성할 수 있습니다
https://twitter.com/gdb/status/1677023789807292420
2. 어떤 GIF든 MP4로 변환할 수 있습니다.
https://twitter.com/goodside/status/1652540643212767234
3. 이미지에서 색상을 추출하여 간단한 PNG 팔레트를 생성할 수 있습니다.
https://twitter.com/skirano/status/1653085442047369217
4. 데이터를 정리한 후에는 통찰력 있는 데이터 시각화를 생성할 수 있습니다.
https://twitter.com/Saboo.../status/1677016588233367568
5. CSV 파일을 GIF로 변환할 수 있습니다.
https://twitter.com/emollick/status/1653451648826757121
6. 플레이리스트를 분석하여 음악 취향을 요약할 수 있습니다.
https://twitter.com/SHL0MS/status/1652842277788692480
7. 데이터셋에서 완전히 기능하는 HTML 사이트를 생성하세요. 이건 정말 놀랍습니다!
https://twitter.com/PatrickJBlum/status/1652365030535598081
8. 쉽게 다운로드할 수 있는 주식 데이터셋을 생성하세요.
https://twitter.com/TechMemeKing/status/1653258652055138304
9. 이미지를 텍스트 파일로 변환하세요.
https://twitter.com/Saboo.../status/1654323164187377665
10. 심지어 비정형 데이터의 상세한 데이터 분석도 수행할 수 있습니다.
https://twitter.com/emollick/status/1676441469979185157
facebook.com/hunkims/posts/pfbid0apvm9LRvj52RaFN7JNLsTpHV9oYnBG6xaTFrkkPKFdVn6tVs6hd2cqXjSJ6oYeXml
Wanted to share that Med-PaLM, our medical large language model, was published in Nature this week!
When we started this work, we set out to better understand the potential of building useful, safe foundation models for medicine. We started with a focus on evaluation and put together MultiMedQA, a benchmark of seven medical question answering tasks spanning medical exams, medical research, and consumer queries.
When we observed limitations in existing models, we worked with physicians to train Med-PaLM, a state-of-the-art large language model aligned to the medical setting. We showed that these models could surpass the passing score on US medical licensing exam-style questions for the first time. Most importantly, through 'instruction prompt tuning', Med-PaLM had greatly improved long-form answers to consumer queries, often comparing similarly to physicians. 92.6% of Med-PaLM answers were aligned with scientific consensus, compared to 92.9% for clinicians (baseline model 61.9%).
Now our paper for Med-PaLM 2 is on arxiv. We see a 19% improvement on the USMLE-style task, and model answers to consumer queries are preferred over physician answers across eight of nine axes studied (factuality, harm, bias, ...). We're now working with trusted testers through Google Cloud to iterate on safe and beneficial use cases for this technology.
We started our team to catalyze the medical AI community towards the potential of these models, and (especially for me personally) to work on building more steerable, safe systems in a context where safety matters, in partnership with researchers, physicians, patients, policymakers, and others. As we continue our journey, looking forward to a future where these models can assist physicians to increase quality and access to care for billions.
Excited to share this milestone on our journey!
Nature paper: https://lnkd.in/eb_DJcgM
Med-PaLM 2 paper: https://lnkd.in/ebshBBJB
Med-PaLM website: https://lnkd.in/e6bPXD4F
When we started this work, we set out to better understand the potential of building useful, safe foundation models for medicine. We started with a focus on evaluation and put together MultiMedQA, a benchmark of seven medical question answering tasks spanning medical exams, medical research, and consumer queries.
When we observed limitations in existing models, we worked with physicians to train Med-PaLM, a state-of-the-art large language model aligned to the medical setting. We showed that these models could surpass the passing score on US medical licensing exam-style questions for the first time. Most importantly, through 'instruction prompt tuning', Med-PaLM had greatly improved long-form answers to consumer queries, often comparing similarly to physicians. 92.6% of Med-PaLM answers were aligned with scientific consensus, compared to 92.9% for clinicians (baseline model 61.9%).
Now our paper for Med-PaLM 2 is on arxiv. We see a 19% improvement on the USMLE-style task, and model answers to consumer queries are preferred over physician answers across eight of nine axes studied (factuality, harm, bias, ...). We're now working with trusted testers through Google Cloud to iterate on safe and beneficial use cases for this technology.
We started our team to catalyze the medical AI community towards the potential of these models, and (especially for me personally) to work on building more steerable, safe systems in a context where safety matters, in partnership with researchers, physicians, patients, policymakers, and others. As we continue our journey, looking forward to a future where these models can assist physicians to increase quality and access to care for billions.
Excited to share this milestone on our journey!
Nature paper: https://lnkd.in/eb_DJcgM
Med-PaLM 2 paper: https://lnkd.in/ebshBBJB
Med-PaLM website: https://lnkd.in/e6bPXD4F
Nature
Large language models encode clinical knowledge
Nature - Med-PaLM, a state-of-the-art large language model for medicine, is introduced and evaluated across several medical question answering tasks, demonstrating the promise of these models in...