🤗 Diffusers provides pretrained diffusion models across multiple modalities, such as vision and audio, and serves as a modular toolbox for inference and training of diffusion models.
https://github.com/huggingface/diffusers/tree/main/examples/community#magic-mix
https://github.com/huggingface/diffusers/tree/main/examples/community#magic-mix
Forwarded from Machinelearning
😊 HugNLP
HugNLP is a unified and comprehensive NLP library based on HuggingFace Transformer.
HugNLP — это новая универсальная NLP библиотека основанная на Hugging Face, для повышения удобства и эффективности работы c текстами.
🖥 Github: https://github.com/wjn1996/hugnlp
⏩ Paprer: https://arxiv.org/abs/2302.14286v1
⭐️ Dataset: https://paperswithcode.com/dataset/clue
⏩ HF for complex text classification: https://huggingface.co/blog/classification-use-cases
@ai_machinelearning_big_data
HugNLP is a unified and comprehensive NLP library based on HuggingFace Transformer.
HugNLP — это новая универсальная NLP библиотека основанная на Hugging Face, для повышения удобства и эффективности работы c текстами.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🔥1
Forwarded from Machinelearning
Ultra fast ControlNet with 🧨 Diffusers
ControlNet provides a minimal interface allowing users to customize the generation process up to a great extent.
Новый пайплайн StableDiffusionControlNetPipeline, в статье показано, как его можно применять для различных задач. Давайте контролировать!
🤗 Hugging face blog: https://huggingface.co/blog/controlnet
🖥 Colab: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/controlnet.ipynb
🖥 Github: https://github.com/lllyasviel/ControlNet
⏩ Paprer: https://arxiv.org/abs/2302.05543
@ai_machinelearning_big_data
ControlNet provides a minimal interface allowing users to customize the generation process up to a great extent.
Новый пайплайн StableDiffusionControlNetPipeline, в статье показано, как его можно применять для различных задач. Давайте контролировать!
🤗 Hugging face blog: https://huggingface.co/blog/controlnet
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍2
Forwarded from Hacker News
Visual ChatGPT (🔥 Score: 152+ in 2 hours)
Link: https://readhacker.news/s/5zPu5
Comments: https://readhacker.news/c/5zPu5
Link: https://readhacker.news/s/5zPu5
Comments: https://readhacker.news/c/5zPu5
GitHub
GitHub - chenfei-wu/TaskMatrix
Contribute to chenfei-wu/TaskMatrix development by creating an account on GitHub.
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
StyleGANEX - Official PyTorch Implementation
Encoder that provides the first-layer feature of the extended StyleGAN in addition to the latent style code.
🖥 Github: https://github.com/williamyang1991/styleganex
⏩ Paper: https://arxiv.org/abs/2303.06146v1
⭐️ Colab: http://colab.research.google.com/github/williamyang1991/StyleGANEX/blob/master/inference_playground.ipynb
💨 Project: https://www.mmlab-ntu.com/project/styleganex/
ai_machinelearning_big_data
Encoder that provides the first-layer feature of the extended StyleGAN in addition to the latent style code.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥1
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Вот эта "неидеальность" со временем уйдёт, а мне так даже заходит больше. А ведь раньше гличи были на пике трендов.
Если хотите погонять свою видяху для создания Multi-frame Video rendering for SD, то вам вот за этой тулзовиной.
Если хотите погонять свою видяху для создания Multi-frame Video rendering for SD, то вам вот за этой тулзовиной.
❤🔥2
Forwarded from Denis Sexy IT 🤖
Официальный пресс релиз о GPT 4:
https://openai.com/research/gpt-4
Из интересного, она на вход может принимать картинки, не просто текст 🌚 про параметры я еще не почитал сам
Записаться в API вейтлист можно тоже по ссылке выше.
Кстати, если у вас ChatGPT Plus то вам дадут к ней доступ и так
https://openai.com/research/gpt-4
Из интересного, она на вход может принимать картинки, не просто текст 🌚 про параметры я еще не почитал сам
Записаться в API вейтлист можно тоже по ссылке выше.
Кстати, если у вас ChatGPT Plus то вам дадут к ней доступ и так
GPT-4 Developer Livestream
https://www.youtube.com/watch?v=outcGtbnMuQ
https://www.youtube.com/watch?v=outcGtbnMuQ
YouTube
GPT-4 Developer Livestream
Join Greg Brockman, President and Co-Founder of OpenAI, at 1 pm PT for a developer demo showcasing GPT-4 and some of its capabilities/limitations.
Join the conversation on Discord here: discord.gg/openai. We'll be taking audience input from #gpt4-demo-suggestions.
Join the conversation on Discord here: discord.gg/openai. We'll be taking audience input from #gpt4-demo-suggestions.
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
ModelScope Text-2-Video: Китайский опенсоурс разродился открытой моделькой для генерации видео по тексту
Это первая диффузионная text2video модель с открытым кодом и опуьликованными весами (1.7 млрд параметров).
Отдельный респект идет Шаттерстоку, данные с которого по всей видимотси использовались для тренировки модели 😂.
Чтобы запустить локально потребуется 16 GB RAM и 16 GB VRAM: инструкция. Пока генерит видео только 256x256.
Ну что, давайте побыстрее заполним интернет проклятыми видео!
Demo
Model weights
@ai_newz
Это первая диффузионная text2video модель с открытым кодом и опуьликованными весами (1.7 млрд параметров).
Отдельный респект идет Шаттерстоку, данные с которого по всей видимотси использовались для тренировки модели 😂.
Чтобы запустить локально потребуется 16 GB RAM и 16 GB VRAM: инструкция. Пока генерит видео только 256x256.
Ну что, давайте побыстрее заполним интернет проклятыми видео!
Demo
Model weights
@ai_newz
👍4
ML-разработчики, хотите создать что-то действительно уникальное? Присоединяйтесь к IT-команде Сбера и приступайте к работе над русской версией ChatGPT 🖥
Чем предстоит заниматься?
• Довести качество русской версии до ChatGPT и даже обогнать его
• Придумывать и реализовывать новые варианты применения LLM
• Находить решения бизнес-задач с помощью технологии Сбера.
Если у вас есть опыт обучения моделей, знание математики, алгоритмов, а еще вы не боитесь экспериментировать — переходите по ссылке, смотрите все условия и откликайтесь на вакансию 💚
Чем предстоит заниматься?
• Довести качество русской версии до ChatGPT и даже обогнать его
• Придумывать и реализовывать новые варианты применения LLM
• Находить решения бизнес-задач с помощью технологии Сбера.
Если у вас есть опыт обучения моделей, знание математики, алгоритмов, а еще вы не боитесь экспериментировать — переходите по ссылке, смотрите все условия и откликайтесь на вакансию 💚
❤1
Forwarded from эйай ньюз
🚀Dolly 2.0 – первая открытая 12B Chat-LLM, которую можно использовать в коммерческих продуктах
Databricks удивили! Ребята заметили, что все опен-соурсные ChatGPT-клоны либо используют LLaMA, в которой некоммерческая лицензия, либо используют данные, которые запрещают коммерческое использование (как например датасет инструкций от Alpaca, сгенерированный с помощью GPT-3).
В чем преимущество OpenAI перед опен-суорсом, если не брать в расчет размер GPU кластера? В данных. Чтобы дообучить ChatGPT было собрано много качественных диалогов и иструкций от реальных людей, ну, и плюс RL from Human Feedback (RLHF), где люди оценивали ответы языковой модели.
Было решено собрать свой датасет. В Databricks работает ≈5000 человек, их всех и попросили написать вручную несколько семплов для обучения клона ChatGPT. Нужно было составить качественные пары Вопрос-Ответ, либо Инструкция-Ответ, на которых можно было бы добучить опенсоурсную авторегрессионную LLM, которая умеет просто продолжать текст, а не вести диалог. В итоге с помощью пряников в виде бонусов за написание лучших примеров, было собран высококачественный датасет на 15000 семплов!
Далее, они взяли свежу языковую модель Pythia-12B от EleutherAI с MIT лицензией и дообучили на своем датасете, получив Dolly 2.0* которую тоже зарелизили под MIT лицензией вместе с кодом и весами. Разве не прелесть?
Умельцы уже кванитизовали Dolly 2.0 в 4 бита и ускорлили для запуска на CPU. Теперь ждём шага от OpenAssistant, которые по слухам зарелизят свою модел в ближайшие дни.
*Dolly 1.0 была обучена на тех же инструкциях, что и Alpaca.
Блогпост про Dolly 2.0
@ai_newz
Databricks удивили! Ребята заметили, что все опен-соурсные ChatGPT-клоны либо используют LLaMA, в которой некоммерческая лицензия, либо используют данные, которые запрещают коммерческое использование (как например датасет инструкций от Alpaca, сгенерированный с помощью GPT-3).
В чем преимущество OpenAI перед опен-суорсом, если не брать в расчет размер GPU кластера? В данных. Чтобы дообучить ChatGPT было собрано много качественных диалогов и иструкций от реальных людей, ну, и плюс RL from Human Feedback (RLHF), где люди оценивали ответы языковой модели.
Было решено собрать свой датасет. В Databricks работает ≈5000 человек, их всех и попросили написать вручную несколько семплов для обучения клона ChatGPT. Нужно было составить качественные пары Вопрос-Ответ, либо Инструкция-Ответ, на которых можно было бы добучить опенсоурсную авторегрессионную LLM, которая умеет просто продолжать текст, а не вести диалог. В итоге с помощью пряников в виде бонусов за написание лучших примеров, было собран высококачественный датасет на 15000 семплов!
Далее, они взяли свежу языковую модель Pythia-12B от EleutherAI с MIT лицензией и дообучили на своем датасете, получив Dolly 2.0* которую тоже зарелизили под MIT лицензией вместе с кодом и весами. Разве не прелесть?
generatetext = pipeline(model="databricks/dolly-v2-12b", torchdtype=torch.bfloat16, trustremotecode=True, devicemap="auto")
generatetext("Who is Shcmidhuber?")
Умельцы уже кванитизовали Dolly 2.0 в 4 бита и ускорлили для запуска на CPU. Теперь ждём шага от OpenAssistant, которые по слухам зарелизят свою модел в ближайшие дни.
*Dolly 1.0 была обучена на тех же инструкциях, что и Alpaca.
Блогпост про Dolly 2.0
@ai_newz
👎1
Forwarded from Machinelearning
📝 An open, billion-scale corpus of images interleaved with text.
MultimodalC4 is a multimodal extension of c4 that interleaves millions of images with text.
Открытый миллиардный корпус изображений, чередующихся с текстом.
🖥 Github: https://github.com/allenai/mmc4
⏩ Paper: https://arxiv.org/abs/2304.06939v1
⭐️ Dataset: https://paperswithcode.com/dataset/c4
ai_machinelearning_big_data
MultimodalC4 is a multimodal extension of c4 that interleaves millions of images with text.
Открытый миллиардный корпус изображений, чередующихся с текстом.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🔥2👍1
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Мы все ближе к генеративной сингулярности:
Nvidia показала работу алгоритма text2video, и он работает сильно лучше чем все предыдущие примеры.
Смонтировал примеры в одно видео, тут по ссылке технические детали про архитектуру и больше примеров.
Модель, поиграться, кажется, нам не дадут🥲
Nvidia показала работу алгоритма text2video, и он работает сильно лучше чем все предыдущие примеры.
Смонтировал примеры в одно видео, тут по ссылке технические детали про архитектуру и больше примеров.
Модель, поиграться, кажется, нам не дадут
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Forwarded from gonzo-обзоры ML статей
Looks interesting
https://github.com/google/maxtext
MaxText is a high performance, arbitrarily scalable, open-source, simple, easily forkable, well-tested, batteries included LLM written in pure Python/Jax and targeting Google Cloud TPUs. MaxText typically achieves 55% to 60% model-flop utilization and scales from single host to very large clusters while staying simple and "optimization-free" thanks to the power of Jax and the XLA compiler.
MaxText aims to be a launching off point for ambitious LLM projects both in research and production. We encourage users to start by experimenting with MaxText out of the box and then fork and modify MaxText to meet their needs.
...
MaxText is heavily inspired by MinGPT/NanoGPT, elegant standalone GPT implementations written in PyTorch and targeting Nvidia GPUs. MaxText is more complex but has an MFU more than three times the 17% reported most recently with that codebase, is massively scalable and implements a key-value cache for efficient auto-regressive decoding.
MaxText is more similar to Nvidia/Megatron-LM, a very well tuned LLM implementation targeting Nvidia GPUs. The two implementations achieve comparable MFUs. The difference in the codebases highlights the different programming strategies. MaxText is pure Python, relying heavily on the XLA compiler to achieve high performance. By contrast, Megatron-LM is a mix of Python and CUDA, relying on well-optimized CUDA kernels to achieve high performance.
MaxText is also comparable to Pax. Like Pax, MaxText provides high-performance and scalable implementations of LLMs in Jax. Pax focuses on enabling powerful configuration parameters, enabling developers to change the model by editing config parameters. By contrast, MaxText is a simple, concrete implementation of an LLM that encourages users to extend by forking and directly editing the source code. The right choice depends on your project's priorities.
https://github.com/google/maxtext
MaxText is a high performance, arbitrarily scalable, open-source, simple, easily forkable, well-tested, batteries included LLM written in pure Python/Jax and targeting Google Cloud TPUs. MaxText typically achieves 55% to 60% model-flop utilization and scales from single host to very large clusters while staying simple and "optimization-free" thanks to the power of Jax and the XLA compiler.
MaxText aims to be a launching off point for ambitious LLM projects both in research and production. We encourage users to start by experimenting with MaxText out of the box and then fork and modify MaxText to meet their needs.
...
MaxText is heavily inspired by MinGPT/NanoGPT, elegant standalone GPT implementations written in PyTorch and targeting Nvidia GPUs. MaxText is more complex but has an MFU more than three times the 17% reported most recently with that codebase, is massively scalable and implements a key-value cache for efficient auto-regressive decoding.
MaxText is more similar to Nvidia/Megatron-LM, a very well tuned LLM implementation targeting Nvidia GPUs. The two implementations achieve comparable MFUs. The difference in the codebases highlights the different programming strategies. MaxText is pure Python, relying heavily on the XLA compiler to achieve high performance. By contrast, Megatron-LM is a mix of Python and CUDA, relying on well-optimized CUDA kernels to achieve high performance.
MaxText is also comparable to Pax. Like Pax, MaxText provides high-performance and scalable implementations of LLMs in Jax. Pax focuses on enabling powerful configuration parameters, enabling developers to change the model by editing config parameters. By contrast, MaxText is a simple, concrete implementation of an LLM that encourages users to extend by forking and directly editing the source code. The right choice depends on your project's priorities.
GitHub
GitHub - AI-Hypercomputer/maxtext: A simple, performant and scalable Jax LLM!
A simple, performant and scalable Jax LLM! Contribute to AI-Hypercomputer/maxtext development by creating an account on GitHub.
Forwarded from Machinelearning
LLM Zoo: democratizing ChatGPT
Model "Phoenix", achieving competitive performance among open-source English and Chinese models while excelling in languages with limited resources
LLM Zoo - это проект, который предоставляет данные, модели и бенчмарки для больших языковых моделей.
🖥 Github: https://github.com/freedomintelligence/llmzoo
⏩ Paper: https://arxiv.org/abs/2304.10453v1
⭐️ Parameters: https://huggingface.co/FreedomIntelligence/phoenix-chat-7b
ai_machinelearning_big_data
Model "Phoenix", achieving competitive performance among open-source English and Chinese models while excelling in languages with limited resources
LLM Zoo - это проект, который предоставляет данные, модели и бенчмарки для больших языковых моделей.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
DINOv2: современные модели компьютерного зрения с самообучением
https://ai.facebook.com/blog/dino-v2-computer-vision-self-supervised-learning/
https://github.com/facebookresearch/dinov2
https://ai.facebook.com/blog/dino-v2-computer-vision-self-supervised-learning/
https://github.com/facebookresearch/dinov2
Visual Blocks for ML: Accelerating machine learning prototyping with interactive tools
https://ai.googleblog.com/2023/04/visual-blocks-for-ml-accelerating.html?utm_source=substack&utm_medium=email
https://ai.googleblog.com/2023/04/visual-blocks-for-ml-accelerating.html?utm_source=substack&utm_medium=email
👍4
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Track anything
Project developed upon Segment Anything, can specify anything to track and segment via user clicks only.
Track-Anything - это гибкий и интерактивный инструмент для отслеживания и сегментации видео.
🖥 Github: https://github.com/gaomingqi/track-anything
⏩ Paper: https://arxiv.org/abs/2304.11968v1
🤗 Hugging face: https://huggingface.co/spaces/watchtowerss/Track-Anything
📌 Dataset: https://paperswithcode.com/dataset/davis-2017
ai_machinelearning_big_data
Project developed upon Segment Anything, can specify anything to track and segment via user clicks only.
Track-Anything - это гибкий и интерактивный инструмент для отслеживания и сегментации видео.
🤗 Hugging face: https://huggingface.co/spaces/watchtowerss/Track-Anything
📌 Dataset: https://paperswithcode.com/dataset/davis-2017
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥1🥰1