Мишин Лернинг – Telegram
Мишин Лернинг
7.76K subscribers
1.18K photos
151 videos
4 files
644 links
Субъективный канал об искусстве машинного обучения, нейронных сетях и новостях из мира искусственного интеллекта. 🇺🇦🇮🇱
Download Telegram
🔫 Nvidia выпустила GeForce RTX 3090 Ti | Рекомендованная цена: 2000$

Вкратце пробежимся по деталям:
10% средний буст в сравнении с 3090
VRAM остался 24gb
VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
TFLOPS FP32: 40.0 vs 35.6 (3090)
TFLOPS FP16: 160 vs 142 (3090)
Рекомендованная цена: $1,999 vs $1,499 (3090)
Кастомные карточки будут доходить в цене до 3000$

🚀
RTX 3090 Family: 3090 & 3090TI
22😢8👍6👎3
🔥🥑 Прощай DALL•E и GLIDE, Да здравствует Text-to-Image Latent Diffusion

Наверное многие из вас помнят успех VQ-GAN, наследника VQ-VAE от CompVis.

Так вот, пару месяцев назад ребята сделали Latent Diffusion кодировщик-декодеровщик, а сегодня на его базе на свет появился лучший Text-to-Image!!

Идея Dall-E заключается в том, что GPT трансформер обучают переводу из текстовой последовательности токенов в последовательность VQ-VAE / VQ-GAN токенов. Кроме DALL-E недавно появился GLIDE, который показал, что classifier-free guidance диффузия может обгонять GPT подход, используемый в DALL-E.

Все это чудо стало возможным благодаря stability.ai, датасету laion 5b и ресерчерам, которые делают штуки круче OpenAI, и отдают их в open source!!

p.s.: посмотрите на эти примеры на картинке к посту, это действительно next gen! Даже текст выходит нормально.

🔮 Collab 🧿 kaggle
57👍25😢1
Отложенный труп Жириновского | Теперь уже официальный RuntimeError и согласованный CUDA Out Of Memory
47👍22👎13😢3
🤖🥑 Latent Diffusion LAION 400M Colab

Теперь работает на всех google аккаунтах и без pro / pro+ colab подписки.

p.s. Диффузия таки может не только в абстракцию, но и в текст!

🔮 latent diffusion laion 400M
👍216
🥑🎓 DALL•E 2 от OpenAI

Походу OpenAI выкатила действительно NextGen

https://openai.com/dall-e-2/
23👍3
Media is too big
VIEW IN TELEGRAM
🥑😈 DALL•E 2 от OpenAI: Hierarchical Text-Conditional Image Generation with CLIP Latents

2021 год показал, что contrastive модели, такие как CLIP, выучивают качественное пространство визуальных и текстовых репрезентаций.

Ресерчеры из OpenAI решили использовать эти репрезентации для генерации изображений! Встречайте двухэтапную модель DALL•E 2, которая скрещивает диффузионный декодер и диффузионную визуальную модель DALL-E (ребята, кстати, показали, что диффузия таки более вычислительно выгодная и качественная нежели авторегрессия) и контрастный CLIP!

🧪 Если проще, то это очень изящный вариант, чтобы скрестить CLIP и DALL•E, где можно пользоваться векторам (эммбедингами) CLIP’a, и создавать новые изображения на основании и изображений примеров (доноров) и текстовых описаний. Такой подход позволяет не только генерировать превосходные изображения, но и изменять существующие!

p.s.: да, OpenAI все еще ClosedAI, так что надежда или на крутой клон от Stability.AI, ну или на waitlist 🙃

📰 Paper 🎓 Blog 🎥 Янык
19👍10
🥑 DALL•E 2 text-to-image examples from OpenAI researchers

▪️A rabbit detective sitting on a park bench and reading a newspaper in a victorian setting

▪️Rabbits attending a college seminar on human anatomy

▪️A vacuum listening to music on its headphones while cleaning the room

▪️A raccoon wearing a with a lightsaber

▪️A raccoon wearing a hoodie working on his
laptop late into the night in Los Angeles making a 'yes'

▪️A raccoon wearing a hoodie working on his
laptop late into the night

▪️A kid and a dog staring at the stars

▪️An elephant tea party on a grass lawn

▪️A panda wearing red bandana and sunglasses on the motorcycle in the desert
50👍19
Мне кажется, что с прагматической точки зрения наступает время, в которое делать арт нейронными сетями станет попросту дешевле и быстрее.
👍86😢1815
This media is not supported in your browser
VIEW IN TELEGRAM
🥑 DALL-E 2 позволяет не только генерировать новые изображение, но и скрещивать реальные!

DALL-E 2 сочетает лучшее из двух миров:
▪️Zero-Shot способность генерации изображений практически во всех доменах
▪️И способность интерполяции между изображениями (между векторами их эмбедингов)

На gif'ке — DALL-E 2 вариации между двумя изображениями: логотипом OpenAI и картиной "Изучение цвета квадратов и кругов" Кандинского; путем интерполяции их CLIP эмбедингов, а затем декодирования с помощью диффузионной модели unСLIP (декодер части модели DALL-E 2).

Так что все прелести StyleGAN-интерполяции поставляются в DALL-E 2 "из коробки"
30👍7