🔫 Nvidia выпустила GeForce RTX 3090 Ti | Рекомендованная цена: 2000$
Вкратце пробежимся по деталям:
• 10% средний буст в сравнении с 3090
• VRAM остался 24gb
• VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
• TFLOPS FP32: 40.0 vs 35.6 (3090)
• TFLOPS FP16: 160 vs 142 (3090)
• Рекомендованная цена: $1,999 vs $1,499 (3090)
• Кастомные карточки будут доходить в цене до 3000$
🚀 RTX 3090 Family: 3090 & 3090TI
Вкратце пробежимся по деталям:
• 10% средний буст в сравнении с 3090
• VRAM остался 24gb
• VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
• TFLOPS FP32: 40.0 vs 35.6 (3090)
• TFLOPS FP16: 160 vs 142 (3090)
• Рекомендованная цена: $1,999 vs $1,499 (3090)
• Кастомные карточки будут доходить в цене до 3000$
🚀 RTX 3090 Family: 3090 & 3090TI
❤22😢8👍6👎3
🔥🥑 Прощай DALL•E и GLIDE, Да здравствует Text-to-Image Latent Diffusion
Наверное многие из вас помнят успех VQ-GAN, наследника VQ-VAE от CompVis.
Так вот, пару месяцев назад ребята сделали Latent Diffusion кодировщик-декодеровщик, а сегодня на его базе на свет появился лучший Text-to-Image!!
Идея Dall-E заключается в том, что GPT трансформер обучают переводу из текстовой последовательности токенов в последовательность VQ-VAE / VQ-GAN токенов. Кроме DALL-E недавно появился GLIDE, который показал, что classifier-free guidance диффузия может обгонять GPT подход, используемый в DALL-E.
Все это чудо стало возможным благодаря stability.ai, датасету laion 5b и ресерчерам, которые делают штуки круче OpenAI, и отдают их в open source!!
p.s.: посмотрите на эти примеры на картинке к посту, это действительно next gen! Даже текст выходит нормально.
🔮 Collab 🧿 kaggle
Наверное многие из вас помнят успех VQ-GAN, наследника VQ-VAE от CompVis.
Так вот, пару месяцев назад ребята сделали Latent Diffusion кодировщик-декодеровщик, а сегодня на его базе на свет появился лучший Text-to-Image!!
Идея Dall-E заключается в том, что GPT трансформер обучают переводу из текстовой последовательности токенов в последовательность VQ-VAE / VQ-GAN токенов. Кроме DALL-E недавно появился GLIDE, который показал, что classifier-free guidance диффузия может обгонять GPT подход, используемый в DALL-E.
Все это чудо стало возможным благодаря stability.ai, датасету laion 5b и ресерчерам, которые делают штуки круче OpenAI, и отдают их в open source!!
p.s.: посмотрите на эти примеры на картинке к посту, это действительно next gen! Даже текст выходит нормально.
🔮 Collab 🧿 kaggle
❤57👍25😢1
Отложенный труп Жириновского | Теперь уже официальный RuntimeError и согласованный CUDA Out Of Memory
❤47👍22👎13😢3
🤖🥑 Latent Diffusion LAION 400M Colab
Теперь работает на всех google аккаунтах и без pro / pro+ colab подписки.
p.s. Диффузия таки может не только в абстракцию, но и в текст!
🔮 latent diffusion laion 400M
Теперь работает на всех google аккаунтах и без pro / pro+ colab подписки.
p.s. Диффузия таки может не только в абстракцию, но и в текст!
🔮 latent diffusion laion 400M
👍21❤6
Media is too big
VIEW IN TELEGRAM
🥑😈 DALL•E 2 от OpenAI: Hierarchical Text-Conditional Image Generation with CLIP Latents
2021 год показал, что contrastive модели, такие как CLIP, выучивают качественное пространство визуальных и текстовых репрезентаций.
Ресерчеры из OpenAI решили использовать эти репрезентации для генерации изображений! Встречайте двухэтапную модель DALL•E 2, которая скрещивает диффузионный декодер и диффузионную визуальную модель DALL-E (ребята, кстати, показали, что диффузия таки более вычислительно выгодная и качественная нежели авторегрессия) и контрастный CLIP!
🧪 Если проще, то это очень изящный вариант, чтобы скрестить CLIP и DALL•E, где можно пользоваться векторам (эммбедингами) CLIP’a, и создавать новые изображения на основании и изображений примеров (доноров) и текстовых описаний. Такой подход позволяет не только генерировать превосходные изображения, но и изменять существующие!
p.s.: да, OpenAI все еще ClosedAI, так что надежда или на крутой клон от Stability.AI, ну или на waitlist 🙃
📰 Paper 🎓 Blog 🎥 Янык
2021 год показал, что contrastive модели, такие как CLIP, выучивают качественное пространство визуальных и текстовых репрезентаций.
Ресерчеры из OpenAI решили использовать эти репрезентации для генерации изображений! Встречайте двухэтапную модель DALL•E 2, которая скрещивает диффузионный декодер и диффузионную визуальную модель DALL-E (ребята, кстати, показали, что диффузия таки более вычислительно выгодная и качественная нежели авторегрессия) и контрастный CLIP!
🧪 Если проще, то это очень изящный вариант, чтобы скрестить CLIP и DALL•E, где можно пользоваться векторам (эммбедингами) CLIP’a, и создавать новые изображения на основании и изображений примеров (доноров) и текстовых описаний. Такой подход позволяет не только генерировать превосходные изображения, но и изменять существующие!
p.s.: да, OpenAI все еще ClosedAI, так что надежда или на крутой клон от Stability.AI, ну или на waitlist 🙃
📰 Paper 🎓 Blog 🎥 Янык
❤19👍10
Forwarded from Нейроэстетика
🥑 DALL•E 2 text-to-image examples from OpenAI researchers
▪️A rabbit detective sitting on a park bench and reading a newspaper in a victorian setting
▪️Rabbits attending a college seminar on human anatomy
▪️A vacuum listening to music on its headphones while cleaning the room
▪️A raccoon wearing a with a lightsaber
▪️A raccoon wearing a hoodie working on his
laptop late into the night in Los Angeles making a 'yes'
▪️A raccoon wearing a hoodie working on his
laptop late into the night
▪️A kid and a dog staring at the stars
▪️An elephant tea party on a grass lawn
▪️A panda wearing red bandana and sunglasses on the motorcycle in the desert
▪️A rabbit detective sitting on a park bench and reading a newspaper in a victorian setting
▪️Rabbits attending a college seminar on human anatomy
▪️A vacuum listening to music on its headphones while cleaning the room
▪️A raccoon wearing a with a lightsaber
▪️A raccoon wearing a hoodie working on his
laptop late into the night in Los Angeles making a 'yes'
▪️A raccoon wearing a hoodie working on his
laptop late into the night
▪️A kid and a dog staring at the stars
▪️An elephant tea party on a grass lawn
▪️A panda wearing red bandana and sunglasses on the motorcycle in the desert
❤50👍19
This media is not supported in your browser
VIEW IN TELEGRAM
🥑 DALL-E 2 позволяет не только генерировать новые изображение, но и скрещивать реальные!
DALL-E 2 сочетает лучшее из двух миров:
▪️Zero-Shot способность генерации изображений практически во всех доменах
▪️И способность интерполяции между изображениями (между векторами их эмбедингов)
На gif'ке — DALL-E 2 вариации между двумя изображениями: логотипом OpenAI и картиной "Изучение цвета квадратов и кругов" Кандинского; путем интерполяции их CLIP эмбедингов, а затем декодирования с помощью диффузионной модели unСLIP (декодер части модели DALL-E 2).
Так что все прелести StyleGAN-интерполяции поставляются в DALL-E 2 "из коробки"
DALL-E 2 сочетает лучшее из двух миров:
▪️Zero-Shot способность генерации изображений практически во всех доменах
▪️И способность интерполяции между изображениями (между векторами их эмбедингов)
На gif'ке — DALL-E 2 вариации между двумя изображениями: логотипом OpenAI и картиной "Изучение цвета квадратов и кругов" Кандинского; путем интерполяции их CLIP эмбедингов, а затем декодирования с помощью диффузионной модели unСLIP (декодер части модели DALL-E 2).
Так что все прелести StyleGAN-интерполяции поставляются в DALL-E 2 "из коробки"
❤30👍7
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Если помните, Nvidia не так давно показала свою новую нейронку (iNGP) – скармливаешь ей кучу фоток и она дает тебе 3D пространство этого помещения, в котором можно «перемещать камеру».
Один из интересных побочных эффектов этого алгоритма, это то, что можно «залетать» в отражения, в данном случае в зеркало — и летать там смотреть чего как.
Вход в зазеркалье открывается только с помощью нейронок, теперь все понятно ¯\_(ツ)_/¯
UPD для нердов: Эта сцена тренировалась на 134 фотографиях
Один из интересных побочных эффектов этого алгоритма, это то, что можно «залетать» в отражения, в данном случае в зеркало — и летать там смотреть чего как.
Вход в зазеркалье открывается только с помощью нейронок, теперь все понятно ¯\_(ツ)_/¯
UPD для нердов: Эта сцена тренировалась на 134 фотографиях
❤60👍21🔥2