❤️ DALL·E 2 Product Updates
Мне кажется, что ИИ и искусство еще никогда не были так близки к друг другу: OpenAI заявили что следующая их цель 1,000,000 пользователей DALL-E 2
Сейчас DALL-E 2 доступен 100,000 пользователям со всего мира. Сегодня мне на почту пришло письмо, где говорится об изменениях, касающихся API, давайте разберем:
▪️ Чтобы дать возможность большему числу людей прикаснуться к интеллектуальному чуду, OpenAI решили уменьшить выдачу: 4 генерации вместо 6
▪️ Увеличили память с 10ти до 50ти последних запросов, а сохранять в избранное не 1,000 а 10,000 картинок.
▪️ Кроме того OpenAI повысили diversity. Больше людей хороших и разных!
Я ощущаю прогресс в чем-то совершенно новом. Мои генерации нравятся мне все больше, я вырабатываю определенную стилистику, перекочевавшую из любительской фотографии. За выходные я узнал много фотохудожников, стилей и терминов.
Надеюсь скоро и тебе придет инвайт!
Ну а 4 картинки в выдаче вместо 6ти не беда, когда они такие!
@мишин лернинг
Мне кажется, что ИИ и искусство еще никогда не были так близки к друг другу: OpenAI заявили что следующая их цель 1,000,000 пользователей DALL-E 2
Сейчас DALL-E 2 доступен 100,000 пользователям со всего мира. Сегодня мне на почту пришло письмо, где говорится об изменениях, касающихся API, давайте разберем:
▪️ Чтобы дать возможность большему числу людей прикаснуться к интеллектуальному чуду, OpenAI решили уменьшить выдачу: 4 генерации вместо 6
▪️ Увеличили память с 10ти до 50ти последних запросов, а сохранять в избранное не 1,000 а 10,000 картинок.
▪️ Кроме того OpenAI повысили diversity. Больше людей хороших и разных!
Я ощущаю прогресс в чем-то совершенно новом. Мои генерации нравятся мне все больше, я вырабатываю определенную стилистику, перекочевавшую из любительской фотографии. За выходные я узнал много фотохудожников, стилей и терминов.
Надеюсь скоро и тебе придет инвайт!
Ну а 4 картинки в выдаче вместо 6ти не беда, когда они такие!
@мишин лернинг
❤37👍8🔥3👎2
🤖 DALL·E вышел в BETA!
На старте OpenAI давали генерировать по 10 картинок и без каких-то лимитов, потом количество генераций срезали до 8ми, а потом до 6ти и ввели лимит в 50 генераций в день, теперь число генераций по одному запросу в выдаче: 4 картинки.
Но OpanAI поставило цель достичь 1,000,000 пользователей DALL•E 2. Объясню как это будет работать:
▪️ Новому юзеру даётся 50 кредитов
▪️ Один кредит — 4 картинки по описанию
▪️ 115 кредитов можно купить за 15$ (получается 0.13$ за запрос)
▪️ Каждый месяц вы получаете 15 кредитов бесплатно
▪️ Если вы, как я, участвовали в альфе, то получите 100 кредитов в бонус единоразово.
Сразу скажу, что 15, 50, 100 и 115 кредитов это совсем ничего! Последнее время я каждый день генерил по 50 запросов (по 6 картинок) и этого всегда было мало! На создание хорошей коллекции уходит 10-30 кредитов. С другой стороны, хоть вы и не обладаете копирайтом на изображения, вы можете использовать их в коммерческих целях.
@мишин лернинг
На старте OpenAI давали генерировать по 10 картинок и без каких-то лимитов, потом количество генераций срезали до 8ми, а потом до 6ти и ввели лимит в 50 генераций в день, теперь число генераций по одному запросу в выдаче: 4 картинки.
Но OpanAI поставило цель достичь 1,000,000 пользователей DALL•E 2. Объясню как это будет работать:
▪️ Новому юзеру даётся 50 кредитов
▪️ Один кредит — 4 картинки по описанию
▪️ 115 кредитов можно купить за 15$ (получается 0.13$ за запрос)
▪️ Каждый месяц вы получаете 15 кредитов бесплатно
▪️ Если вы, как я, участвовали в альфе, то получите 100 кредитов в бонус единоразово.
Сразу скажу, что 15, 50, 100 и 115 кредитов это совсем ничего! Последнее время я каждый день генерил по 50 запросов (по 6 картинок) и этого всегда было мало! На создание хорошей коллекции уходит 10-30 кредитов. С другой стороны, хоть вы и не обладаете копирайтом на изображения, вы можете использовать их в коммерческих целях.
@мишин лернинг
❤22😢6👍4
😉 Stable Diffusion Beta Access
Помните писал про то, что скоро будет моделька (фото с огромным зайкой на улице)
Модель представляет из себя смесь Latent Diffusion Model и DALL•E 2 на CLIP векторах и в 'стабильном 'CLIP-Guided режиме. Отсюда и имя: Stable Diffusion
Подробнее в следующем посте
> заявка на бету
Помните писал про то, что скоро будет моделька (фото с огромным зайкой на улице)
Модель представляет из себя смесь Latent Diffusion Model и DALL•E 2 на CLIP векторах и в 'стабильном 'CLIP-Guided режиме. Отсюда и имя: Stable Diffusion
Подробнее в следующем посте
> заявка на бету
🔥10❤6👍2
Forwarded from Нейроэстетика
🤖 Потестировал новую Text2Image модель. Встречайте, Stable Diffusion
Модель является синтезем Latent Diffusion Model и Imagen. Из-за LDM подхода модель сразу генерит 768х768, а не 64 > 256 > 1024 как DALL-E 2 и Imagen!
Сразу скажу, что пока пройдено лишь 25% обучения и для сэмплинга не используется ни CLIP-guidance, ни classifier free guidance, которые буду использоваться потом и невероятно усилят качество генераций!
👉 Записаться на бетку можно тут
Н е й р о э с т е т и к а ✖️ Мишин Лернинг
Модель является синтезем Latent Diffusion Model и Imagen. Из-за LDM подхода модель сразу генерит 768х768, а не 64 > 256 > 1024 как DALL-E 2 и Imagen!
Сразу скажу, что пока пройдено лишь 25% обучения и для сэмплинга не используется ни CLIP-guidance, ни classifier free guidance, которые буду использоваться потом и невероятно усилят качество генераций!
👉 Записаться на бетку можно тут
Н е й р о э с т е т и к а ✖️ Мишин Лернинг
❤14👍11🔥2
❗️Не хочу тут спамить, но Stable Diffusion вроде становится прям очень популярной сетью
Если интересна text2image генеративка вообще и stable diffusion в частности, то буду выкладывать инфу, генерить по вашим запросам, отвечать на вопросы и общаться по теме в канале Н е й р о э с т е т е к а
Пока хочу чуть декомпозировать и меньше времени уделать text2image моделям в Мишин Лернинге.
@мишин лернинг
Если интересна text2image генеративка вообще и stable diffusion в частности, то буду выкладывать инфу, генерить по вашим запросам, отвечать на вопросы и общаться по теме в канале Н е й р о э с т е т е к а
Пока хочу чуть декомпозировать и меньше времени уделать text2image моделям в Мишин Лернинге.
@мишин лернинг
👍12❤3
Forwarded from Нейроэстетика
👍3❤1🔥1
DeepMind ❤️ YouTube
Самое важное и интересное из 📇 блог поста DeepMind про интеграцию DL-проектов в платформу YouTube:
🗄 MuZero улучшил кодек VP9 на 4%
Работая вместе с YouTube, DeepMind изучили потенциал MuZero для улучшения кодека VP9 (👈 подробнее) и применили MuZero к живому трафику YouTube!
После запуска снижение битрейта составило ~4%. Улучшив кодек VP9 на YouTube, DeepMind помогли сократить интернет-трафик, и, соответственно, время необходимое для загрузки видео. Благодаря оптимизации миллионы людей смогут смотреть больше видео, загружая их быстрее!
🎞 AutoChapters — Автоматическая разбивка видео на главы
Главы позволяют находить нужный контент, но их создание было медленным и трудоемким ручным процессом.
Представленная на Google I/O 2022, технология автоматического создания глав уже сегодня используется для 8,000,000 видео, и YouTube обработает > 80,000,000 видео в течение года.
AutoChapters экономит время на поиск контента зрителя, и создателям на разбиение глав.
@Мишин Лернинг
Самое важное и интересное из 📇 блог поста DeepMind про интеграцию DL-проектов в платформу YouTube:
🗄 MuZero улучшил кодек VP9 на 4%
Работая вместе с YouTube, DeepMind изучили потенциал MuZero для улучшения кодека VP9 (👈 подробнее) и применили MuZero к живому трафику YouTube!
После запуска снижение битрейта составило ~4%. Улучшив кодек VP9 на YouTube, DeepMind помогли сократить интернет-трафик, и, соответственно, время необходимое для загрузки видео. Благодаря оптимизации миллионы людей смогут смотреть больше видео, загружая их быстрее!
🎞 AutoChapters — Автоматическая разбивка видео на главы
Главы позволяют находить нужный контент, но их создание было медленным и трудоемким ручным процессом.
Представленная на Google I/O 2022, технология автоматического создания глав уже сегодня используется для 8,000,000 видео, и YouTube обработает > 80,000,000 видео в течение года.
AutoChapters экономит время на поиск контента зрителя, и создателям на разбиение глав.
@Мишин Лернинг
❤18👍9🔥9
👾 А у нас NextGen Text2Image: Retrieval-Augmented Diffusion Models от CompVis
Я не мог писать об этом раньше, но теперь все выложили. Хотя написать очень и очень хотелось..
Идея лежала на поверхности: DALL•E 2 💦 RETRO = ❤️
Подробнее разберём на примере:
> Нужно сгенерировать «Мадагаскарская руконожка на скейтборде». Я вот не помню как она выглядит)
❕DALL•E 1/2, Imagen принимали текст, и на основе него генерировали изображения. А что если добавить возможность подглядывать в реальный датасет?
❗️Для этого нам поможет CLIP и kNN: Ищем в датасете ближайшие изображения и подаём их (или их эмбеддинги) в качестве кондишн для генерации.
Новый LDM, натренированный в таком режиме, что можно использовать:
> Unconditional генерацию
> Class и Retrieval кондишн
То есть: Можно использовать только текстовое описание, а можно и помочь сети, похожими реальными примерами (похожие картинки будут выступать в качестве референсов)
Ну не круто ли?
📰 paper
🔬 Code
@Mishin Learning
Я не мог писать об этом раньше, но теперь все выложили. Хотя написать очень и очень хотелось..
Идея лежала на поверхности: DALL•E 2 💦 RETRO = ❤️
Подробнее разберём на примере:
> Нужно сгенерировать «Мадагаскарская руконожка на скейтборде». Я вот не помню как она выглядит)
❕DALL•E 1/2, Imagen принимали текст, и на основе него генерировали изображения. А что если добавить возможность подглядывать в реальный датасет?
❗️Для этого нам поможет CLIP и kNN: Ищем в датасете ближайшие изображения и подаём их (или их эмбеддинги) в качестве кондишн для генерации.
Новый LDM, натренированный в таком режиме, что можно использовать:
> Unconditional генерацию
> Class и Retrieval кондишн
То есть: Можно использовать только текстовое описание, а можно и помочь сети, похожими реальными примерами (похожие картинки будут выступать в качестве референсов)
Ну не круто ли?
📰 paper
🔬 Code
@Mishin Learning
🔥36👍9❤6👎2