Мишин Лернинг – Telegram
Мишин Лернинг
7.76K subscribers
1.18K photos
151 videos
4 files
643 links
Субъективный канал об искусстве машинного обучения, нейронных сетях и новостях из мира искусственного интеллекта. 🇺🇦🇮🇱
Download Telegram
❤️ DALL·E 2 Product Updates

Мне кажется, что ИИ и искусство еще никогда не были так близки к друг другу: OpenAI заявили что следующая их цель 1,000,000 пользователей DALL-E 2

Сейчас DALL-E 2 доступен 100,000 пользователям со всего мира. Сегодня мне на почту пришло письмо, где говорится об изменениях, касающихся API, давайте разберем:

▪️ Чтобы дать возможность большему числу людей прикаснуться к интеллектуальному чуду, OpenAI решили уменьшить выдачу: 4 генерации вместо 6

▪️ Увеличили память с 10ти до 50ти последних запросов, а сохранять в избранное не 1,000 а 10,000 картинок.

▪️ Кроме того OpenAI повысили diversity. Больше людей хороших и разных!

Я ощущаю прогресс в чем-то совершенно новом. Мои генерации нравятся мне все больше, я вырабатываю определенную стилистику, перекочевавшую из любительской фотографии. За выходные я узнал много фотохудожников, стилей и терминов.

Надеюсь скоро и тебе придет инвайт!
Ну а 4 картинки в выдаче вместо 6ти не беда, когда они такие!

@мишин лернинг
37👍8🔥3👎2
🤖 DALL·E вышел в BETA!

На старте OpenAI давали генерировать по 10 картинок и без каких-то лимитов, потом количество генераций срезали до 8ми, а потом до 6ти и ввели лимит в 50 генераций в день, теперь число генераций по одному запросу в выдаче: 4 картинки.

Но OpanAI поставило цель достичь 1,000,000 пользователей DALL•E 2. Объясню как это будет работать:

▪️ Новому юзеру даётся 50 кредитов

▪️ Один кредит — 4 картинки по описанию

▪️ 115 кредитов можно купить за 15$ (получается 0.13$ за запрос)

▪️
Каждый месяц вы получаете 15 кредитов бесплатно

▪️
Если вы, как я, участвовали в альфе, то получите 100 кредитов в бонус единоразово.

Сразу скажу, что 15, 50, 100 и 115 кредитов это совсем ничего! Последнее время я каждый день генерил по 50 запросов (по 6 картинок) и этого всегда было мало! На создание хорошей коллекции уходит 10-30 кредитов. С другой стороны, хоть вы и не обладаете копирайтом на изображения, вы можете использовать их в коммерческих целях.

@
мишин лернинг
22😢6👍4
😉 Stable Diffusion Beta Access

Помните писал про то, что скоро будет моделька (фото с огромным зайкой на улице)

Модель представляет из себя смесь Latent Diffusion Model и DALL•E 2 на CLIP векторах и в 'стабильном 'CLIP-Guided режиме. Отсюда и имя: Stable Diffusion

Подробнее в следующем посте

> заявка на бету
🔥106👍2
🤖 Потестировал новую Text2Image модель. Встречайте, Stable Diffusion

Модель является синтезем Latent Diffusion Model и Imagen. Из-за LDM подхода модель сразу генерит 768х768, а не 64 > 256 > 1024 как DALL-E 2 и Imagen!

Сразу скажу, что пока пройдено лишь 25% обучения и для сэмплинга не используется ни CLIP-guidance, ни classifier free guidance, которые буду использоваться потом и невероятно усилят качество генераций!

👉 Записаться на бетку можно тут

Н е й р о э с т е т и к а ✖️ Мишин Лернинг
14👍11🔥2
❗️Не хочу тут спамить, но Stable Diffusion вроде становится прям очень популярной сетью

Если интересна text2image генеративка вообще и stable diffusion в частности, то буду выкладывать инфу, генерить по вашим запросам, отвечать на вопросы и общаться по теме в канале Н е й р о э с т е т е к а

Пока хочу чуть декомпозировать и меньше времени уделать text2image моделям в Мишин Лернинге.

@мишин лернинг
👍123
🎨 Stable Diffusion vs DALL•E 2
Anonymous Poll
36%
Stable Diffusion
64%
DALL•E 2
👍31🔥1
DeepMind ❤️ YouTube

Самое важное и интересное из 📇 блог поста DeepMind про интеграцию DL-проектов в платформу YouTube:

🗄 MuZero улучшил кодек VP9 на 4%

Работая вместе с YouTube, DeepMind изучили потенциал MuZero для улучшения кодека VP9 (👈 подробнее) и применили MuZero к живому трафику YouTube!

После запуска снижение битрейта составило ~4%. Улучшив кодек VP9 на YouTube, DeepMind помогли сократить интернет-трафик, и, соответственно, время необходимое для загрузки видео. Благодаря оптимизации миллионы людей смогут смотреть больше видео, загружая их быстрее!

🎞 AutoChapters — Автоматическая разбивка видео на главы

Главы позволяют находить нужный контент, но их создание было медленным и трудоемким ручным процессом.

Представленная на Google I/O 2022, технология автоматического создания глав уже сегодня используется для 8,000,000 видео, и YouTube обработает > 80,000,000 видео в течение года.

AutoChapters экономит время на поиск контента зрителя, и создателям на разбиение глав.

@Мишин Лернинг
18👍9🔥9
👾 А у нас NextGen Text2Image: Retrieval-Augmented Diffusion Models от CompVis

Я не мог писать об этом раньше, но теперь все выложили. Хотя написать очень и очень хотелось..

Идея лежала на поверхности: DALL•E 2 💦 RETRO = ❤️

Подробнее разберём на примере:
> Нужно сгенерировать «Мадагаскарская руконожка на скейтборде». Я вот не помню как она выглядит)

DALL•E 1/2, Imagen принимали текст, и на основе него генерировали изображения. А что если добавить возможность подглядывать в реальный датасет?

❗️Для этого нам поможет CLIP и kNN: Ищем в датасете ближайшие изображения и подаём их (или их эмбеддинги) в качестве кондишн для генерации.

Новый LDM, натренированный в таком режиме, что можно использовать:
> Unconditional генерацию
> Class и Retrieval кондишн

То есть: Можно использовать только текстовое описание, а можно и помочь сети, похожими реальными примерами (похожие картинки будут выступать в качестве референсов)

Ну не круто ли?

📰
paper
🔬 Code

@Mishin Learning
🔥36👍96👎2