Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.19K photos
926 videos
9 files
1.34K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Forwarded from эйай ньюз
Image Inpainting: Partial Convolution vs Gated convolution

Продолжая рубрику #fundamentals,
поговорим о конволюциях, используемых в нейронных сетях для инпейнтинга. В модели для инпейнтинга изображений на вход обычно подается поврежденное изображение (с некоторыми замаскированными частями). Однако, мы не хотим, чтобы свёртки полагались на пустые области при вычислении фичей. У этой проблемы есть простое решение (Partial convolution) и более элегантное (Gated convolution).

🔻Partial Convolutions делают свертки зависимыми только от валидных пикселей. Они похожи на обычные свертки, где к каждой выходной feature-map применяется умножение на жесткую маску. Первая маска вычисляется непосредственно из покоцанного изображения или предоставляется пользователем в качестве входных данных. Маски для каждой следующей частичной свертки вычисляются путем нахождения ненулевых элементов в промежуточных feature-мапах.

- Для частичной свертки недопустимые пиксели будут постепенно исчезать в глубоких слоях, постепенно преобразовывая все значения маски в единицы.
- частичная свертка несовместима с дополнительным вводом пользователя. Однако мы хотели бы иметь возможность использовать дополнительные пользовательские инпуты для условной генерации (например, скетч внутри маски).
- Все каналы в каждом слое используют одну и ту же маску, что ограничивает гибкость. По сути, частичную свертку можно рассматривать как необучаемое одноканальное зануление фичей по маске.

🔻Gated convolutions. Вместо жесткой маски, обновляемой с помощью жестких правил, закрытые свертки автоматически учат soft маску из данных. Дополнительная конволюция берет входную feature-map и предсказывает соответствующую soft маску, которая применяется к выходу оригинальной свертки.

- Gated convolution может принимать любой дополнительный инпут пользователя (например, маску, эскиз) в качестве входных данных. Все они могут быть склеены с поврежденным изображением и скормлены в сеть.
- Gated convolution динамически учит механизм выбора признаков для каждого канала и каждого пространственного расположения.
- Интересно, что визуализация промежуточных значений предсказанных масок показывает, что gated convolution учится выбирать фичи не только по фону, маске, эскизу, но и с учетом семантической сегментации в некоторых каналах.
- Даже в глубоких слоях gated convolution учится выделять именно маскированные области и информацию о входном скетче в отдельных каналах, что позволяет более качественно генерировать восстановленную картинку.

@ai_newz
👍4
Forwarded from Evgeny Zubkov
A selection of experimental concepts created on the basis of AI.
___
Многие знают, что я уже несколько лет использую нейросети в своей работе (апскейл, генерация лиц и тд). Но недавно я начал экспериментировать с чем-то принципиально иным.

Эти концепты практически полностью созданы «искусственным интеллектом» на основе моих команд. На финальной стадии я лишь подправил некоторые детали в фотошопе, не добавляя ничего извне.

Не буду сеять панику и предсказывать скорое вымирание иллюстраторов, работающих по тз, но ясно одно — на наших глазах формируется новая эпоха, хотим мы того или нет. Да, технология еще сырая, и чтобы добиться чего-то более менее вменяемого, нужно прогонять множество итераций, обучая алгоритм и пытаясь уловить принцип его работы. Но уже сейчас AI превращается в мощный инструмент, открывающий художнику новые возможности, переворачивая весь привычный творческий процесс.

Что думаете обо всём этом?
🔥23👍3😱21🤩1
Если кто-то еще не успел попасть в бету midjourney, то сегодня пускают всех, и никто не уходит обиженным!

Идёте сюда, вводите почту, выбираете класс род деятельности и получаете инвайт в дискорд.
Дальше входите в канал #newbie, пишете свой запрос командой
/imagine ваш_текст
и вуаля!
Го положим сервера, я создал!

@derplearning
🔥12👍3
DiscoDiffusion 5.5 w/openCLIP, watercolor, pulp scifi и pixelart моделями!

Ну и ночка выдалась, котаны!
Сначала mj, а теперь и новая версия #Discodiffusion.
Добавлены новые вариации CLIP, а также кастомные модели от KaliYuga: pixelart, pulp scifi, и watercolor. Го снова тыкать!

Колаб

@derplearning
🔥221
Принес вам клевых техножуков в разрезе
#discodiffusion
16👍5😱1
Forwarded from AI для Всех
Вышла крупнейшая в мире открытая многоязычная языковая модель: BLOOM

Большие языковые модели (LLM) оказали значительное влияние на исследования в области ИИ. Эти мощные модели могут решать широкий спектр новых языковых задач на основе инструкций пользователя. Однако академическим кругам, некоммерческим организациям и исследовательским лабораториям небольших компаний сложно создавать, изучать или даже использовать LLM, поскольку полный доступ к ним имеют лишь несколько промышленных лабораторий, обладающих необходимыми ресурсами и эксклюзивными правами. Сегодня, международная коллаборация BigScience выпускает BLOOM, первую многоязычную LLM, обученную в условиях полной прозрачности.

BLOOM результат крупнейшего сотрудничества исследователей ИИ, когда-либо участвовавших в одном исследовательском проекте.

Имея 176 миллиардов параметров, BLOOM способен генерировать текст на 46 естественных языках и 13 языках программирования. Почти для всех из них, таких как испанский, французский и арабский, BLOOM станет первой в истории языковой моделью с более чем 100 миллиардами параметров. Это кульминация года работы с участием более 1000 исследователей из 70+ стран и 250+ институтов, в результате которой модель BLOOM обучалась 117 дней (с 11 марта по 6 июля) на суперкомпьютере Jean Zay на юге Парижа, Франция.

Модель
👍13😢2