Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
54👍1
#чтивонаночь
Diffusion With Offset Noise
Вы никогда не замечали что SD не очень хорошо генерирует темные сцены?

Проблема оказывается в том, что в ходе прямого процесса вы никогда полностью не стираете исходное изображение, поэтому, в свою очередь, обратная модель, начинающаяся с чистого шума, не совсем возвращается к полному истинному распределению изображений.
Вместо этого, те вещи, которые шум разрушает в последнюю очередь, в свою очередь, наиболее слабо изменяются обратным процессом - эти вещи наследуются от исходного шума, который используется для начала процесса.

Диффузия не знает, как изменить эти длинноволновые характеристики. А самая длинноволновая характеристика - это среднее значение изображения в целом, которое также является характеристикой, которая с наименьшей вероятностью будет меняться между независимыми выборками скрытого шума.

Так же авторы предложили решение, вместо инициализации шума через
noise = torch.randn_like(latents)
инициализировать через
noise = torch.randn_like(latents) + 0.1 * torch.randn(latents.shape[0], latents.shape[1], 1, 1) , что дает сильно лучшее качество на темных картинках.


блогпост, увидел у @randomkitchensink
👍20❤‍🔥4😈1
Мы тебе давать: 800 рублей на бейдж
Ты нам давать: работаешь до 21 в офисе
👍30🐳8🥰7🤩7😈5
Снова объяснил кому то в интернете что он не прав 😎😎😎
🔥27😁6🍌2👍1
К слову, chat gpt это лучший пример того что происходит когда хочешь чтобы твои ответы любили
#чтивонаночь
X-Decoder:
Generalized Decoding for Pixel, Image and Language

опять инструкции, но теперь оно решает пары задач текст-картинка-текст(editing, retrival, qa, vqa, zeroshot, Image Editing(lol)).

Как это работает:
- Комбинация из нескольких энкодеров в один слой
- Лоссы под каждую задачу: mask loss, perceptual loss,
- Cross attention под комбинации модальностей
-Под все задачи использовали промптинг формата: segmenation mask class -> a photo of {class}
- инструкции под изменения обьектов на фото с учетом эмбедингов из panoptic segmentation


Бьет SOTA на ADE20k(cегментация)

🖥github
🤗hf_space
🔥26👍1
ну и немного генераций, не то чтобы модель хорошо генерализована, но то что было в сете масок - очень неплохо решает, ОСОБЕННО в задаче replace {class}
👍25🍾5👎43🍓2
накидываем реакции на пост, или я отпишусь
🤡149🤨26🍌16🖕13🐳11🍓9😈9😁8🌚8🍾5💔4
Мальчик: os.listdir()
Мужчина:

принес @gradientdip
😁48🤮14🥰4😈3👏2🤯1😱1🤡1🍾1
Как объяснить менеджеру (РМ или РО), что разработка качественной модели - это не разработка бэкенда или фронтенда, где более всё понятно и предсказуемо:
💯64🔥10👍5😁5🍌3
Lion(EvoLved Sign Momentum)
Помните когда вы пользовались чем то кроме Adam/Adamw? Вот и я не помню, а google Ai сделали ещё один оптимайзер, который типа сильно быстрее Адама, экономнее, а ещё вышивает и по выходным убирается дома.

По метрикам накидывает слегка, но без шока

Имплементация на псевдокоде:

def train(weight, gradient, momentum, lr):
update = interp(gradient, momentum, β1)
update = sign(update)
momentum = interp(gradient, momentum, β2)
weight_decay = weight * λ
update = update + weight_decay
update = update * lr
return update, momentum

paper

На 200 реакций напишу имплементацию, отмена они выложили её
code
🖕66👍24🔥18🍾10💩5🍓5🍌4🤡31🤔1🐳1
Forwarded from Dealer.AI
Первым делом, расскажу о своём любимом information retrieval для NLP. Так уж вышло, что волею судьбы, мне выпала честь развивать retrieval based dialogue system в одной крупной финансовой компании. И поэтому хайп, который творится вокруг chatGPT, докатился до меня весьма своеобразно. А именно, я стал думать как подобные механики использовать для улучшения retrieval свойств векторов нашей системы для ведения диалога. И конечно, во-первых, выдумал свой RL-critic подход для векторов (об этом думаю в след.раз), а во-вторых, докатился до статьи InstructOR, код.

Идея: Один эмбеддер, несколько таск.
У нас есть к примеру 3 задачи :
Question Answering, Information Retrieval, Toxic classification.

Мы хотим к запросу Х для каждой таски Yi, дать доп.инструкцию X'i (по сути мы даём больше информации /контекста). Далее, мы выдвигаем гипотезу, что в зависимости от доп инструкции состояние энкодера для каждой задачи будет зависеть от (X, X'i). Следовательно, гипотетически, мы повышаем поисковое разнообразие, сообщаем доп свойства и вообще точнее ищем или предсказываем метки. Окей, вроде, понятно. Как сообщить такие свойства?

Для начала, нужно правильно написать инструкции для каждого примера каждой таски. А именно иметь следующие блоки из шаблона:
1) Домен. В инструкции должно быть указание доменной информации. К примеру, вы рассматриваете задачу рубрикации статей, вам нужно указать тематики (да домен может быть не один).
2)Тип текста: тут пишем о том, инъекцию какого типа мы делаем. Сообщение, запрос, уточнение, извлекаемый текст и тд.
3) Задача. Указываем цель. Классификация намерения, сентимента или же поиск информации, ответ на вопрос.

При этом, читаю статью заметил, что для каждой задачи приведен пример только одной инструкции, которая её характеризует. См. Таблицу ниже. На самом деле, я думаю, их может быть на каждую задачу гораздо больше. И тут админ уже потирает руки над парой интересных идей, как это проапгрейдить. Привет статье. ;)

Вопрос с данными решили. Теперь нужно на уровне архитектуры заложить для пар запрос + инструкция/контекст нужное поведение. Для этого авторы работы приводят классический подход на основе metric/contrastive learning. Всё как я люблю:
1) Берём пары (X, X'i) в каждой задаче.
2) Отбираем из них парафразы и инструкции которые должны вести к одному результату : классу, ответу на запрос или документу и тп.
3) Проводим обучение dssm, которая сводит векторные представления ведущие к одному результату и разводят обратные. Для этого используют в качестве цели entropy_loss в котором в качестве оценки уверенности ставится cosine similarity между релевантными/противоположными парами запрос+инструкция.

З. Ы. Важно: Совершенно не обязательно, что инструкции в таких условных парафразах одинаковые, скорее наоборот. Также поведение энкодера меняется от задаче к задаче тк для каждой задачи мы имеем свою инструкцию.

Модели в основе: имхо любой энкодер, но тут T5-encoder в стиле GTR (тюн энкодера на dssm). При этом модель T5 предобучена изначально на web корпусе.
С вариациями моделей в разных размерах уже можно для EN языка ознакомиться в HF

Тренируют, как обычно разное и большое. Есть энкодеры от 330m до 1.3b параметров (привет, ChatGPT reward model) . Всё можно опять же посмотреть на обнимашках.

Обещают ап по трём сетам:
- MTEB ( 56 разнообразных сетов как BEIR, STS, etc.)
- BilBoard (сет для замера на оценки качества генерации ответа, но тут нет генератора, но и ответы ретривала они умеют мерить)
- Retrieval promt (как понял оценивает качества извлечения/поиска)

Естественно таблицы с метриками прилагаются.
👍19👎1
она просто хочет чтобы ее любили
🥰76😢186👍2🤡1
👍37🔥7😁2
#забавно
Заинтересовался темой - как генерировать бессмысленные входы для нейронок, которые не воспринимались бы ей бессмысленными. Отсюда родилась игра - придумать последовательность букв, которая не является словом русского языка, но переводится переводчиком в слово английского языка, это свойство сохраняется при удалении любого количества букв из последовательности.
Тут можно ещё конкретизировать:
- какие буквы допустимо удалять,
- потребовать, чтобы все слова в переводах были разными,
- потребовать, чтобы при добавлении любой буквы, это свойство уже терялось,
- найти максимальное по длине / по числу задействованных букв слово
и т.п.
Пример с гугл-переводчиком на картинке, с ним правда есть совсем вырожденная стратегия в составлении подобных слов:(
🔥41👍1
😁54🔥7👍1😢1
самое грустная вещь в мире: мультиязычные трансформер декодеры, на бумаге - ооочень круто, можно не париться и модель сама будет переносить знания из одного языка на другой, а по факту: промптишь модель на английском, а смотришь на ответ на арабском, при том что модель училась на русском сете 🤯
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42😁11
господа ресерчеры, призываю вас лить сеты на HF, а не плодить зоопарк репозиториев и jsonl файлов
💋26🔥11👍4🍓4🤮3❤‍🔥21
Stanford ебашит вообще адовый контент, го изучать
lecture
👍59👎3❤‍🔥1😁1
почему в пейперах нельзя писать: сет оказался редкостным говном, поэтому мы его заменили
👍47