Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.2K subscribers
4.2K photos
489 videos
76 files
2.74K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Forwarded from Denis Sexy IT 🤖
Как потратить ~1000$ на ИИ-эксперимент:
Когда-то давно я ездил на концерт пражской филармонии, где нейронка дописала одну из композиций Дворжака, а оркестр исполнил то, что написали (вот пост). Я специально купил заранее билеты, поехал туда и не разочаровался — выглядело это все, ну, как обычный концерт, хороший пример маркетинга стартапа и реального результата.

Через какое-то время, я побывал на концерте известного Макса Рихтера, где он исполнял пару произведений из своего альбома «Sleep», альбом который сложно как-то кратко описать, но который входит в топ-5 моих любимых — это что-то вроде баллады на 8 часов, или музыкальной медитации, или сна под-белый-шум. На премьере в 2015 году Рихтер сразу дал понять аудитории, что их ждет — в концертном зале вместо сидений установили кровати.

И вот, зародилась у меня идея, почему бы не сгенерировать свой альбом, но не на 8 часов, а, например, на 69 — nice же. Я начал тогда тестировать разные нейронки, и очень удачно Сбер AI выкатил свой алгоритм для генерации музыки на трансформерах: Music Composer.

Алгоритм обучен на тысячах часах аудио, и все что умеет это генерировать midi (с кучей настроек, включая стили и тп). Но, спасибо разработчикам, там так же есть интересный режим — когда нейронка дописывает окончание midi трека, по первым секундам того что ей дали на вход.

Тут началось несколько месяцев генераций (спасибо A100 за труд) — я, кажется, переслушал часов ~500 примитивной midi музыки пытаясь свести это все в единый трек, который звучит как «У нас есть Рихтер дома».

В общем, с 69 часов я опустил планку сначала до 10 часов, потом до часу, а потом и вовсе до 9 минут 🌚 Помимо этого, я купил плагин за большую сумму денег который позволяет синтезировать «реалистичную виолончель» (ну, такая большая скрипка) и свел финально весь трек с помощью плагина.

И вот, наконец-то — залил это все в Spotify и Apple Music, где вы можете это все послушать.

Я сразу скажу, что поскольку я вдохновлялся Рихтером, это не самая энергичная композиция — но для меня, человека без музыкального образования, без умения играть на чем либо (кроме фотошопа), это были удивительные 9 минут, я, кажется наизусть знаю каждую музыкальную фразу этого трека, и в очреденой раз восторгаюсь крутостью нейронок как класса алгоритмов

Я чуть позже сделаю туториал, а пока можете послушать, что вышло.

P.S. Слушать лучше в наушниках

@Denis
👍13🔥3
Плохой пм: ставит сроки точь в точь
Хороший пм: закладывает три дня к исходной оценке чтобы отдать все за пару дней до дедлайна и попросить премию
🔥35👎1
#чтивонаночь
Действительно полезная статья про обучение RL в Майнкрафте.
статья
👍13🔥3💩2👎1😁1
#чтивонаночь
Мы тут в чате канала запустили цикл пересказов статей от подписчиков и первым стал Монета. Гений, бедный безработный студент и любитель поней.
https://monetka.name/

Велкам как говорится!

Что же, господа и дамы, раз наш чат официально LGBTQOPRTS+-, то на связанную с этой темой статью сегодня и будет мой скромный обзор.
А конкретно - Perturbation Augmentation for Fairer NLP(https://arxiv.org/pdf/2205.12586v1.pdf) от всеми (не)любимой Меты!

Какая перед нами встаёт проблема? Та же, что и всегда, друг мой.
УГНЕТЕНИЕ МЕНЬШИНСТВ
Да-да! Наш мир наполнен расизмом, женоненавистничеством, и всяким другим нехорошим, но чего полно в сетах на обучении. Особенно, в сетах на обучение текстовых моделей, ога.
И модели, суки эдакие, любят выучить то, что неграм место на кухне, а бабе - на плантации.
Мы же не хотим, чтобы у нас модель выучилась и стала предвзятой в сторону расизма? (Надеюсь?..)

Поэтому, люди начали искать способы избежать такого мерзкого биаса (в этом поиске, кхе-кхе, успел немного поучавствовать и ваш скромный монета, https://aivsbias.feather.cloudns.cl/ https://github.com/mmkuznecov/AIvsBIAS)
Однако, в первую очередь эти попытки были связаны с тем, чтобы каким-то образом штрафовать модель за гендерный/расовый биас, либо на стадии обучения, либо в инфересе - но работ, про то, как пиздить этот баес с помощью дата аугметации - пока не было.
До этой статьи. (Да, мы наконец-то переходим к сути, е!)
Команда иследователь_ниц (Да, все автор_есс_ки статьи - женщины, почему-то) предложила способ пертубрировать(?) данные.

Результаты работы конкретно:
1) Вручную набитый текстовый датасет на 100к пар "текст с гендерной окраской" - "текст её лишённый"
2) Обученный на этом счастье пертубрер - seq2seq моделька, которая обезличит ваш текст, например: she likes her grandma -> they like their grandma
3) FairBERTa - этот ваш БЕРТ(На самом деле, РоБЕРТа), но обученный на данных, пропущенные через мастурбатор пертубатор
4) Эксперименты с ФАИРТЮНИНГОМ - дообучение моделей на их пертубированной дате
5) ФАИРСКОР - метрика для оценивания того, насколько ваша модель не-расисткая

А теперь, давайте поговорим о том, а как этот ваш фаирскор вообще считать? Поскольку телега не умеет в латекс, то формулы вы сами найдёте, а я краткую выжимку скажу:
Мы берём записи, связанные с полом/возрастом/национальностью. Прогоняем по ним модель. Потом прогоняем модель на тех же, записях, но пертубрированных (лишённых гендернорасового окраса) и смотрим - насколько ответы модели изменились. В процентах - и есть наш фаирскор, вотб.

Теперь, мой друг, ты можешь задаться вопросом: а не убьёт ли такое кастрирование текста качество моделей нахуй, если их на таком обучать?

Ответ от авторов: качество, конечно, падает, но не значительно, зато какой фаирскор теперь хороший!
Это относится, как к моделям, которые сразу были обучены на пертубрированном тексте, так и к моделям, которые прошли фаиртюнинг.

Итого: светлое СЖВ-будущее стало на шаг ближе - мы можем сделать датасеты нейтральными и учить нейтральные модели без серьёзных потерь в качестве.
🔥17😱11💩4🤮3🤔1
Вы находитесь в той реальности где школьник из Челябинска видимо выпустит ImageGen раньше чем lucidrains-sberai-eleutherai-meta

@gradientdip
🔥38🤔5👍2😁2
#чтивонаночь
Рандомная статья про прокладку для обучения RL с torch lighting
Link
🤯1
Вот несколько примеров того, что я сегодня сгенерировал с помощью imagen. Сейчас ещё тренирую.

@gradientdip
🔥25💩7
украдено
@kshtnV
👍14👎5
🔥92👎2
👍32👎5
#рандомная_рефлексия

А что если интернет был с нами всегда? Ну те, как с математикой, она была всегда, просто мы открываем новые ее законы. Что если с интернетом так же? Он был всегда на каком то метафизическом уровне как способ передачи информации, просто он так не назывался, он не был отделен от остального физического мира. А в один момент мы его не изобрели, а перевели из одного состояния в другое, после чего он начал не экспоненциально развиваться, а просто стал заметен для всех.
💩3420🔥2👎1
Love. Death. Transformers.
Photo
Продолжаем тред испоротнозамещенния уровня /b
14
Forwarded from Just links
EfficientViT: Enhanced Linear Attention for High-Resolution Low-Computation Visual Recognition https://arxiv.org/abs/2205.14756
#cv #vit
нет блять freespace enjoyer
4😁3🤬1