Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.2K subscribers
4.19K photos
488 videos
74 files
2.74K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
А ещё:
- доложили спутниковый алярм
- доложили crash detection
- камеры для целевой аудитории
- очень прикольный smart island


Вообще мемы в этом году не очень, я разочарован
😁24🤮13🤡5👍4🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Диффузионные модели начинают занимать лидирующую позицию и в задаче Motion Generation.

MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model

Авторы данного подхода решили использовать свойство широкой вариативности и высокого качества генерации у диффузионных моделей для анимации движения человека с помощью текстовой подсказки и получили новую SOTA в данной задаче. Предыдущие решения не справлялись со сложным текстом или со стилизацией сгенерированных движений. Также авторы указали в своём пейпере, что их решение позволяет использовать очень точные текстовые описания, которые являлись сложными для предыдущих решений, потому что MotionDiffuse делит генерируемый скелет на верхнюю и нижнюю части. Поэтому можно получить качественных результат, к примеру, с помощью текста «a person is drinking water while walking» или «a person is walking and then running».

Но перейдём к более техническим деталям, которые заставляют это решение работать.
Скажу сразу, что многие идеи в пейпере переиспользуются из GLIDE, поэтому если вы не читали ещё пейпер про эту модель, то советую ознакомиться.

В MotionDiffuse вместо U-Net-подобной архитектуры был разработан Cross-Modality Linear Transformer, с помощью которого происходит генерация движений с произвольной длительностью, которая зависит от продолжительности генерируемого движения. Cross-Modality Linear Transformer подразумевает под собой обычный трансформер с энкодером и декодером, каждый блок такого трансфомера содержит: multi-head attention module (с residual connections) и feed-forward network (с тремя линейными преобразованиями и двумя GELU-слоями между ними). Для улучшения к обобщительной способности используются веса из CLIP для инициализации первых слоёв, которые зафризили и не обновляли в обучении.

Также были использованы Linear Self-attention для учёта связности анимации между кадрами и Linear Cross-attention для учёта текста в последовательности движения.

@sonya_aesthetics
9
😁42😢15🔥6🤡3💯3🤮2
This media is not supported in your browser
VIEW IN TELEGRAM
Спасибо подписчик, это прекрасно
😁14👍1🤮1💩1
This media is not supported in your browser
VIEW IN TELEGRAM
Пятница котаны!
🔥30😁8💩6🤡4🐳2👍1
Forwarded from Rebryk Blog
🚀 Запуск на Product Hunt

Доброе утро, дамы и господа! Погода в Тбилиси сегодня солнечная, без осадков, ожидается запуск на Product Hunt уже через 2 минуты!

Мы с @serjobas подготовили для вас фановый пет-проектик -- Suggesty. Это Google Chrome Extension, который отвечает на гугловские запросы при помощи GPT-3.

Буду признателен, если вы наведете шороху на нашей странице - лайкните и оставите коммент.

Вот ссылочка ⬇️
https://www.producthunt.com/posts/suggesty-ai-search-tool

Потом напишу вам наши впечатления и выводы о запуске 😌
👍102👎2🤔1🤮1
🥰34👍7😁2🤮1
Проблемы мальчиков:
- clion не видит виртуалку
- кубер поды не видят друг друга
-не получается завести кастомный докер

Проблемы мужчин:
- как открыть терминал
👍74😁22🔥3👎2🤮1
😁66🤡18💩5🐳2🤮1
Проснулись, потянулись, vpn запустили, к тачке подключились и погнали!
😁38😢6🤮5💩4👍1
-Ну это очевидно задача минут на 20, их которых ты два часа будешь фиксить кривые зависимости.
-Ну те отдашь послезавтра?
-Не, давай до следующей среды.
😢36🔥7🤮2
С днём программиста парни и девушки!
👍64🤮8🎉3🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Спасибо подписчикам за контент
🤣48🔥95🌚3👍2❤‍🔥1😁1
Эта картинка глубже чем кажется
🤔15🥱9🔥2👍1
ОЧЕНЬ ВАЖНОЕ ИССЛЕДОВАНИЕ ВНИМАНИЕ ВСЕМ

Тут друзья пишут интересное исследование и попросили помочь, cобирают интересные идиомы, выражения, локальные версии обычных слов, таких как: мультифора, поребрик.
Если вы знаете такие слова на других языках - обязательно вписывайте, но не забудьте через тире указать значение

https://forms.gle/L9XorkrPgRaMYEt29
👍12👎4
Однажды, сидя в коворкинге и попивая смузи, зумер сказал «буквально», вместо «literally». После этого он буквально обосрался и умер
🔥75😁22🤡9😱3💩3🤮2👍1🤯1
Forwarded from AbstractDL
Diffusion Models: A Comprehensive Survey

Отличная обзорная статья с таксономией диффузионных моделей и всех видов сэмплирования. Тут даже есть сравнение диффузии с остальными генеративными подходами (см. картинку).

Статья
🔥16👍1
Доброго утра пятницы котаны
👍46🔥10🥰9👎3🤮3
Forwarded from DLStories
Media is too big
VIEW IN TELEGRAM
Смотрите, какая штука стала популярной в Твиттере: Adept.ai обещают выпустить ATC-1: крутого диджитал-помощника на основе Transformer

ACT-1 — это расширение в Google Chrome. В небольшом окошке нужно ввести текст-описание того, что вы хотите сделать. Например, "найти дом в Сан Франциско для 4 человек с бюджетом до $600k” или “найти инфу, сколько раз Ди Каприо получал Оскар”. ACT-1 за вас проделает в браузере ту последовательность действий, которую сделал бы человек для реализации задачи. Пример работы — на видео к посту.

Короче, это как продвинутая Siri, только запросы вводятся (пока что) текстом и они могут быть довольно сложные. Дальше обещают добавить возможность уточнять запросы и даже учить ACT-1 делать действия, которые у нее не получаются. Например, научить ее использовать новую формулу в Excel или пользоваться поиском на новой веб-странице.

Судя по всему, ребята собрали датасет пар вида “текстовое описание действия в браузере — последовательность действий”, обучили на нем Transformer и поколдовали над скоростью инференса. Подробный технический пост скоро обещают. Мне лично интересно, как получилось собрать достаточное количество разнообразных данных, чтобы можно было так хорошо натренировать модель (если она действительно работает так хорошо, как выглядит на видео).

Вообще, adept.ai — лаба, основанная выходцами из Google Research и DeepMind. Двое из них в 2017 приложили руку к появлению на свет модели Transformer (первый и третий авторы статьи!). Так что я верю, что ACT-1 действительно работает и жду релиза) Почитать о создателях и истории Adept можно тут.
А в целом Adept заявляют, что они создают general intelligence. Посмотрим, как пойдет)

Ссылки:
Скоро должна выйти альфа-версия ACT-1, записаться в waitlist можно тут.
А на сайте — больше видео-демок работы ACT
👍25🍓3🤔1