Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Кабанчики эффективные менеджеры посчитали, решили что colab не выгоден и теперь он существует по оч стремной подписке.
Вообще это было ожидаемо, с учетом количества бесплатных юзеров балующихся с image genrators на халяву.
По сути то что его популяризировало, то и убило.

Следующими вероятно на этот путь станут Huggingface, бесплатное хранилище моделей станет сильно меньше, впилят интерации с AWS(ну вообще уже), код самой либы будет либо деградировать, либо плодить такое количество абстракций чтобы проще было взять API.

Покойся с миром colab.
😢77👍4
кажется мы оч быстро скипнули второй сезон АТ и перешли к 4
👍22🍾62🤮1
можно мне другую систему рекомендаций
👍28😢16🤣10🤮1
Stanford cs25
Трансформеры уважаешь?
А маму любишь?
Послушай этот курс даже если уже не первый год делаешь import torch, расскажут про RL, alphafold2 и много другого.

YouTube
Lectures page
👍28🔥3🤮1
Смотри какой кринж откопал.
А в чём кринж?
Он через неделю уже был в ОАЭ.

Ну и да, не давайте этим талантливым людям дизайнить апи, потом люди будут мозги ломать
😁53🤣3👎2
Подписчики кидали ещё на прошлой неделе, но вам это надо
🌚21👍85😢5
Рубрика #всратый_adversarial_atack объевляется открытой.
Кидайте странные картинки, тексты, вопросы, все что может сломать модель
👍29🤮3💩1🌚1
#чтивонаночь
CodeGeeX - new codegen SOTA
C выхода Сodex прошел год, никто не потерял работу, даже более того - стало больше вакансий на поддержку -обучение-деплой LM и прочего тяжеловесного. Количество LM для генерации кода будет только расти, конкуренция довольно серьезная, а главное - это то на чем можно быстро и просто заработать денег на подписке.

Данные
Модель обучалась на смешанном корпусе, 30% python, 30% с++, 15% java и дальше по убыванию.
Авторы добавили для всех языков [LANG] токен, тем самым явно указывая модели на то какой язык сейчас генерируется.
+ доп фильтрация на мусор и файлы конфигураций.


Обучение
Самый сок заключается в том что это первая(на моей памяти) большая модель которая училась на чипах Ascend, это железки от Huawei, по характеристикам между v100 и а100, но так же авторы учат модель в 16bit кроме layernorm и softmax.

Метрики
Модель заметно обгоняет младших собратьев, при этом незначительно обгоняя 16b CodeGen

vs code
github
blog
demo
hf spaces

Веса дают тут и всем по запросу в течении нескольких секунд, череп не измеряют, паспорт не просят
👍14🤮51💩1
Растлевать, эксплотировать и пиздить?
- привносить в жизнь неологизмы.
_________
Понедельник котаны
👍20
Может пойдем PidorCoin сделаем?
😁21👍11🍌7❤‍🔥1🎉1
🔥45🤡5👎2💯2👍1🤨1
Forwarded from AbstractDL
This media is not supported in your browser
VIEW IN TELEGRAM
SayCan: как заставить языковую модель принести тебе колу (by Google)

Идея довольно простая: нужно взять робота, который уже умеет выполнять примитивные команды (найти, поднять, положить и тд), а в качестве мозгов для планирования взять языковую модель (PaLM) со специальным step-by-step промптом:

«How would you {TASK}? I would 1. ..., 2, …»

Дальше допустимые команды для робота ранжируются по перплексии и классификатором успеха (обученным с помощью RL). Таким образом, получилось заставить робота решать довольно сложные и многоступенчатые задачи.

Статья, блог, GitHub
🔥12👍5😁1🍌1💋1
diffusers писали ебаные пидорасы, сука ненавижу эту хуйню, рот ебал такой код, пиздец нахуй блять
👍36🤨15😍8🏆5😁3😢3🍓3💋32👌2👏1
Это постирония?
💔53😁40🤩9🌚9🤮2🔥1🤣1
Forwarded from addmeto (Grigory Bakunov 🧪)
Продолжается сканадл в шахматах: Отчет от chess com показывает, что Ханс Моке Ниманн, которого Магнус Карлсен обвинил в мошейничестве, явно жульничал в более чем 100 играх на сайте. Причем показывает с цифрами, демонстрируя явное статистическое отклонение, которое сложно обьяснить чем-то кроме прямого жульничества. Напомню, Ниманн вероятно использовал какое-то устройство (предполагают даже анальную пробку), с помощью которой получал сигналы от компьютера о самых правильных ходах во время официальных, оффлайн партий.

Мы с вами дожили до того момента, когда еще нет нейроимплантов, но уже есть достаточное количество способов “дополнять мозг компьютером” даже в оффлайн играх при свидетелях, таких как шахматы. Кажется Карлсен прав, непонятно как ближайшие годы люди будут играть в шахматы и подобные игры, разве что полностью голыми, в закрытой комнате после полного рентгена https://www.wsj.com/articles/chess-cheating-hans-niemann-report-magnus-carlsen-11664911524
👍18🍌2🍓2😢1
В этой новости прекрасно всё....
👍32
Forwarded from DL in NLP (Vlad Lialin)
BigScience announces BigCode project

1. 15B языковая модель для кода
1. Первая задача: сделать хороший большой датасет, причём с оглядкой на лицензии чтобы не было всяких вопросов о GPLv3
1. Вторая задача: разработка новых тулз для эвалюации кодогенерирующих моделей, чтобы они были проще и более доступны
1. Третья задача: исследование всех возможных трюков (включая архитектурные) чтобы сделать инферренс быстрым
1. Деньги на тренировку даёт ServiceNow
1. Если хотите присоединиться к коллаборации, а именно готовы писать код и участвовать в обсуждениях, вот ссылочка
👍7😍3
🤨37🤣27👍9🕊53🏆3😢2👎1
Forwarded from AbstractDL
This media is not supported in your browser
VIEW IN TELEGRAM
Imagen Video

У гугла получилось адаптировать Imagen для генерации видео!

Авторам пришлось немного переделать UNet и подмешать 14М пар text-video к датасету LAION, причём картинки воспринимаются моделью тоже как видео, но длиной в 1 кадр. В качестве энкодера используется замороженный T5-XXL.

В отличие от предыдущих работ, здесь даже получилось сгенерировать анимированный текст.

Статья, блог
🔥18👍4
Большие грязные датасеты доводят до хентая с лолями
28💋3🍌1