Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Самый короткий гайд по оптимизациям внутри торча
Происходит шок контент
Forwarded from Neural Pushkin
Как поступить в европейский вуз? В чем состоит его достоинство и как с ним справиться, если не можешь выучиться на отлично (что довольно часто встречается)? Что делать молодому человеку без высшего образования; какое решение принять для себя самому?» Ответ: учиться по-прежнему у вас будет нечего — но зато потом вам будут позволено заниматься литературой или историей…
Forwarded from Data is data
Москва становится похожа на Париж немножко. Хотя, надо сказать, во Франции агрегаторы под значительным прессингом.
Реально нищие челы в лице главного админа канала ездят на бизнесе по цене эконома
Мем из физкека, но мне смешно
🍌1
🎨 История пикселя

Made in USSR

#субботний_лонгрид

Алви Рэй Смит исследовал историю пикселя. Она начинается с Фурье во времена Французской революции. Известная для математиков фамилия. Но вот ключевой персонаж вас сильно удивит.

Возможно, самым неожиданным человеком в этой истории является Владимир Котельников. Именно он превратил идею Фурье в пиксель. Родившийся в Казани из многовекового рода математиков, Котельников пережил всю советскую эпоху.

Смит пишет, что НКВД дважды пытался закрыть Котельникова, но ему помогла Валерия Голубцова, дружившая с Лениным.

Удивительная история. Читайте на здоровье!

Ссылка: https://aeon.co/essays/a-biography-of-the-pixel-the-elementary-particle-of-pictures
#чтивонаночь
Bart
Крайне любопытная архитектура которой долгое время я уделял преступно мало внимания.
Отличия от Берт:
Во-первых это честная авторегрессионная модель как гпт
Во вторых она умеет в seq2seq, те в целом умеет в генерацию текста пусть и с ограничениями, при определенных странных системах трейна она может использоваться как бредогенерилка.
Это честный трансформер как roberta, а ещё довольно близок по скорам.
Схожести
Она так же как Берт двунаправленная (кэп с вами)


Тык ссылка на пейпер
Тык имплементация
не благодарите
Out of domain голосование
Anonymous Poll
26%
[0;0]
21%
[0;1]
21%
[1;0]
32%
[1;1]
Forwarded from Denis Sexy IT 🤖
А помните этот ансамбль нейронок который генерирует пиксельарт? Ну в общем его опять усложнили новыми алгоритмами, и он почти 8-бит игры генерирует (ну или мультики).

Кода пока нет, автор.
Выпускник MIT пришел работать в Гугл. Долго, хорошо кодил. И была всю жизнь у него одна привычка: каждое утро он начинал работу с того, что открывал текстовый файл, заглядывал в него, а потом закрывал на пароль. Когда он ушёл на пенсию, коллеги бросились к компу и вскрыли этот файл, в котором лежал старый-престарый .txt, а там написано: «USB втыкать белой стороной вниз».
Forwarded from эйай ньюз
Finetuned Language Models Are Zero-Shot Learners (FLAN)

Новая статейка от Google Research о языковой модели на 137-миллиардов параметров, которая превосходит GPT-3 (few-shot) на различных задачах в zero shot сценарии.

🗯Идея. Предлагается новый метод файнтьюнинга, называемый "instruction tuning". Тут авторы используют идею, что NLP задачи могут быть описаны человеческими словами. Например, “Is the sentiment of this movie review positive or negative?” или “Translate ‘how are you’ into Chinese.” Итак, берется предобученный трансформер на 137-миллиардов параметров (состоит только из декодера), и файнтьюнится на пачке задач с текстовыми инструкциями. После этого его тестируют на новых задачах, также описанных текстом.

✔️Результат. FLAN модель (137 миллиардов параметров) после "instruction tuning" уделывает GPT-3 (175 миллиардов параметров) на 19 из 25 новых языковых задачах.

Статья на arxiv. Кода пока нет, но должен появиться тут.