Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Будущее игр.

Уже сейчас музыка подстраивается под вас, тикток-инст-ютуб подкидывает супер релевантный контент, но этого кажется не достаточно.
Будущее развлечений - генеративные игры где все от текстур до механик, сценария, геймплея - сгенерированно, миры меняются на основе того что вы пишете и все это работает на банальном openai api + другие генераторы!


game
🔥20👎2🤯2🥱2👍1🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
Купились? На самом деле будет куча(уже полно) нейро стримовых шоу которые будут нарезаться на кеки и те в свою очередь будут циркулировать по сети.
Например наколеночные нейрошарики- нейросеть генерует сценарий, другие озвучивают и в итоге получается шашлык из Бараша.

Стрим
👍37🙈18😁6🌭32🔥2
вроде генеративки научились генерировать руки, но почему такая зловещая долина?

Plot twist: это не генерация
🤔41😁168🔥4🌚4👀3❤‍🔥2🍌1🍾1🖕1
Сбер планирует gpt3.5 20 июля?
Выпускайте llama2 18 июля.
😁80👍11🥴82🔥2🤣1🆒1
Вы русский nlpшник? Вам нужна модель под ft, но у saiga слишком низкая плотность токенов, rugpt 13b жирная?
Выход есть!
Siberian Fred это инструктивный файнтюн fredT5 на инструкции, он меньше бредит, неплохо решает text qa и неплохо zsшотиться. Но самое главное - он всего 1.7б параметров, те его можно деплоить практически на любые карты в ggml формате!

Link
❤‍🔥26👍6🤔321🍌1
Втф а почему телеграмм теперь Инстаграм
56😁23😍4👎2🤬1🗿1
#чтивонаночь
Meta-Transformer: A Unified Framework for Multimodal Learning

Помните китайские инструменты нож-молоток-плоскогубцы-уровень в одном? Китайцы выпустили meta Transformer - модель с пошернным между модальностями space и при этом с разными энкодерами и головами для разных модальностей.

По метрикам очевидно все плохо, но есть код и веса!
paper
code
😁23🔥7👎2🕊1
Вау, оказывается есть магазин витрина коннекторов для LLM+ langchain/llama index.
Есть интеграции с Gmail/confluence/calendar и кучей источников данных!
GitHub
LlamaHub
20👎1
Релиз llama2-saiga от Ильи Гусева, на sbs 15% прирост относительно llama1!

Model
👍427👎1🤔1
😁24❤‍🔥21🌚1😈1
92😁44🌭2
#чтивонаночь длинное

Блог про токенайзеры

Благодоря покупке рекламы помимо обычно чтивананочь появились(пока не регулярные) блоги по разным темам, конкретно этот я тянул больше месяца, но он будет полезен для ознакомления с токенизаторами и в целом что есть внутри hf имплементации.

скоро выйдет погулять текст про новые llam_ы и sd_xl
блог
🔥55❤‍🔥43👍31
🔥 Прод не упал 🔥

Спустя годы в стартапах и корпорациях я собрал букет мыслей, проницательных идей и бесстрашных мнений. Ты найдешь ответы на вопросы, которые не задают вслух.

• Почему можно и нужно нарушать дедлайны? https://news.1rj.ru/str/prodneupal/5
• И почему не стоит говорить, что ты пользуешься WhatsApp? https://news.1rj.ru/str/prodneupal/10

Есть мат. Есть лонгриды. Нет спама.

🚀 Узнай больше - тыкай сюда 🚀
#промо
🤡41👍5👎4🤮3🙈32🤔2🖕1🤓1
sam almond
demis wassabi
greg broccoliman
oreo vinyals
guac le
baguette zoph
liam feta
ilya sushikever
yoshua bento
elon mustard
🌭45😐16💅4🔥2
А вы знали, что есть способ улучшить генерализацию любой кодовой модели? Как? Применив до этого модель от Microsoft – CodeExecutor

Сложно-сложно, непонятно. Как я могу улучшить результаты своей модели, применив до этого CodeExecutor? А как именно надо применить?🤨

Итак, модель вышла в мае этого года. Основана она на предыдущей модели Microsoft под названием UnixCoder (2022). Коротко – чуваки взяли и поверх предыдущей модели на претрэйне обучали ее на предсказание трассировки по коду. Что за трассировка можно посмотреть во вложении, но по сути это состояние переменных в течении выполнения кода.

Они кстати выложили, как выглядит их датасет, но я нашла только test. 😠 А собирали они его следующим образом: брали код из датасета CodeNet и прогоняли в песочнице, которая будет комплитить этот код и выдавать трассировку. Вау, как неожиданно. Ладно, на самом деле это не все, они еще зааугали данные различными операциями (вложения, там список). И получив AST дерево (тоже напомню во вложениях как оно выглядит), они получали элементы к которым они могут применить операции «мутаций»

Еще мне понравилось, что авторы вспомнили древний (ну реально, на фоне всех методов NLP) подход curriculum learning. Если коротко – это обучение с постепенным усложнением функции. Ну то есть начинаем с линейной, постепенно продвигаемся к выпуклой. Соответственно они начинали учить с однострочных кодов и увеличивали постепенно количество строк.

Так вот, как же она может то давать прирост величины результатов любой модели. Перед тем, как использовать кодовые модели просто прогоняем трестировку на данных и скарливаем. Все🧠. По метрикам у моделей действительно увеличивается понимание кода.

🤗Модель
🖥Код
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
21🔥1
#чтивонаночь по быстрому
Retentive Network: A Successor to Transformer
for Large Language Model
s

Довольно перспективная архитектура под убийство трансформеров, с одной стороны она совмещает плюсы трансформера: легкий layer paralel, возможность смотреть на все токены и attention. А с другой стороны она обрабатывает все токены за O(N) по памяти, что ОЧЕНЬ мало(у трансформера ~N**2).
При этом еще и инференс идет за O(1).
При обучении на 100B(где то 400гб) текста авторы показывают лучший ppl, и на голову лучшие метрики на валидиционных сетах(SIC!) и разница практически на 10 пунктов(SIC!).

А еще эта версия в два раза меньше памяти потребляет при тех же размерах и в 6 раз быстрее на реальных замерах.

paper
code будет тут когда нибудь
❤‍🔥41🔥13👍31👎1
Преза с ICML от HF и Toloka
Доклад Nathan Lambert из HF и Dmitry Ustalov из Tolokи про то как делать RL+LLM, много крутых заметок от людей кто реально учит RL, например:
- RM имеет на eval 65-70% agreement
-дизайн тасок для толоки под sbs разметку
-псевдо код PPO (ура хоть кто то показал насколько он простой)

презу украл из желтый ии
👍22👎2🥴211