Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
еще немного
inspired by @ebanfizika
🔥44🤩5
Новости последние полгода такие типа:
😁56👌4
запишем: value head - игрушка дьявола ежжи
вообще value head - для педиков я считаю 😎😎😎😎
👍7🤣2
#промо
Хотите освоить профессию ML-инженера, но устали проходить десятки мини-курсов по машинному обучению?

На курсе Start ML за 7 месяцев вы получите все знания и навыки, необходимые сильному ML-специалисту.

Вы научитесь разрабатывать приложения на Python, обучать модели и нейронные сети, а также оценивать их влияние на бизнес с помощью статистики и A/B-тестов — всё под руководством практиков из топовых компаний.

К концу обучения все ваши знания будут отработаны на практике: у вас будет готовый сервис по ранжированию и выдаче релевантных постов в социальной сети, о котором вы сможете рассказать будущему работодателю.

С трудоустройством обязательно помогут —выпускники школы находят работу в Яндекс, ВКонтакте, Авито и другие топовых компаниях. А на отдельных занятиях вы разберёте типовые задачи с собеседований, чтобы чувствовать себя увереннее.

Переходите по ссылке и записывайтесь на курс до 10 февраля — по промокоду LOVEML17 дарим скидку 10%. Также на сайте есть бесплатная демоверсия.
🤮31💩13👍8😁5🤡2
Forwarded from эйай ньюз
Stanford Webinar - GPT-3 & Beyond

Вчера посмотрел эту прелестную лекцию из Стенфорда о новейших Языковых моделях. Проф С. Potts очень классно дал общий обзор языковых моделей и быстренько рассказал, как мы докатились до таких чудес как, например, GPT-3 и ChatGPT. Затем он порассуждал о том, в каких подтемах NLP можно еще что-то привнести обычному смертному, если у вас нет миллионов долларов на обучение SOTA моделей.

И вот какие актуальные темы для рисерча:
- Retrival augmented in-context learning (условно, как поженить поиск и LLM)
- Создание лучших бенчмарков, датасетов
- "Last mile" for productive apps: Адаптация огромных моделей для конечных приложений, упрощающих жизнь
- Исследования в сторону объяснения и верификации результатов, выданных LLM (огромными языковыми моделями).

Сами они в научной группе этого профа, с его слов, почти перестали тренировать модели и, кажется, занимаются промт-инженирингом и докручиванием уже натренированных LLM по вышеуказанным направлениям.

Получилась не очень тяжелая, но очень вдохновляющая лекция! Может после этого вы захотите написать диссер в области NLP. Ну, либо создать стартап.

@ai_newz
👍19🤯52
по отзывам обновил бота, выпилил текст и оставил только иконки.
сменить лого канала на генеративное?)

@icons7z_testbot
🔥38👎15👌5💩4👍2
👍54🤣9❤‍🔥11
премия? зарплата? а тебя отец зачем учил осцилограф пиздить? берешь и пиздишь dgx, продаешь, вот и зп за год
🔥37
Love. Death. Transformers.
премия? зарплата? а тебя отец зачем учил осцилограф пиздить? берешь и пиздишь dgx, продаешь, вот и зп за год
Молодой парень устроился на работу джуном.
Проходит месяц. Наступил день зарплаты — а новичок за деньгами не приходит. Прошёл второй месяц, третий, четвёртый, а за зарплатой он так и не пришёл.
Стало старому тимлиду интересно, что происходит. Он вызывает к себе этого джуна и спрашивает:
— Ты что это за зарплатой не приходишь? Не нужна что ли?
— Зарплата?! Ой… А я-то думал, дали компьют — и крутись как хочешь…

основано на шутке @PPnPme @kozlov_informs
😁52😈9👎5🥴4🖕3🎉21👍1
🤡21😐11🔥4🤔4👎1
Вообще хз чо так дрочат на RLHF - имхо залупа из конца 10хх которую сложно обогнать без кучи данных и экспрементиров, отставание опенсурса сильно больше полугода и в лоб обогнать не получится.

Ну и да, опенсурс модели кажется сами по себе сильно хуже closed source, может быть не считая Flan/UL2.

Дискасс.
🤡13🤔7👎3👍2
помните - все ваши ответы будут использованы при обучении chat yalm
👍42🤡3
По достижению 18 лет человек строит свою личность на основе одного из персонажей силиконовой долины.
👍61💩12👎4🤡4🎉2😈2🤔1
Куплю ваши видеокарты от 11гб памяти в мск, не майнинг
😁45
XLM-V: Overcoming the Vocabulary Bottleneck in
Multilingual Masked Language Models


В статье поднимается следующая проблема: языковые модели увеличиваются в параметрах, растут в глубину, но словарь по размеру все тот же. Например у модели mT5 13B параметров, но размер словаря всего 250К, что еще и охватывает 100+ языков. Таким образом это примерно 2500 уникальных токенов на язык, что очевидно довольно мало.

Что решают сделать авторы? Неожиданно, но начинают обучать новую модель с 1м токенов в словаре. Был XLM-R, ну а с таким апгрейдром станет XLM-V

Что используют нового в XLM-V, чего не было в XLM-R?
💓💓💓Строят вектора лексических представлений для каждого языка следующим образом (используют подход Improving Multilingual Models with Language-Clustered Vocabularies): для каждого языка в множестве языков, они составляют бинарный вектор, каждый элемент которого это определенное слово в языке. 1 означает, что слово присутсвует в словаре этого языка. (можно посмотреть во вложениях рисуночек с графическим объяснением). Но авторы совершенствуют способ, на который идет ссылка, за счет постороения вектора с помощью отрицательной логарифмической вероятности появления каждой лексемы.

💓💓💓Затем вектора кластеризуются. И на каждом отдельном кластере обучается sentencepiece model, для того, чтобы предотвратить обмен словарным запасом между лексически несхожими языками.

💓💓💓С помощью ALP (средней логарифмической вероятности) оценивают способность словаря представлять конкретный язык. (скрин с формулкой из статьи во вложениях)

Следующим шагом используют алгоритм для посторонних словарей ULM. Который начинает с большого исходного словаря, который итеративно обрезается, пока количество лексем не упадет ниже заранее определенного порога размера словаря.

Полюбоваться апгрейдом скора можно во вложениях :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17