по отзывам обновил бота, выпилил текст и оставил только иконки.
сменить лого канала на генеративное?)
@icons7z_testbot
сменить лого канала на генеративное?)
@icons7z_testbot
🔥38👎15👌5💩4👍2
премия? зарплата? а тебя отец зачем учил осцилограф пиздить? берешь и пиздишь dgx, продаешь, вот и зп за год
🔥37
Love. Death. Transformers.
премия? зарплата? а тебя отец зачем учил осцилограф пиздить? берешь и пиздишь dgx, продаешь, вот и зп за год
Молодой парень устроился на работу джуном.
Проходит месяц. Наступил день зарплаты — а новичок за деньгами не приходит. Прошёл второй месяц, третий, четвёртый, а за зарплатой он так и не пришёл.
Стало старому тимлиду интересно, что происходит. Он вызывает к себе этого джуна и спрашивает:
— Ты что это за зарплатой не приходишь? Не нужна что ли?
— Зарплата?! Ой… А я-то думал, дали компьют — и крутись как хочешь…
основано на шутке @PPnPme @kozlov_informs
Проходит месяц. Наступил день зарплаты — а новичок за деньгами не приходит. Прошёл второй месяц, третий, четвёртый, а за зарплатой он так и не пришёл.
Стало старому тимлиду интересно, что происходит. Он вызывает к себе этого джуна и спрашивает:
— Ты что это за зарплатой не приходишь? Не нужна что ли?
— Зарплата?! Ой… А я-то думал, дали компьют — и крутись как хочешь…
основано на шутке @PPnPme @kozlov_informs
😁52😈9👎5🥴4🖕3🎉2❤1👍1
Вообще хз чо так дрочат на RLHF - имхо залупа из конца 10хх которую сложно обогнать без кучи данных и экспрементиров, отставание опенсурса сильно больше полугода и в лоб обогнать не получится.
Ну и да, опенсурс модели кажется сами по себе сильно хуже closed source, может быть не считая Flan/UL2.
Дискасс.
Ну и да, опенсурс модели кажется сами по себе сильно хуже closed source, может быть не считая Flan/UL2.
Дискасс.
🤡13🤔7👎3👍2
помните - все ваши ответы будут использованы при обучении chat yalm
👍42🤡3
По достижению 18 лет человек строит свою личность на основе одного из персонажей силиконовой долины.
👍61💩12👎4🤡4🎉2😈2🤔1
Love. Death. Transformers.
Вообще хз чо так дрочат на RLHF - имхо залупа из конца 10хх которую сложно обогнать без кучи данных и экспрементиров, отставание опенсурса сильно больше полугода и в лоб обогнать не получится. Ну и да, опенсурс модели кажется сами по себе сильно хуже closed…
Ещё тема для дискас: хорошая модель с хорошим сетом будет работать не хуже чем хайповое RLHF, сила cgpt не в PPO, а в сете
🔥12👎6💩3🤡2
Forwarded from что-то на DL-ском
XLM-V: Overcoming the Vocabulary Bottleneck in
Multilingual Masked Language Models
В статье поднимается следующая проблема: языковые модели увеличиваются в параметрах, растут в глубину, но словарь по размеру все тот же. Например у модели mT5 13B параметров, но размер словаря всего 250К, что еще и охватывает 100+ языков. Таким образом это примерно 2500 уникальных токенов на язык, что очевидно довольно мало.
Что решают сделать авторы? Неожиданно, ноначинают обучать новую модель с 1м токенов в словаре . Был XLM-R, ну а с таким апгрейдром станет XLM-V
Что используют нового в XLM-V, чего не было в XLM-R?
💓 💓 💓 Строят вектора лексических представлений для каждого языка следующим образом (используют подход Improving Multilingual Models with Language-Clustered Vocabularies): для каждого языка в множестве языков, они составляют бинарный вектор, каждый элемент которого это определенное слово в языке. 1 означает, что слово присутсвует в словаре этого языка. (можно посмотреть во вложениях рисуночек с графическим объяснением). Но авторы совершенствуют способ, на который идет ссылка, за счет постороения вектора с помощью отрицательной логарифмической вероятности появления каждой лексемы.
💓 💓 💓 Затем вектора кластеризуются. И на каждом отдельном кластере обучается sentencepiece model, для того, чтобы предотвратить обмен словарным запасом между лексически несхожими языками.
💓 💓 💓 С помощью ALP (средней логарифмической вероятности) оценивают способность словаря представлять конкретный язык. (скрин с формулкой из статьи во вложениях)
Следующим шагом используют алгоритм для посторонних словарей ULM. Который начинает с большого исходного словаря, который итеративно обрезается, пока количество лексем не упадет ниже заранее определенного порога размера словаря.
Полюбоваться апгрейдом скора можно во вложениях :)
Multilingual Masked Language Models
В статье поднимается следующая проблема: языковые модели увеличиваются в параметрах, растут в глубину, но словарь по размеру все тот же. Например у модели mT5 13B параметров, но размер словаря всего 250К, что еще и охватывает 100+ языков. Таким образом это примерно 2500 уникальных токенов на язык, что очевидно довольно мало.
Что решают сделать авторы? Неожиданно, но
Что используют нового в XLM-V, чего не было в XLM-R?
Следующим шагом используют алгоритм для посторонних словарей ULM. Который начинает с большого исходного словаря, который итеративно обрезается, пока количество лексем не упадет ниже заранее определенного порога размера словаря.
Полюбоваться апгрейдом скора можно во вложениях :)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17
Московские мигранты в Нью-Йорке: пук пук крыска в метро, бомжик нассал.
Московские мигранты в Лондоне: у нас в отделе ввели коэффициент найма на количество зарезанных людей, кстати у меня тут мешки черные, помоги вынести пожалуйста.
Московские мигранты в Лондоне: у нас в отделе ввели коэффициент найма на количество зарезанных людей, кстати у меня тут мешки черные, помоги вынести пожалуйста.
🔥33😁14🤨4🤣2👍1
ты готов купить дорогую видеокарту, а готов ли ты купить дорогой роутер?
😱31❤8😢2😈2
Входит, значит Сергей Брин в Ларри Пейджа и говорит:
- Ларри, гляди, Майкрософт в свои сетки в поисковик сделали!
- Что, правда?!?!
- Нее, мне просто нравится, когда ты очко сжимаешь)))
Презентация LLM поисковика от гугл будет сегодня, по этой ссылке
- Что, правда?!?!
- Нее, мне просто нравится, когда ты очко сжимаешь)))
Презентация LLM поисковика от гугл будет сегодня, по этой ссылке
Engadget
Google's February 8th event will focus on 'Search, Maps and beyond'
Google has announced that it's holding an event next week called Live from Paris that will be all about "Search, Maps and beyond."
🤣50👍7🤡5🍓5👌2