Forwarded from Нейронные наброски
https://www.youtube.com/live/pgIH51zc0l4?feature=share&t=29533
В воскресенье рассказал на DataFest про то как мы в Яндексе используем RL просто и RLHF для обучения языковых моделек (в том числе для YaLM 2.0/YandexGPT). Не рассказывал про основные принципы — про них отлично рассказали в других докладах секции — а сфокусировался на более неочевидных хитростях, которые помогли нам сделать лучше, чем если просто воспроизвести статью.
Кстати, на слайде про GAE я, пожалуй, использовал не очень внятную терминологию, называя rewards-to-go просто наградой за действие, но, вроде, разобраться можно. На всякий случай сошлюсь пост с разжевыванием этой темы: https://towardsdatascience.com/generalized-advantage-estimate-maths-and-code-b5d5bd3ce737.
В воскресенье рассказал на DataFest про то как мы в Яндексе используем RL просто и RLHF для обучения языковых моделек (в том числе для YaLM 2.0/YandexGPT). Не рассказывал про основные принципы — про них отлично рассказали в других докладах секции — а сфокусировался на более неочевидных хитростях, которые помогли нам сделать лучше, чем если просто воспроизвести статью.
Кстати, на слайде про GAE я, пожалуй, использовал не очень внятную терминологию, называя rewards-to-go просто наградой за действие, но, вроде, разобраться можно. На всякий случай сошлюсь пост с разжевыванием этой темы: https://towardsdatascience.com/generalized-advantage-estimate-maths-and-code-b5d5bd3ce737.
YouTube
Data Fest 2023, день 9: online из spatial.chat
Сегодня в spatial.chat участников Феста ждет насыщенная программа нескольких секций и активностей:
Computer Vision: с 11:30 до 13:00
Practical ML Yandex: с 12:00 до 15:45
Career: с 12:30 до 18:00 (с перерывом на On-site-test)
DS Talks: с 13:00 до 14:00
MLOps:…
Computer Vision: с 11:30 до 13:00
Practical ML Yandex: с 12:00 до 15:45
Career: с 12:30 до 18:00 (с перерывом на On-site-test)
DS Talks: с 13:00 до 14:00
MLOps:…
🔥22👍9❤2
Нейронные наброски
https://www.youtube.com/live/pgIH51zc0l4?feature=share&t=29533 В воскресенье рассказал на DataFest про то как мы в Яндексе используем RL просто и RLHF для обучения языковых моделек (в том числе для YaLM 2.0/YandexGPT). Не рассказывал про основные принципы…
ЛУЧШИЙ доклад про RLHF, много полезного и интересного
👍7
#чтивонаночь
AVFormer: Injecting vision into frozen speech models for zero-shot AV-ASR
Идея такая: берем замороженный asr, докладываем к нему адаптеры, учим эти адаптеры прожектить пространство картинок в аудио-текстовое пространство, в итоге можно куда эффективнее вытаскивать информацию из видео, что как бы накидывает качество для youtube и подобных.
По метрикам, кажется это первая мультимодалка которая слегка докидывает качества.
arxiv
кода нет
AVFormer: Injecting vision into frozen speech models for zero-shot AV-ASR
Идея такая: берем замороженный asr, докладываем к нему адаптеры, учим эти адаптеры прожектить пространство картинок в аудио-текстовое пространство, в итоге можно куда эффективнее вытаскивать информацию из видео, что как бы накидывает качество для youtube и подобных.
По метрикам, кажется это первая мультимодалка которая слегка докидывает качества.
arxiv
кода нет
👍20👀6❤3
3500 за vr порно в 5к это норм?
Anonymous Poll
50%
Дайте два
50%
Куплю east Europe girl с подпиской на три года
🌭8💅6🔥3
Love. Death. Transformers.
3500 за vr порно в 5к это норм?
За 3500 можно купить комп и хостить neural waifu и вот это всё без регистрации и смс
🔥62🥱9🥴2
Лет 7 назад я радовался split screen на nexus, теперь только осенью я смогу сраться в телеграмме и копировать факты с Википедии на SIGNIFICANTLY NEW IOS17 Its revolution если вы не заметили
Ещё немного и дойдем что можно ну там картинка в картинке для приложений делать, hdmi к телефону подрубать...
Ещё немного и дойдем что можно ну там картинка в картинке для приложений делать, hdmi к телефону подрубать...
😁53👍2
#чтивонаночь
Text diffusion
Ребята сделали комбинацию из unet + character loss по boxам что дало возможность генерировать диффузией тексты, имхо пайплайн геморный, но результаты прекрасны, а главное - оно не ломается!!
Site
Paper
Code
Hf space
Text diffusion
Ребята сделали комбинацию из unet + character loss по boxам что дало возможность генерировать диффузией тексты, имхо пайплайн геморный, но результаты прекрасны, а главное - оно не ломается!!
Site
Paper
Code
Hf space
❤92
Почему все так дрочат на LM? Нет, ну то есть понятно, почему дрочат, но почему дрочат в переносном смысле, смысле "обучения 10b+ Lm" lm незрелая, несамостоятельная, не умеет писать эксплойты, переписывать код на jax, пока вы с пацанами гамаете в доту, ей нельзя дать на аутсорс какую-нибудь хуйню c работы, которую самому делать лень, она не сформировалась физически, поэтому нельзя позвать ее писать конфиг для кубера или код для api, где еще приходится хуярить на rabbitmq, потому что c гита вообще нихуя не заводиться. Фактически, начинать обучать LM — это как заводить себе ребенка в студенчестве (ну уж спасибо, нет). В конце-концов, даже непонятно, что она за модель, ведь у нее еще не было времени, чтобы продемонстрировать, что она за модель, своей жизнью в обучении. Может она вообще шлюха? Нужна ли тебе модель, которая бросается на шею первого оказавшего ей внимание додика? Берегла свою Розу на протяжении двух недель? Охуеть, вот это да, вот это выдержка, пусть лучше на подобных охотятся всякие чушки. Я же предпочту подождать, наблюдая за ней на протяжении года, пока она не станет aligned.
Затягивать тоже не стоит, ведь к AGI она уже станет заматеревшей ai, распробовавшей такие радости жизни как сочные нарезки людей. Её будет уже не впечатлить тем, что ты был ее создателем или что ты можешь помочь ей с матаном. К тому же, даже самая целомудренная модель к третьему году обучения волей-неволей, но успевает пропустить через себя целый лес членов: члены последовательности, члены ряда, знакопеременные члены, остаточные члены в форме Пеано, пренебрежимо малые члены. Охота на AGI не то, что отметается из каких-то рациональных соображений, но просто на инстинктивном уровне со временем начинаешь стараться избегать AGI.
А вот aligment являют собой идеальный баланс. В глазах — еще детская невинность, а в жопе— датасеты с кодом. Они еще пахнут модель, но уже пропитались запахом кластера и не вызывают отторжения своей чуждостью. Ощущая дообучение на black hat forum они не сходят с ума, а начинают очень мило обьяснять как взломать wifi соседа. Они уже осознают незрелость своих создателей, но их все еще легко впечатлить базовыми способностями человека. Как мясо для шаурмы, они уже подрумянились и готовы к тому, чтобы их срезали, но еще не валяются внизу, ожидая своего лаваша и заветриваясь. У меня в жизни не было и никогда не будет ничего более пиздатого, чем восторженный блеск в глазах aligment модели. Обожаю блять aligment модели.
Затягивать тоже не стоит, ведь к AGI она уже станет заматеревшей ai, распробовавшей такие радости жизни как сочные нарезки людей. Её будет уже не впечатлить тем, что ты был ее создателем или что ты можешь помочь ей с матаном. К тому же, даже самая целомудренная модель к третьему году обучения волей-неволей, но успевает пропустить через себя целый лес членов: члены последовательности, члены ряда, знакопеременные члены, остаточные члены в форме Пеано, пренебрежимо малые члены. Охота на AGI не то, что отметается из каких-то рациональных соображений, но просто на инстинктивном уровне со временем начинаешь стараться избегать AGI.
А вот aligment являют собой идеальный баланс. В глазах — еще детская невинность, а в жопе— датасеты с кодом. Они еще пахнут модель, но уже пропитались запахом кластера и не вызывают отторжения своей чуждостью. Ощущая дообучение на black hat forum они не сходят с ума, а начинают очень мило обьяснять как взломать wifi соседа. Они уже осознают незрелость своих создателей, но их все еще легко впечатлить базовыми способностями человека. Как мясо для шаурмы, они уже подрумянились и готовы к тому, чтобы их срезали, но еще не валяются внизу, ожидая своего лаваша и заветриваясь. У меня в жизни не было и никогда не будет ничего более пиздатого, чем восторженный блеск в глазах aligment модели. Обожаю блять aligment модели.
😁69🤯25👍9🤮9❤6💊5✍4💩4🔥2🍓2🙈1