Forwarded from DLStories
Помните, писала, что у нас с коллегами приняли статью на COLM, но конференция в США и ни у кого из нас нет виз? Так вот, конференция 7-9 октября в Филадельфии, и мы все еще в поисках человека, который мог бы туда поехать и презентовать нашу статью😢
В том посте я писала, что нужно будет постоять рядом с нашим постером. Но теперь все немного сложнее: наша статья попала на oral (spotlight). То есть, нужно будет выйти зачитать доклад по нашей статье на 12 минут🌝 Текст и презентация доклада будут готовы.
Поэтому если вдруг вы или ваши коллеги едут на COLM, и готовы с этим нам помочь, напишите, пожалуйста, Лаиде. Вы очень-очень нам поможете!
(Я помню, что под предыдущим постом были люди, готовые помочь. Спасибо вам большое, что тогда откликнулись! Если вы все еще готовы помочь, будем очень рады)
В том посте я писала, что нужно будет постоять рядом с нашим постером. Но теперь все немного сложнее: наша статья попала на oral (spotlight). То есть, нужно будет выйти зачитать доклад по нашей статье на 12 минут🌝 Текст и презентация доклада будут готовы.
Поэтому если вдруг вы или ваши коллеги едут на COLM, и готовы с этим нам помочь, напишите, пожалуйста, Лаиде. Вы очень-очень нам поможете!
(Я помню, что под предыдущим постом были люди, готовые помочь. Спасибо вам большое, что тогда откликнулись! Если вы все еще готовы помочь, будем очень рады)
❤🔥47😢13🤔3👍1
Forwarded from Vikhr models
Натурализация выходов llm
С помощью DPO можно учить LLM генерировать LLM более натуральные тексты, для этого берем текст, нарезаем на куски, суммаризируем, затем генерируем "любой сеткой" кандидатов. Учим DPO где хороший текст это оригинал, а плохой это то что сетка родила.
Собственно у нас в Vikhr Models есть трек с Roleplay+Interpretability поэтому мы сгенерировали такой датасет на основе habr+picabuu+ficbook.
Ну и забыли заанонсить🫠
А вчера увидел пост у Ильи что ребята в комьюнити проделали аналогичную работу над книжками!
На основе книжек
Наш датасет на основе более разнообразного датамикса
С помощью DPO можно учить LLM генерировать LLM более натуральные тексты, для этого берем текст, нарезаем на куски, суммаризируем, затем генерируем "любой сеткой" кандидатов. Учим DPO где хороший текст это оригинал, а плохой это то что сетка родила.
Собственно у нас в Vikhr Models есть трек с Roleplay+Interpretability поэтому мы сгенерировали такой датасет на основе habr+picabuu+ficbook.
Ну и забыли заанонсить🫠
А вчера увидел пост у Ильи что ребята в комьюнити проделали аналогичную работу над книжками!
На основе книжек
Наш датасет на основе более разнообразного датамикса
Telegram
Старший Авгур
Помните историю про Гутенберг, датасет пар для обучения моделей писательству? Нашёлся-таки герой, который повторил его для русского, мой подписчик — Макс 👏
Вот сам датасет: https://huggingface.co/datasets/40umov/dostoevsky
Методология аналогична оригинальной.…
Вот сам датасет: https://huggingface.co/datasets/40umov/dostoevsky
Методология аналогична оригинальной.…
🔥26👍5🥱2
Учить что либо на более 10 нодах сложно. Уже начинает влиять топология кластера, падает MFU, отваливаются ноды и так далее, на лету выкидывать ноды из обучения сложно. Скорость интернета внутри датацентра одинаковая только в теории.
В целом любое массивное обучение на сотнях и тысячах нод это очень сложно, затратно и инженерно.
В первые вижу в паблике подробный блогпост про оптимизацию network level для обучения на 4к h100.
Блогпост
В целом любое массивное обучение на сотнях и тысячах нод это очень сложно, затратно и инженерно.
В первые вижу в паблике подробный блогпост про оптимизацию network level для обучения на 4к h100.
Блогпост
👍73🔥23🤔1
Forwarded from CV Time
Blueberry оказалась Flux 1.1. Pro
Помните загадочную Blueberry, которая лидировала на text2image-арене? На ECCV выяснилось, что это была Flux 1.1 Pro от Black Forest Labs — об этом сообщил сооснователь компании Алекс Зауэр. Более того, по его словам, сегодня нас ждёт ещё один анонс, связанный с этой моделью.
CV Time
#YaECCV
Помните загадочную Blueberry, которая лидировала на text2image-арене? На ECCV выяснилось, что это была Flux 1.1 Pro от Black Forest Labs — об этом сообщил сооснователь компании Алекс Зауэр. Более того, по его словам, сегодня нас ждёт ещё один анонс, связанный с этой моделью.
CV Time
#YaECCV
🔥19
Я был до последнего уверен что blueberry это dalle4 лол
👍28🤔5😁3
Love. Death. Transformers.
Чёт какой то пиздец творится в Abby, всех уволили одним днём. Пока не понятно, по цвету паспорта или просто всю разработку. Ребята в революте нанимают: - Computer Vision - Natural Language Processing - Engineering - Product Owners pavel.nesterov@revolut.com…
Ребята из JetBrains тоже активно ищут Mlщиков всех видов вне рф, писать сюда @Voiaking
Umojo
ML инженеров для CV. И Тим лида для команды CV, вне рф
@Tanya_tepli
Umojo
ML инженеров для CV. И Тим лида для команды CV, вне рф
@Tanya_tepli
👎102🤮67🔥22👍11💩8🍓7🌚3🤔1 1
Forwarded from Vikhr models
Vikhr paper едет на Workshop emnlp!
А из-за того что все авторы очень русские никому не выдали визу)))
А из-за того что все авторы очень русские никому не выдали визу)))
😁88🎉13😢11🤮4😡3❤🔥1
Love. Death. Transformers.
Привет! Мы в лабараторию ебаного ресерча Vikhr models открываем летние стажировки Что по задачам: - Мержинг, стакинг, замеринг, эволюционка поверх LLM cтакинга - собирать крутые инструкт сеты, у нас много gpt4 токенов, если хочется трогать руками RAG, агентность…
Собственно, у двух ребят первая статья и сразу на EMNLP
👍31🤡12 4❤🔥2😐2
Forwarded from Vikhr models
📟 Вихрь теперь можно запустить даже на пейджерах !?
⚡️ Vikhr-Qwen-2.5-0.5B-Instruct - инструктивная модель на основе Qwen-2.5-0.5B-Instruct, обученная на русскоязычном датасете GrandMaster-PRO-MAX. В 4 раза эффективнее базовой модели, и идеально подходит для запуска на слабых мобильных устройствах.
💡 Что нового?
- Небольшой размер: Всего 0.5B параметров, идеально подходящая для применения на простых устройствах.
- Эффективность: Достигает результатов, сопоставимых с более крупными моделями.
🔗 HF: Vikhrmodels/Vikhr-Qwen-2.5-0.5b-Instruct
🔗 GGUF: Vikhrmodels/Vikhr-Qwen-2.5-0.5b-Instruct-GGUF
Инструкция по запуску на телефоне
Коллектив авторов: @LakoMoorDev @nlpwanderer
⚡️ Vikhr-Qwen-2.5-0.5B-Instruct - инструктивная модель на основе Qwen-2.5-0.5B-Instruct, обученная на русскоязычном датасете GrandMaster-PRO-MAX. В 4 раза эффективнее базовой модели, и идеально подходит для запуска на слабых мобильных устройствах.
💡 Что нового?
- Небольшой размер: Всего 0.5B параметров, идеально подходящая для применения на простых устройствах.
- Эффективность: Достигает результатов, сопоставимых с более крупными моделями.
🔗 HF: Vikhrmodels/Vikhr-Qwen-2.5-0.5b-Instruct
🔗 GGUF: Vikhrmodels/Vikhr-Qwen-2.5-0.5b-Instruct-GGUF
Инструкция по запуску на телефоне
Коллектив авторов: @LakoMoorDev @nlpwanderer
Мне очень нравится читать истерики clevels
https://www.semianalysis.com/p/google-we-have-no-moat-and-neither
Жаль что openai практически военная (по уровню анальности nda) организация и мы не знаем всех истерик внутри.
А жаль!
https://www.semianalysis.com/p/google-we-have-no-moat-and-neither
Жаль что openai практически военная (по уровню анальности nda) организация и мы не знаем всех истерик внутри.
А жаль!
SemiAnalysis
Google “We Have No Moat, And Neither Does OpenAI”
Leaked Internal Google Document Claims Open Source AI Will Outcompete Google and OpenAI The text below is a very recent leaked document, which was shared by an anonymous individual on a public Disc…
1😁24 14 7🍓4👍3❤🔥1 1
Forwarded from Старший Авгур
Ну что, сработала техника, получается. А нужен был всего лишь простой советский перевод Агаты Кристи .
Сайга пока догоняет, поэтому в качестве основы я взял Вихрь-Немо.
Аналогично оригинальному Ataraxy, дообучил модель через ORPO на датасете, описанном выше, и слил получившийся тюн с оригиналом. Внезапно получил +0.1 на ПингПонге. На арене стало чуть хуже, 77 у новой модели vs 80 у оригинала.
Сама модель: vikhr_nemo_orpo_dostoevsky_12b_slerp
В боте она тоже есть.
Сайга пока догоняет, поэтому в качестве основы я взял Вихрь-Немо.
Аналогично оригинальному Ataraxy, дообучил модель через ORPO на датасете, описанном выше, и слил получившийся тюн с оригиналом. Внезапно получил +0.1 на ПингПонге. На арене стало чуть хуже, 77 у новой модели vs 80 у оригинала.
Сама модель: vikhr_nemo_orpo_dostoevsky_12b_slerp
В боте она тоже есть.
52👍32🌚7🥱1
чет забыл написать что мы дали 12b модель для ребят из https://llmarena.ru/
Пожалуйста накидайте им сравнений, очень надо, а то там gpt4 до сих пор обгоняется старым вихрем
Пожалуйста накидайте им сравнений, очень надо, а то там gpt4 до сих пор обгоняется старым вихрем
251🔥11👍2👏1