Pro tip: поставь в зуме имя "AI notetaker" и можешь молча присутствовать на любых встречах
Media is too big
VIEW IN TELEGRAM
# Anything2JSON
Можно наконец рассказать про пет-проект, которым я сейчас занимаюсь. Потому что у меня наконец что-то успешно обучилось.
Идея такая: маленькая LM которая принимает на вход произвольные структурированные (toml, yml, xml, html, ...) данные и конвертирует их в JSON согласно заданной схеме.
То есть быстрый и универсальный конвертер для случаев, когда у вас есть много каким-то образом структурированных данных, но вам нужно свести их к нужному формату.
На видео демо (важно: без structured outputs): результат первого успешного трейнинг рана SmolLM2-135M. Как видите моделька может выдать валидный JSON и даже адаптироваться к небольшим изменениям входа и схемы.
Она пока что глупая и делает слишком много ошибок, но это не страшно. Основной каркас создан: data engine для датасета и скрипты для тренировки на коллабе и runpod. Теперь улучшение это вопрос итераций. Надеюсь обойдемся без RL, но посмотрим.
Буду вам потихоньку рассказывать про этот проект
Можно наконец рассказать про пет-проект, которым я сейчас занимаюсь. Потому что у меня наконец что-то успешно обучилось.
Идея такая: маленькая LM которая принимает на вход произвольные структурированные (toml, yml, xml, html, ...) данные и конвертирует их в JSON согласно заданной схеме.
То есть быстрый и универсальный конвертер для случаев, когда у вас есть много каким-то образом структурированных данных, но вам нужно свести их к нужному формату.
На видео демо (важно: без structured outputs): результат первого успешного трейнинг рана SmolLM2-135M. Как видите моделька может выдать валидный JSON и даже адаптироваться к небольшим изменениям входа и схемы.
Она пока что глупая и делает слишком много ошибок, но это не страшно. Основной каркас создан: data engine для датасета и скрипты для тренировки на коллабе и runpod. Теперь улучшение это вопрос итераций. Надеюсь обойдемся без RL, но посмотрим.
Буду вам потихоньку рассказывать про этот проект
🔥94👍40 13❤9👎5
Во-первых: зачем?
Потому что я могу.
В eBay я позанимался тем, что делал бенчмарки и SFT датасет для мультимодальных inhouse LLM. Мне очень понравилась придумывать как из имеющихся данных сделать клевые инструкции. Показалось, будто у меня есть некоторая интуиция как добывать и делать хорошие данные.
Поэтому оказавшись на свободе мне захотелось сделать что-то своё в этой области, заодно изучить как можно больше. Придумал сделать какой-то полезный тюн, который будет включать все этапы:
1. Собрать данные
2. Построить data engine, генерить синтетику
3. Провести эксперименты и обучить модели
4. Заплатить за компьют😱 😱 😱 😱
5. Задеплоить
6. Бенчмаркать
Почему именно конвертация в JSON:
1. Конверсия из одного формата в другой – самая LLM-ная задача на свете. Маловероятно, что не заработает.
2. Задача не требует много мозгов, надо только понимать синтаксис. Значит можно обойтись маленькой моделью, может быть до 1b. Я же не миллиардер гонять экспы для 8b.
3. Задача верифицируется. Для любой схемы и JSON можно проверить подходит ли этот JSON к схеме. Значит будет легко доставать и генерировать данные.
4. Просто бенчмаркать.
5. Это может кому-то пригодиться! Бекендеры только и делают, что перекладывают JSON. Есть надежды, если получится, продавать это как сервис по API. Но главная цель просто фан и поучиться.
В общем хочется сделать универсально, но при этом очень быстро.
Чувствую себя каким-то живым мемом. Устал перекладывать JSON и получать за этой деньги, вырвался из найма, чтобы спокойно перекладывать JSON за свой счет. Это как если бы дальнобойщик в отпуске возил кирпичи по кругу на своем маленьком грузовичке, чисто для души
В какой-то момент обнаружил, что прокрастинирую написание книги дебажа трейнинг раны этого пет-проекта🙂 👀
Потому что я могу.
В eBay я позанимался тем, что делал бенчмарки и SFT датасет для мультимодальных inhouse LLM. Мне очень понравилась придумывать как из имеющихся данных сделать клевые инструкции. Показалось, будто у меня есть некоторая интуиция как добывать и делать хорошие данные.
Поэтому оказавшись на свободе мне захотелось сделать что-то своё в этой области, заодно изучить как можно больше. Придумал сделать какой-то полезный тюн, который будет включать все этапы:
1. Собрать данные
2. Построить data engine, генерить синтетику
3. Провести эксперименты и обучить модели
4. Заплатить за компьют
5. Задеплоить
6. Бенчмаркать
Почему именно конвертация в JSON:
1. Конверсия из одного формата в другой – самая LLM-ная задача на свете. Маловероятно, что не заработает.
2. Задача не требует много мозгов, надо только понимать синтаксис. Значит можно обойтись маленькой моделью, может быть до 1b. Я же не миллиардер гонять экспы для 8b.
3. Задача верифицируется. Для любой схемы и JSON можно проверить подходит ли этот JSON к схеме. Значит будет легко доставать и генерировать данные.
4. Просто бенчмаркать.
5. Это может кому-то пригодиться! Бекендеры только и делают, что перекладывают JSON. Есть надежды, если получится, продавать это как сервис по API. Но главная цель просто фан и поучиться.
В общем хочется сделать универсально, но при этом очень быстро.
Чувствую себя каким-то живым мемом. Устал перекладывать JSON и получать за этой деньги, вырвался из найма, чтобы спокойно перекладывать JSON за свой счет. Это как если бы дальнобойщик в отпуске возил кирпичи по кругу на своем маленьком грузовичке, чисто для души
В какой-то момент обнаружил, что прокрастинирую написание книги дебажа трейнинг раны этого пет-проекта
Please open Telegram to view this post
VIEW IN TELEGRAM
https://www.strangeloopcanon.com/p/walter
Хороший пост про (достаточно успешные) попытки научить LLM делать хорошие твиты с помощью RL. Казалось бы нет задачи проще, но насколько же это не так.
В основном про невероятную способность моделей хакать любой ревард.
Причём блог пост не про технические детали, а скорее про личный опыт. Для деталей есть статья про метод авторов.
Хороший пост про (достаточно успешные) попытки научить LLM делать хорошие твиты с помощью RL. Казалось бы нет задачи проще, но насколько же это не так.
В основном про невероятную способность моделей хакать любой ревард.
Причём блог пост не про технические детали, а скорее про личный опыт. Для деталей есть статья про метод авторов.
Strangeloopcanon
Walter
experiments in rlnvr
❤15 3👎1
Вчера прошлись с другом по Лиссабону и заглянули в иммигрантский квартал (Martim Moniz). Неожиданно нашли себе истинно европейское развлечение: смотреть как дерутся на ножах люди беднее тебя.
Для дополнительного колорита прям на той же площади проходило какое-то индийское празднование человек эдак на двести, возможно свадьба
Для дополнительного колорита прям на той же площади проходило какое-то индийское празднование человек эдак на двести, возможно свадьба
Forwarded from Den4ik Research
Наш русскоязычный датасет для TTS опубликован!
Сегодня выкладываем открытые корпуса на 4000+ часов речи, а еще синтезатор речи ESpeech-TTS-1
Наш датасет содержит больше 4000 часов русской речи. Статистика по корпусам:
Многоголосые:
ESpeech-podcasts - 3200 часов
ESpeech-webinars - 850 часов
Одноголосые:
ESpeech-igm - 220 часов
ESpeech-buldjat - 54 часа
ESpeech-upvote - 296 часов
ESpeech-tuchniyzhab - 306 часов
Данные лежат вот тут: https://huggingface.co/ESpeech
Техрепорт датасета доступен тут: https://github.com/Den4ikAI/ESpeech/blob/main/ESpeech_techreport.pdf
Также, мы решили провести некоторые эксперименты с TTS. Получилось обучить F5-TTS на 10000 часов речи и сделать одну из лучших по нашим замерам моделей в опенсурсе для русского языка.
Какие модели доступны?
ESpeech-TTS-1 [RL] V1 - Первая версия модели с RL
ESpeech-TTS-1 [RL] V2 - Вторая версия модели с RL
ESpeech-TTS-1 PODCASTER [SFT] - Модель обученная только на подкастах, лучше генерирует спонтанную речь
ESpeech-TTS-1 [SFT] 95K - чекпоинт с 95000 шагов (на нем основана RL V1)
ESpeech-TTS-1 [SFT] 265K - чекпоинт с 265000 шагов (на нем основана RL V2)
Лайкайте модель которая больше понравится чтобы мы понимали есть ли смысл запускать RL.
Послушать модели без скачивания можно вот здесь:
https://huggingface.co/spaces/Den4ikAI/ESpeech-TTS
Совместно с @speech_recognition_ru ещё сделали лидерборд русского ТТС, где можно глянуть метрики:
https://huggingface.co/spaces/ESpeech/open_tts_leaderboard_ru
Задать вопросы по поводу данных и модели можно в наших телеграм каналах:
https://news.1rj.ru/str/den4ikresearch
https://news.1rj.ru/str/voice_stuff_chat
Вы можете мне задонатить, чтобы у меня были ресурсы делать более крутые модели и датасеты:
USDT (TRC20): TEpEM4VVmGmqKHn4Xz1FxM7qZiXjWtUEUB
BTC: bc1qw5lq7fc455e47hggax6zp8txw4ru7yvsxvawv3
https://www.tbank.ru/cf/7WKnNMqWtOx
Сегодня выкладываем открытые корпуса на 4000+ часов речи, а еще синтезатор речи ESpeech-TTS-1
Наш датасет содержит больше 4000 часов русской речи. Статистика по корпусам:
Многоголосые:
ESpeech-podcasts - 3200 часов
ESpeech-webinars - 850 часов
Одноголосые:
ESpeech-igm - 220 часов
ESpeech-buldjat - 54 часа
ESpeech-upvote - 296 часов
ESpeech-tuchniyzhab - 306 часов
Данные лежат вот тут: https://huggingface.co/ESpeech
Техрепорт датасета доступен тут: https://github.com/Den4ikAI/ESpeech/blob/main/ESpeech_techreport.pdf
Также, мы решили провести некоторые эксперименты с TTS. Получилось обучить F5-TTS на 10000 часов речи и сделать одну из лучших по нашим замерам моделей в опенсурсе для русского языка.
Какие модели доступны?
ESpeech-TTS-1 [RL] V1 - Первая версия модели с RL
ESpeech-TTS-1 [RL] V2 - Вторая версия модели с RL
ESpeech-TTS-1 PODCASTER [SFT] - Модель обученная только на подкастах, лучше генерирует спонтанную речь
ESpeech-TTS-1 [SFT] 95K - чекпоинт с 95000 шагов (на нем основана RL V1)
ESpeech-TTS-1 [SFT] 265K - чекпоинт с 265000 шагов (на нем основана RL V2)
Лайкайте модель которая больше понравится чтобы мы понимали есть ли смысл запускать RL.
Послушать модели без скачивания можно вот здесь:
https://huggingface.co/spaces/Den4ikAI/ESpeech-TTS
Совместно с @speech_recognition_ru ещё сделали лидерборд русского ТТС, где можно глянуть метрики:
https://huggingface.co/spaces/ESpeech/open_tts_leaderboard_ru
Задать вопросы по поводу данных и модели можно в наших телеграм каналах:
https://news.1rj.ru/str/den4ikresearch
https://news.1rj.ru/str/voice_stuff_chat
Вы можете мне задонатить, чтобы у меня были ресурсы делать более крутые модели и датасеты:
USDT (TRC20): TEpEM4VVmGmqKHn4Xz1FxM7qZiXjWtUEUB
BTC: bc1qw5lq7fc455e47hggax6zp8txw4ru7yvsxvawv3
https://www.tbank.ru/cf/7WKnNMqWtOx
🔥28👍5❤4 4
Мой канал попал в подборку от РБК. Всем новичкам добро пожаловать! Хороший повод обновить приветственный пост.
#whois
Привет, я Боря и это мой канал про профессиональное (машинное обучение, ИИ, IT), интересное, личное и просто весёлое. В этом посте можно найти мини-интервью со мной.
Сейчас я пишу научпоп книгу про исскуственный интеллект, подробнее тут.
Я работал:
- Staff Machine Learning Engineer в eBay
- Тимлидом компьютерного зрения в агротехе PlanetFarms
- Исследователем в Yandex (Toloka)
Преподаю машинное обучение (ВШЭ, OTUS, DLS), временами консультирую людей по поиску работы и компании по ML/DS/AI.
Предлагаю почитать в канале из нового:
* Искусственный интеллект не дает преимуществ — почему ИИ инструменты не помогают преуспеть в карьере.
* Обзор исследования METR — про влияние AI инструментов на продуктивность разработчиков.
* Как распознать AI текст в 2025
* Может ли LLM написать книгу за меня — эксперимент на друзьях и подписчиках.
Из менее нового:
* Минимальные знания ML Engineering для Data Scientist — серия постов.
* Два способа делать ML — как стоит и как не стоит делать ML/AI проекты.
* Лихие Джуновские — как все начиналось.
* Как я убеждал младшего брата, что он путешествует во времени — с чего начинался канал.
* Серия постов с обзором самого масштабного исследования безусловного базового дохода.
Лонгриды:
* Методичка: Поиск Работы в ML/DS, мой наиболее популярный и полезный материал
* "Нормально разбираемся в Нормальном распределении" на Хабре.
* Туториал по реализации алгоритма поиска BM25+ на Хабре.
* Гайд по опционам в стартапах для сотрудника.
В канале есть реклама, если я считаю её полезной для подписчиков. Подробнее здесь
#whois
Привет, я Боря и это мой канал про профессиональное (машинное обучение, ИИ, IT), интересное, личное и просто весёлое. В этом посте можно найти мини-интервью со мной.
Сейчас я пишу научпоп книгу про исскуственный интеллект, подробнее тут.
Я работал:
- Staff Machine Learning Engineer в eBay
- Тимлидом компьютерного зрения в агротехе PlanetFarms
- Исследователем в Yandex (Toloka)
Преподаю машинное обучение (ВШЭ, OTUS, DLS), временами консультирую людей по поиску работы и компании по ML/DS/AI.
Предлагаю почитать в канале из нового:
* Искусственный интеллект не дает преимуществ — почему ИИ инструменты не помогают преуспеть в карьере.
* Обзор исследования METR — про влияние AI инструментов на продуктивность разработчиков.
* Как распознать AI текст в 2025
* Может ли LLM написать книгу за меня — эксперимент на друзьях и подписчиках.
Из менее нового:
* Минимальные знания ML Engineering для Data Scientist — серия постов.
* Два способа делать ML — как стоит и как не стоит делать ML/AI проекты.
* Лихие Джуновские — как все начиналось.
* Как я убеждал младшего брата, что он путешествует во времени — с чего начинался канал.
* Серия постов с обзором самого масштабного исследования безусловного базового дохода.
Лонгриды:
* Методичка: Поиск Работы в ML/DS, мой наиболее популярный и полезный материал
* "Нормально разбираемся в Нормальном распределении" на Хабре.
* Туториал по реализации алгоритма поиска BM25+ на Хабре.
* Гайд по опционам в стартапах для сотрудника.
В канале есть реклама, если я считаю её полезной для подписчиков. Подробнее здесь
❤43🔥16👍10
Борис опять pinned «Мой канал попал в подборку от РБК. Всем новичкам добро пожаловать! Хороший повод обновить приветственный пост. #whois Привет, я Боря и это мой канал про профессиональное (машинное обучение, ИИ, IT), интересное, личное и просто весёлое. В этом посте можно…»
Кстати лучшие хьюман мемеры пока не будут заменены даже нанобананой. Мне потребовалось буквально два часа, чтобы навайбфотошопить этот мем. Приходилось на добавление каждого символа создавать новый чат раза 3-4 пока не получалось приемлемо. Очень плохо работает с маленькими деталями типа символов и текста.
Быстрее бы сам нарисовал.
Но по сравнению с тем, что было раньше, это конечно огромный прогресс
Быстрее бы сам нарисовал.
Но по сравнению с тем, что было раньше, это конечно огромный прогресс
👍30