Борис опять – Telegram
Борис опять
15.1K subscribers
1.43K photos
72 videos
30 files
1.47K links
life = curiosity + irreducible noise

Whois: https://news.1rj.ru/str/boris_again/3400

Лс: @btseytlin
Download Telegram
Pro tip: поставь в зуме имя "AI notetaker" и можешь молча присутствовать на любых встречах
179👍19🔥118
Media is too big
VIEW IN TELEGRAM
# Anything2JSON

Можно наконец рассказать про пет-проект, которым я сейчас занимаюсь. Потому что у меня наконец что-то успешно обучилось.

Идея такая: маленькая LM которая принимает на вход произвольные структурированные (toml, yml, xml, html, ...) данные и конвертирует их в JSON согласно заданной схеме.

То есть быстрый и универсальный конвертер для случаев, когда у вас есть много каким-то образом структурированных данных, но вам нужно свести их к нужному формату.

На видео демо (важно: без structured outputs): результат первого успешного трейнинг рана SmolLM2-135M. Как видите моделька может выдать валидный JSON и даже адаптироваться к небольшим изменениям входа и схемы.

Она пока что глупая и делает слишком много ошибок, но это не страшно. Основной каркас создан: data engine для датасета и скрипты для тренировки на коллабе и runpod. Теперь улучшение это вопрос итераций. Надеюсь обойдемся без RL, но посмотрим.

Буду вам потихоньку рассказывать про этот проект
🔥94👍40139👎5
Во-первых: зачем?

Потому что я могу.

В eBay я позанимался тем, что делал бенчмарки и SFT датасет для мультимодальных inhouse LLM. Мне очень понравилась придумывать как из имеющихся данных сделать клевые инструкции. Показалось, будто у меня есть некоторая интуиция как добывать и делать хорошие данные.

Поэтому оказавшись на свободе мне захотелось сделать что-то своё в этой области, заодно изучить как можно больше. Придумал сделать какой-то полезный тюн, который будет включать все этапы:
1. Собрать данные
2. Построить data engine, генерить синтетику
3. Провести эксперименты и обучить модели
4. Заплатить за компьют 😱😱😱😱
5. Задеплоить
6. Бенчмаркать

Почему именно конвертация в JSON:
1. Конверсия из одного формата в другой – самая LLM-ная задача на свете. Маловероятно, что не заработает.
2. Задача не требует много мозгов, надо только понимать синтаксис. Значит можно обойтись маленькой моделью, может быть до 1b. Я же не миллиардер гонять экспы для 8b.
3. Задача верифицируется. Для любой схемы и JSON можно проверить подходит ли этот JSON к схеме. Значит будет легко доставать и генерировать данные.
4. Просто бенчмаркать.
5. Это может кому-то пригодиться! Бекендеры только и делают, что перекладывают JSON. Есть надежды, если получится, продавать это как сервис по API. Но главная цель просто фан и поучиться.

В общем хочется сделать универсально, но при этом очень быстро.

Чувствую себя каким-то живым мемом. Устал перекладывать JSON и получать за этой деньги, вырвался из найма, чтобы спокойно перекладывать JSON за свой счет. Это как если бы дальнобойщик в отпуске возил кирпичи по кругу на своем маленьком грузовичке, чисто для души

В какой-то момент обнаружил, что прокрастинирую написание книги дебажа трейнинг раны этого пет-проекта 🙂👀
Please open Telegram to view this post
VIEW IN TELEGRAM
9139🔥12👍11👎3
https://www.strangeloopcanon.com/p/walter

Хороший пост про (достаточно успешные) попытки научить LLM делать хорошие твиты с помощью RL. Казалось бы нет задачи проще, но насколько же это не так.

В основном про невероятную способность моделей хакать любой ревард.

Причём блог пост не про технические детали, а скорее про личный опыт. Для деталей есть статья про метод авторов.
153👎1
Вчера прошлись с другом по Лиссабону и заглянули в иммигрантский квартал (Martim Moniz). Неожиданно нашли себе истинно европейское развлечение: смотреть как дерутся на ножах люди беднее тебя.

Для дополнительного колорита прям на той же площади проходило какое-то индийское празднование человек эдак на двести, возможно свадьба
122🤔16😢12👎51👍1
Forwarded from Den4ik Research
Наш русскоязычный датасет для TTS опубликован!

Сегодня выкладываем открытые корпуса на 4000+ часов речи, а еще синтезатор речи ESpeech-TTS-1

Наш датасет содержит больше 4000 часов русской речи. Статистика по корпусам:

Многоголосые:
ESpeech-podcasts - 3200 часов
ESpeech-webinars - 850 часов

Одноголосые:
ESpeech-igm - 220 часов
ESpeech-buldjat - 54 часа
ESpeech-upvote - 296 часов
ESpeech-tuchniyzhab - 306 часов

Данные лежат вот тут: https://huggingface.co/ESpeech

Техрепорт датасета доступен тут: https://github.com/Den4ikAI/ESpeech/blob/main/ESpeech_techreport.pdf


Также, мы решили провести некоторые эксперименты с TTS. Получилось обучить F5-TTS на 10000 часов речи и сделать одну из лучших по нашим замерам моделей в опенсурсе для русского языка.

Какие модели доступны?
ESpeech-TTS-1 [RL] V1 - Первая версия модели с RL
ESpeech-TTS-1 [RL] V2 - Вторая версия модели с RL
ESpeech-TTS-1 PODCASTER [SFT] - Модель обученная только на подкастах, лучше генерирует спонтанную речь
ESpeech-TTS-1 [SFT] 95K - чекпоинт с 95000 шагов (на нем основана RL V1)
ESpeech-TTS-1 [SFT] 265K - чекпоинт с 265000 шагов (на нем основана RL V2)

Лайкайте модель которая больше понравится чтобы мы понимали есть ли смысл запускать RL.

Послушать модели без скачивания можно вот здесь:

https://huggingface.co/spaces/Den4ikAI/ESpeech-TTS

Совместно с @speech_recognition_ru ещё сделали лидерборд русского ТТС, где можно глянуть метрики:

https://huggingface.co/spaces/ESpeech/open_tts_leaderboard_ru
Задать вопросы по поводу данных и модели можно в наших телеграм каналах:
https://news.1rj.ru/str/den4ikresearch
https://news.1rj.ru/str/voice_stuff_chat

Вы можете мне задонатить, чтобы у меня были ресурсы делать более крутые модели и датасеты:

USDT (TRC20): TEpEM4VVmGmqKHn4Xz1FxM7qZiXjWtUEUB
BTC: bc1qw5lq7fc455e47hggax6zp8txw4ru7yvsxvawv3
https://www.tbank.ru/cf/7WKnNMqWtOx
🔥28👍544
Мучаю comet browser на самом полезном юзкейсе: принимать инвайты в линкдине с учетом расизма.

Так не работает: accept all invites except from indian people
62🤔4🔥2
Так работает: accept all invites except from people with indian-sounding names
79🔥4
Хотя precision/recall оставляет желать лучшего
34👍1
Gemini 2.5 Flash Image с редактированием изображений (которая nanobanana) просто космос какой-то
🤔15👍62
Первая модель которая делает так
933
Учителя дошкольников всё ещё могут быть спокойны
9018👎1
Мой канал попал в подборку от РБК. Всем новичкам добро пожаловать! Хороший повод обновить приветственный пост.

#whois

Привет, я Боря и это мой канал про профессиональное (машинное обучение, ИИ, IT), интересное, личное и просто весёлое. В этом посте можно найти мини-интервью со мной.

Сейчас я пишу научпоп книгу про исскуственный интеллект, подробнее тут.

Я работал:
- Staff Machine Learning Engineer в eBay
- Тимлидом компьютерного зрения в агротехе PlanetFarms
- Исследователем в Yandex (Toloka)

Преподаю машинное обучение (ВШЭ, OTUS, DLS), временами консультирую людей по поиску работы и компании по ML/DS/AI.

Предлагаю почитать в канале из нового:
* Искусственный интеллект не дает преимуществ — почему ИИ инструменты не помогают преуспеть в карьере.
* Обзор исследования METR — про влияние AI инструментов на продуктивность разработчиков.
* Как распознать AI текст в 2025
* Может ли LLM написать книгу за меня эксперимент на друзьях и подписчиках.

Из менее нового:
* Минимальные знания ML Engineering для Data Scientist — серия постов.
* Два способа делать ML — как стоит и как не стоит делать ML/AI проекты.
* Лихие Джуновские — как все начиналось.
* Как я убеждал младшего брата, что он путешествует во времени — с чего начинался канал.
* Серия постов с обзором самого масштабного исследования безусловного базового дохода.

Лонгриды:
* Методичка: Поиск Работы в ML/DS, мой наиболее популярный и полезный материал
* "Нормально разбираемся в Нормальном распределении" на Хабре.
* Туториал по реализации алгоритма поиска BM25+ на Хабре.
* Гайд по опционам в стартапах для сотрудника.

В канале есть реклама, если я считаю её полезной для подписчиков. Подробнее здесь
43🔥16👍10
Борис опять pinned «Мой канал попал в подборку от РБК. Всем новичкам добро пожаловать! Хороший повод обновить приветственный пост. #whois Привет, я Боря и это мой канал про профессиональное (машинное обучение, ИИ, IT), интересное, личное и просто весёлое. В этом посте можно…»
8910🔥3
Кстати лучшие хьюман мемеры пока не будут заменены даже нанобананой. Мне потребовалось буквально два часа, чтобы навайбфотошопить этот мем. Приходилось на добавление каждого символа создавать новый чат раза 3-4 пока не получалось приемлемо. Очень плохо работает с маленькими деталями типа символов и текста.

Быстрее бы сам нарисовал.

Но по сравнению с тем, что было раньше, это конечно огромный прогресс
👍30
9715😢7👎4
Никогда не спрашивай почему
80🔥52