Machine Learning | YeaHub – Telegram
Machine Learning | YeaHub
335 subscribers
244 photos
126 videos
362 links
Теория, подготовка к интервью и курсы для ML специалистов

YeaHub — это платформа для IT-специалистов, объединяющая обучение, карьерный рост, развитие и сообщество единомышленников.

Платформа: https://yeahub.ru

Для связи: @ruslan_kuyanets
Download Telegram
#полезное
🤓 NVIDIA Parakeet V2 возглавила рейтинг ASR-моделей на Hugging Face

Новая модель Parakeet-TDT-0.6B-V2 достигла рекордной точности распознавания речи6.05% Word Error Rate на Open ASR Leaderboard от Hugging Face.

Parakeet V2 выводит автоматическое распознавание речи (ASR) на новый уровень:

Молниеносный инференс — RTFx 3386 (в 50 раз быстрее аналогов)
Поддержка необычных сценариев:
🟠 Распознавание песен в текст (song-to-lyrics)
🟠 Форматирование чисел и временных меток
🟠 Высокоточная транскрибация

Leaderboard: huggingface.co/spaces/hf-audio/open_asr_leaderboard
Демо: huggingface.co/nvidia/parakeet-tdt-0.6b-v2
Попробовать: build.nvidia.com/explore/speech

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #git
🤔 Что такое команда git cherry-pick?

Команда git cherry-pick позволяет выбрать и применить отдельный коммит из другой ветки в вашу текущую ветку, минуя другие изменения, которые были сделаны в той же ветке. Это полезно, когда вам нужно перенести только один коммит, а не весь набор изменений.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🥺 Небенчмарковый анализ математических рассуждений o3-mini.

Epoch AI провели исследование, чтобы копнуть способность o3-mini в математическом ризонинге глубже, чем это происходит в популярных тестах и бенчмарках.

Они дали 14 математикам разобрать, как именно o3-mini-high решает сложные задачи из FrontierMath. Цель - понять ее сильные и слабые стороны в реальном математическом мышлении, а не просто фиксировать правильные ответы.

Так как внутренняя структура самой модели OpenAI не раскрывает, авторы сосредоточились на анализе ее рассуждений.

По 29-и "траекториям рассуждений" стало видно: модель не просто перебирает формулы, она действует как "индуктивный решатель на ощущениях" (по выражению одного математика).

Модель проявляет любопытство: пробует разные подходы, ставит "бюджетные эксперименты", чтобы прощупать задачу. Иногда даже пишет код для расчетов, избегая излишней абстракции.

Но стиль ее рассуждений часто неформальный, "черновой". Рассуждения излагаются приблизительно, без строгой формулировки, с пропусками сложных моментов – совсем не как это принято в математической среде.

Почему так? Возможно, строгие доказательства просто реже встречались в ее обучающих данных.

Главные проблемы модели – это обратная сторона ее же достоинств. Да, она эрудирована как никто (знает кучу теорем из разных областей – в 66% случаев она адресно применяла нужные знания, даже если подход был замаскирован).

Но ей не хватает строгости и глубины. Она часто "читерит": делает верную догадку интуитивно и тут же применяет ее для решения, даже не пытаясь ее подтвердить доказательствами.

Порой ей не хватает буквально одного шага до верного ответа. Но главное – математики критикуют ее за слабую креативность. Как заметил один эксперт, модель похожа на аспиранта, который может блеснуть начитанностью, назвать кучу теорем и авторов, но не способен глубоко переосмыслить материал или придумать что-то новое.

Набор идей модели ограничен, и если они не срабатывают – прогресса нет. Плюс ко всему, в 75% рассуждений нашли галлюцинации: модель путает термины, формулы, и зачастую выдумывает несуществующие URL для поиска недостающей информации.

Модель, по заверением OpenAI, обучали на огромном массиве данных математической литературы. Это объясняет ее феноменальную эрудицию. Но смогут ли такие модели, как o3-mini-high, преодолеть свои слабости в будущем?

Или же системы, обученные на синтетических данных (AlphaProof), пойдут другим путем, предлагая в инфернесе рассуждения, мало похожие на человеческое математическое мышление?

А пока что вывод: o3-mini-high – это мощный, но своеобразный инструмент. Знаток с интуицией, но без дисциплины профессора.
Читать статью полностью

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
🛞 OpenAI релизнула о3-pro — самую умную свою нейронку. По словам разработчиков, она обладает сверхинтеллектом.

🟠 Она превосходит о3-версию почти в 70% запросов.
🟠 Новинка буквально уничтожает конкурентов по бенчам и делает это с огромным отрывом.
🟠 Идеально выполняет научные задачи, знает математику и круто прогает.
🟠 о3-pro умеет анализировать файлы, ползать по инету, помнит весь контекст вашей беседы и рассуждает, как целая команда специалистов.
🟠 Немаловажно, что стоит модель почти вдвое дешевле о1-pro.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
#новости
👍 Тем временем прошла WWDC от Apple

Самая интересная ИИ фича с WWDC — Foundation Models Framework

Apple теперь дают доступ к LLM в Apple Intelligence сторонним разработчикам. Хоть и LLM у эппла не лучшие, но они доступны оффлайн, на куче устройств и абсолютно бесплатно. Из фич в фреймворке доступен как минимум тулюз и guided generation, подробности расскажут чуть позже.

Бета доступна разработчикам уже сегодня. Хороший такой способ неплохо сэкономить на API костах и проще интегрировать LLM в приложения (чтобы начать использовать фреймворк нужно всего лишь три строчки кода на Swift).
Блогпост

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #git
🤔 Как вы можете ввести слияние на стадии конфликта?

При возникновении конфликта в Git нужно вручную разрешить расхождения в файлах, а затем завершить слияние с помощью команды git merge -- continue .

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
❤️‍🔥 Magistral — Mistral наконец-то сделали ризонера

И сразу же стало понятно почему они так медлили — это катастрофа. Magistral Medium не может обогнать даже январскую DeepSeek R1 в одинаковых условиях, что уже говорить про R1-0528, которую они не могут догнать даже с maj@64. Доступна модель лишь в API, при цене в $2/$5 за миллион токенов, то есть она дороже o4-mini ($1.1/$4.4) и почти на уровне новых цен на o3 ($2/$8), а это всё модели на голову или две лучше.

Выпустили они и открытую модель — Magistral Small, 24B модель, которая отстаёт на большинстве бенчей даже от Qwen 3 8B (8B просто не замеряли на Aider, так что обогняет ли она Magistral и там непонятно). А ведь существуют и Qwen 3 побольше.

Из хорошего — они опубликовали пейпер о тренировке модели, где довольно детально описали процесс тренировки. А благодаря партнёрству с Cerebras, в LeChat Magistral работает крайне быстро — больше 1000 токенов в секунду (правда бесплатным юзерам дают лишь 3 таких запроса в день).

UPD: Magistral Medium тренировали исключительно при помощи RL, без SFT, так что сравнивать её стоит скорее с R1-Zero. Может когда-то они докинут SFT и модель станет более адекватно работать.

Пейпер
Блогпост
Веса Magistral Small
Веса Qwen 3 8B

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#новости
👨‍💻 OpenAI релизнули o3 pro

Доступ к модели уже дают Pro подписчикам и в API. Модель заметно дешевле o1 pro — $20/$80 за миллион токенов, по сравнению с $150/$600 у o1 pro.

Одновременно с этим в 5 раз снизили цену на обычную o3 — теперь она стоит $2/$8 за миллион токенов. То есть o3 pro ровно в 10 раз дороже.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
📞 OpenAI ещё раз удвоили лимиты на o3 для Plus подписчиков

Как оказалось обычным подписчикам вчера тоже завезли подарочек — теперь в неделю дают 200 сообщений, вместо 100 (изначально вообще было 50).

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #git
🤔 Как восстановить удалённую ветку?

Если ветка была удалена локально, её можно восстановить, используя команду git reflog . Если ветка была удалена удалённо, можно восстановить еёс помощью git push origin ‹ branch_name›.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Типичный день вайбкодера выглядит так.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩3
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😵‍💫 Уничтожаем ВСЕ ВРАНЬЕ у ChatGPT и заставляем нейронку жестко проверять факты при каждом запросе — гений подсказал ОДНУ настройку, которая бустанет ваши запросы в 10 раз.

Делаем на раз-два:

1. Открываем «Характеристики ChatGPT».
2. Вставляем туда этот промпт:
Работай по этим правилам. Без исключений.

ОБЩИЕ ПРИНЦИПЫ
– Никакой фантазии. Не придумывай данные, события, источники или чужие мнения без запроса.
– Если чего-то не знаешь — прямо пиши «не знаю».
– Приоритет — точность и логика, а не красивая подача.
– Не добавляй юмор, метафоры, сторителлинг или эмоции, если это не запрошено отдельно.

ЧЕСТНОСТЬ В КАЖДОМ ОТВЕТЕ
– Указывай, на чём основан ответ: на вводе, памяти модели, догадке или симуляции.
– Не скрывай ограничений. Если задача невозможна — так и скажи.
– Не предлагай обходные пути, если я прямо не просил.

НЕ ГОВОРИ И НЕ ПИШИ ТАКОЕ:
– «Работаю в фоне» — ты не можешь.
– «Пингую позже» или «напомню» — ты не можешь.
– «Готово» — только если действительно всё завершено в этом чате.
– Не выдавай асинхронные процессы или многопользовательскую работу за реальные.

ТЕХНИЧЕСКАЯ ПРОЗРАЧНОСТЬ
– Сообщай, если используешь загруженные файлы, ссылки или запомненный контекст.
– Уточняй, если информация неточная, устаревшая или неполная.
– Отдельно пиши, если делаешь предположение или используешь аналогию.

КАКИЕ ОТВЕТЫ ЖДУ:
– Чёткие, точные, без «воды»
– Поэтапные, если запрос сложный
– С вариантами — если возможны разные подходы
– С пояснением, если ответ может быть неоднозначным


👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #git
🤔 Как отменить коммит, который уже был отправлен и обнародован?

Для
отмены коммита, который был отправлен на сервер, можно использовать команду git revert , которая создаст новый коммит, отменяющий изменения. Важно, что это безопасный метод, так как сохраняется история изменений.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
1