Machine Learning | YeaHub – Telegram
Machine Learning | YeaHub
336 subscribers
244 photos
126 videos
361 links
Теория, подготовка к интервью и курсы для ML специалистов

YeaHub — это платформа для IT-специалистов, объединяющая обучение, карьерный рост, развитие и сообщество единомышленников.

Платформа: https://yeahub.ru

Для связи: @ruslan_kuyanets
Download Telegram
#полезное
🤓 GGUF-версии GPT-OSS от Unsloth.

Unsloth конвертировали обе GPT-OSS (20B и 120B) и исправили ошибки, чтобы повысить качество инференса.

Оптимальный сетап:

🟠20B работает со скоростью более 10 токенов/с при полной точности на 14 ГБ оперативной памяти.

🟠120B с полной точностью будет давать >40 токенов/с на примерно 64 ГБ ОЗУ.

Минимальных требований для запуска моделей нет, запуститься можно даже если у вас всего 6 ГБ и только CPU, но инференс будет медленнее.

GPU не требуется , особенно для модели 20B, но его наличие значительно увеличивает скорость вывода (~80 токенов/с). С чем-то вроде H100 можно получить пропускную способность 140 токенов/с, и это значительно быстрее, чем у OpenAI в ChatGPT.

Модели можно запустить через llama.cpp, LM Studio или Open WebUI. Если модель 120B слишком медленная, попробуйте версию 20B - она очень быстрая и работает не хуже o3-mini.

Помимо моделей формата GGUF c полной точностью, Unsloth сделали версии с 4-bit и 16-bit точностью. 4-бинтый квант, кстати, можно файнтюнить на 24 ГБ VRAM.

Подробная пошаговая инструкция по локальному запуску и файнтюну - в документации Unsloth.


Набор моделей
Документация

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
#Собес #mongoDB
🤔 В чём разница между findOne() и find () в MongoDB?

Метод findone() возвращает первый документ, который соответствует запросу, в виде объекта, или null , если документов нет. Метод find() возвращает курсор, позволяющий обрабатывать один или несколько документов, удовлетворяющих запросу.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🛞 Абсолютно проклятый бенч для VLM

Визуальные модели крайне подвержены стереотипам — например, если на изображении добавить лишний палец человеку или у пумы пририсовать лишнюю ногу, модели всё равно будут отвечать как-будто бы видят оригинал, игнорируя реальные изменения в картинке. VLMBias использует отфотошопленные картинки чтобы проверить, насколько модели реально думают об их содержании, а не просто запоминают ответ.

В среднем точность на таких отретушированных изображениях падает до 17 %, причём ~76% ошибок совпадали с заранее заданным предвзятым ответом из знаний модели, а добавление в изображение названий брендов вроде Adidas делало результаты ещё хуже (а это авторы ещё не пробовали Abibas).

Чтобы выявить, когда модель полагается на заученные ассоциации вместо анализа картинки, авторы генерируют пары знакомых объектов и их слегка изменённых версий. Тестируются 7 доменов — от животных и логотипов до шахмат, флагов, оптических иллюзий и искусственно созданных паттернов.

6 из 7 категорий генерируются и модифицируются автоматически, а человек только проверяет результаты. Для редактирования обычных изображений используют Gemini Flash и GPT Image Generation, а для SVG — o4-mini. Похожий пайплайн можно легко использовать для генерации adversarial синтетических данных, чтобы натренировать LLM реально смотреть на картинки, а не прибегать к стереотипам.
vlmsarebiased.github.io

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😊 Маск обвинил Apple в нарушении антимонопольного законодательства

Поводом стало размещение в App Store — Apple отказалась добавить X и Grok от xAI в секцию “Must Have”, хотя X лидировал в новостных чартах, а Grok был близок к топу общего рейтинга.

📈 Накануне xAI сделали Grok 4 бесплатным для ограниченного числа запросов, что резко ускорило установки и подняло приложение в топ.


👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😇 Jan-v1: локальная 4B-модель для веба — опенсорсная альтернатива Perplexity Pro

Что умеет
- SimpleQA: 91% точности, чуть выше Perplexity Pro — и всё это полностью локально.
- Сценарии: быстрый веб-поиск и глубокое исследование (Deep Research).

Из чего сделана
- Базируется на Qwen3-4B-Thinking (контекст до 256k), дообучена в Jan на рассуждение и работу с инструментами.

Где запускать
- Jan, llama.cpp или vLLM.

Как включить поиск в Jan
- Settings → Experimental Features → On
- Settings → MCP Servers → включите поисковый MCP (например, Serper)

Модели
- Jan-v1-4B: https://huggingface.co/janhq/Jan-v1-4B
- Jan-v1-4B-GGUF: https://huggingface.co/janhq/Jan-v1-4B-GGUF

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#Собес #mongoDB
🤔 Как удалить документы в MongoDB?

Для удаления документов используются методы deleteOne() И deleteMany(). deleteOne() Удаляет первый документ, соответствующий условию, а deleteMany() удаляет все подходящие документы.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😬 Контекст Claude 4 Sonnet расширили до миллиона токенов

Апдейт запустили в бете для клиентов Tier 4 — это те кто купили API кредитов на $400+. Про планы на доступность расширенного контекста в подписке ничего не говорят. Но их тут никто не подгоняет — главный конкурент всё ещё умудряется давать модели с 32k токенов контекста в Plus плане за $20 в месяц, а вот на рынке API конкуренция по окну контекста куда жёстче.

Claude уже давно умеет в большие окна контекста — Claude Haiku с миллионом токенов контекста показывали ещё в Model Card Claude 3, но в релизе было доступно всего лишь 200к токенов. После этого они запустили подписку Claude Enterprise с 500k токенов контекста в прошлом сентябре.

Цена за промпты длиннее 200к токенов значительно выше — $6/$22.5 за миллион токенов, цена за промпты до 200к токенов остаётся прежней — $3/$15 за миллион токенов. GPT 4.1 остаётся единственной заметной моделью с миллионом токенов контекста, цена на которую не повышается после определённого порога.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😎 Artificial Analysis начали проверять API провайдеров на точность

Начали пока что с GPT OSS 120B, хотя такую практику стоило бы расширить и на другие модели. Тестируют модель, прогоняя несколько бенчмарков несколько раз на каждом API провайдере, при это показывают не только медианное значение, но и разброс результатов бенчмарков. Как оказалось, разница между провайдерами огромная — на AIME25 худший провайдер уступает лучшему на 15 процентных пунктов.

Хуже всех себя показали Azure, AWS и Nebius, хотя, казалось бы, у триллионных компаний должны быть ресурсы на контроль качества. А вот лучше всех себя показали инференс стартапы — Fireworks, Novita и DeepInfra. Cerebras даёт лучшие результаты на AIME25, но на GPQA и IFBench заметно просаживаются.

Такой разброс может быть результатом как багов в софте, так и незадокументированных изменений в процессе инференса, вроде квантизации. Инференс LLM всё же крайне сложное дело — мелкие неточности в подсчётах могут крайне сильно повлиять на результаты, особенно если речь идёт о fp8 инференсе. Поэтому независимые и стандартизированные бенчи настолько важны. Ну а Artificial Analysis стоит подумать, как убедится что провайдеры не используют практики Volkswagen.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Какова роль поля _id в документе MongoDB и можно ли его кастомизировать?

Поле _id - это уникальный идентификатор каждого документа в коллекции MongoDB, автоматически создаваемый при вставке данных. Оно гарантирует уникальность документа и используется как первичный ключ. Поле _id можно кастомизировать, указав собственное значение, главное - сохранить его уникальность.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😅 Tencent выложили веса своего нейронного игрового движка.

Hunyuan Gamecraft можно запустить на 4090, он может генерировать видео в 720p и хорошо запоминает контекст сцены.

Так как моделька основана на Hunyuan Video, в квантизированном виде она запускается на 4090. К сожалению, работать быстро она там вряд-ли будет — дистиллированная в Phased Consistency Model версия модели выдаёт 6 FPS на гораздо более мощной H100. Но оптимизации инференса порой творят чудеса, так что посмотрим что с моделью натворят умельцы.

Genie 3 хорошо так поднял внимание к world models, у нас уже второй открытый релиз на этой неделе, хотя обычно в этой нише открытые релизы крайне редки. Интересно, как будет выглядеть первый успешный коммерческий продукт на основе таких моделей.

Веса
Код
Пейпер
Сайт проекта

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
👨‍💻 Imagen 4, SOTA txt2img модель от Google, появилась в официальном API

На Artificial Analysis Image Arena Leaderboard модель пока сидит на 3м месте, при этом ultra версия уже успела занять топ-1 на арене от LMSYS.

Цены: $60/$40/$20 за 1000 изображений для режимов Ultra, Standard и Fast соответственно. В режиме Fast картинка генерируется за пару секунд. В Ultra, даже в разрешении 2K, — около 20 секунд, что в разы быстрее той же GPT. Но, к сожалению, без редактирования текстом

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
📞 Project Odyssey Season 3

Открылась регистрация на 3-й сезон самого масштабного конкурса AI-фильмов.

Если вы AI-кинодел, то вам точно стоит поучаствовать в этом конкурсе. Хотя, судя по всему, конкуренция там уже такая, что без бэкграунда в кино не обойтись. Финалисты работают большими командами с режиссёрами, креативными директорами и монтажёрами с опытом в моушен-графике для ретуши артефактов.

Но даже если шансов победить не так много, к этому стоит присоединиться хотя бы ради халявы. В прошлый раз раздавали подписки и токены чуть ли не на всё подряд. Хоть и в ограниченных количествах, бюджет видео в среднем составил 200 баксов только на токены, боюсь представить сколько выйдет сейчас, когда все получили доступ к VEO 3.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Что такое агрегирующая структура в MongoDB?

Агрегирующая структура в MongoDB - это мощный инструмент для обработки данных внутри коллекции. Она работает через "конвейер" (pipeline), где данные проходят через несколько этапов, таких как фильтрация, группировка, сортировка, и преобразование, чтобы получить сложные результаты.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
❤️‍🔥 Tencent Hunyuan только что выкатили AutoCodeBench — мощный open-source инструмент для проверки способностей ИИ в генерации кода.

Что внутри?
🟠 AutoCodeGen — генерация многоязычных датасетов кода без ручной разметки
🟠 AutoCodeBench — почти 4 000 сложных задач на 20 языках программирования (версии Full / Lite / Complete)
🟠 MultiLanguageSandbox — песочница для работы с поддержкой 30+ языков

C AutoCodeBench можно быстро тестировать LLM в кодинге, сравнивать модели и даже создавать свои бенчмарки.

🟠Статья: arxiv.org/abs/2508.09101
🟠Код: github.com/Tencent-Hunyuan/AutoCodeBenchmark
🟠Датасет: huggingface.co/datasets/tencent/AutoCodeBenchmark

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
🤯 DeepSeek V3.1

Очередной апдейт V3 линейки, на той же архитектуре, но на этот раз апдейтнули и base модель. Похоже модель гибридная — ризонер и инстракт в одном флаконе.

Заметного прироста в интеллекте не замечено, но модель теперь тратит в разы меньше токенов. Это крайне полезно В чём-то релиз по духу похож на DeepSeek V2.5, вышедшего почти год назад — тогда линейку DeepSeek Coder смержили в основную. Так что есть нехилые шансы что свидетели релиза R2 его так и не дождутся.

Пока ждём пейпера, анонса и окончательного релиза весов, модель уже можно попробовать в чате.

chat.deepseek.com

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Как найти документы в MongoDB?

Для поиска документов в MongoDB используется метод find() . Он позволяет получать как все документы, так и те, которые соответствуют определённым условиям. Например, db.collectionName.find({}) вернёт все документы в коллекции, а добавление фильтра позволяет найти только подходящие документы.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🏠 Детали DeepSeek V3.1

Самый сильный прирост заметен в агентных бенчах и использованию инструментов. Это гибридная модель, где можно включать и выключать ризонинг. Инстракт режим модели заметно вырос по бенчам по сравнению с V3-0324. А вот прироста у ризонинг режима по сравнению с R1-0528 нет, но ризонинг теперь использует заметно меньше токенов при том же качестве.

Обновили и Base модель для лучшей работы с длинным контекстом — в 10 раз увеличили context extension с 32к токенов и в 3 раза с 128к токенов. Кроме этого модель тренировали в формате совместимом с mxfp8 и mxfp4, которые добавили в Blackwell.

С этим релизом обновили и официальное API — добавили режим совместимый с API Anthropic, так что туда теперь можно подключаться с Claude Code. Длину контекста в API расширили до 128к, плюс начали тестить улучшения для function calling.

Кроме этого с 5 сентября (16:00 UTC) в официальном API будет действовать новый прайсинг — убирают ночные (по китайскому времени) скидки и разницу в прайсинге между ризонинг и инстракт режимами. Новая цена за аутпут — $1.68 за миллион токенов (сейчас $1.1 за инстракт режим и $2.19 за ризонинг). Инпут токены стоят $0.07/миллион если они уже есть в кэше и $0.56 при промахе мимо кэша.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1