Machine Learning | YeaHub – Telegram
Machine Learning | YeaHub
336 subscribers
244 photos
126 videos
361 links
Теория, подготовка к интервью и курсы для ML специалистов

YeaHub — это платформа для IT-специалистов, объединяющая обучение, карьерный рост, развитие и сообщество единомышленников.

Платформа: https://yeahub.ru

Для связи: @ruslan_kuyanets
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😇 Jan-v1: локальная 4B-модель для веба — опенсорсная альтернатива Perplexity Pro

Что умеет
- SimpleQA: 91% точности, чуть выше Perplexity Pro — и всё это полностью локально.
- Сценарии: быстрый веб-поиск и глубокое исследование (Deep Research).

Из чего сделана
- Базируется на Qwen3-4B-Thinking (контекст до 256k), дообучена в Jan на рассуждение и работу с инструментами.

Где запускать
- Jan, llama.cpp или vLLM.

Как включить поиск в Jan
- Settings → Experimental Features → On
- Settings → MCP Servers → включите поисковый MCP (например, Serper)

Модели
- Jan-v1-4B: https://huggingface.co/janhq/Jan-v1-4B
- Jan-v1-4B-GGUF: https://huggingface.co/janhq/Jan-v1-4B-GGUF

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#Собес #mongoDB
🤔 Как удалить документы в MongoDB?

Для удаления документов используются методы deleteOne() И deleteMany(). deleteOne() Удаляет первый документ, соответствующий условию, а deleteMany() удаляет все подходящие документы.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😬 Контекст Claude 4 Sonnet расширили до миллиона токенов

Апдейт запустили в бете для клиентов Tier 4 — это те кто купили API кредитов на $400+. Про планы на доступность расширенного контекста в подписке ничего не говорят. Но их тут никто не подгоняет — главный конкурент всё ещё умудряется давать модели с 32k токенов контекста в Plus плане за $20 в месяц, а вот на рынке API конкуренция по окну контекста куда жёстче.

Claude уже давно умеет в большие окна контекста — Claude Haiku с миллионом токенов контекста показывали ещё в Model Card Claude 3, но в релизе было доступно всего лишь 200к токенов. После этого они запустили подписку Claude Enterprise с 500k токенов контекста в прошлом сентябре.

Цена за промпты длиннее 200к токенов значительно выше — $6/$22.5 за миллион токенов, цена за промпты до 200к токенов остаётся прежней — $3/$15 за миллион токенов. GPT 4.1 остаётся единственной заметной моделью с миллионом токенов контекста, цена на которую не повышается после определённого порога.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😎 Artificial Analysis начали проверять API провайдеров на точность

Начали пока что с GPT OSS 120B, хотя такую практику стоило бы расширить и на другие модели. Тестируют модель, прогоняя несколько бенчмарков несколько раз на каждом API провайдере, при это показывают не только медианное значение, но и разброс результатов бенчмарков. Как оказалось, разница между провайдерами огромная — на AIME25 худший провайдер уступает лучшему на 15 процентных пунктов.

Хуже всех себя показали Azure, AWS и Nebius, хотя, казалось бы, у триллионных компаний должны быть ресурсы на контроль качества. А вот лучше всех себя показали инференс стартапы — Fireworks, Novita и DeepInfra. Cerebras даёт лучшие результаты на AIME25, но на GPQA и IFBench заметно просаживаются.

Такой разброс может быть результатом как багов в софте, так и незадокументированных изменений в процессе инференса, вроде квантизации. Инференс LLM всё же крайне сложное дело — мелкие неточности в подсчётах могут крайне сильно повлиять на результаты, особенно если речь идёт о fp8 инференсе. Поэтому независимые и стандартизированные бенчи настолько важны. Ну а Artificial Analysis стоит подумать, как убедится что провайдеры не используют практики Volkswagen.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Какова роль поля _id в документе MongoDB и можно ли его кастомизировать?

Поле _id - это уникальный идентификатор каждого документа в коллекции MongoDB, автоматически создаваемый при вставке данных. Оно гарантирует уникальность документа и используется как первичный ключ. Поле _id можно кастомизировать, указав собственное значение, главное - сохранить его уникальность.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😅 Tencent выложили веса своего нейронного игрового движка.

Hunyuan Gamecraft можно запустить на 4090, он может генерировать видео в 720p и хорошо запоминает контекст сцены.

Так как моделька основана на Hunyuan Video, в квантизированном виде она запускается на 4090. К сожалению, работать быстро она там вряд-ли будет — дистиллированная в Phased Consistency Model версия модели выдаёт 6 FPS на гораздо более мощной H100. Но оптимизации инференса порой творят чудеса, так что посмотрим что с моделью натворят умельцы.

Genie 3 хорошо так поднял внимание к world models, у нас уже второй открытый релиз на этой неделе, хотя обычно в этой нише открытые релизы крайне редки. Интересно, как будет выглядеть первый успешный коммерческий продукт на основе таких моделей.

Веса
Код
Пейпер
Сайт проекта

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
👨‍💻 Imagen 4, SOTA txt2img модель от Google, появилась в официальном API

На Artificial Analysis Image Arena Leaderboard модель пока сидит на 3м месте, при этом ultra версия уже успела занять топ-1 на арене от LMSYS.

Цены: $60/$40/$20 за 1000 изображений для режимов Ultra, Standard и Fast соответственно. В режиме Fast картинка генерируется за пару секунд. В Ultra, даже в разрешении 2K, — около 20 секунд, что в разы быстрее той же GPT. Но, к сожалению, без редактирования текстом

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
📞 Project Odyssey Season 3

Открылась регистрация на 3-й сезон самого масштабного конкурса AI-фильмов.

Если вы AI-кинодел, то вам точно стоит поучаствовать в этом конкурсе. Хотя, судя по всему, конкуренция там уже такая, что без бэкграунда в кино не обойтись. Финалисты работают большими командами с режиссёрами, креативными директорами и монтажёрами с опытом в моушен-графике для ретуши артефактов.

Но даже если шансов победить не так много, к этому стоит присоединиться хотя бы ради халявы. В прошлый раз раздавали подписки и токены чуть ли не на всё подряд. Хоть и в ограниченных количествах, бюджет видео в среднем составил 200 баксов только на токены, боюсь представить сколько выйдет сейчас, когда все получили доступ к VEO 3.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Что такое агрегирующая структура в MongoDB?

Агрегирующая структура в MongoDB - это мощный инструмент для обработки данных внутри коллекции. Она работает через "конвейер" (pipeline), где данные проходят через несколько этапов, таких как фильтрация, группировка, сортировка, и преобразование, чтобы получить сложные результаты.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
❤️‍🔥 Tencent Hunyuan только что выкатили AutoCodeBench — мощный open-source инструмент для проверки способностей ИИ в генерации кода.

Что внутри?
🟠 AutoCodeGen — генерация многоязычных датасетов кода без ручной разметки
🟠 AutoCodeBench — почти 4 000 сложных задач на 20 языках программирования (версии Full / Lite / Complete)
🟠 MultiLanguageSandbox — песочница для работы с поддержкой 30+ языков

C AutoCodeBench можно быстро тестировать LLM в кодинге, сравнивать модели и даже создавать свои бенчмарки.

🟠Статья: arxiv.org/abs/2508.09101
🟠Код: github.com/Tencent-Hunyuan/AutoCodeBenchmark
🟠Датасет: huggingface.co/datasets/tencent/AutoCodeBenchmark

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
🤯 DeepSeek V3.1

Очередной апдейт V3 линейки, на той же архитектуре, но на этот раз апдейтнули и base модель. Похоже модель гибридная — ризонер и инстракт в одном флаконе.

Заметного прироста в интеллекте не замечено, но модель теперь тратит в разы меньше токенов. Это крайне полезно В чём-то релиз по духу похож на DeepSeek V2.5, вышедшего почти год назад — тогда линейку DeepSeek Coder смержили в основную. Так что есть нехилые шансы что свидетели релиза R2 его так и не дождутся.

Пока ждём пейпера, анонса и окончательного релиза весов, модель уже можно попробовать в чате.

chat.deepseek.com

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Как найти документы в MongoDB?

Для поиска документов в MongoDB используется метод find() . Он позволяет получать как все документы, так и те, которые соответствуют определённым условиям. Например, db.collectionName.find({}) вернёт все документы в коллекции, а добавление фильтра позволяет найти только подходящие документы.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🏠 Детали DeepSeek V3.1

Самый сильный прирост заметен в агентных бенчах и использованию инструментов. Это гибридная модель, где можно включать и выключать ризонинг. Инстракт режим модели заметно вырос по бенчам по сравнению с V3-0324. А вот прироста у ризонинг режима по сравнению с R1-0528 нет, но ризонинг теперь использует заметно меньше токенов при том же качестве.

Обновили и Base модель для лучшей работы с длинным контекстом — в 10 раз увеличили context extension с 32к токенов и в 3 раза с 128к токенов. Кроме этого модель тренировали в формате совместимом с mxfp8 и mxfp4, которые добавили в Blackwell.

С этим релизом обновили и официальное API — добавили режим совместимый с API Anthropic, так что туда теперь можно подключаться с Claude Code. Длину контекста в API расширили до 128к, плюс начали тестить улучшения для function calling.

Кроме этого с 5 сентября (16:00 UTC) в официальном API будет действовать новый прайсинг — убирают ночные (по китайскому времени) скидки и разницу в прайсинге между ризонинг и инстракт режимами. Новая цена за аутпут — $1.68 за миллион токенов (сейчас $1.1 за инстракт режим и $2.19 за ризонинг). Инпут токены стоят $0.07/миллион если они уже есть в кэше и $0.56 при промахе мимо кэша.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
#полезное
🛞Фей-Фей Ли хвастается world model своего стартапа — World Labs

Для генерации всего мира понадобилась всего лишь одна картинка, причём по видео видно что консистентность на высоте — модель не забывает детали локации как только пользователь отвернулся. Ну и длина генерации не ограничена.

Все потому что это не традиционная генерация, основанная на видео диффузии, а на гаусовских сплатах

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
#Собес #mongoDB
🤔 Что такое первичный ключ в MongoDB?

Первичный ключ в MongoDB - это уникальный идентификатор для каждого документа в коллекции. MongoDB автоматически создает поле _id как первичный ключ, которое может использоваться для быстрого поиска документов.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
1
#полезное
🤯 Оказалось Codex CLI теперь включён в подписку ChatGPT

Codex CLI теперь доступен подписчикам ChatGPT Plus, Pro и Team. Ранее в подписке была доступна лишь веб версия, которая сильно проигрывала по юзабельности и качеству кода чуть ли не всем конкурентам. Лимиты сбрасываются каждые пять часов и есть общий лимит, который сбрасывается раз в неделю. В туле доступна GPT-5 и можно регулировать уровень ризонинга. Уровень Codex как CLI инструмента не дотягивает до Claude Code, но, судя по отзывам, качество работы которую делает Codex — лучше.

npm install -g @openai/codex
codex
codex -m gpt-5 -c model_reasoning_effort="high"


👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
1