Machine Learning | YeaHub – Telegram
Machine Learning | YeaHub
336 subscribers
244 photos
126 videos
361 links
Теория, подготовка к интервью и курсы для ML специалистов

YeaHub — это платформа для IT-специалистов, объединяющая обучение, карьерный рост, развитие и сообщество единомышленников.

Платформа: https://yeahub.ru

Для связи: @ruslan_kuyanets
Download Telegram
#Собес #mongoDB
🤔 Как выполнить поиск без учета регистра в MongoDB?

Для поиска без учета регистра в MongoDB используется оператор Sregex в сочетании с опцией
soptions, установленной в "i". Это позволяет искать значения, игнорируя различия между заглавными и
строчными буквами. Пример запроса:
db.collectionName.find([field: Sregex: "searchTerm", Soptions: "i" ] |)


👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😊 Обновлённый Qwen 30B-A3B Instruct

Влезающая в одну видеокарту MoE модель с 256к контекста, по многим бенчам обгоняет DeepSeek V3-0324 и GPT 4o-0327. Это не гибридная модель, ризонинг версию выкатят чуть позже. Боюсь представить какие там будут результаты, если обычный Instruct так сильно всё рвёт.
Веса


👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Что такое агрегация в MongoDB и зачем она нужна?

Агрегация в MongoDB - это процесс обработки данных с использованием конвейера (pipeline), где данные проходят через последовательность этапов для фильтрации, группировки и преобразования. Она используется для выполнения сложных аналитических операций.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#полезное
😴 Microsoft — стала второй компанией в истории с капитализацией $4 триллиона

Microsoft выросла до $4 трлн не за счёт Windows, а благодаря облакам и ИИ.

Azure строили 10 лет. Сегодня она:
— на втором месте после AWS
— обгоняет Google Cloud по выручке
— питает всё: от Office и Xbox до Copilot и генеративных моделей

Каждый продукт — это ещё один повод платить за облако. Всё работает на одной инфраструктуре.

Satya Nadella (генеральный директор (CEO) компании Microsoft уже выделил $80 млрд на новые дата-центры.

Ставка очевидна: весь Microsoft переезжает в облако.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
👋 Gemini Deep Think завезли в Ultra подписку

Оптимизированная версия модели, выигравшей золото на IMO. Она сама по себе способна получить бронзу, а доступ к полноценной модели дали ряду математиков. Работает она примерно как o3 Pro — запускает несколько параллельных потоков рассуждения и потом комбинирует результаты.

Модель разваливает Grok 4 и o3 без тулюза на Humanity's Last Exam и прочих бенчах. Не дают доступа к внешним инструментам чтобы сравнить модели в одинаковых условиях, тем не менее Deep Think умеет выполнять код и пользоваться поиском.

Если не помните, Google AI Ultra — это максимальный тир ИИ подписки от Google. Он более дорогой чем ChatGPT Pro или Claude Max — $250, но в подписку, кроме Veo 3 и продвинутой Gemini, входит ещё и 30 терабайт на Google Drive. На первые три месяца делают 50% скидку.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Как ограничить количество возвращаемых документов в MongoDB?

Метод limit() позволяет ограничить количество документов, возвращаемых запросом. Вы передаёте в него число, указывающее максимальное количество возвращаемых документов.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
👨‍💻 GPT-OSS 120B выдаёт 3000 токенов в секунду на Cerebras

Цены не заоблачные — $0.25/$0.69 за миллион токенов, это дороже чем у GPU провайдеров, но в десятки раз быстрее. Groq тоже запустили у себя эту модель, но результаты менее впечатляющие — 500 токенов в секунду для 120B ($0.15/$0.75 за миллион токенов) и 1000 токенов в секунду для 20B ($0.1/$0.5 за миллион).

inference.cerebras.ai

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😐 Ничего необычного, просто исследователи из Google обнаружили что Genie 3 может эмулировать саму себя внутри симуляции. Заметьте, как картинка на экране ноутбука и на телевизоре синхронизируется.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
1
#Собес #mongoDB
🤔 Что такое курсор в MongoDB и как он используется?

Курсор в MongoDB - это объект, возвращаемый методами вроде find() , который позволяет итерировать по результатам запроса. Вместо возврата всех документов сразу, курсор загружает их по мере необходимости, что удобно для обработки больших наборов данных.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
1
#полезное
😘 Agent Lightning — ускоритель обучения для ИИ-агентов от Microsoft

Agent Lightning — это фреймворк для обучения и оптимизации LLM-агентов с помощью Reinforcement Learning без изменения их кода.

Поддерживает:
• LangChain
• AutoGen
• OpenAI Agents SDK
• и другие фреймворки на Python

Как он работает:
🔵 Агент не нужно переписывать — он подключается как есть
🔵 Вся его работа разбивается на отдельные шаги (эпизоды), которые можно анализировать
🔵 Специальный алгоритм LightningRL оценивает, какие действия были полезны, а какие — нет
🔵 Система может учитывать не только финальный результат, но и промежуточные сигналы (награды)
🔵 Эти данные автоматически собираются и используются для дообучения агента


Преимущества:

• Не требует модификации логики агента
• Можно легко подключить к существующим пайплайнам
• Улучшает точность и устойчивость в сложных задачах: от генерации кода до Text-to-SQL

Отличный инструмент для всех, кто хочет сделать своих LLM-агентов.

🟠Проект: https://microsoft.com/en-us/research/project/agent-lightning/
🟠Статья: https://arxiv.org/abs/2508.03680
🟠Github: https://github.com/microsoft/agent-lightning

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
1
#полезное
😎 Polymarket совершенно чудесно реагирует на презентацию OpenAI

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🤓 GGUF-версии GPT-OSS от Unsloth.

Unsloth конвертировали обе GPT-OSS (20B и 120B) и исправили ошибки, чтобы повысить качество инференса.

Оптимальный сетап:

🟠20B работает со скоростью более 10 токенов/с при полной точности на 14 ГБ оперативной памяти.

🟠120B с полной точностью будет давать >40 токенов/с на примерно 64 ГБ ОЗУ.

Минимальных требований для запуска моделей нет, запуститься можно даже если у вас всего 6 ГБ и только CPU, но инференс будет медленнее.

GPU не требуется , особенно для модели 20B, но его наличие значительно увеличивает скорость вывода (~80 токенов/с). С чем-то вроде H100 можно получить пропускную способность 140 токенов/с, и это значительно быстрее, чем у OpenAI в ChatGPT.

Модели можно запустить через llama.cpp, LM Studio или Open WebUI. Если модель 120B слишком медленная, попробуйте версию 20B - она очень быстрая и работает не хуже o3-mini.

Помимо моделей формата GGUF c полной точностью, Unsloth сделали версии с 4-bit и 16-bit точностью. 4-бинтый квант, кстати, можно файнтюнить на 24 ГБ VRAM.

Подробная пошаговая инструкция по локальному запуску и файнтюну - в документации Unsloth.


Набор моделей
Документация

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
#Собес #mongoDB
🤔 В чём разница между findOne() и find () в MongoDB?

Метод findone() возвращает первый документ, который соответствует запросу, в виде объекта, или null , если документов нет. Метод find() возвращает курсор, позволяющий обрабатывать один или несколько документов, удовлетворяющих запросу.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🛞 Абсолютно проклятый бенч для VLM

Визуальные модели крайне подвержены стереотипам — например, если на изображении добавить лишний палец человеку или у пумы пририсовать лишнюю ногу, модели всё равно будут отвечать как-будто бы видят оригинал, игнорируя реальные изменения в картинке. VLMBias использует отфотошопленные картинки чтобы проверить, насколько модели реально думают об их содержании, а не просто запоминают ответ.

В среднем точность на таких отретушированных изображениях падает до 17 %, причём ~76% ошибок совпадали с заранее заданным предвзятым ответом из знаний модели, а добавление в изображение названий брендов вроде Adidas делало результаты ещё хуже (а это авторы ещё не пробовали Abibas).

Чтобы выявить, когда модель полагается на заученные ассоциации вместо анализа картинки, авторы генерируют пары знакомых объектов и их слегка изменённых версий. Тестируются 7 доменов — от животных и логотипов до шахмат, флагов, оптических иллюзий и искусственно созданных паттернов.

6 из 7 категорий генерируются и модифицируются автоматически, а человек только проверяет результаты. Для редактирования обычных изображений используют Gemini Flash и GPT Image Generation, а для SVG — o4-mini. Похожий пайплайн можно легко использовать для генерации adversarial синтетических данных, чтобы натренировать LLM реально смотреть на картинки, а не прибегать к стереотипам.
vlmsarebiased.github.io

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😊 Маск обвинил Apple в нарушении антимонопольного законодательства

Поводом стало размещение в App Store — Apple отказалась добавить X и Grok от xAI в секцию “Must Have”, хотя X лидировал в новостных чартах, а Grok был близок к топу общего рейтинга.

📈 Накануне xAI сделали Grok 4 бесплатным для ограниченного числа запросов, что резко ускорило установки и подняло приложение в топ.


👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😇 Jan-v1: локальная 4B-модель для веба — опенсорсная альтернатива Perplexity Pro

Что умеет
- SimpleQA: 91% точности, чуть выше Perplexity Pro — и всё это полностью локально.
- Сценарии: быстрый веб-поиск и глубокое исследование (Deep Research).

Из чего сделана
- Базируется на Qwen3-4B-Thinking (контекст до 256k), дообучена в Jan на рассуждение и работу с инструментами.

Где запускать
- Jan, llama.cpp или vLLM.

Как включить поиск в Jan
- Settings → Experimental Features → On
- Settings → MCP Servers → включите поисковый MCP (например, Serper)

Модели
- Jan-v1-4B: https://huggingface.co/janhq/Jan-v1-4B
- Jan-v1-4B-GGUF: https://huggingface.co/janhq/Jan-v1-4B-GGUF

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#Собес #mongoDB
🤔 Как удалить документы в MongoDB?

Для удаления документов используются методы deleteOne() И deleteMany(). deleteOne() Удаляет первый документ, соответствующий условию, а deleteMany() удаляет все подходящие документы.

👉Новости 👉Платформа
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😬 Контекст Claude 4 Sonnet расширили до миллиона токенов

Апдейт запустили в бете для клиентов Tier 4 — это те кто купили API кредитов на $400+. Про планы на доступность расширенного контекста в подписке ничего не говорят. Но их тут никто не подгоняет — главный конкурент всё ещё умудряется давать модели с 32k токенов контекста в Plus плане за $20 в месяц, а вот на рынке API конкуренция по окну контекста куда жёстче.

Claude уже давно умеет в большие окна контекста — Claude Haiku с миллионом токенов контекста показывали ещё в Model Card Claude 3, но в релизе было доступно всего лишь 200к токенов. После этого они запустили подписку Claude Enterprise с 500k токенов контекста в прошлом сентябре.

Цена за промпты длиннее 200к токенов значительно выше — $6/$22.5 за миллион токенов, цена за промпты до 200к токенов остаётся прежней — $3/$15 за миллион токенов. GPT 4.1 остаётся единственной заметной моделью с миллионом токенов контекста, цена на которую не повышается после определённого порога.

👉Новости 👉База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM