#полезное
👋 Gemini Deep Think завезли в Ultra подписку
Оптимизированная версия модели, выигравшей золото на IMO. Она сама по себе способна получить бронзу, а доступ к полноценной модели дали ряду математиков. Работает она примерно как o3 Pro — запускает несколько параллельных потоков рассуждения и потом комбинирует результаты.
Модель разваливает Grok 4 и o3 без тулюза на Humanity's Last Exam и прочих бенчах. Не дают доступа к внешним инструментам чтобы сравнить модели в одинаковых условиях, тем не менее Deep Think умеет выполнять код и пользоваться поиском.
Если не помните, Google AI Ultra — это максимальный тир ИИ подписки от Google. Он более дорогой чем ChatGPT Pro или Claude Max — $250, но в подписку, кроме Veo 3 и продвинутой Gemini, входит ещё и 30 терабайт на Google Drive. На первые три месяца делают 50% скидку.
👉 Новости 👉 База вопросов
Оптимизированная версия модели, выигравшей золото на IMO. Она сама по себе способна получить бронзу, а доступ к полноценной модели дали ряду математиков. Работает она примерно как o3 Pro — запускает несколько параллельных потоков рассуждения и потом комбинирует результаты.
Модель разваливает Grok 4 и o3 без тулюза на Humanity's Last Exam и прочих бенчах. Не дают доступа к внешним инструментам чтобы сравнить модели в одинаковых условиях, тем не менее Deep Think умеет выполнять код и пользоваться поиском.
Если не помните, Google AI Ultra — это максимальный тир ИИ подписки от Google. Он более дорогой чем ChatGPT Pro или Claude Max — $250, но в подписку, кроме Veo 3 и продвинутой Gemini, входит ещё и 30 терабайт на Google Drive. На первые три месяца делают 50% скидку.
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Как ограничить количество возвращаемых документов в MongoDB?
Метод
👉 Новости 👉 Платформа
Метод
limit() позволяет ограничить количество документов, возвращаемых запросом. Вы передаёте в него число, указывающее максимальное количество возвращаемых документов.Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
👨💻 GPT-OSS 120B выдаёт 3000 токенов в секунду на Cerebras
Цены не заоблачные — $0.25/$0.69 за миллион токенов, это дороже чем у GPU провайдеров, но в десятки раз быстрее. Groq тоже запустили у себя эту модель, но результаты менее впечатляющие — 500 токенов в секунду для 120B ($0.15/$0.75 за миллион токенов) и 1000 токенов в секунду для 20B ($0.1/$0.5 за миллион).
inference.cerebras.ai
👉 Новости 👉 База вопросов
Цены не заоблачные — $0.25/$0.69 за миллион токенов, это дороже чем у GPU провайдеров, но в десятки раз быстрее. Groq тоже запустили у себя эту модель, но результаты менее впечатляющие — 500 токенов в секунду для 120B ($0.15/$0.75 за миллион токенов) и 1000 токенов в секунду для 20B ($0.1/$0.5 за миллион).
inference.cerebras.ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😐 Ничего необычного, просто исследователи из Google обнаружили что Genie 3 может эмулировать саму себя внутри симуляции. Заметьте, как картинка на экране ноутбука и на телевизоре синхронизируется.
👉 Новости 👉 База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#Собес #mongoDB
🤔 Что такое курсор в MongoDB и как он используется?
Курсор в MongoDB - это объект, возвращаемый методами вроде
👉 Новости 👉 Платформа
Курсор в MongoDB - это объект, возвращаемый методами вроде
find() , который позволяет итерировать по результатам запроса. Вместо возврата всех документов сразу, курсор загружает их по мере необходимости, что удобно для обработки больших наборов данных.Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#полезное
😘 Agent Lightning — ускоритель обучения для ИИ-агентов от Microsoft
Agent Lightning — это фреймворк для обучения и оптимизации LLM-агентов с помощью Reinforcement Learning без изменения их кода.
Поддерживает:
• LangChain
• AutoGen
• OpenAI Agents SDK
• и другие фреймворки на Python
Как он работает:
🔵 Агент не нужно переписывать — он подключается как есть
🔵 Вся его работа разбивается на отдельные шаги (эпизоды), которые можно анализировать
🔵 Специальный алгоритм LightningRL оценивает, какие действия были полезны, а какие — нет
🔵 Система может учитывать не только финальный результат, но и промежуточные сигналы (награды)
🔵 Эти данные автоматически собираются и используются для дообучения агента
Преимущества:
• Не требует модификации логики агента
• Можно легко подключить к существующим пайплайнам
• Улучшает точность и устойчивость в сложных задачах: от генерации кода до Text-to-SQL
Отличный инструмент для всех, кто хочет сделать своих LLM-агентов.
🟠 Проект: https://microsoft.com/en-us/research/project/agent-lightning/
🟠 Статья: https://arxiv.org/abs/2508.03680
🟠 Github: https://github.com/microsoft/agent-lightning
👉 Новости 👉 База вопросов
Agent Lightning — это фреймворк для обучения и оптимизации LLM-агентов с помощью Reinforcement Learning без изменения их кода.
Поддерживает:
• LangChain
• AutoGen
• OpenAI Agents SDK
• и другие фреймворки на Python
Как он работает:
Преимущества:
• Не требует модификации логики агента
• Можно легко подключить к существующим пайплайнам
• Улучшает точность и устойчивость в сложных задачах: от генерации кода до Text-to-SQL
Отличный инструмент для всех, кто хочет сделать своих LLM-агентов.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🤓 GGUF-версии GPT-OSS от Unsloth.
Unsloth конвертировали обе GPT-OSS (20B и 120B) и исправили ошибки, чтобы повысить качество инференса.
Оптимальный сетап:
🟠 20B работает со скоростью более 10 токенов/с при полной точности на 14 ГБ оперативной памяти.
🟠 120B с полной точностью будет давать >40 токенов/с на примерно 64 ГБ ОЗУ.
Минимальных требований для запуска моделей нет, запуститься можно даже если у вас всего 6 ГБ и только CPU, но инференс будет медленнее.
GPU не требуется , особенно для модели 20B, но его наличие значительно увеличивает скорость вывода (~80 токенов/с). С чем-то вроде H100 можно получить пропускную способность 140 токенов/с, и это значительно быстрее, чем у OpenAI в ChatGPT.
Модели можно запустить через llama.cpp, LM Studio или Open WebUI. Если модель 120B слишком медленная, попробуйте версию 20B - она очень быстрая и работает не хуже o3-mini.
Помимо моделей формата GGUF c полной точностью, Unsloth сделали версии с 4-bit и 16-bit точностью. 4-бинтый квант, кстати, можно файнтюнить на 24 ГБ VRAM.
Подробная пошаговая инструкция по локальному запуску и файнтюну - в документации Unsloth.
Набор моделей
Документация
👉 Новости 👉 База вопросов
Unsloth конвертировали обе GPT-OSS (20B и 120B) и исправили ошибки, чтобы повысить качество инференса.
Оптимальный сетап:
Минимальных требований для запуска моделей нет, запуститься можно даже если у вас всего 6 ГБ и только CPU, но инференс будет медленнее.
GPU не требуется , особенно для модели 20B, но его наличие значительно увеличивает скорость вывода (~80 токенов/с). С чем-то вроде H100 можно получить пропускную способность 140 токенов/с, и это значительно быстрее, чем у OpenAI в ChatGPT.
Модели можно запустить через llama.cpp, LM Studio или Open WebUI. Если модель 120B слишком медленная, попробуйте версию 20B - она очень быстрая и работает не хуже o3-mini.
Помимо моделей формата GGUF c полной точностью, Unsloth сделали версии с 4-bit и 16-bit точностью. 4-бинтый квант, кстати, можно файнтюнить на 24 ГБ VRAM.
Подробная пошаговая инструкция по локальному запуску и файнтюну - в документации Unsloth.
Набор моделей
Документация
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
#Собес #mongoDB
🤔 В чём разница между findOne() и find () в MongoDB?
Метод
👉 Новости 👉 Платформа
Метод
findone() возвращает первый документ, который соответствует запросу, в виде объекта, или null , если документов нет. Метод find() возвращает курсор, позволяющий обрабатывать один или несколько документов, удовлетворяющих запросу.Please open Telegram to view this post
VIEW IN TELEGRAM
YeaHub
YeaHub — тренажер собеседований по IT
5000+ вопросов для подготовки к интервью. Фильтры, квизы, статистика!
#полезное
🛞 Абсолютно проклятый бенч для VLM
Визуальные модели крайне подвержены стереотипам — например, если на изображении добавить лишний палец человеку или у пумы пририсовать лишнюю ногу, модели всё равно будут отвечать как-будто бы видят оригинал, игнорируя реальные изменения в картинке. VLMBias использует отфотошопленные картинки чтобы проверить, насколько модели реально думают об их содержании, а не просто запоминают ответ.
В среднем точность на таких отретушированных изображениях падает до 17 %, причём ~76% ошибок совпадали с заранее заданным предвзятым ответом из знаний модели, а добавление в изображение названий брендов вроде Adidas делало результаты ещё хуже (а это авторы ещё не пробовали Abibas).
Чтобы выявить, когда модель полагается на заученные ассоциации вместо анализа картинки, авторы генерируют пары знакомых объектов и их слегка изменённых версий. Тестируются 7 доменов — от животных и логотипов до шахмат, флагов, оптических иллюзий и искусственно созданных паттернов.
6 из 7 категорий генерируются и модифицируются автоматически, а человек только проверяет результаты. Для редактирования обычных изображений используют Gemini Flash и GPT Image Generation, а для SVG — o4-mini. Похожий пайплайн можно легко использовать для генерации adversarial синтетических данных, чтобы натренировать LLM реально смотреть на картинки, а не прибегать к стереотипам.
vlmsarebiased.github.io
👉 Новости 👉 База вопросов
Визуальные модели крайне подвержены стереотипам — например, если на изображении добавить лишний палец человеку или у пумы пририсовать лишнюю ногу, модели всё равно будут отвечать как-будто бы видят оригинал, игнорируя реальные изменения в картинке. VLMBias использует отфотошопленные картинки чтобы проверить, насколько модели реально думают об их содержании, а не просто запоминают ответ.
В среднем точность на таких отретушированных изображениях падает до 17 %, причём ~76% ошибок совпадали с заранее заданным предвзятым ответом из знаний модели, а добавление в изображение названий брендов вроде Adidas делало результаты ещё хуже (а это авторы ещё не пробовали Abibas).
Чтобы выявить, когда модель полагается на заученные ассоциации вместо анализа картинки, авторы генерируют пары знакомых объектов и их слегка изменённых версий. Тестируются 7 доменов — от животных и логотипов до шахмат, флагов, оптических иллюзий и искусственно созданных паттернов.
6 из 7 категорий генерируются и модифицируются автоматически, а человек только проверяет результаты. Для редактирования обычных изображений используют Gemini Flash и GPT Image Generation, а для SVG — o4-mini. Похожий пайплайн можно легко использовать для генерации adversarial синтетических данных, чтобы натренировать LLM реально смотреть на картинки, а не прибегать к стереотипам.
vlmsarebiased.github.io
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😊 Маск обвинил Apple в нарушении антимонопольного законодательства
Поводом стало размещение в App Store — Apple отказалась добавить X и Grok от xAI в секцию “Must Have”, хотя X лидировал в новостных чартах, а Grok был близок к топу общего рейтинга.
📈 Накануне xAI сделали Grok 4 бесплатным для ограниченного числа запросов, что резко ускорило установки и подняло приложение в топ.
👉 Новости 👉 База вопросов
Поводом стало размещение в App Store — Apple отказалась добавить X и Grok от xAI в секцию “Must Have”, хотя X лидировал в новостных чартах, а Grok был близок к топу общего рейтинга.
📈 Накануне xAI сделали Grok 4 бесплатным для ограниченного числа запросов, что резко ускорило установки и подняло приложение в топ.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😇 Jan-v1: локальная 4B-модель для веба — опенсорсная альтернатива Perplexity Pro
Что умеет
- SimpleQA: 91% точности, чуть выше Perplexity Pro — и всё это полностью локально.
- Сценарии: быстрый веб-поиск и глубокое исследование (Deep Research).
Из чего сделана
- Базируется на Qwen3-4B-Thinking (контекст до 256k), дообучена в Jan на рассуждение и работу с инструментами.
Где запускать
- Jan, llama.cpp или vLLM.
Как включить поиск в Jan
- Settings → Experimental Features → On
- Settings → MCP Servers → включите поисковый MCP (например, Serper)
Модели
- Jan-v1-4B: https://huggingface.co/janhq/Jan-v1-4B
- Jan-v1-4B-GGUF: https://huggingface.co/janhq/Jan-v1-4B-GGUF
👉 Новости 👉 База вопросов
Что умеет
- SimpleQA: 91% точности, чуть выше Perplexity Pro — и всё это полностью локально.
- Сценарии: быстрый веб-поиск и глубокое исследование (Deep Research).
Из чего сделана
- Базируется на Qwen3-4B-Thinking (контекст до 256k), дообучена в Jan на рассуждение и работу с инструментами.
Где запускать
- Jan, llama.cpp или vLLM.
Как включить поиск в Jan
- Settings → Experimental Features → On
- Settings → MCP Servers → включите поисковый MCP (например, Serper)
Модели
- Jan-v1-4B: https://huggingface.co/janhq/Jan-v1-4B
- Jan-v1-4B-GGUF: https://huggingface.co/janhq/Jan-v1-4B-GGUF
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#Собес #mongoDB
🤔 Как удалить документы в MongoDB?
Для удаления документов используются методы
👉 Новости 👉 Платформа
Для удаления документов используются методы
deleteOne() И deleteMany(). deleteOne() Удаляет первый документ, соответствующий условию, а deleteMany() удаляет все подходящие документы.Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😬 Контекст Claude 4 Sonnet расширили до миллиона токенов
Апдейт запустили в бете для клиентов Tier 4 — это те кто купили API кредитов на $400+. Про планы на доступность расширенного контекста в подписке ничего не говорят. Но их тут никто не подгоняет — главный конкурент всё ещё умудряется давать модели с 32k токенов контекста в Plus плане за $20 в месяц, а вот на рынке API конкуренция по окну контекста куда жёстче.
Claude уже давно умеет в большие окна контекста — Claude Haiku с миллионом токенов контекста показывали ещё в Model Card Claude 3, но в релизе было доступно всего лишь 200к токенов. После этого они запустили подписку Claude Enterprise с 500k токенов контекста в прошлом сентябре.
Цена за промпты длиннее 200к токенов значительно выше — $6/$22.5 за миллион токенов, цена за промпты до 200к токенов остаётся прежней — $3/$15 за миллион токенов. GPT 4.1 остаётся единственной заметной моделью с миллионом токенов контекста, цена на которую не повышается после определённого порога.
👉 Новости 👉 База вопросов
Апдейт запустили в бете для клиентов Tier 4 — это те кто купили API кредитов на $400+. Про планы на доступность расширенного контекста в подписке ничего не говорят. Но их тут никто не подгоняет — главный конкурент всё ещё умудряется давать модели с 32k токенов контекста в Plus плане за $20 в месяц, а вот на рынке API конкуренция по окну контекста куда жёстче.
Claude уже давно умеет в большие окна контекста — Claude Haiku с миллионом токенов контекста показывали ещё в Model Card Claude 3, но в релизе было доступно всего лишь 200к токенов. После этого они запустили подписку Claude Enterprise с 500k токенов контекста в прошлом сентябре.
Цена за промпты длиннее 200к токенов значительно выше — $6/$22.5 за миллион токенов, цена за промпты до 200к токенов остаётся прежней — $3/$15 за миллион токенов. GPT 4.1 остаётся единственной заметной моделью с миллионом токенов контекста, цена на которую не повышается после определённого порога.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😎 Artificial Analysis начали проверять API провайдеров на точность
Начали пока что с GPT OSS 120B, хотя такую практику стоило бы расширить и на другие модели. Тестируют модель, прогоняя несколько бенчмарков несколько раз на каждом API провайдере, при это показывают не только медианное значение, но и разброс результатов бенчмарков. Как оказалось, разница между провайдерами огромная — на AIME25 худший провайдер уступает лучшему на 15 процентных пунктов.
Хуже всех себя показали Azure, AWS и Nebius, хотя, казалось бы, у триллионных компаний должны быть ресурсы на контроль качества. А вот лучше всех себя показали инференс стартапы — Fireworks, Novita и DeepInfra. Cerebras даёт лучшие результаты на AIME25, но на GPQA и IFBench заметно просаживаются.
Такой разброс может быть результатом как багов в софте, так и незадокументированных изменений в процессе инференса, вроде квантизации. Инференс LLM всё же крайне сложное дело — мелкие неточности в подсчётах могут крайне сильно повлиять на результаты, особенно если речь идёт о fp8 инференсе. Поэтому независимые и стандартизированные бенчи настолько важны. Ну а Artificial Analysis стоит подумать, как убедится что провайдеры не используют практики Volkswagen.
👉 Новости 👉 База вопросов
Начали пока что с GPT OSS 120B, хотя такую практику стоило бы расширить и на другие модели. Тестируют модель, прогоняя несколько бенчмарков несколько раз на каждом API провайдере, при это показывают не только медианное значение, но и разброс результатов бенчмарков. Как оказалось, разница между провайдерами огромная — на AIME25 худший провайдер уступает лучшему на 15 процентных пунктов.
Хуже всех себя показали Azure, AWS и Nebius, хотя, казалось бы, у триллионных компаний должны быть ресурсы на контроль качества. А вот лучше всех себя показали инференс стартапы — Fireworks, Novita и DeepInfra. Cerebras даёт лучшие результаты на AIME25, но на GPQA и IFBench заметно просаживаются.
Такой разброс может быть результатом как багов в софте, так и незадокументированных изменений в процессе инференса, вроде квантизации. Инференс LLM всё же крайне сложное дело — мелкие неточности в подсчётах могут крайне сильно повлиять на результаты, особенно если речь идёт о fp8 инференсе. Поэтому независимые и стандартизированные бенчи настолько важны. Ну а Artificial Analysis стоит подумать, как убедится что провайдеры не используют практики Volkswagen.
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Какова роль поля _id в документе MongoDB и можно ли его кастомизировать?
Поле
👉 Новости 👉 Платформа
Поле
_id - это уникальный идентификатор каждого документа в коллекции MongoDB, автоматически создаваемый при вставке данных. Оно гарантирует уникальность документа и используется как первичный ключ. Поле _id можно кастомизировать, указав собственное значение, главное - сохранить его уникальность.Please open Telegram to view this post
VIEW IN TELEGRAM
YeaHub
YeaHub — тренажер собеседований по IT
5000+ вопросов для подготовки к интервью. Фильтры, квизы, статистика!
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😅 Tencent выложили веса своего нейронного игрового движка.
Hunyuan Gamecraft можно запустить на 4090, он может генерировать видео в 720p и хорошо запоминает контекст сцены.
Так как моделька основана на Hunyuan Video, в квантизированном виде она запускается на 4090. К сожалению, работать быстро она там вряд-ли будет — дистиллированная в Phased Consistency Model версия модели выдаёт 6 FPS на гораздо более мощной H100. Но оптимизации инференса порой творят чудеса, так что посмотрим что с моделью натворят умельцы.
Genie 3 хорошо так поднял внимание к world models, у нас уже второй открытый релиз на этой неделе, хотя обычно в этой нише открытые релизы крайне редки. Интересно, как будет выглядеть первый успешный коммерческий продукт на основе таких моделей.
Веса
Код
Пейпер
Сайт проекта
👉 Новости 👉 База вопросов
Hunyuan Gamecraft можно запустить на 4090, он может генерировать видео в 720p и хорошо запоминает контекст сцены.
Так как моделька основана на Hunyuan Video, в квантизированном виде она запускается на 4090. К сожалению, работать быстро она там вряд-ли будет — дистиллированная в Phased Consistency Model версия модели выдаёт 6 FPS на гораздо более мощной H100. Но оптимизации инференса порой творят чудеса, так что посмотрим что с моделью натворят умельцы.
Genie 3 хорошо так поднял внимание к world models, у нас уже второй открытый релиз на этой неделе, хотя обычно в этой нише открытые релизы крайне редки. Интересно, как будет выглядеть первый успешный коммерческий продукт на основе таких моделей.
Веса
Код
Пейпер
Сайт проекта
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
👨💻 Imagen 4, SOTA txt2img модель от Google, появилась в официальном API
На Artificial Analysis Image Arena Leaderboard модель пока сидит на 3м месте, при этом ultra версия уже успела занять топ-1 на арене от LMSYS.
Цены: $60/$40/$20 за 1000 изображений для режимов Ultra, Standard и Fast соответственно. В режиме Fast картинка генерируется за пару секунд. В Ultra, даже в разрешении 2K, — около 20 секунд, что в разы быстрее той же GPT. Но, к сожалению, без редактирования текстом
👉 Новости 👉 База вопросов
На Artificial Analysis Image Arena Leaderboard модель пока сидит на 3м месте, при этом ultra версия уже успела занять топ-1 на арене от LMSYS.
Цены: $60/$40/$20 за 1000 изображений для режимов Ultra, Standard и Fast соответственно. В режиме Fast картинка генерируется за пару секунд. В Ultra, даже в разрешении 2K, — около 20 секунд, что в разы быстрее той же GPT. Но, к сожалению, без редактирования текстом
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM