#Собес #mongoDB
🤔 Как удалить документы в MongoDB?
Для удаления документов используются методы
👉 Новости 👉 Платформа
Для удаления документов используются методы
deleteOne() И deleteMany(). deleteOne() Удаляет первый документ, соответствующий условию, а deleteMany() удаляет все подходящие документы.Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😬 Контекст Claude 4 Sonnet расширили до миллиона токенов
Апдейт запустили в бете для клиентов Tier 4 — это те кто купили API кредитов на $400+. Про планы на доступность расширенного контекста в подписке ничего не говорят. Но их тут никто не подгоняет — главный конкурент всё ещё умудряется давать модели с 32k токенов контекста в Plus плане за $20 в месяц, а вот на рынке API конкуренция по окну контекста куда жёстче.
Claude уже давно умеет в большие окна контекста — Claude Haiku с миллионом токенов контекста показывали ещё в Model Card Claude 3, но в релизе было доступно всего лишь 200к токенов. После этого они запустили подписку Claude Enterprise с 500k токенов контекста в прошлом сентябре.
Цена за промпты длиннее 200к токенов значительно выше — $6/$22.5 за миллион токенов, цена за промпты до 200к токенов остаётся прежней — $3/$15 за миллион токенов. GPT 4.1 остаётся единственной заметной моделью с миллионом токенов контекста, цена на которую не повышается после определённого порога.
👉 Новости 👉 База вопросов
Апдейт запустили в бете для клиентов Tier 4 — это те кто купили API кредитов на $400+. Про планы на доступность расширенного контекста в подписке ничего не говорят. Но их тут никто не подгоняет — главный конкурент всё ещё умудряется давать модели с 32k токенов контекста в Plus плане за $20 в месяц, а вот на рынке API конкуренция по окну контекста куда жёстче.
Claude уже давно умеет в большие окна контекста — Claude Haiku с миллионом токенов контекста показывали ещё в Model Card Claude 3, но в релизе было доступно всего лишь 200к токенов. После этого они запустили подписку Claude Enterprise с 500k токенов контекста в прошлом сентябре.
Цена за промпты длиннее 200к токенов значительно выше — $6/$22.5 за миллион токенов, цена за промпты до 200к токенов остаётся прежней — $3/$15 за миллион токенов. GPT 4.1 остаётся единственной заметной моделью с миллионом токенов контекста, цена на которую не повышается после определённого порога.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😎 Artificial Analysis начали проверять API провайдеров на точность
Начали пока что с GPT OSS 120B, хотя такую практику стоило бы расширить и на другие модели. Тестируют модель, прогоняя несколько бенчмарков несколько раз на каждом API провайдере, при это показывают не только медианное значение, но и разброс результатов бенчмарков. Как оказалось, разница между провайдерами огромная — на AIME25 худший провайдер уступает лучшему на 15 процентных пунктов.
Хуже всех себя показали Azure, AWS и Nebius, хотя, казалось бы, у триллионных компаний должны быть ресурсы на контроль качества. А вот лучше всех себя показали инференс стартапы — Fireworks, Novita и DeepInfra. Cerebras даёт лучшие результаты на AIME25, но на GPQA и IFBench заметно просаживаются.
Такой разброс может быть результатом как багов в софте, так и незадокументированных изменений в процессе инференса, вроде квантизации. Инференс LLM всё же крайне сложное дело — мелкие неточности в подсчётах могут крайне сильно повлиять на результаты, особенно если речь идёт о fp8 инференсе. Поэтому независимые и стандартизированные бенчи настолько важны. Ну а Artificial Analysis стоит подумать, как убедится что провайдеры не используют практики Volkswagen.
👉 Новости 👉 База вопросов
Начали пока что с GPT OSS 120B, хотя такую практику стоило бы расширить и на другие модели. Тестируют модель, прогоняя несколько бенчмарков несколько раз на каждом API провайдере, при это показывают не только медианное значение, но и разброс результатов бенчмарков. Как оказалось, разница между провайдерами огромная — на AIME25 худший провайдер уступает лучшему на 15 процентных пунктов.
Хуже всех себя показали Azure, AWS и Nebius, хотя, казалось бы, у триллионных компаний должны быть ресурсы на контроль качества. А вот лучше всех себя показали инференс стартапы — Fireworks, Novita и DeepInfra. Cerebras даёт лучшие результаты на AIME25, но на GPQA и IFBench заметно просаживаются.
Такой разброс может быть результатом как багов в софте, так и незадокументированных изменений в процессе инференса, вроде квантизации. Инференс LLM всё же крайне сложное дело — мелкие неточности в подсчётах могут крайне сильно повлиять на результаты, особенно если речь идёт о fp8 инференсе. Поэтому независимые и стандартизированные бенчи настолько важны. Ну а Artificial Analysis стоит подумать, как убедится что провайдеры не используют практики Volkswagen.
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Какова роль поля _id в документе MongoDB и можно ли его кастомизировать?
Поле
👉 Новости 👉 Платформа
Поле
_id - это уникальный идентификатор каждого документа в коллекции MongoDB, автоматически создаваемый при вставке данных. Оно гарантирует уникальность документа и используется как первичный ключ. Поле _id можно кастомизировать, указав собственное значение, главное - сохранить его уникальность.Please open Telegram to view this post
VIEW IN TELEGRAM
YeaHub
YeaHub — тренажер собеседований по IT
5000+ вопросов для подготовки к интервью. Фильтры, квизы, статистика!
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
😅 Tencent выложили веса своего нейронного игрового движка.
Hunyuan Gamecraft можно запустить на 4090, он может генерировать видео в 720p и хорошо запоминает контекст сцены.
Так как моделька основана на Hunyuan Video, в квантизированном виде она запускается на 4090. К сожалению, работать быстро она там вряд-ли будет — дистиллированная в Phased Consistency Model версия модели выдаёт 6 FPS на гораздо более мощной H100. Но оптимизации инференса порой творят чудеса, так что посмотрим что с моделью натворят умельцы.
Genie 3 хорошо так поднял внимание к world models, у нас уже второй открытый релиз на этой неделе, хотя обычно в этой нише открытые релизы крайне редки. Интересно, как будет выглядеть первый успешный коммерческий продукт на основе таких моделей.
Веса
Код
Пейпер
Сайт проекта
👉 Новости 👉 База вопросов
Hunyuan Gamecraft можно запустить на 4090, он может генерировать видео в 720p и хорошо запоминает контекст сцены.
Так как моделька основана на Hunyuan Video, в квантизированном виде она запускается на 4090. К сожалению, работать быстро она там вряд-ли будет — дистиллированная в Phased Consistency Model версия модели выдаёт 6 FPS на гораздо более мощной H100. Но оптимизации инференса порой творят чудеса, так что посмотрим что с моделью натворят умельцы.
Genie 3 хорошо так поднял внимание к world models, у нас уже второй открытый релиз на этой неделе, хотя обычно в этой нише открытые релизы крайне редки. Интересно, как будет выглядеть первый успешный коммерческий продукт на основе таких моделей.
Веса
Код
Пейпер
Сайт проекта
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
👨💻 Imagen 4, SOTA txt2img модель от Google, появилась в официальном API
На Artificial Analysis Image Arena Leaderboard модель пока сидит на 3м месте, при этом ultra версия уже успела занять топ-1 на арене от LMSYS.
Цены: $60/$40/$20 за 1000 изображений для режимов Ultra, Standard и Fast соответственно. В режиме Fast картинка генерируется за пару секунд. В Ultra, даже в разрешении 2K, — около 20 секунд, что в разы быстрее той же GPT. Но, к сожалению, без редактирования текстом
👉 Новости 👉 База вопросов
На Artificial Analysis Image Arena Leaderboard модель пока сидит на 3м месте, при этом ultra версия уже успела занять топ-1 на арене от LMSYS.
Цены: $60/$40/$20 за 1000 изображений для режимов Ultra, Standard и Fast соответственно. В режиме Fast картинка генерируется за пару секунд. В Ultra, даже в разрешении 2K, — около 20 секунд, что в разы быстрее той же GPT. Но, к сожалению, без редактирования текстом
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
📞 Project Odyssey Season 3
Открылась регистрация на 3-й сезон самого масштабного конкурса AI-фильмов.
Если вы AI-кинодел, то вам точно стоит поучаствовать в этом конкурсе. Хотя, судя по всему, конкуренция там уже такая, что без бэкграунда в кино не обойтись. Финалисты работают большими командами с режиссёрами, креативными директорами и монтажёрами с опытом в моушен-графике для ретуши артефактов.
Но даже если шансов победить не так много, к этому стоит присоединиться хотя бы ради халявы. В прошлый раз раздавали подписки и токены чуть ли не на всё подряд. Хоть и в ограниченных количествах, бюджет видео в среднем составил 200 баксов только на токены, боюсь представить сколько выйдет сейчас, когда все получили доступ к VEO 3.
👉 Новости 👉 База вопросов
Открылась регистрация на 3-й сезон самого масштабного конкурса AI-фильмов.
Если вы AI-кинодел, то вам точно стоит поучаствовать в этом конкурсе. Хотя, судя по всему, конкуренция там уже такая, что без бэкграунда в кино не обойтись. Финалисты работают большими командами с режиссёрами, креативными директорами и монтажёрами с опытом в моушен-графике для ретуши артефактов.
Но даже если шансов победить не так много, к этому стоит присоединиться хотя бы ради халявы. В прошлый раз раздавали подписки и токены чуть ли не на всё подряд. Хоть и в ограниченных количествах, бюджет видео в среднем составил 200 баксов только на токены, боюсь представить сколько выйдет сейчас, когда все получили доступ к VEO 3.
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Что такое агрегирующая структура в MongoDB?
Агрегирующая структура в MongoDB - это мощный инструмент для обработки данных внутри коллекции. Она работает через "конвейер" (pipeline), где данные проходят через несколько этапов, таких как фильтрация, группировка, сортировка, и преобразование, чтобы получить сложные результаты.
👉 Новости 👉 Платформа
Агрегирующая структура в MongoDB - это мощный инструмент для обработки данных внутри коллекции. Она работает через "конвейер" (pipeline), где данные проходят через несколько этапов, таких как фильтрация, группировка, сортировка, и преобразование, чтобы получить сложные результаты.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
❤️🔥 Tencent Hunyuan только что выкатили AutoCodeBench — мощный open-source инструмент для проверки способностей ИИ в генерации кода.
Что внутри?
🟠 AutoCodeGen — генерация многоязычных датасетов кода без ручной разметки
🟠 AutoCodeBench — почти 4 000 сложных задач на 20 языках программирования (версии Full / Lite / Complete)
🟠 MultiLanguageSandbox — песочница для работы с поддержкой 30+ языков
C AutoCodeBench можно быстро тестировать LLM в кодинге, сравнивать модели и даже создавать свои бенчмарки.
🟠 Статья: arxiv.org/abs/2508.09101
🟠 Код: github.com/Tencent-Hunyuan/AutoCodeBenchmark
🟠 Датасет: huggingface.co/datasets/tencent/AutoCodeBenchmark
👉 Новости 👉 База вопросов
Что внутри?
C AutoCodeBench можно быстро тестировать LLM в кодинге, сравнивать модели и даже создавать свои бенчмарки.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
🤯 DeepSeek V3.1
Очередной апдейт V3 линейки, на той же архитектуре, но на этот раз апдейтнули и base модель. Похоже модель гибридная — ризонер и инстракт в одном флаконе.
Заметного прироста в интеллекте не замечено, но модель теперь тратит в разы меньше токенов. Это крайне полезно В чём-то релиз по духу похож на DeepSeek V2.5, вышедшего почти год назад — тогда линейку DeepSeek Coder смержили в основную. Так что есть нехилые шансы что свидетели релиза R2 его так и не дождутся.
Пока ждём пейпера, анонса и окончательного релиза весов, модель уже можно попробовать в чате.
chat.deepseek.com
👉 Новости 👉 База вопросов
Очередной апдейт V3 линейки, на той же архитектуре, но на этот раз апдейтнули и base модель. Похоже модель гибридная — ризонер и инстракт в одном флаконе.
Заметного прироста в интеллекте не замечено, но модель теперь тратит в разы меньше токенов. Это крайне полезно В чём-то релиз по духу похож на DeepSeek V2.5, вышедшего почти год назад — тогда линейку DeepSeek Coder смержили в основную. Так что есть нехилые шансы что свидетели релиза R2 его так и не дождутся.
Пока ждём пейпера, анонса и окончательного релиза весов, модель уже можно попробовать в чате.
chat.deepseek.com
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #mongoDB
🤔 Как найти документы в MongoDB?
Для поиска документов в MongoDB используется метод
👉 Новости 👉 Платформа
Для поиска документов в MongoDB используется метод
find() . Он позволяет получать как все документы, так и те, которые соответствуют определённым условиям. Например, db.collectionName.find({}) вернёт все документы в коллекции, а добавление фильтра позволяет найти только подходящие документы.Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🏠 Детали DeepSeek V3.1
Самый сильный прирост заметен в агентных бенчах и использованию инструментов. Это гибридная модель, где можно включать и выключать ризонинг. Инстракт режим модели заметно вырос по бенчам по сравнению с V3-0324. А вот прироста у ризонинг режима по сравнению с R1-0528 нет, но ризонинг теперь использует заметно меньше токенов при том же качестве.
Обновили и Base модель для лучшей работы с длинным контекстом — в 10 раз увеличили context extension с 32к токенов и в 3 раза с 128к токенов. Кроме этого модель тренировали в формате совместимом с mxfp8 и mxfp4, которые добавили в Blackwell.
С этим релизом обновили и официальное API — добавили режим совместимый с API Anthropic, так что туда теперь можно подключаться с Claude Code. Длину контекста в API расширили до 128к, плюс начали тестить улучшения для function calling.
Кроме этого с 5 сентября (16:00 UTC) в официальном API будет действовать новый прайсинг — убирают ночные (по китайскому времени) скидки и разницу в прайсинге между ризонинг и инстракт режимами. Новая цена за аутпут — $1.68 за миллион токенов (сейчас $1.1 за инстракт режим и $2.19 за ризонинг). Инпут токены стоят $0.07/миллион если они уже есть в кэше и $0.56 при промахе мимо кэша.
👉 Новости 👉 База вопросов
Самый сильный прирост заметен в агентных бенчах и использованию инструментов. Это гибридная модель, где можно включать и выключать ризонинг. Инстракт режим модели заметно вырос по бенчам по сравнению с V3-0324. А вот прироста у ризонинг режима по сравнению с R1-0528 нет, но ризонинг теперь использует заметно меньше токенов при том же качестве.
Обновили и Base модель для лучшей работы с длинным контекстом — в 10 раз увеличили context extension с 32к токенов и в 3 раза с 128к токенов. Кроме этого модель тренировали в формате совместимом с mxfp8 и mxfp4, которые добавили в Blackwell.
С этим релизом обновили и официальное API — добавили режим совместимый с API Anthropic, так что туда теперь можно подключаться с Claude Code. Длину контекста в API расширили до 128к, плюс начали тестить улучшения для function calling.
Кроме этого с 5 сентября (16:00 UTC) в официальном API будет действовать новый прайсинг — убирают ночные (по китайскому времени) скидки и разницу в прайсинге между ризонинг и инстракт режимами. Новая цена за аутпут — $1.68 за миллион токенов (сейчас $1.1 за инстракт режим и $2.19 за ризонинг). Инпут токены стоят $0.07/миллион если они уже есть в кэше и $0.56 при промахе мимо кэша.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
#полезное
🛞 Фей-Фей Ли хвастается world model своего стартапа — World Labs
Для генерации всего мира понадобилась всего лишь одна картинка, причём по видео видно что консистентность на высоте — модель не забывает детали локации как только пользователь отвернулся. Ну и длина генерации не ограничена.
Все потому что это не традиционная генерация, основанная на видео диффузии, а на гаусовских сплатах
👉 Новости 👉 База вопросов
Для генерации всего мира понадобилась всего лишь одна картинка, причём по видео видно что консистентность на высоте — модель не забывает детали локации как только пользователь отвернулся. Ну и длина генерации не ограничена.
Все потому что это не традиционная генерация, основанная на видео диффузии, а на гаусовских сплатах
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
#Собес #mongoDB
🤔 Что такое первичный ключ в MongoDB?
Первичный ключ в MongoDB - это уникальный идентификатор для каждого документа в коллекции. MongoDB автоматически создает поле
👉 Новости 👉 Платформа
Первичный ключ в MongoDB - это уникальный идентификатор для каждого документа в коллекции. MongoDB автоматически создает поле
_id как первичный ключ, которое может использоваться для быстрого поиска документов.Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#полезное
🤯 Оказалось Codex CLI теперь включён в подписку ChatGPT
Codex CLI теперь доступен подписчикам ChatGPT Plus, Pro и Team. Ранее в подписке была доступна лишь веб версия, которая сильно проигрывала по юзабельности и качеству кода чуть ли не всем конкурентам. Лимиты сбрасываются каждые пять часов и есть общий лимит, который сбрасывается раз в неделю. В туле доступна GPT-5 и можно регулировать уровень ризонинга. Уровень Codex как CLI инструмента не дотягивает до Claude Code, но, судя по отзывам, качество работы которую делает Codex — лучше.
👉 Новости 👉 База вопросов
Codex CLI теперь доступен подписчикам ChatGPT Plus, Pro и Team. Ранее в подписке была доступна лишь веб версия, которая сильно проигрывала по юзабельности и качеству кода чуть ли не всем конкурентам. Лимиты сбрасываются каждые пять часов и есть общий лимит, который сбрасывается раз в неделю. В туле доступна GPT-5 и можно регулировать уровень ризонинга. Уровень Codex как CLI инструмента не дотягивает до Claude Code, но, судя по отзывам, качество работы которую делает Codex — лучше.
npm install -g @openai/codex
codex
codex -m gpt-5 -c model_reasoning_effort="high"
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#новости
❤️🔥 Анонсирован Flash Attention 4
Прирост по сравнению со стандартной имплементацией из cuDNN доходит до 22% на Blackwell (SM100). Интересная особенность — Flash Attention 4 написан на Python с использованием CuTe DSL.
Две основные оптимизации — эмуляция экспоненты через софт (нативная экспонента в железе слишком медленная) и новый алгоритм online softmax, который на 90% меньше рескейлит аутпут, за счёт чего и быстрее. Пока что есть только forward pass, так что потренировать с FA4 не выйдет
Кернел
👉 Новости 👉 База вопросов
Прирост по сравнению со стандартной имплементацией из cuDNN доходит до 22% на Blackwell (SM100). Интересная особенность — Flash Attention 4 написан на Python с использованием CuTe DSL.
Две основные оптимизации — эмуляция экспоненты через софт (нативная экспонента в железе слишком медленная) и новый алгоритм online softmax, который на 90% меньше рескейлит аутпут, за счёт чего и быстрее. Пока что есть только forward pass, так что потренировать с FA4 не выйдет
Кернел
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1