Alibaba открыла исходный код Zvec - встраиваемой векторной СУБД, которую авторы называют «SQLite для векторных баз данных».
Проект заточен на локальные RAG-пайплайны, семантический поиск и агентские сценарии на ноутбуках, мобильных устройствах или другом edge-железе.
Идея в том, что разворачивать отдельный сервер ради векторного поиска и фильтрации по метаданным избыточно. Zvec встраивается в процесс Python-приложения и не требует ни отдельного демона, ни сетевых вызовов.
Существующие решения не подходят для маломощных устройств: Faiss дает только ANN-индекс без скалярного хранилища и крэш-рекавери; DuckDB-VSS ограничен в опциях индексирования; Milvus и облачные векторные хранилища требуют сеть.
Под капотом - Proxima, векторный движок продакшен-уровня, который Alibaba сама использует в собственных сервисах. Поверх него сделали лаконичный Python API:
Это позволяет собирать локальных ассистентов, которые одновременно используют семантический поиск, множественную фильтрацию и несколько эмбеддинг-моделей - все в одном движке.
По производительности Zvec заявляет победу на бенче VectorDBBench с датасетом Cohere 10M - более 8 000 QPS при сопоставимом реколле. Это вдвое больше, чем у лидера ZillizCloud и с более быстрым построением индекса.
Авторы объясняют успех глубокой оптимизацией под CPU: SIMD, кэш-эффективные структуры, многопоточность и prefetching.
Пока платформенная поддержка ограничена
@ai_machinelearning_big_data
#AI #ML #VDB #ZVEC #Alibaba
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍70🤩41👏24❤19🔥17🌚14🌭14🙊13🕊12😘11😍10
Это первый open-weight релиз в серии Qwen3.5.
Лицензия Apache 2.0.
Что интересного:
• Мультимодальная модель
Понимает текст и изображения
• Создана для AI-агентов
Оптимизирована для реальных задач: планирование, работа с инструментами, многошаговые действия.
• Новая архитектура
Hybrid Linear Attention + Sparse MoE + масштабное обучение с reinforcement learning.
• Высокая скорость
Заявлено что моделька примерно в 6- 9 раз быстрее, чем у предыдущей Qwen3-Max.
• Глобальная модель
Поддержка 201 языков и диалектов.
Модели такого уровня в открытом доступе:
- можно запускать AI у себя, без зависимости от API
- полный контроль над данными
- возможность строить собственных агентов и продукты
- снижение стоимости на масштабах
Qwen3.5-397B - реально в топе
Модель либо:
• на 1 месте,
• либо рядом с GPT-5.2 / Claude Opus 4.5 / Gemini 3 Pro почти во всех бенчмарках.
@ai_machinelearning_big_data
#qwen #ai #llm #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥194❤29👍28🤩9🎉6👏5👌5🤣4❤🔥2💯1
Переходи в практический ML — и расти в грейде с AI Talent Hub, ИТМО.
Успей записаться на новый поток курса «Практическая ML-инженерия: MLOps и разработка проектов» от лучшего просветительского проекта в GenAI, по версии Generation Al Awards 2025 — AI Talent Hub чтобы:
Продолжительность: 5 месяцев
Формат: онлайн
Старт: 13 марта
→ Изучить программу и подать заявку
@aitalenthubnews
Реклама. Университет ИТМО ИНН:7813045547
Успей записаться на новый поток курса «Практическая ML-инженерия: MLOps и разработка проектов» от лучшего просветительского проекта в GenAI, по версии Generation Al Awards 2025 — AI Talent Hub чтобы:
📁 Освоить MLOps-стек:
DVC, Airflow, MLflow, ClearML, W&B, FastAPI, PyTest, Docker, GitLab CI — и вывести в прод свою ML-модель.
📁 Вырасти в грейде: обновить скилсет и перейти в практический ML
📁 Пройти весь путь создания ML-продукта: от идеи до рабочего ML-сервиса с поддержкой экспертов AI Talent Hub
📁 Получить диплом ДПО ИТМО государственного образца
📁 Поступить без экзаменов в магистратуру AI Talent Hub, на бюджет или контракт
Продолжительность: 5 месяцев
Формат: онлайн
Старт: 13 марта
→ Изучить программу и подать заявку
@aitalenthubnews
Реклама. Университет ИТМО ИНН:7813045547
🤩40❤24👍14🤣11💯6💅4🎉3🤬2🌭2
Forwarded from Анализ данных (Data analysis)
🚀 Ling-2.5-1T: новый open-source гигант
• 1 трлн параметров
• 63B активных
• MIT лицензия - можно использовать в продакшене
Что внутри:
⚡ Hybrid Linear Attention
Комбинация MLA (1:7) + Lightning Linear
- быстрее Kimi K2 на длинных контекстах
🧠 В 4 раза эффективнее по токенам
Composite rewards позволяют достигать уровня топ-моделей, используя в 4 раза меньше токенов
📚 Контекст до 1 млн токенов
YaRN scaling
— обходит Kimi K2.5 и DeepSeek V3.2 на тестах RULER и MRCR
— идеальные результаты в NIAH
🛠️ SOTA для агентных задач
Обучение через Agentic RL
Лидер BFCL-V4
Нативная интеграция с:
- Claude Code
- OpenCode
- OpenClaw
🎯 Чёткое следование инструкциям
Bidirectional RL + проверка агентом
Минимум «воды», максимум плотности ответа
Модель пока уступает GPT-5.2 и Gemini 3 Pro в долгих многошаговых задачах.
Open-source модели уже заходят на территорию enterprise-агентов.
Если нужен длинный контекст + инструменты + контроль над инфраструктурой - это один из самых интересных кандидатов прямо сейчас.
modelscope.ai/models/inclusionAI/Ling-2.5-1T
modelscope.cn/models/inclusionAI/Ling-2.5-1T
@data_analysis_ml
• 1 трлн параметров
• 63B активных
• MIT лицензия - можно использовать в продакшене
Что внутри:
⚡ Hybrid Linear Attention
Комбинация MLA (1:7) + Lightning Linear
- быстрее Kimi K2 на длинных контекстах
🧠 В 4 раза эффективнее по токенам
Composite rewards позволяют достигать уровня топ-моделей, используя в 4 раза меньше токенов
📚 Контекст до 1 млн токенов
YaRN scaling
— обходит Kimi K2.5 и DeepSeek V3.2 на тестах RULER и MRCR
— идеальные результаты в NIAH
🛠️ SOTA для агентных задач
Обучение через Agentic RL
Лидер BFCL-V4
Нативная интеграция с:
- Claude Code
- OpenCode
- OpenClaw
🎯 Чёткое следование инструкциям
Bidirectional RL + проверка агентом
Минимум «воды», максимум плотности ответа
Модель пока уступает GPT-5.2 и Gemini 3 Pro в долгих многошаговых задачах.
Open-source модели уже заходят на территорию enterprise-агентов.
Если нужен длинный контекст + инструменты + контроль над инфраструктурой - это один из самых интересных кандидатов прямо сейчас.
modelscope.ai/models/inclusionAI/Ling-2.5-1T
modelscope.cn/models/inclusionAI/Ling-2.5-1T
@data_analysis_ml
👍52🤩40😍25🐳22👨💻21🙈16❤11💅7😎7🔥5🎉3
Media is too big
VIEW IN TELEGRAM
Быстрые и синхронные движения вывели возможности роботизированной моторики на новый уровень и установили сразу несколько мировых рекордов.
Модель H2 также стала одной из главных звёзд шоу- робот появился на главной сцене в Пекине и на площадке в Иу в образе Царя Обезьян.
В тяжёлых доспехах он «летал на облаке», роль которого исполняли четвероногие роботы-собаки B2W, и с высоты поздравлял зрителей с Китайским Новым годом.
@ai_machinelearning_big_data
#Unitree #ai #Ml #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥141🤩50👏19❤15👍9🏆7🎉3👀1
Media is too big
VIEW IN TELEGRAM
Австрийский разработчик, автор OpenClaw, объявил о переходе в OpenAI. В своем блоге Питер Штайнбергер объяснил решение тем, что строить большую компанию ему неинтересно, а OpenAI - это быстрейший путь к реальным изменениям.
По словам Сэма Альтмана, в компании Штайнбергер возглавит разработку персональных агентов нового поколения. OpenClaw при этом не исчезнет: проект передадут в фонд и откроют исходный код под поддержкой OpenAI.
Sam Altman в сети Х
Линейка представлена в 3-х версиях: Pro, Lite и Mini, плюс отдельная модель для кодинга. Семейство получило мультимодальность: улучшена работа с документами, таблицами, графиками и видео. По бенчмаркам ByteDance, Seed2.0 Pro обходит GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro в задачах на визуальную математику, логику и восприятие.
На олимпиадных тестах по математике и программированию Seed2.0 Pro показала результаты на уровне золотых медалей. На IMO - 35 из 42 баллов, На 5 соревнованиях ICPC - золото в каждом.
Модель уступает Claude в генерации кода, Gemini - в редких знаниях, а по склонности к галлюцинациям проигрывает обоим. Зато цена API кратно ниже: 47 центов за миллион входных токенов. Доступ к моделям — через чат-приложение Doubao и облачную платформу Volcano Engine.
bytedance.com
Компания запустила представительство в Бангалоре - втором азиатском офисе после Токио, открытого в октябре 2024 года. Офис сосредоточится на работе с индийскими стартапами и предприятиями в сферах образования и сельского хозяйства.
Об открытии объявили в день старта саммита AI Impact в Нью-Дели, собравшего более 250 тысяч участников. Компания намерена использовать площадку для переговоров с регуляторами и потенциальными партнёрами на индийском рынке.
Выручка Anthropic в Индии удвоилась с момента объявления о расширении в октябре 2025 года. Среди клиентов - крупные корпорации, цифровые компании и стартапы на ранних стадиях.
anthropic.com
Первой платформой стал Telegram: пользователи любых тарифов могут подключить бота через QR-код за минуту, без API-ключей и настройки конфигов.
Агент в чате выполняет многошаговые задачи с тем же набором инструментов, что и веб-приложение: исследования, обработка данных, генерация отчетов и PDF. Поддерживаются голосовые сообщения, изображения и файлы — агент транскрибирует аудио, распознает намерение и возвращает результат в диалог.
На выбор предлагают 2 режима: Manus 1.6 Max для сложных задач с ризонингом и Manus 1.6 Lite для быстрых ответов и простых запросов. Стиль общения тоже настраивается — от лаконичного до подробного. Поддержку других платформ обещают в ближайшее время.
manus.im
OpenAI опубликовала препринт по теоретической физике, в котором описан тип взаимодействия глюонов, считавшийся невозможным - когда один глюон имеет отрицательную спиральность, а остальные положительную. Учебники десятилетиями утверждали, что такая амплитуда равна нулю.
Ключевую роль сыграла методология: человеческие расчеты давали громоздкие выражения, сложность которых росла сверхэкспоненциально. GPT-5.2 Pro упростила расчеты, выявила закономерность и предложила общую формулу для произвольного числа частиц.
Внутренняя версия модели потратила 12 часов на формальное доказательство, которое прошло проверку стандартными методами: рекурсией Берендса–Гиле и софт-теоремой.
openai.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤54👍38🤩32🔥17🎉7👏4🤔1💯1🫡1🗿1
erid: 2W5zFGzKjwX
⚠️ Извлечение признаков из временных рядов — этап, где большинство ML-моделей начинает ломаться. Тренд и сезонность — лишь верхушка айсберга. Основные закономерности часто скрыты в шуме, частотах и локальных паттернах, которые не видны на графике, но критичны для качества прогноза.
🦾 На открытом уроке разберём, как превратить сырой временной ряд в информативный датасет.
Вы увидите, почему скользящие средние и лаги часто не дают эффекта, как использовать частотную область (FFT, вейвлеты), какие библиотеки автоматической генерации признаков применимы на практике и как не утонуть в сотнях фичей. В live-разборе на Python пройдём путь от сырого ряда до оценки вклада признаков в качество модели.
Урок будет полезен data scientists, ML-инженерам и аналитикам, работающим с IoT, финтехом, ритейлом и телекомом.
➡️ Встречаемся в рамках курса «Machine Learning. Professional», регистрация открыта: https://otus.pw/4vmn/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
⚠️ Извлечение признаков из временных рядов — этап, где большинство ML-моделей начинает ломаться. Тренд и сезонность — лишь верхушка айсберга. Основные закономерности часто скрыты в шуме, частотах и локальных паттернах, которые не видны на графике, но критичны для качества прогноза.
🦾 На открытом уроке разберём, как превратить сырой временной ряд в информативный датасет.
Вы увидите, почему скользящие средние и лаги часто не дают эффекта, как использовать частотную область (FFT, вейвлеты), какие библиотеки автоматической генерации признаков применимы на практике и как не утонуть в сотнях фичей. В live-разборе на Python пройдём путь от сырого ряда до оценки вклада признаков в качество модели.
Урок будет полезен data scientists, ML-инженерам и аналитикам, работающим с IoT, финтехом, ритейлом и телекомом.
➡️ Встречаемся в рамках курса «Machine Learning. Professional», регистрация открыта: https://otus.pw/4vmn/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
👍30😁12❤11🔥5🥱3👏2🤷♂1🤔1🙉1
Генеративные модели делятся на 2 лагеря: диффузионные и авторегрессионные. Вторые концептуально ближе к LLM - генерируют изображение токен за токеном, как текст. Проблема в том, что это очень медленно, а качество проигрывает диффузии.
BitDance - экспериментальная 14B AR-модель, которая пытается решить оба этих вопроса разом.
Этим проектом группа китайских рисёчеров показала, что правильный бинарный токенизатор + diffusion head + параллельный патчинг закрывает большинство претензий.
Они локализовали 3 проблемы дискретных AR-моделей и закрыли каждую отдельным решением.
Вместо VQ-кодбука тут используется бинарный токенизатор на основе квантования с групповым разбиением каналов. Словарь вырастает до 2²⁵⁶ (для сравнения: у Cosmos - 65536), при этом модель держит PSNR 25.29 против 24.81 у непрерывного DC-AE, то есть бинарные токены реконструируют изображение лучше, чем VAE у SANA.
А как вообще выбирать из словаря в 2²⁵⁶ вариантов? Обучить классификатор на все возможные токены тут не вариант: такой слой не поместится ни в какую память. В качестве решения - прикрутили diffusion head, которая моделирует биты на непрерывном гиперкубе. То есть, модель предсказывает структуру битов через velocity-matching, что и позволяет сэмплить из гигантского пространства состояний.
AR генерирует по одному токену за шаг. BitDance за один шаг выдает сразу 64 токена (или 16), при этом модель понимает, как они связаны между собой внутри этого блока. Громко заявленный результат: 30x ускорение относительно next-token AR при сопоставимом качестве.
На мелкой версии ImageNet BitDance-H достигает FID 1.24 (лучший результат среди AR-моделей, наравне с xAR-H).
На DPG-Bench (text-to-image) полноценная BitDance набирает 88.28 - это выше FLUX.1-Dev, SD3, Janus-Pro, но уступает Seedream 3.0 и Qwen-Image.
В релизе 2 версии 14B модели, с предикшеном на 16 и 64 токена и макс. разрешением 1Мpx.
Остается вопрос: насколько бинарный токенизатор + diffusion head добавляет латентности на каждом шаге, даже если самих шагов стало меньше из-за патчинга.
30x по скорости - это сравнение не с диффузионными моделями, которые уже умеют генерировать за 4–8 шагов.
14B - это не про "взял и запустил". Есть конечно версии на ImageNet с разрешением 256х256 для воспроизведения эксперимента, но не за этим мы сюда пришли .
@ai_machinelearning_big_data
#AI #ML #AR #T2I #BitDance
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤓69🔥39👍26👀22❤19🤷17😐16😈16😭14🤔13🥰1
⚡️ Anthropic выпустили Claude Sonnet 4.6
В коде улучшения особенно заметны:
- модель лучше понимает большие проекты
- аккуратнее вносит правки
- реже ломает существующую логику
Anthropic также отмечает рост производительности в долгих сессиях - модель меньше «теряет нить» и держит цель задачи до конца.
Большой скачок по сравнению с Sonnet 4.5
Почти во всех задачах рост:
• Terminal coding: 59% → 51%
• Computer use: 72.5% → 61.4%
Поиск и работа с инструментами: сильный прирост.
Novel problem solving: 58% → 13.6% - огромный скачок
Это значит: модель стала гораздо лучше работать как агент.
Разработчики с ранним доступом:
зачастую выбирают Sonnet 4.6, вместо более мощной Claude Opus 4.5
То есть уровень задач, который раньше требовал Opus-модели, теперь доступен в более дешёвом классе.
И всё это - без изменения цены:
$3 / $15 за миллион токенов (как у Sonnet 4.5).
Модель уже стала стандартной в Claude для пользователей Free и Pro.
https://www.anthropic.com/news/claude-sonnet-4-6
@ai_machinelearning_big_data
#Claude
В коде улучшения особенно заметны:
- модель лучше понимает большие проекты
- аккуратнее вносит правки
- реже ломает существующую логику
Anthropic также отмечает рост производительности в долгих сессиях - модель меньше «теряет нить» и держит цель задачи до конца.
Большой скачок по сравнению с Sonnet 4.5
Почти во всех задачах рост:
• Terminal coding: 59% → 51%
• Computer use: 72.5% → 61.4%
Поиск и работа с инструментами: сильный прирост.
Novel problem solving: 58% → 13.6% - огромный скачок
Это значит: модель стала гораздо лучше работать как агент.
Разработчики с ранним доступом:
зачастую выбирают Sonnet 4.6, вместо более мощной Claude Opus 4.5
То есть уровень задач, который раньше требовал Opus-модели, теперь доступен в более дешёвом классе.
И всё это - без изменения цены:
$3 / $15 за миллион токенов (как у Sonnet 4.5).
Модель уже стала стандартной в Claude для пользователей Free и Pro.
https://www.anthropic.com/news/claude-sonnet-4-6
@ai_machinelearning_big_data
#Claude
❤59👨💻53👍29😢21🔥18❤🔥15🎉13✍12💘12🤷11😍10