Крутая работа от NVIDIA + MIT 👏
QeRL (Quantization-enhanced Reinforcement Learning) - новый способ обучать LLM-модели с подкреплением, используя 4-битные веса и адаптивный шум.
📈 Результат работы метода: до 1.5× быстрее rollout’ы* и полноценное RL-обучение 32B модели на одной H100 (80 GB).
Обычный RL медленный, потому что rollout’ы длинные, а память занята политикой и эталоном.
LoRA уменьшает число обучаемых параметров, но не ускоряет генерацию.
QLoRA использует NF4, но таблицы тормозят вывод.
⚙️ QeRL решает это:
- применяет NVFP4 веса через Marlin,
- сохраняет LoRA только для градиентов,
- использует одну 4-битную политику и для rollout’ов, и для scoring — без дубликатов.
🧠 Добавление адаптивного шума квантизации повышает энтропию токенов — модель исследует пространство решений активнее.
Шум постепенно уменьшается и сливается с RMSNorm-масштабированием — без добавления параметров.
📊 На математических задачах:
- награды растут быстрее,
- точность равна или выше, чем у 16-битных LoRA и QLoRA.
💡 Итого: быстрее, экономнее по памяти, и крупные модели теперь реально можно обучать на одной GPU.
📄 https://arxiv.org/abs/2510.11696
QeRL (Quantization-enhanced Reinforcement Learning) - новый способ обучать LLM-модели с подкреплением, используя 4-битные веса и адаптивный шум.
📈 Результат работы метода: до 1.5× быстрее rollout’ы* и полноценное RL-обучение 32B модели на одной H100 (80 GB).
Rollout - это прохождение эпизода или попытка модели выполнить задачу от начала до конца, чтобы потом оценить её действия и выдать награду.
Обычный RL медленный, потому что rollout’ы длинные, а память занята политикой и эталоном.
LoRA уменьшает число обучаемых параметров, но не ускоряет генерацию.
QLoRA использует NF4, но таблицы тормозят вывод.
⚙️ QeRL решает это:
- применяет NVFP4 веса через Marlin,
- сохраняет LoRA только для градиентов,
- использует одну 4-битную политику и для rollout’ов, и для scoring — без дубликатов.
🧠 Добавление адаптивного шума квантизации повышает энтропию токенов — модель исследует пространство решений активнее.
Шум постепенно уменьшается и сливается с RMSNorm-масштабированием — без добавления параметров.
📊 На математических задачах:
- награды растут быстрее,
- точность равна или выше, чем у 16-битных LoRA и QLoRA.
💡 Итого: быстрее, экономнее по памяти, и крупные модели теперь реально можно обучать на одной GPU.
📄 https://arxiv.org/abs/2510.11696
🔥3❤1
DeepAnalyze: Agentic Large Language Models for Autonomous Data Science
🖥 Github: https://github.com/ruc-datalab/DeepAnalyze
📕 Paper: https://huggingface.co/papers/2510.16872
🔗 Project: https://ruc-deepanalyze.github.io/
@ArtificialIntelligencedl
🔗 Project: https://ruc-deepanalyze.github.io/
@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤1
📚 Perplexity выпустили мощный гайд - 43 страницы чистой пользы по работе с ИИ.
Если хотите выжать максимум из нейросетей, будь то Perplexity, ChatGPT или любой другой чат-бот - этот гайд для вас.
Внутри:
✅ Готовые промпты
✅ Пошаговые сценарии
✅ Практические воркфлоу
✅ Реальные кейсы автоматизации рутинных задач
Хотя примеры заточены под инструменты Perplexity, подавляющее большинство советов универсальны и сработают в любом ИИ-ассистенте.
🔥 Сохраняйте пригодится: https://r2cdn.perplexity.ai/pdf/pplx-at-work.pdf
Если хотите выжать максимум из нейросетей, будь то Perplexity, ChatGPT или любой другой чат-бот - этот гайд для вас.
Внутри:
✅ Готовые промпты
✅ Пошаговые сценарии
✅ Практические воркфлоу
✅ Реальные кейсы автоматизации рутинных задач
Хотя примеры заточены под инструменты Perplexity, подавляющее большинство советов универсальны и сработают в любом ИИ-ассистенте.
🔥 Сохраняйте пригодится: https://r2cdn.perplexity.ai/pdf/pplx-at-work.pdf
👍3
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
ByteDance выпустила модель Wan2.1-14B, специализирующуюся на задаче *
video-as-prompt*, то есть использование видео или комбинации изображений и текста как входных данных для генерации нового видео. - Работает в режимах «видео → видео» или «изображения/текст → видео».
- 14 млрд параметров — высокая детализация, плавная динамика, реалистичные движения.
- Использует исходное видео как шаблон стиля и композиции.
⚠️ Что стоит учитывать
- Модель требует мощных GPU и большого объёма памяти.
- Качество результата зависит от сложности запроса и длины видео.
@ai_machinelearning_big_data
#AI #VideoGeneration #ByteDance #Wan2 #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
AIJ Deep Dive: специальный очный трек для AI-профи в рамках международной конференции AI Journey!
Среда для профессионального роста, общение с экспертами мировой AI-индустрии и другими AI-профи — всё это ждёт вас на треке AIJ Deep Dive. В программе — только главные аспекты работы с AI:
Это событие точно нельзя пропустить
На треке вас ждут выступления ведущих экспертов в AI, постер-сессия, специальные форматы для нетворкинга и выставка R’n’D решений. Это уникальная возможность обсудить сложные вопросы с теми, кто действительно понимает ваши вызовы.
Где? Офис Сбера, Кутузовский проспект, д. 32, к. 1 (Е)
Когда? 19–20 ноября 2025 года
По ссылке — форма регистрации на очное участие. Присоединяйтесь к профессиональному AI-сообществу!
Среда для профессионального роста, общение с экспертами мировой AI-индустрии и другими AI-профи — всё это ждёт вас на треке AIJ Deep Dive. В программе — только главные аспекты работы с AI:
Это событие точно нельзя пропустить
1️⃣19 ноября — день Науки: проведём глубокий анализ IT-решений, прорывных научных исследований, R&D-разработок и передовых методик.
2️⃣ 20 ноября — день Бизнеса: разберём успешные кейсы внедрения, оценим эффективность и практические результаты.
На треке вас ждут выступления ведущих экспертов в AI, постер-сессия, специальные форматы для нетворкинга и выставка R’n’D решений. Это уникальная возможность обсудить сложные вопросы с теми, кто действительно понимает ваши вызовы.
Где? Офис Сбера, Кутузовский проспект, д. 32, к. 1 (Е)
Когда? 19–20 ноября 2025 года
По ссылке — форма регистрации на очное участие. Присоединяйтесь к профессиональному AI-сообществу!
❤1
Forwarded from Machinelearning
🦉 LightOnOCR-1B: новая быстрая OCR-модель от LightOn
Модель дистиллирована из Qwen2-VL-72B-Instruct и обучена на корпусе из 17.6 млн страниц / 45.5 млрд токенов.
🔥 Главное:**
-1 B параметров
- позволяет обрабатывать 5.7 страниц/с на одном H100 (это примерно ≈ 493 000 страниц за день)
- Распознаёт таблицы, формы, уравнения и сложные макеты
- 6.5× быстрее dots.ocr, 1.7× быстрее DeepSeekOCR
- Расходы < $0.01 за 1000 страниц A4
📊 Качество (Olmo-Bench):
- Превосходит DeepSeekOCR
- Сопоставима с dots.ocr (при этом модель в 3 раза меньше по весу)
- +16 пт к Qwen3-VL-2B-Instruct
Эта моделька - отличный баланс качества, скорости и стоимости.
🟢 Модель 1B: https://huggingface.co/lightonai/LightOnOCR-1B-1025
🟢 Модель 0.9B (32k): https://huggingface.co/lightonai/LightOnOCR-0.9B-32k-1025)
🟢 Блог LightOn: https://huggingface.co/blog/lightonai/lightonocr
🟢 Демка: https://huggingface.co/spaces/lightonai/LightOnOCR-1B-Demo
@ai_machinelearning_big_data
#ocr #ml
Модель дистиллирована из Qwen2-VL-72B-Instruct и обучена на корпусе из 17.6 млн страниц / 45.5 млрд токенов.
🔥 Главное:**
-1 B параметров
- позволяет обрабатывать 5.7 страниц/с на одном H100 (это примерно ≈ 493 000 страниц за день)
- Распознаёт таблицы, формы, уравнения и сложные макеты
- 6.5× быстрее dots.ocr, 1.7× быстрее DeepSeekOCR
- Расходы < $0.01 за 1000 страниц A4
📊 Качество (Olmo-Bench):
- Превосходит DeepSeekOCR
- Сопоставима с dots.ocr (при этом модель в 3 раза меньше по весу)
- +16 пт к Qwen3-VL-2B-Instruct
Эта моделька - отличный баланс качества, скорости и стоимости.
@ai_machinelearning_big_data
#ocr #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
🚀 Инференс языковых моделей на Go с yzma
🚀Основные моменты:
- Поддержка VLM, LLM, SLM и TLM.
- Полная аппаратная активация для оптимальной производительности.
- Простота использования без C компилятора.
- Совместимость с последними версиями
- Примеры использования для различных моделей.
📌 GitHub: https://github.com/hybridgroup/yzma
#go
yzma позволяет использовать языковые модели, включая VLM и LLM, на вашем оборудовании с полной аппаратной поддержкой. Работает на Linux, macOS и Windows без необходимости в CGo, что упрощает интеграцию.🚀Основные моменты:
- Поддержка VLM, LLM, SLM и TLM.
- Полная аппаратная активация для оптимальной производительности.
- Простота использования без C компилятора.
- Совместимость с последними версиями
llama.cpp.- Примеры использования для различных моделей.
📌 GitHub: https://github.com/hybridgroup/yzma
#go
👍1
LLM «под капотом»: первый шаг к полноценной разработке AI-решений
Приглашаем на открытый вебинар, посвященный фундаменту прикладной разработки на LLM. На практике разберем:
✔️ Архитектуру: как работает генерация текста и почему это важно для понимания ограничений модели.
✔️ Локальное развертывание: первый шаг к LLMOps — запустить мощную модель у себя и работать с ней через API.
✔️ Контекст и агенты: базовый принцип, лежащий в основе RAG-систем и агентных моделей, которые вы будете строить на курсе.
Идеально для Python-разработчиков, DevOps- и Data-инженеров, а также технических проджектов, которые оценивают возможности интеграции LLM в свои сервисы.
Этот вебинар — введение в философию нашего нового курса «LLM Driven Development», где вы с нуля осваиваете полный цикл создания AI-продуктов.
➡️ Регистрация на вебинар:
https://otus.pw/RS7v/?erid=2W5zFJuKr2t
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Приглашаем на открытый вебинар, посвященный фундаменту прикладной разработки на LLM. На практике разберем:
✔️ Архитектуру: как работает генерация текста и почему это важно для понимания ограничений модели.
✔️ Локальное развертывание: первый шаг к LLMOps — запустить мощную модель у себя и работать с ней через API.
✔️ Контекст и агенты: базовый принцип, лежащий в основе RAG-систем и агентных моделей, которые вы будете строить на курсе.
Идеально для Python-разработчиков, DevOps- и Data-инженеров, а также технических проджектов, которые оценивают возможности интеграции LLM в свои сервисы.
Этот вебинар — введение в философию нашего нового курса «LLM Driven Development», где вы с нуля осваиваете полный цикл создания AI-продуктов.
➡️ Регистрация на вебинар:
https://otus.pw/RS7v/?erid=2W5zFJuKr2t
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Это World-модель, работающая сразу с двумя потоками - текстом и пикселями и предсказывающая их совместное состояние на каждом шаге.
- 🔥 Обучена на 10T+ чередующихся vision-language токенов и доведена RL - в результате модель демонстрирует сильное мультимодальное рассуждение и генерация
- ⚡ Новый подход DiDA (Discrete Diffusion Adaptation) —- Discrete Diffusion Adaptation переводит последовательное декодирование в параллельное двустороннее «денойзинг»-предсказание в дискретном пространстве токенов - в итоге это дает примерно 20× быстрее инференс без потери качества.
По метрикам модель превосходит Nano Banana в генерации, редактировании и интерливинговых задачах.
@ai_machinelearning_big_data
#Emu3 #MultimodalAI #WorldModel #NextTokenPrediction
Please open Telegram to view this post
VIEW IN TELEGRAM
ВКонтакте автоматизировал шопинг с помощью искусственного интеллекта и запустил шопсы.
Это публикации с карточками товаров или ссылками на быструю покупку прямо из соцсети. Благодаря интеграции LLM и VLM, платформа теперь автоматически распознает не только карточки товаров и ссылки, но и обзоры, распаковки и другие нативные форматы, создавая shoppable-разметку.
Команда AI VK рассказала как они размечали shoppable-контент у себя в канале
Это публикации с карточками товаров или ссылками на быструю покупку прямо из соцсети. Благодаря интеграции LLM и VLM, платформа теперь автоматически распознает не только карточки товаров и ссылки, но и обзоры, распаковки и другие нативные форматы, создавая shoppable-разметку.
Команда AI VK рассказала как они размечали shoppable-контент у себя в канале
Telegram
AI VK Hub
🔹У ВКонтакте появился новый формат — шопсы. Это публикации авторов с товарами, по которым можно быстро совершить покупку. Подобный контент появлялся в ленте и раньше, но с помощью LLM, VLM и правильной разметки теперь можно определить нативные обзоры или…
👍3🤯2😁1
Смотришь вакансии AI/LLM Engineer. Часто видишь:
✅ Опыт с LangChain
✅ RAG-системы и векторный поиск
✅ Агенты и tool-calling
✅ Промпт-инжиниринг и работа с LLM API
В резюме этого нет? Дальше не смотрят.
Курс «LangChain: с нуля до продакшн» покрывает эти навыки:
→ LangChain на практике (цепочки, агенты, инструменты)
→ RAG с метриками качества (precision/recall, faithfulness)
→ Tool-calling и агенты (веб-поиск, Pandas-аналитика)
→ Продакшн-контур: FastAPI, observability, PromptOps
Проект в GitHub + сертификат = можешь писать в резюме "опыт с LangChain, RAG, агентами".
Скидка 25% — 72 часа.
Начать со скидкой
✅ Опыт с LangChain
✅ RAG-системы и векторный поиск
✅ Агенты и tool-calling
✅ Промпт-инжиниринг и работа с LLM API
В резюме этого нет? Дальше не смотрят.
Курс «LangChain: с нуля до продакшн» покрывает эти навыки:
→ LangChain на практике (цепочки, агенты, инструменты)
→ RAG с метриками качества (precision/recall, faithfulness)
→ Tool-calling и агенты (веб-поиск, Pandas-аналитика)
→ Продакшн-контур: FastAPI, observability, PromptOps
Проект в GitHub + сертификат = можешь писать в резюме "опыт с LangChain, RAG, агентами".
Скидка 25% — 72 часа.
Начать со скидкой
❤1👍1👎1
HF: https://huggingface.co/papers/2511.08892
Peoject: https://www.lumine-ai.org/
Paper: https://arxiv.org/abs/2511.08892
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🔥 Подборка полезных ресурсов для программистов.
Здесь ты найдёшь всё это - коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!
AI: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Devops: t.me/DevOPSitsec
Собеседования DS: t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
Data Science: t.me/data_analysis_ml
Javanoscript: t.me/javanoscriptv
C#: t.me/csharp_1001_notes
Java: t.me/java_library
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: https://news.1rj.ru/str/gamedev
Haskell: t.me/haskell_tg
Физика: t.me/fizmat
💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: https://news.1rj.ru/str/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://news.1rj.ru/str/addlist/mzMMG3RPZhY2M2Iy
Папка Linux:https://news.1rj.ru/str/addlist/w4Doot-XBG4xNzYy
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://news.1rj.ru/str/addlist/BkskQciUW_FhNjEy
Сохрани себе, чтобы не потерять!
Здесь ты найдёшь всё это - коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!
AI: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Devops: t.me/DevOPSitsec
Собеседования DS: t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
Data Science: t.me/data_analysis_ml
Javanoscript: t.me/javanoscriptv
C#: t.me/csharp_1001_notes
Java: t.me/java_library
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: https://news.1rj.ru/str/gamedev
Haskell: t.me/haskell_tg
Физика: t.me/fizmat
💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: https://news.1rj.ru/str/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://news.1rj.ru/str/addlist/mzMMG3RPZhY2M2Iy
Папка Linux:https://news.1rj.ru/str/addlist/w4Doot-XBG4xNzYy
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://news.1rj.ru/str/addlist/BkskQciUW_FhNjEy
Сохрани себе, чтобы не потерять!
👍1
💡 UniVA: Universal Video Agent towards Open-Source Next-Generation Video Generalist
Hf: https://huggingface.co/papers/2511.08521
Paper: https://arxiv.org/pdf/2511.08521
Github: https://github.com/univa-agent/univa
Hf: https://huggingface.co/papers/2511.08521
Paper: https://arxiv.org/pdf/2511.08521
Github: https://github.com/univa-agent/univa
👍3❤2
ML полностью изменил рекламные алгоритмы
Вышел большой разбор от Ивана Ремень (AI VK) о том, как современные рекламные платформы работают под капотом.
Что внутри:
— Аукцион, обрабатывающий миллионы запросов в секунду
— ML-модели, которые прогнозируют бюджет и эффективность
— Anti-fraud ML, выявляющий ботов по паттернам поведения
— Сквозная ML-инфраструктура на единой Discovery-платформе
Отличный материал, чтобы понять, как индустрия движется к ML управлению рекламой.
Вышел большой разбор от Ивана Ремень (AI VK) о том, как современные рекламные платформы работают под капотом.
Что внутри:
— Аукцион, обрабатывающий миллионы запросов в секунду
— ML-модели, которые прогнозируют бюджет и эффективность
— Anti-fraud ML, выявляющий ботов по паттернам поведения
— Сквозная ML-инфраструктура на единой Discovery-платформе
Отличный материал, чтобы понять, как индустрия движется к ML управлению рекламой.
Tproger
Как ML алгоритмы рулят онлайн-рекламой: про маркетинг и большие данные
Как рекламные алгоритмы понимают, что вы захотите купить, еще до того, как вы об этом подумали
❤4👍3👎1🔥1🥰1🤬1
Multimodal Evaluation of Russian-language Architectures
Hf: https://huggingface.co/papers/2511.15552
Paper: https://mera.a-ai.ru/en/multi
Github: https://github.com/MERA-Evaluation/MERA_MULTIMODAL/tree/main
Hf: https://huggingface.co/papers/2511.15552
Paper: https://mera.a-ai.ru/en/multi
Github: https://github.com/MERA-Evaluation/MERA_MULTIMODAL/tree/main
👍2❤1
Приглашаем на ЮMoneyDay — бесплатную онлайн-конференцию про финтех и IT 🔥
На протяжении двух дней будем общаться с разработчиками, инженерами, тестировщиками, продактами, дизайнерами и другими специалистами из ЮMoney. Они расскажут про свой опыт работы в большом финансовом продукте, поделятся лайфхаками и секретами.
Будут доклады по 16 направлениям:
🟣 Будущее финтеха
🟣 Бэкенд
🟣 Фронтенд
🟣 Тестирование
🟣 Python
🟣 Менеджмент проектов
🟣 Менеджмент продуктов
🟣 Системный анализ
🟣 SQL
🟣 UX
🟣 ИИ
🟣 Архитектура IT-решений
🟣 Внутренние системы
🟣 Мобильная разработка
🟣 Инфраструктура
🟣 О компании
Встречаемся онлайн 5 и 6 декабря в 11:00 мск. Чтобы участвовать, зарегистрируйтесь на сайте конференции✅
На протяжении двух дней будем общаться с разработчиками, инженерами, тестировщиками, продактами, дизайнерами и другими специалистами из ЮMoney. Они расскажут про свой опыт работы в большом финансовом продукте, поделятся лайфхаками и секретами.
Будут доклады по 16 направлениям:
Встречаемся онлайн 5 и 6 декабря в 11:00 мск. Чтобы участвовать, зарегистрируйтесь на сайте конференции
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥1🤔1
Forwarded from Machinelearning
🚀 Релиз DeepSeek-V3.2 и DeepSeek-V3.2-Speciale - модели нового поколения, созданные в первую очередь для reasoning и работы в агентных системах.
Что нового:
- DeepSeek-V3.2 - официальный преемник V3.2-Exp. Доступна в приложении, на сайте и через API.
- DeepSeek-V3.2-Speciale - улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока что работает только через API.
Обе модели делают упор на глубокие цепочки рассуждений и поведение, нацеленное на агентные сценарии: планирование, решение задач, сложные выводы и работу со структурированными данными.
🏆 Производительность
• V3.2 - баланс скорости и качества, уровень примерно GPT-5
• V3.2-Speciale - топовый reasoning, конкурирует с Gemini-3.0-Pro.
• Speciale - лидер на IMO, CMO, ICPC.
🤖 Новый подход к обучению агентов
• Синтезированы большие тренировочные данные для 1800+ сред и 85k сложных инструкций.
• V3.2 - первая модель DeepSeek, у которой мышление встроено прямо в tool-use.
💻 API
• V3.2 использует тот же интерфейс, что V3.2-Exp.
• Speciale доступна через временный endpoint, работать будет до 15 декабря 2025.
📦 DeepSeek-V3.2 Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
📦 DeepSeek-V3.2-Speciale Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
@ai_machinelearning_big_data
#deepseek, #deepseekv3, #ai, #нейросети, #искусственныйинтеллект, #llm
Что нового:
- DeepSeek-V3.2 - официальный преемник V3.2-Exp. Доступна в приложении, на сайте и через API.
- DeepSeek-V3.2-Speciale - улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока что работает только через API.
Обе модели делают упор на глубокие цепочки рассуждений и поведение, нацеленное на агентные сценарии: планирование, решение задач, сложные выводы и работу со структурированными данными.
🏆 Производительность
• V3.2 - баланс скорости и качества, уровень примерно GPT-5
• V3.2-Speciale - топовый reasoning, конкурирует с Gemini-3.0-Pro.
• Speciale - лидер на IMO, CMO, ICPC.
🤖 Новый подход к обучению агентов
• Синтезированы большие тренировочные данные для 1800+ сред и 85k сложных инструкций.
• V3.2 - первая модель DeepSeek, у которой мышление встроено прямо в tool-use.
💻 API
• V3.2 использует тот же интерфейс, что V3.2-Exp.
• Speciale доступна через временный endpoint, работать будет до 15 декабря 2025.
📦 DeepSeek-V3.2 Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
📦 DeepSeek-V3.2-Speciale Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
@ai_machinelearning_big_data
#deepseek, #deepseekv3, #ai, #нейросети, #искусственныйинтеллект, #llm
👍2🔥2