🚀 OpenAI официально запускает GPT-5.2!
Новая линейка моделей - Instant, Thinking и Pro - начинает раскатываться для пользователей Plus, Pro, Business и Enterprise. Завтра доступ получат Free и Go. Модели уже доступны и в API, включая режим Codex.
🧠 GPT-5.2 Thinking
Модель для сложной профессиональной работы.
— Sota результаты в рассуждении
— Существенный прогресс в создании и анализе таблиц
— Первые значимые улучшения в создании презентаций
На бенчмарке GDPval - тесте «зрелой» офисной работы для 44 профессий - это первая модель, достигшая уровня эксперта-человека.
⚡ GPT-5.2 Instant
Ориентирована на повседневную работу и обучение.
— Такой же разговорный стиль, как у 5.1
— Более чёткие объяснения темы
— Улучшенные пошаговые инструкции
— Сильное техническое письмо и перевод
🔬 GPT-5.2 Pro
Самая мощная модель для сложных вопросов.
— Лучшие результаты в программировании
— Лучшая модель для учёных и исследовательских команд
GPT-5.1 останется доступной платным пользователям ещё три месяца в статусе legacy.
https://openai.com/index/introducing-gpt-5-2/
@data_analysis_ml
Новая линейка моделей - Instant, Thinking и Pro - начинает раскатываться для пользователей Plus, Pro, Business и Enterprise. Завтра доступ получат Free и Go. Модели уже доступны и в API, включая режим Codex.
🧠 GPT-5.2 Thinking
Модель для сложной профессиональной работы.
— Sota результаты в рассуждении
— Существенный прогресс в создании и анализе таблиц
— Первые значимые улучшения в создании презентаций
На бенчмарке GDPval - тесте «зрелой» офисной работы для 44 профессий - это первая модель, достигшая уровня эксперта-человека.
⚡ GPT-5.2 Instant
Ориентирована на повседневную работу и обучение.
— Такой же разговорный стиль, как у 5.1
— Более чёткие объяснения темы
— Улучшенные пошаговые инструкции
— Сильное техническое письмо и перевод
🔬 GPT-5.2 Pro
Самая мощная модель для сложных вопросов.
— Лучшие результаты в программировании
— Лучшая модель для учёных и исследовательских команд
GPT-5.1 останется доступной платным пользователям ещё три месяца в статусе legacy.
https://openai.com/index/introducing-gpt-5-2/
@data_analysis_ml
❤7🔥7👍4🥴2🥱1
📝 Главное из System Card GPT-5.2
— GPT-5.2 стала заметно честнее. В реальном продакшн-трафике случаи обмана у версии Thinking снизились до 1.6% против 7.7% у GPT-5.1. Модель гораздо реже врёт или искажает информацию о работе с инструментами.
— Модель лучше держит удар при провокациях. В специальных тестах, где её пытаются склонить к обману, показатель снизился с 11.8% до 5.4%. То есть GPT-5.2 устойчивее к манипулятивным подсказкам.
— Защита от prompt-injection стала сильнее. Instant и Thinking почти полностью проходят известные тесты (0.997 и 0.978). При этом OpenAI честно предупреждает: это проверка на известные атаки, а не гарантия защиты от новых.
— Большой скачок в чувствительных темах. Особенно в областях ментального здоровья и эмоциональной зависимости:
• mental health: 0.915 вместо 0.684
• emotional reliance: 0.955 вместо 0.785
Это один из самых заметных прогрессов по сравнению с GPT-5.1.
— GPT-5.2 Instant реже отказывается отвечать на запросы взрослых пользователей по «18+» темам. При этом правила не ослаблялись, а доступ для несовершеннолетних не расширялся.
— OpenAI внедряет автоматическое определение возраста. Для аккаунтов младше 18 лет будут жёстче ограничиваться чувствительные категории — сексуальный контент, романтические ролевые сценарии, сцены насилия.
— По фактической точности GPT-5.2 Thinking как минимум не хуже прошлых версий, а в некоторых сценариях лучше. С включённым браузингом уровень галлюцинаций опустился ниже 1% в пяти тематических областях.
— В рамках Preparedness Framework модель признана «высокоспособной» в биологии и химии. Включены дополнительные меры защиты. При этом OpenAI подчёркивает: нет доказательств, что модель может помочь новичку нанести серьёзный биологический вред, хотя она уже близка к этому порогу.
— В задачах самоулучшения ИИ GPT-5.2 Thinking стала лучшей моделью на бенчмарке OpenAI PRs, сопоставима с gpt-5.1-codex-max на MLE-bench и всего на 1 пункт уступает ему на PaperBench.
— Независимая проверка Apollo Research не выявила скрытого саботажа, попыток самосохранения или подрывного поведения. По их оценке, риск катастрофического вреда из-за «коварных» стратегий модели крайне низок.
GPT-5.2 показывает заметный прогресс в честности, устойчивости, безопасности и качестве ответов.
cdn.openai.com/pdf/3a4153c8-c748-4b71-8e31-aecbde944f8d/oai_5_2_system-card.pdf
— GPT-5.2 стала заметно честнее. В реальном продакшн-трафике случаи обмана у версии Thinking снизились до 1.6% против 7.7% у GPT-5.1. Модель гораздо реже врёт или искажает информацию о работе с инструментами.
— Модель лучше держит удар при провокациях. В специальных тестах, где её пытаются склонить к обману, показатель снизился с 11.8% до 5.4%. То есть GPT-5.2 устойчивее к манипулятивным подсказкам.
— Защита от prompt-injection стала сильнее. Instant и Thinking почти полностью проходят известные тесты (0.997 и 0.978). При этом OpenAI честно предупреждает: это проверка на известные атаки, а не гарантия защиты от новых.
— Большой скачок в чувствительных темах. Особенно в областях ментального здоровья и эмоциональной зависимости:
• mental health: 0.915 вместо 0.684
• emotional reliance: 0.955 вместо 0.785
Это один из самых заметных прогрессов по сравнению с GPT-5.1.
— GPT-5.2 Instant реже отказывается отвечать на запросы взрослых пользователей по «18+» темам. При этом правила не ослаблялись, а доступ для несовершеннолетних не расширялся.
— OpenAI внедряет автоматическое определение возраста. Для аккаунтов младше 18 лет будут жёстче ограничиваться чувствительные категории — сексуальный контент, романтические ролевые сценарии, сцены насилия.
— По фактической точности GPT-5.2 Thinking как минимум не хуже прошлых версий, а в некоторых сценариях лучше. С включённым браузингом уровень галлюцинаций опустился ниже 1% в пяти тематических областях.
— В рамках Preparedness Framework модель признана «высокоспособной» в биологии и химии. Включены дополнительные меры защиты. При этом OpenAI подчёркивает: нет доказательств, что модель может помочь новичку нанести серьёзный биологический вред, хотя она уже близка к этому порогу.
— В задачах самоулучшения ИИ GPT-5.2 Thinking стала лучшей моделью на бенчмарке OpenAI PRs, сопоставима с gpt-5.1-codex-max на MLE-bench и всего на 1 пункт уступает ему на PaperBench.
— Независимая проверка Apollo Research не выявила скрытого саботажа, попыток самосохранения или подрывного поведения. По их оценке, риск катастрофического вреда из-за «коварных» стратегий модели крайне низок.
GPT-5.2 показывает заметный прогресс в честности, устойчивости, безопасности и качестве ответов.
cdn.openai.com/pdf/3a4153c8-c748-4b71-8e31-aecbde944f8d/oai_5_2_system-card.pdf
❤9🔥6👍4
🚀 GPU для ИИ в периметре компании — MWS Cloud запускает новый сервис
MWS GPU on-premises решает задачу для тех, кому облако не подходит по требованиям безопасности. Серверы с передовыми графическими ускорителями разворачиваются на площадке предприятия, а команда MWS Cloud берёт на себя весь цикл — от подбора конфигурации до поддержки.
Почему это важно:
1. В России множество компаний, которые по закону могут разворачивать инфраструктуру только on-premises — теперь у них есть готовое решение.
2. Благодаря готовым конфигурациям запуск занимает дни, а не месяцы.
3. Аренда переводит капитальные затраты в операционные — не нужно замораживать бюджет на закупку железа.
4. Всего доступно 7 видов карт и более чем 20 конфигураций серверов.
→ Все конфигурации и условия: https://mws.ru/services/mws-gpu-on-prem/
MWS GPU on-premises решает задачу для тех, кому облако не подходит по требованиям безопасности. Серверы с передовыми графическими ускорителями разворачиваются на площадке предприятия, а команда MWS Cloud берёт на себя весь цикл — от подбора конфигурации до поддержки.
Почему это важно:
1. В России множество компаний, которые по закону могут разворачивать инфраструктуру только on-premises — теперь у них есть готовое решение.
2. Благодаря готовым конфигурациям запуск занимает дни, а не месяцы.
3. Аренда переводит капитальные затраты в операционные — не нужно замораживать бюджет на закупку железа.
4. Всего доступно 7 видов карт и более чем 20 конфигураций серверов.
«Инфраструктура может масштабироваться в зависимости от задач и объёмов вычислений. Это обеспечивает гибкость при расширении проектов», — отметил директор по новым облачным продуктам Алексей Кузнецов.
→ Все конфигурации и условия: https://mws.ru/services/mws-gpu-on-prem/
👍6❤4🔥3
🚀 Paper2Slides теперь в open source!
Теперь можно превращать научные статьи и техотчёты в профессиональные презентации в один клик.
Мы уже сгенерировали слайды по свежему DeepSeek V3.2 - разные стили, аккуратное оформление. Загляни, оцени и поделись мнением.
🔥 Что умеет Paper2Slides:
📄 Поддержка разных форматов - PDF, Word, Excel, PowerPoint и др.
🎯 Понимает содержание - вытягивает ключевые идеи, таблицы, формулы, графики и данные
🎨 Кастомизация - готовые темы и полная персонализация стилей
⚡ Очень быстро — качественные презентации за минуты
GitHub: github.com/HKUDS/Paper2Slides
Теперь можно превращать научные статьи и техотчёты в профессиональные презентации в один клик.
Мы уже сгенерировали слайды по свежему DeepSeek V3.2 - разные стили, аккуратное оформление. Загляни, оцени и поделись мнением.
🔥 Что умеет Paper2Slides:
📄 Поддержка разных форматов - PDF, Word, Excel, PowerPoint и др.
🎯 Понимает содержание - вытягивает ключевые идеи, таблицы, формулы, графики и данные
🎨 Кастомизация - готовые темы и полная персонализация стилей
⚡ Очень быстро — качественные презентации за минуты
GitHub: github.com/HKUDS/Paper2Slides
🔥17❤8👍8
💡 Google Переводчик запускает перевод речи в реальном времени прямо в беспроводные наушники - и да, подходят любые модели.
Функция работает на базе нейросети Gemini и уже проходит тестирование на Android в США, Индии и Мексике. Поддерживается более 70 языков, включая русский.
Как это выглядит на практике:
собеседник говорит - ты сразу слышишь перевод в наушниках. Без пауз, без необходимости смотреть на экран, без лишних действий.
Ключевое отличие от конкурентов - универсальность. Google не привязывает функцию к конкретному «железу» и не требует фирменных наушников. Это резко контрастирует с подходом Apple, где подобные возможности ограничены экосистемой AirPods.
По сути, Google делает перевод частью повседневного общения, а не отдельным режимом в приложении.
Глобальный релиз и версия для iOS ожидаются в 2026 году.
Функция работает на базе нейросети Gemini и уже проходит тестирование на Android в США, Индии и Мексике. Поддерживается более 70 языков, включая русский.
Как это выглядит на практике:
собеседник говорит - ты сразу слышишь перевод в наушниках. Без пауз, без необходимости смотреть на экран, без лишних действий.
Ключевое отличие от конкурентов - универсальность. Google не привязывает функцию к конкретному «железу» и не требует фирменных наушников. Это резко контрастирует с подходом Apple, где подобные возможности ограничены экосистемой AirPods.
По сути, Google делает перевод частью повседневного общения, а не отдельным режимом в приложении.
Глобальный релиз и версия для iOS ожидаются в 2026 году.
🔥41❤9👍6
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
🚀 GLM-4.6V от Zai_org только что вышла на Chutes 🪂
- 106B параметров
- Контекст 128K
Нативный vision-driven function calling
GLM-4.6V умеет *действовать на основе увиденного*.
Возможности:
- точное, пиксель-в-пиксель восстановление HTML по изображению
- глубокое понимание сложных мультимодальных документов
- прямой вызов функций из визуального ввода
- связка «зрение → рассуждение → действие» без костылей
Попробовать модель:
https://chutes.ai/app/chute/8f2105c5-b200-5aa5-969f-0720f7690f3c?tab=api
- 106B параметров
- Контекст 128K
Нативный vision-driven function calling
GLM-4.6V умеет *действовать на основе увиденного*.
Возможности:
- точное, пиксель-в-пиксель восстановление HTML по изображению
- глубокое понимание сложных мультимодальных документов
- прямой вызов функций из визуального ввода
- связка «зрение → рассуждение → действие» без костылей
Попробовать модель:
https://chutes.ai/app/chute/8f2105c5-b200-5aa5-969f-0720f7690f3c?tab=api
🔥7❤2👍2
Please open Telegram to view this post
VIEW IN TELEGRAM
😐8❤2
🔊 Google представила обновления моделей Gemini 2.5 Flash и Pro для Text-to-Speech (TTS)
Что нового:
- Более гибкая передача эмоций и тональности
- Контекстно-зависимая настройка темпа речи
- Улучшенная работа с несколькими говорящими
Теперь разработчики получают куда больше контроля над тем, как именно модель озвучивает тексты - от эмоционального стиля до динамики повествования.
https://blog.google/technology/developers/gemini-2-5-text-to-speech/
@ai_machinelearning_big_data
#tts #Gemini #google
Что нового:
- Более гибкая передача эмоций и тональности
- Контекстно-зависимая настройка темпа речи
- Улучшенная работа с несколькими говорящими
Теперь разработчики получают куда больше контроля над тем, как именно модель озвучивает тексты - от эмоционального стиля до динамики повествования.
https://blog.google/technology/developers/gemini-2-5-text-to-speech/
@ai_machinelearning_big_data
#tts #Gemini #google
👍8❤6🔥1
Microsoft запустила VibeVoice Realtime на Hugging Face - лёгкую стриминговую text-to-speech модель, которая начинает озвучивать текст примерно за 300 миллисекунд.
Идеально для живых данных и разговоров с LLM.
huggingface.co/microsoft/VibeVoice-Realtime-0.5B
Идеально для живых данных и разговоров с LLM.
huggingface.co/microsoft/VibeVoice-Realtime-0.5B
❤3👍1