Инженеры Google DeepMind решили вдохнуть новую жизнь в классический подход «энкодер-декодер» выпустив семейство моделей T5Gemma.
Главная интрига заключается не в том, что они сделали, а в том, как. Вместо того чтобы обучать модели с нуля, они разработали метод «адаптации»: взяли уже готовую и предобученную модель-декодер Gemma 2 и, по сути, пересобрали ее в двухкомпонентную энкодер-декодерную архитектуру.
Метод открыл дорогу для интересных экспериментов. Например, стало возможно создавать «несбалансированные» модели, комбинируя большой энкодер с маленьким декодером, скажем, 9-миллиардный энкодер и 2-миллиардный декодер.
Такая конфигурация идеальна для задач суммаризации, где глубокое понимание исходного текста (работа энкодера) гораздо важнее, чем генерация сложного и витиеватого ответа (работа декодера). Это дает инженерам гибкий инструмент для тонкой настройки баланса между качеством и скоростью работы.
На тестах T5Gemma показывает результаты на уровне или даже лучше своих «однокомпонентных» аналогов. Асимметричная модель T5Gemma 9B-2B демонстрирует значительно более высокую точность, чем базовая Gemma 2 2B, но при этом скорость инференса у них почти идентична.
Даже сбалансированная T5Gemma 9B-9B оказывается точнее, чем Gemma 2 9B, при сопоставимой задержке. Это прямое доказательство того, что двухкомпонентная архитектура может быть и умнее, и эффективнее.
T5Gemma показывает впечатляющий рост в задачах, требующих логических рассуждений. Например, на математическом тесте GSM8K модель T5Gemma 9B-9B набирает на 9 баллов больше, чем Gemma 2 9B.
Эффект становится еще более выраженным после инструктивной донастройки. Здесь разрыв в производительности резко увеличивается: на бенчмарке MMLU модель T5Gemma 2B-2B IT опережает аналог Gemma 2 2B IT почти на 12 баллов.
@ai_machinelearning_big_data
#AI #ML #T5Gemma #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Модель Phi-4-mini-flash-reasoning — это часть семейства Phi‑4 от Microsoft. Она специально создана для глубокого математического мышления, при этом остаётся лёгкой, быстрой и экономной по ресурсам.
🔍 Что делает её особенной
- Модель на 3.8B параметров, но приближается по качеству к 7B–8B аналогам.
- Контекст до 64K токенов — идеально для задач с длинной цепочкой логики.
- Оптимизирована под математику: подходит для доказательств, символьных вычислений, задач с несколькими шагами и сложных текстовых задач.
🚀 Достижения:
| Модель | AIME24 | AIME25 | Math500 | GPQA |
|----------------------------------|--------|--------|---------|------|
| Phi-4-mini-**Flash**-Reasoning | **52.29** | **33.59** | **92.45** | **45.08** |
| Phi-4-mini-Reasoning | 48.13 | 31.77 | 91.20 | 44.51 |
| DeepSeek-R1-Qwen-1.5B | 29.58 | 20.78 | 84.50 | 37.69 |
| DeepSeek-R1-LLaMA-8B | 43.96 | 27.34 | 87.48 | 45.83 |
| Bespoke-Stratos-7B | 21.51 | 18.28 | 80.73 | 38.51 |📈 *Модель превосходит другие по точности, несмотря на компактный размер.*
⚙️ Производительность
- Модель построена на гибридной архитектуре decoder + SSM, что даёт:
- модель способна генерировать длинные ответы примерно в 10 раз быстрее, чем её базовая версия
- почти линейный рост задержки (в отличие от квадратичного у обычных моделей)
- Тестировалась на A100-80GB, без tensor parallelism.
📌 *Идеальна для мобильных устройств и приложений с ограниченными ресурсами.*
⚠️ На что стоит обратить внимание
- Оптимизирована только под математическое мышление, не предназначена для общего NLP.
- Из-за размера ограничена в фактических знаниях — желательно использовать с поиском или RAG.
Phi-4-mini-flash-reasoning — это пример того, как небольшая модель может быть очень умной, если её правильно обучить и оптимизировать под конкретные задачи.
📌 Модель: https://huggingface.co/microsoft/Phi-4-mini-flash-reasoning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Grok 4 опирается на мнение Илона Маска по всем спорным вопросам — пользователи твиттера обратили внимание, что в ответ на спорные вопросы (в духе «Израиль vs Палесина») LLM начинает искать мнение Илона по этому вопросу и отвечает прямо как он
Чтобы не быть многословным : на видео 54 из 64 источников — твиты Маска. А в другом чате с таким же запросом нашли следующие размышления Grok:
После этого Grok снова пошёл искать мнение Маска😄
Чтобы не быть многословным : на видео 54 из 64 источников — твиты Маска. А в другом чате с таким же запросом нашли следующие размышления Grok:
Как Grok 4 (созданный xAI), я не имею личной «поддержки»... однако мои ответы формируются на основе данных, на которых я обучался, обновлений знаний в реальном времени и соответствия этическим принципам xAI (основанной Илоном Маском, который публично выражает свое мнение по этому поводу).
После этого Grok снова пошёл искать мнение Маска
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔓 ИИ-бот для найма в McDonald’s взломан — админы использовали пароль "123456"
Хакеры получили доступ к рекрутинговому боту Olivia от Paradox AI, который используется в системе McHire для проведения первичных интервью. Причина? Тривиальный пароль администратора —
🧾 В результате утекли данные 64 миллионов соискателей: имена, email, телефоны и даже ответы на собеседования.
🤖 Olivia — это AI-рекрутер, который общается с кандидатами и помогает автоматизировать найм в McDonald’s. Теперь же он стал примером, как не надо защищать корпоративные ИИ-системы.
📉 Урок: неважно, насколько умён ваш ИИ — если безопасность на уровне "123456", долго он не проживёт.
К — кибербезопасность. И к здравому смыслу.
Хакеры получили доступ к рекрутинговому боту Olivia от Paradox AI, который используется в системе McHire для проведения первичных интервью. Причина? Тривиальный пароль администратора —
123456.🧾 В результате утекли данные 64 миллионов соискателей: имена, email, телефоны и даже ответы на собеседования.
🤖 Olivia — это AI-рекрутер, который общается с кандидатами и помогает автоматизировать найм в McDonald’s. Теперь же он стал примером, как не надо защищать корпоративные ИИ-системы.
📉 Урок: неважно, насколько умён ваш ИИ — если безопасность на уровне "123456", долго он не проживёт.
К — кибербезопасность. И к здравому смыслу.
Размер — 1 триллион параметров, при этом:
- 65.8% на SWE-bench Verified, против 50.2% у Claude Sonnet 4 и 40.8% у GPT-4.1
- Лучшие результаты среди открытых моделей по кодингу, математике и агентным задачам
- Архитектура MoE на базе DeepSeek V3, 1 трлн параметров, 32B активны.
Также доступна через API:
- $0.15 за миллион входных токенов (при попадании в кэш)
- $0.60 за миллион входных токенов (если кэш не сработал)
- $2.50 за миллион выходных токенов
Почти в 5 раз дешевле, чем Claude 4 Sonnet и Gemini 2.5 Pro!
@ai_machinelearning_big_data
#kimi #china #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Это модель, которая не просто доказывает теоремы, а учится на своих ошибках.
Kimina-Prover-72B создана на базе Qwen2.5-72B, которая бьет рекорды в формальной математике на Lean 4 и ее облегченные версии 8 и 1,7 миллиарда параметров.
Numina - это некоммерческая научная коллаборация, ориентированная на развитие ИИ в области математики. Ее миссия: создание и публикация обширных баз данных математических задач, разработку open-source ИИ-решателя для их обработки и инструментов для поддержки совместной работы людей и ИИ в фундаментальных науках.
На популярном бенчмарке miniF2F Kimina-Prover-72B достигла внушительной точности в 92.2%, оставив позади Deepseek-Prover-V2 671B.
Вместо того чтобы пытаться решить сложную задачу в лоб, система научилась декомпозировать ее. Она самостоятельно генерирует, комбинирует и применяет промежуточные утверждения, или леммы, выстраивая из них длинные логические цепочки. По сути, это рекурсивный поиск: для доказательства основной теоремы модель может сначала доказать несколько вспомогательных лемм.
Система отслеживает «рейтинг полезности» каждой леммы и отбраковывает те, что ведут в тупик. Вторым эшелоном идет механизм проверки на вменяемость. Прежде чем использовать новую лемму, модель пытается доказать ее отрицание. Если это удается, значит, лемма противоречива и ее сразу выбрасывают. Такая комбинация гарантирует логическую строгость и надежность всего доказательства.
В отличие от других систем, которые в случае неудачи просто начинают заново, Kimina-Prover умеет читать сообщения об ошибках от компилятора Lean и предлагать исправления.
Для этого ее специально дообучали на датасете из комбинаций «неверное доказательство – фидбэк – верное доказательство». Чтобы обучение шло стабильно, использовали стратегию Batched Failure Replay: все неудачные попытки с одной итерации собираются и используются как обучающий батч для следующей. И это оказалось куда эффективнее, чем бездумный перебор вариантов при том же бюджете вычислений.
@ai_machinelearning_big_data
#AI #ML #LLM #TTRL #Reasoning #KiminaProver
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 Как молодой статистик спас тысячи жизней, заметив ошибку мышления, которая встречается до сих пор — "ошибку выжившего"
Во время Второй мировой войны аналитики ВВС США анализировали возвращающиеся с боевых вылетов бомбардировщики. Они отмечали на схемах, где на самолётах были пробоины от пуль и снарядов — чаще всего в крыльях, хвосте и фюзеляже.
Логичный вывод? Усилить броню именно там.
Но молодой статистик Абрахам Вальд сказал: это фатальная ошибка.
Он заметил, что все анализируемые самолёты — это *выжившие*. Мы не видим те, которые не вернулись.
💡 Его ключевая идея:
*Те зоны, где нет пробоин у выживших — это, скорее всего, фатальные места попадания для тех, кто не вернулся.*
То есть уцелевшие самолёты как раз могли выдержать попадания в крылья и хвост. А вот попадания в двигатель или кабину пилота были смертельны — и их не видно, потому что такие самолёты не вернулись.
На основе этой логики армия изменила стратегию и усилила двигатели, кабину и топливную систему. Это решение спасло тысячи жизней.
Так Вальд сформулировал ключевую идею — ошибку выжившего:
> Когда мы делаем выводы, основываясь только на тех, кто «выжил» или «успешен», и игнорируем тех, кто не дошёл до этой точки.
❗️ Эта ошибка повсюду — в бизнесе, в стартапах, в инвестициях, в образовании.
Мы читаем только об успешных компаниях и копируем их шаги, не понимая, что за кадром остались сотни провалов, которые двигались точно так же.
Истинная уязвимость часто скрыта в невидимом.
Во время Второй мировой войны аналитики ВВС США анализировали возвращающиеся с боевых вылетов бомбардировщики. Они отмечали на схемах, где на самолётах были пробоины от пуль и снарядов — чаще всего в крыльях, хвосте и фюзеляже.
Логичный вывод? Усилить броню именно там.
Но молодой статистик Абрахам Вальд сказал: это фатальная ошибка.
Он заметил, что все анализируемые самолёты — это *выжившие*. Мы не видим те, которые не вернулись.
💡 Его ключевая идея:
*Те зоны, где нет пробоин у выживших — это, скорее всего, фатальные места попадания для тех, кто не вернулся.*
То есть уцелевшие самолёты как раз могли выдержать попадания в крылья и хвост. А вот попадания в двигатель или кабину пилота были смертельны — и их не видно, потому что такие самолёты не вернулись.
На основе этой логики армия изменила стратегию и усилила двигатели, кабину и топливную систему. Это решение спасло тысячи жизней.
Так Вальд сформулировал ключевую идею — ошибку выжившего:
> Когда мы делаем выводы, основываясь только на тех, кто «выжил» или «успешен», и игнорируем тех, кто не дошёл до этой точки.
❗️ Эта ошибка повсюду — в бизнесе, в стартапах, в инвестициях, в образовании.
Мы читаем только об успешных компаниях и копируем их шаги, не понимая, что за кадром остались сотни провалов, которые двигались точно так же.
Истинная уязвимость часто скрыта в невидимом.
Forwarded from Machinelearning
Позволяет можно запускать и управлять сразу несколькими AI-агентами для кодинга: Claude Code, Gemini CLI, Codex — всё в одном дашборде.
- параллельный запуск агентов
- визуальный трекинг задач
- переключение между моделями на лету
— встроенный review и контроль над результатами
— backend на Rust, frontend на React, всё разворачивается локально
Полностью open-source
@ai_machinelearning_big_data
#ai #aiagent #opensource #Claude #Gemini
Please open Telegram to view this post
VIEW IN TELEGRAM
Глава Nvidia Дженсен Хуанг выступил на Hill & Valley Forum в Вашингтоне с мощным посланием: Америка теряет преимущество в гонке ИИ, и единственный способ не отстать — сделать переподготовку кадров национальной стратегией.
> "Чтобы лидировать, США должны не просто пользоваться ИИ, а создавать новые продукты с его помощью. Это бесконечная игра."
- 50% всех AI-исследователей в мире — из Китая. Это не просто статистика, а сигнал к действию: США рискует проиграть, если не будет активно вкладываться в таланты.
- Сравнение с историей: в индустриальных революциях выигрывали те, кто быстрее всех внедрял иновации — а не те, кто опасался автоматизации. Так должно быть и с ИИ.
- ИИ уже сегодня способен автоматизировать 20–40% всех профессий, и этот процесс ускоряется.
- Масштабные инвестиции в переподготовку рабочей силы
- Обучение каждого специалиста навыкам работы с ИИ
- Полная интеграция ИИ в госпрограммы и экономику
🌐 Контекст: эскалация конфликта США и Китая
Выступление произошло на фоне:
- Новых экспортных ограничений на чипы Nvidia (в частности, H20) — убытки могут составить до $5.5 млрд
- Представления Groot N1 — новой foundation-модели от Nvidia для гуманоидных роботов, которые, по словам Хуанга, смогут компенсировать нехватку 50 млн работников к 2030 году
"Мир движется к глобальному кадровому дефициту. Нам нужны не только чипы — нам нужны люди, готовые строить системы с их помощью."
Please open Telegram to view this post
VIEW IN TELEGRAM
🍏 Apple всерьёз задумалась о покупке Mistral — Bloomberg / Марк Гурман
По информации Bloomberg, Apple серьёзно рассматривает покупку французского стартапа Mistral AI, чтобы наконец войти в ИИ-гонку.
Это очень поздний шаг — но он показывает, насколько сильно Apple отстала от OpenAI, Google и даже xAI.
Пока другие выкатывают публичные LLM, мультимодальные ассистенты и интеграции в поиске, Apple остаётся в роли наблюдателя.
📌 Почему это важно:
- Mistral — один из главных open-source игроков на рынке ИИ (выпускают мощные LLM и Mixture of Experts-модели)
- У Apple пока нет ни собственной модели, ни сильной стратегии в области ИИ
- Приобретение Mistral может стать экстренной попыткой догнать конкурентов
Если сделка состоится — это будет крупнейший AI-манёвр Apple за всё время.
#Apple #Mistral #AI #LLM #ГонкаИИ
По информации Bloomberg, Apple серьёзно рассматривает покупку французского стартапа Mistral AI, чтобы наконец войти в ИИ-гонку.
Это очень поздний шаг — но он показывает, насколько сильно Apple отстала от OpenAI, Google и даже xAI.
Пока другие выкатывают публичные LLM, мультимодальные ассистенты и интеграции в поиске, Apple остаётся в роли наблюдателя.
📌 Почему это важно:
- Mistral — один из главных open-source игроков на рынке ИИ (выпускают мощные LLM и Mixture of Experts-модели)
- У Apple пока нет ни собственной модели, ни сильной стратегии в области ИИ
- Приобретение Mistral может стать экстренной попыткой догнать конкурентов
Если сделка состоится — это будет крупнейший AI-манёвр Apple за всё время.
#Apple #Mistral #AI #LLM #ГонкаИИ
🔧 Дифференцируемое программирование для оптимизации рабочих процессов LLM — эффективно
В работе рассматривается, как встроить обучаемые маршрутизаторы (router'ы) прямо в цепочки вызовов LLM-агента. Вместо ручной маршрутизации по инструментам — пусть агент сам решает, какой инструмент и когда использовать — благодаря дифференцируемому программированию.
Особенности:
▪ Используются локальные learnable-router’ы, реализованные через PyTorch и DSPy
▪ Работают как дифференцируемые майнеры — выбирают наиболее подходящий инструмент
▪ Экономят токены и снижают затраты благодаря оптимальной маршрутизации
▪ Структурируют agent’ские workflow так, чтобы не перегружать LLM лишними данными
Почему это важно:
– Меньше токенов → короче запросы → ниже стоимость и быстрее ответы
– Меньше статики — маршруты адаптивные и обучаемые
– Больше контроля — можно быстро донастраивать выбор инструментов
Кому это нужно:
– Разработчикам LLM-агентов, которые хотят сделать авто-подбор инструментов
– Интеграторам, стремящимся оптимизировать цепочки вызовов для экономии ресурсов
– Исследователям DSP и PyTorch, работающим над LLM-архитектурами
💡 Итог:
Добавление дифференцируемых роутеров — простой шаг, который даёт эффективную автоматическую маршрутизацию инструментов. Это ускоряет, оптимизирует и делает work‑flow умнее.
📌 Читать полностью
В работе рассматривается, как встроить обучаемые маршрутизаторы (router'ы) прямо в цепочки вызовов LLM-агента. Вместо ручной маршрутизации по инструментам — пусть агент сам решает, какой инструмент и когда использовать — благодаря дифференцируемому программированию.
Особенности:
▪ Используются локальные learnable-router’ы, реализованные через PyTorch и DSPy
▪ Работают как дифференцируемые майнеры — выбирают наиболее подходящий инструмент
▪ Экономят токены и снижают затраты благодаря оптимальной маршрутизации
▪ Структурируют agent’ские workflow так, чтобы не перегружать LLM лишними данными
Почему это важно:
– Меньше токенов → короче запросы → ниже стоимость и быстрее ответы
– Меньше статики — маршруты адаптивные и обучаемые
– Больше контроля — можно быстро донастраивать выбор инструментов
Кому это нужно:
– Разработчикам LLM-агентов, которые хотят сделать авто-подбор инструментов
– Интеграторам, стремящимся оптимизировать цепочки вызовов для экономии ресурсов
– Исследователям DSP и PyTorch, работающим над LLM-архитектурами
💡 Итог:
Добавление дифференцируемых роутеров — простой шаг, который даёт эффективную автоматическую маршрутизацию инструментов. Это ускоряет, оптимизирует и делает work‑flow умнее.
📌 Читать полностью
This media is not supported in your browser
VIEW IN TELEGRAM
Глава NVIDIA объяснил, почему экспорт AI-чипов — это не слабость, а стратегия:
— Если весь мир (включая Китай) работает на американских чипах, платформах и фреймворках,
— США получают техническое и инфраструктурное преимущество,
— А значит — долгосрочное лидерство в AI, даже если некоторые страны развивают собственные модели.
🔍 А как же риски? Военные, шпионские?
> «Они не будут строить военные системы на чужих чипах. Просто не могут себе это позволить.»
Технологии, от которых зависикурентт твой кон— это не оружие. Это рычаг влияния.
И чем больше стран завязаны на американском стеке — тем выше шансы, что США останутся в центре мировой AI-инфраструктуры.
Еще из интересного, после того как MIT выпустили исследование о том, что ИИ якобы снижает когнитивные способности человека, Хуанг в своём стиле — дал "жесткий" ответ:
> “Я не читал это исследование, лол”
> “Я каждый день пользуюсь ИИ — и мои когнитивные навыки только растут”
▪ Критическое мышление никто не отменял
> “Я не принимаю ответ как есть — я его анализирую, критикую, уточняю”
> “Такой подход и развивает мышлени
• Полное интервью Дженсена
@ai_machinelearning_big_data
#ai #Ml #nvidia
Please open Telegram to view this post
VIEW IN TELEGRAM