⚡️ OpenAI, Anthropic и Google только что получили доступ к петабайтам закрытых экспериментальных данных. Эти данные десятилетиями копили 17 Национальных лабораторий США.
И речь уже не про «улучшение чатботов». Новая государственная программа США — Genesis Mission - официально строит автономных научных агентов.
Они называют это «закрытым научным контуром» (Closed-Loop discovery), и это меняет саму физику изобретений. Не человек использует инструменты — система работает полностью автономно.
Схема, описанная в дорожной карте DOE, выглядит как научная фантастика:
• AI проектирует: смотрит на массивы данных и формирует гипотезу вроде «если смешать эти сплавы при 4000°C - получится сверхпроводник».
• Он отправляет инструкции в роботизированную лабораторию (которую строит DOE), чтобы физически смешать материалы.
• Робот мгновенно возвращает результаты. Если эксперимент провален - AI корректирует формулу.
• Такой цикл прогоняется тысячами итераций, без пауз, 24/7.
Genesis Mission - это попытка впервые в истории построить систему, где наука создаёт саму себя. Без человека в центре.
И речь уже не про «улучшение чатботов». Новая государственная программа США — Genesis Mission - официально строит автономных научных агентов.
Они называют это «закрытым научным контуром» (Closed-Loop discovery), и это меняет саму физику изобретений. Не человек использует инструменты — система работает полностью автономно.
Схема, описанная в дорожной карте DOE, выглядит как научная фантастика:
• AI проектирует: смотрит на массивы данных и формирует гипотезу вроде «если смешать эти сплавы при 4000°C - получится сверхпроводник».
• Он отправляет инструкции в роботизированную лабораторию (которую строит DOE), чтобы физически смешать материалы.
• Робот мгновенно возвращает результаты. Если эксперимент провален - AI корректирует формулу.
• Такой цикл прогоняется тысячами итераций, без пауз, 24/7.
Genesis Mission - это попытка впервые в истории построить систему, где наука создаёт саму себя. Без человека в центре.
Задачи, которые у людей занимают около 90 минут и стоят примерно $55 труда, Claude выполняет на 80% быстрее человека.
У большинства пользователей экономия времени - в диапазоне 50–95%.
Вот самые впечатляющие цифры экономии времени:
• Преподаватели и методисты - до 96% быстрее при подготовке программ и учебных материалов
• Библиотекари - до 93%, когда нужно составлять подборки, списки источников и справки
• Научные ассистенты - 91%
• Секретари и администраторы - 87%, подготовка писем, документов, отчётов
• Преподаватели аграрных наук - 83%, создание методичек и рекомендаций
• Финансовые аналитики - 80%, интерпретация данных, рисков, экономических трендов
• Консультанты по образованию и карьере -75%, подготовка справочных материалов и рекомендаций
Это одно из самых масштабных эмпирических измерений влияния генеративного ИИ - и оно показывает, что выгода есть, но зависит от контекста и задач.
Полное исследование: https://www.anthropic.com/research/estimating-productivity-gains
@ai_machinelearning_big_data
#AI #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Главное из нового интервью Ильи Суцквера (25 ноября 2025, Dwarkesh Podcast)
Самые интересные цитаты:
1. Масштабирование кончилось
> «Current scaling approaches will go some distance and then peter out»
2. Суперинтеллект уже на горизонте
> «Superintelligence in 5 to 20 years. You know what’s crazy? That all of this is real»
3. Главная проблема генерализация
> «A teenager learns to drive in 10 hours. Our best models still can’t after billions of examples»
4. RL стал самым дорогим и самым бесполезным этапом
> «Reinforcement learning already takes more compute than pre-training and gives almost nothing in return»
5. Дальше только исследования
> «We are squarely in the age of research, but this time with powerful computers»
6. У ИИ пока нет настоящих «эмоций»
> «Value functions are basically emotions. Without them alignment will stay fragile»
7. Цитата, которую уже растащили все сми
> «The gap between benchmark scores and real-world performance is getting embarrassing»
8. Про свою компанию SSI
> «We have no products, no distractions. Just safe superintelligence»
Главный вопрос он ставит так:
Какой супер-интеллект мы создадим -
Полное интервью: https://www.youtube.com/watch?v=aR20FWCCjAs
Самые интересные цитаты:
1. Масштабирование кончилось
> «Current scaling approaches will go some distance and then peter out»
2. Суперинтеллект уже на горизонте
> «Superintelligence in 5 to 20 years. You know what’s crazy? That all of this is real»
3. Главная проблема генерализация
> «A teenager learns to drive in 10 hours. Our best models still can’t after billions of examples»
4. RL стал самым дорогим и самым бесполезным этапом
> «Reinforcement learning already takes more compute than pre-training and gives almost nothing in return»
5. Дальше только исследования
> «We are squarely in the age of research, but this time with powerful computers»
6. У ИИ пока нет настоящих «эмоций»
> «Value functions are basically emotions. Without them alignment will stay fragile»
7. Цитата, которую уже растащили все сми
> «The gap between benchmark scores and real-world performance is getting embarrassing»
8. Про свою компанию SSI
> «We have no products, no distractions. Just safe superintelligence»
Главный вопрос он ставит так:
Какой супер-интеллект мы создадим -
«15-летнего гениального подростка, который жадно учится или «что-то уже полностью готовое и законченное. »
Полное интервью: https://www.youtube.com/watch?v=aR20FWCCjAs
Согласно данным CNBC компания собирается выпустить готовый продукт в течение примерно двух лет.
Замысел состоит в создании спокойного всегда активного помощника который станет чем то средним между пользователем и шумным миром смартфонов.
Роль Айва в этом проекте огромна .
Ему нужно превратить большие языковые модели OpenAI в вещь которую человек действительно захочет носить или держать при себе.
Именно Айв придумывает форму материалы и способ взаимодействия так же как он однажды определил эстетику и характер эпохи iPhone
Сэм Альтман постоянно говорит о необходимости нового опыта .
Устройство должно брать на себя долгие процессы помнить контекст фильтровать лишние уведомления и позволять общаться с помощником который знает историю действий человека.
Идея состоит в том что человек перестает прыгать по десяткам приложений и просто разговаривает с агентом который понимает его ситуацию.
Есть и более тревожный но важный аспект.
Разработчики говорят что устройство может знать практически все что человек когда либо читал говорил или обдумывал.
Это намекает на глубокую интеграцию со всеми сообщениями документами голосовыми журналами и возможно постоянным аудио потоком который индексируется единым модельным ядром.
На уровне экосистемы OpenAI объединяет эту идею пользовательского устройства с производственной инфраструктурой Foxconn.
Foxconn помогает проектировать и создавать стойки сетевое оборудование системы охлаждения и питания на американских объектах.
Тем самым OpenAI получает и умное устройство у пользователя и тяжелую серверную инфраструктуру под своим контролем.
Такое сочетание уже создает давление на Apple
iPhone и Siri по прежнему опираются на старую модель ассистентов и ограничены прежними концепциями.
В то время как OpenAI пытается создать новый основной объект персональных вычислений где сама языковая модель является центром всех взаимодействий.
cnbc.com/2025/11/24/openai-hardware-jony-ive-sam-altman-emerson-collective.html
@ai_machinelearning_big_data
#chatgpt #opanai
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 Google стала главным двигателем роста S&P 500 в 2025 году
Alphabet в одиночку дала 19.4% всего роста S&P 500, это около $1.3 трлн рыночной капитализации.
Nvidia добавила 16.0% еще $1.05 трлн, индекс теперь почти напрямую следует за AI гигантами.
Broadcom и Microsoft внесли 7.8% и 5.7%, а остальные компании из топ 10 еще 10.6%.
Итог: топ 10 компаний показывают 59.4% всего роста рынка тогда как остальные 490 лишь 40.6%.
S&P 500 все меньше отражает состояние экономики и все больше коррелирует с узким сегментом крупнейших AI корпораций.
https://x.com/KobeissiLetter/status/1993359777062436902
@ai_machinelearning_big_data
Alphabet в одиночку дала 19.4% всего роста S&P 500, это около $1.3 трлн рыночной капитализации.
Nvidia добавила 16.0% еще $1.05 трлн, индекс теперь почти напрямую следует за AI гигантами.
Broadcom и Microsoft внесли 7.8% и 5.7%, а остальные компании из топ 10 еще 10.6%.
Итог: топ 10 компаний показывают 59.4% всего роста рынка тогда как остальные 490 лишь 40.6%.
S&P 500 все меньше отражает состояние экономики и все больше коррелирует с узким сегментом крупнейших AI корпораций.
https://x.com/KobeissiLetter/status/1993359777062436902
@ai_machinelearning_big_data
Это подробный гайд по математическому фундаменту, необходимому для понимания работы алгоритмов «под капотом». Материал полезен тем, кто хочет углубиться в теорию дальше вызова
.fit() в scikit-learn.Ключевые поинты:
* Структура: Roadmap базируется на трех дисциплинах:
1. Linear Algebra: Язык описания данных и моделей (векторы, матрицы, тензоры).
2. Calculus: Инструментарий для обучения и оптимизации (производные, градиенты).
3. Probability Theory: Фреймворк для оценки неопределенности.
Подход: Автор делает упор на интуицию, а не на заучивание формул.
Гайд связывает абстрактную математику с конкретными ML-задачами - от понимания того, как работает Backpropagation и SGD, до причин взрыва градиентов и выбора функции потерь.
🔗 Читать полную версию: https://thepalindrome.org/p/the-roadmap-of-mathematics-for-machine-learning
🔗 Мат база на русском: https://stepik.org/course/226596/info
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Anthropic оценила влияние ассистентов на темпы роста производительности
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.
Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.
Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.
📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.
Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.
Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.
📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
🚀 DeepSeek Вернулись
Компания выпустила DeepSeek Math V2 - мощную модель для самопроверяемых математических рассуждений.
Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.
Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.
📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024
🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.
Модель остаётся компактной и может работать даже на одной GPU, без мощной инфраструктуры. Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
@ai_machinelearning_big_data
#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
Компания выпустила DeepSeek Math V2 - мощную модель для самопроверяемых математических рассуждений.
Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.
Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.
📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024
🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.
Модель остаётся компактной и может работать даже на одной GPU, без мощной инфраструктуры. Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
@ai_machinelearning_big_data
#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
Prime Intellect выкатили INTELLECT-3 - 106B Mixture-of-Experts модель, обученнfz на GLM-4.5 Air Base с двумя этапами: SFT и масштабным RL-дообучением.
Это первая модель такого масштаба, где асинхронный RL - не эксперимент, а основа обучения. В результате модель демонстрирует сильный перформанс в математике, коде и reasoning.
Фокус модели - долгие цепочки действий и агентные задачи, а не просто генерация текста.
Главное:
- Модель показывает топ-результаты для своего размера в математике, коде и reasoning.
- Обучение шло на 512×H200 в течение ~2 месяцев.
- Использован собственный стек: PRIME-RL, Verifiers, Environments Hub и sandbox-инфра.
- Всё открыто: код, среды, инструменты.
@ai_machinelearning_big_data
#ai #intellect3 #primeintellect #glm45
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Машинное обучение главные новости.
✔️ Метаданные пользователей OpenAI API утекли через сервис Mixpanel.
OpenAI раскрыла детали инцидента безопасности, произошедшего на стороне подрядчика — платформы аналитики Mixpanel. Злоумышленники получили доступ к системам вендора и экспортировали метаданные пользователей, работающих с API. В утечку попали имена, адреса электронной почты, User ID, ID организаций, сведения об используемых браузерах и ОС, а также примерная геолокация.
OpenAI говорит, что критически важные данные остались в безопасности: пароли, сами API-ключи, платежная информация и промпты не скомпрометированы. Пользователей ChatGPT инцидент также не затронул. В ответ на нарушение периметра безопасности OpenAI отключила Mixpanel от своих продуктов и полностью прекратила сотрудничество.
openai.com
✔️ Китайский бигтех переносит обучение ИИ за границу.
Alibaba и ByteDance начали массово переводить обучение LLM в Юго-Восточную Азию. Цель миграции в Сингапур и Малайзию — получить легальный доступ к ускорителям Nvidia, прямые поставки которых в КНР заблокированы. Арена мощностей у зарубежных ЦОД формально не нарушает санкционный режим. Этот обходной путь стал безопасным после того, как администрация США отменила «правило распространения».
Исключением остается DeepSeek, который продолжает тренировать модели внутри Китая, используя запасы карт Nvidia и сотрудничая с инженерами Huawei. В индустрии формируется гибридная архитектура: обучение выносится на зарубежные кластеры, а инференс все чаще переводится на локальные китайские чипы.
ft.com
✔️ Alibaba представила умные очки Quark.
Китайский техногигант запустил продажи смарт-очков Quark. Устройство, внешне неотличимое от стандартной оправы, работает под управлением модели Qwen. Стартовая цена гаджета составляет около $268.
Инженеры сделали ставку на автономность и интеграцию с экосистемой: девайс оснащен сменными аккумуляторами, двойной оптикой и системой профессиональной съемки. Очки глубоко связаны с сервисами компании — пользователи могут использовать визуальный ассистент для мгновенного перевода, оплаты через Alipay и распознавания товаров для поиска цен на Taobao.
reuters.com
✔️ Apple создает альтернативу диффузионным нейросетям.
Apple опубликовала работу, предлагающую новый подход к генерации видео, способный потеснить диффузионные модели. Система STARFlow-V построена на архитектуре потоковой нормализации и обучается как единая модель для работы с текстом, картинками и видео.
В отличие от диффузии, требующей множества итераций для денойза, STARFlow-V использует однократное обратимое отображение и строгую причинно-следственную логику. Глобальный блок модели работает авторегрессионно: генерация каждого нового латента зависит исключительно от предыдущих данных.
Для оптимизации скорости вычислений применяется параллельные обновления Якоби, что дает качество уровня SOTA при более высокой стабильности генерации.
starflow-v.github.io
✔️ AdvancedIF: жёсткий бенчмарк проверки LLM на следование сложным инструкциям.
Лаборатория Марка Цукерберга разработала AdvancedIF - инструмент для выявления реальных пределов LLM в выполнении директив. Бенчмарк фокусируется на сценариях с высокой когнитивной нагрузкой: набор данных включает более 1600 промптов, каждый из которых содержит 6 одновременных условий: от требований к формату и стилю до негативных ограничений и перекрестных логических зависимостей.
Помимо разовых запросов, AdvancedIF тестирует управляемость моделей через системные промпты и способность удерживать контекст в сложных диалогах. В качестве арбитра используется o3-mini, которая сверяет ответы модели с критериями, разработанными экспертами-людьми. Инструментарий поддерживает пакетную обработку, а сам датасет можно найти на Hugging Face.
github.com
OpenAI раскрыла детали инцидента безопасности, произошедшего на стороне подрядчика — платформы аналитики Mixpanel. Злоумышленники получили доступ к системам вендора и экспортировали метаданные пользователей, работающих с API. В утечку попали имена, адреса электронной почты, User ID, ID организаций, сведения об используемых браузерах и ОС, а также примерная геолокация.
OpenAI говорит, что критически важные данные остались в безопасности: пароли, сами API-ключи, платежная информация и промпты не скомпрометированы. Пользователей ChatGPT инцидент также не затронул. В ответ на нарушение периметра безопасности OpenAI отключила Mixpanel от своих продуктов и полностью прекратила сотрудничество.
openai.com
Alibaba и ByteDance начали массово переводить обучение LLM в Юго-Восточную Азию. Цель миграции в Сингапур и Малайзию — получить легальный доступ к ускорителям Nvidia, прямые поставки которых в КНР заблокированы. Арена мощностей у зарубежных ЦОД формально не нарушает санкционный режим. Этот обходной путь стал безопасным после того, как администрация США отменила «правило распространения».
Исключением остается DeepSeek, который продолжает тренировать модели внутри Китая, используя запасы карт Nvidia и сотрудничая с инженерами Huawei. В индустрии формируется гибридная архитектура: обучение выносится на зарубежные кластеры, а инференс все чаще переводится на локальные китайские чипы.
ft.com
Китайский техногигант запустил продажи смарт-очков Quark. Устройство, внешне неотличимое от стандартной оправы, работает под управлением модели Qwen. Стартовая цена гаджета составляет около $268.
Инженеры сделали ставку на автономность и интеграцию с экосистемой: девайс оснащен сменными аккумуляторами, двойной оптикой и системой профессиональной съемки. Очки глубоко связаны с сервисами компании — пользователи могут использовать визуальный ассистент для мгновенного перевода, оплаты через Alipay и распознавания товаров для поиска цен на Taobao.
reuters.com
Apple опубликовала работу, предлагающую новый подход к генерации видео, способный потеснить диффузионные модели. Система STARFlow-V построена на архитектуре потоковой нормализации и обучается как единая модель для работы с текстом, картинками и видео.
В отличие от диффузии, требующей множества итераций для денойза, STARFlow-V использует однократное обратимое отображение и строгую причинно-следственную логику. Глобальный блок модели работает авторегрессионно: генерация каждого нового латента зависит исключительно от предыдущих данных.
Для оптимизации скорости вычислений применяется параллельные обновления Якоби, что дает качество уровня SOTA при более высокой стабильности генерации.
starflow-v.github.io
Лаборатория Марка Цукерберга разработала AdvancedIF - инструмент для выявления реальных пределов LLM в выполнении директив. Бенчмарк фокусируется на сценариях с высокой когнитивной нагрузкой: набор данных включает более 1600 промптов, каждый из которых содержит 6 одновременных условий: от требований к формату и стилю до негативных ограничений и перекрестных логических зависимостей.
Помимо разовых запросов, AdvancedIF тестирует управляемость моделей через системные промпты и способность удерживать контекст в сложных диалогах. В качестве арбитра используется o3-mini, которая сверяет ответы модели с критериями, разработанными экспертами-людьми. Инструментарий поддерживает пакетную обработку, а сам датасет можно найти на Hugging Face.
github.com
Please open Telegram to view this post
VIEW IN TELEGRAM
Openai
What to know about a recent Mixpanel security incident
OpenAI shares details about a Mixpanel security incident involving limited API analytics data. No API content, credentials, or payment details were exposed. Learn what happened and how we’re protecting users.
NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.
Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.
В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.
Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.
В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).
@ai_machinelearning_big_data
#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🏗️ Google превращает TPUv7 в настоящую альтернативу Nvidia, продавая внешние кластеры промышленного масштаба.
Anthropic уже взяла курс на около 1 млн TPUv7 для обучения моделей Claude — часть покупает «железом», часть арендует в Google Cloud.
📈 Почему TPUv7 — это удар по доминированию Nvidia
TPUv7 Ironwood по пропускной способности приближается к Nvidia GB200/GB300,
но выигрывает по TCO: Google и Broadcom контролируют производство чипов, систем и сетей, а не покупают полностью готовые Nvidia-платформы.
💰 Что делает Anthropic
- ~400K TPUv7 — покупает целыми стойками для своих дата-центров
- ~600K TPUv7 — арендует в Google Cloud
- распределяет риски между своими площадками и Google
- использует объём закупок, чтобы давить цену Nvidia по остальному GPU-флоту
🧮 FLOPs, которые имеют значение
Anthropic не гонится за маркетинговыми пиковыми FLOPs.
Важно лишь то, сколько полезных FLOPs реально получает модель.
С оптимизированными ядрами TPUv7 даёт примерно в 2 раза более дешёвые полезные FLOPs, чем Nvidia GB300 NVL72.
🔗 Сетевое преимущество
Ключевая сила TPUv7 — сеть ICI 3D-torus:
- прямые связи между чипами
- оптические переключатели
- бесшовная сборка огромных подов
И главное — Google делает нативный PyTorch backend для TPU,
что позволяет переносить PyTorch-модели без переписывания под JAX.
Комбо из TPUv7 + сделка Anthropic на 1 млн чипов уже формирует ценовой потолок для Nvidia.
Следующий шаг — открыть XLA и runtime, чтобы TPU стал действительно массовой и доступной платформой.
https://newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
Anthropic уже взяла курс на около 1 млн TPUv7 для обучения моделей Claude — часть покупает «железом», часть арендует в Google Cloud.
📈 Почему TPUv7 — это удар по доминированию Nvidia
TPUv7 Ironwood по пропускной способности приближается к Nvidia GB200/GB300,
но выигрывает по TCO: Google и Broadcom контролируют производство чипов, систем и сетей, а не покупают полностью готовые Nvidia-платформы.
💰 Что делает Anthropic
- ~400K TPUv7 — покупает целыми стойками для своих дата-центров
- ~600K TPUv7 — арендует в Google Cloud
- распределяет риски между своими площадками и Google
- использует объём закупок, чтобы давить цену Nvidia по остальному GPU-флоту
🧮 FLOPs, которые имеют значение
Anthropic не гонится за маркетинговыми пиковыми FLOPs.
Важно лишь то, сколько полезных FLOPs реально получает модель.
С оптимизированными ядрами TPUv7 даёт примерно в 2 раза более дешёвые полезные FLOPs, чем Nvidia GB300 NVL72.
🔗 Сетевое преимущество
Ключевая сила TPUv7 — сеть ICI 3D-torus:
- прямые связи между чипами
- оптические переключатели
- бесшовная сборка огромных подов
И главное — Google делает нативный PyTorch backend для TPU,
что позволяет переносить PyTorch-модели без переписывания под JAX.
Комбо из TPUv7 + сделка Anthropic на 1 млн чипов уже формирует ценовой потолок для Nvidia.
Следующий шаг — открыть XLA и runtime, чтобы TPU стал действительно массовой и доступной платформой.
https://newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
Please open Telegram to view this post
VIEW IN TELEGRAM
Ostris, разработчик популярного пакета для обучения диффузионных моделей добавил поддержку обучения для Z-Image Turbo с помощью De-Distill адаптера.
AI Toolkit — это универсальный набор инструментов для обучения диффузионных моделей на потребительском оборудовании. Он может запускаться как в GUI, так и в командной строке. Набор разработан так, чтобы быть простым в использовании, но при этом обладать всеми возможными функциями.
По первым тестам, обучение возможно на 12+ VRAM, а обучение персонажа на 17 изображениях длительностью 3000 шагов на RTX 5090 занимает примерно полтора часа.
Подробный гайд по процессу автор тулкита обещает выпустить в ближайшие дни.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM