Media is too big
VIEW IN TELEGRAM
Построенная на архитектуре DiT, модель поднимает планку по качеству и доступности.
Что важно:
⚡️ Всего 8.3B параметров - модель можно запускать даже на потребительских GPU с 14GB VRAM
🖥️ Качество: генерирует 5–10 секунд видео в 480p/720p, а через суперразрешение —ё- до 1080p с киношной детализацией
SOTA-качество с очень низкими требованиями к железу.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤟 Google усиливает свои позиции и сокращает отрыв OpenAI
Сам Альтман признал: прогресс Google - особенно впечатляющие результаты Gemini 3 - создают краткосрочное давление на OpenAI.
Когда-то уверенное лидерство OpenAI заметно ослабло. Google и Anthropic активно усиливаются, в то время как OpenAI сталкивается с огромными затратами на вычислительные мощности, что вызывает беспокойство у инвесторов.
Альтман при этом уверен, что в долгосрочной перспективе OpenAI снова выйдет вперёд. Он ставит на новые модели вроде Shallotpeat, улучшения в этапах предобучения и масштабную автоматизацию, которая должна привести к следующему ряду прорывов.
Из внутреннего письма:
И финальная мысль Альтмана:
“Да, тяжело одновременно быть лучшей исследовательской лабораторией, лучшей AI-инфраструктурной компанией и лучшей продуктовой AI-платформой, но такова наша реальность. И я бы не променял наши позиции ни на чьи :)”
https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google
Сам Альтман признал: прогресс Google - особенно впечатляющие результаты Gemini 3 - создают краткосрочное давление на OpenAI.
Когда-то уверенное лидерство OpenAI заметно ослабло. Google и Anthropic активно усиливаются, в то время как OpenAI сталкивается с огромными затратами на вычислительные мощности, что вызывает беспокойство у инвесторов.
Альтман при этом уверен, что в долгосрочной перспективе OpenAI снова выйдет вперёд. Он ставит на новые модели вроде Shallotpeat, улучшения в этапах предобучения и масштабную автоматизацию, которая должна привести к следующему ряду прорывов.
Из внутреннего письма:
“Не хочу, чтобы это звучало негативно — мы по-прежнему показываем выдающиеся результаты как компания… и я ожидаю, что это продолжится.”
И финальная мысль Альтмана:
“Да, тяжело одновременно быть лучшей исследовательской лабораторией, лучшей AI-инфраструктурной компанией и лучшей продуктовой AI-платформой, но такова наша реальность. И я бы не променял наши позиции ни на чьи :)”
https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google
Главные новости ИИ и мл
✔️ ИИ-система Locus превзошла экспертов в научных исследованиях.
Лаборатория Intology представила новую итерацию своего ИИ-ученого — систему Locus. Главным достижением стал результат на бенчмарке RE-Bench, где Locus обошел команду людей-экспертов, набрав 1.30 балла против человеческих 1.27.
В отличие от агентов, которые упираются в потолок производительности уже через пару часов работы, Locus способен поддерживать прогресс на протяжении нескольких дней. Система использует параллелизацию для одновременного запуска тысяч экспериментов, что позволяет ей решать задачи, требующие глубокого погружения и долгосрочного планирования.
Помимо исследований, Locus показала высокие результаты в оптимизации. В тесте KernelBench она добилась ускорения операций LayerNorm до 100 раз, применив сложные техники асинхронного копирования вместо простого перебора.
intology.ai
✔️ OpenAI открыла доступ к групповым чатам с ChatGPT для всех.
Компания развернула функцию коллективных обсуждений на всех тарифных планах, от Free до Pro. В новой функции пользователи могут создавать треды вместимостью до 20 человек, где нейросеть выступает полноценным участником разговора. Доступ открывается через инвайт-ссылки.
ChatGPT анализирует ход разговора и вступает в диалог либо при прямом упоминании, либо когда алгоритм сочтет вмешательство уместным. Тарификация за генерацию ответов ложится на того пользователя, чей запрос или действие активировали модель в данный момент.
Групповые чаты, по словам OpenAI, полностью изолированы. Бот не сохраняет данные в свою память и игнорирует персональные настройки участников, чтобы избежать утечки личного контекста в общий чат.
openai.com
✔️ Salesforce анонсировала инструменты для контроля за ИИ-агентами.
Компания расширила функциональность платформы Agentforce 360, добавив средства мониторинга и отладки для ИИ-систем. Техническая база обновления включает продвинутую модель трейсинга сессий. Система теперь логирует полный контекст работы агента: пользовательские вводы, внутренние цепочки рассуждений, вызовы LLM и проверки безопасности.
Дополнительный слой управления обеспечивает MuleSoft Agent Fabric — хаб для оркестрации и аудита всех активных агентов в инфраструктуре. Это позволяет разработчикам получать метрики в реальном времени, анализировать паттерны и устранять ошибки до того, как они повлияют на продакшен.
salesforce.com
✔️ Hugging Face AnyLanguageModel: универсальная библиотека для экосистемы Apple.
Инструмент, представленный ИИ-хабом, позиционируется как замена стандартного фреймворка Apple Foundation Models. Пакет унифицирует взаимодействие с нейросетями, позволяя разработчикам использовать единый API для работы с разными бэкендами. Библиотека поддерживает как нативный запуск локальных моделей (через Core ML, MLX, llama.cpp и Ollama), так и подключение к облачным провайдерам.
AnyLanguageModel решает проблему конфликта зависимостей за счет использования traits из Swift 6.1. Это дает строгую модульность: если проекту нужен только MLX-движок, библиотека не будет тянуть в сборку лишний код для других форматов. Сейчас решение находится в ранней стадии, но в планах заявлена поддержка вызова инструментов и протокола MCP.
huggingface.co
✔️ Stability AI и Warner Music Group займутся разработкой моделей для музыкальной индустрии.
Stability AI и мейджор-лейбл объявили о партнерстве, цель которого — создание профессиональных инструментов для генерации аудио, безопасных с юридической точки зрения.
В отличие от существующих решений, новые модели будут обучаться исключительно на лицензионном контенте, что позволит артистам и продюсерам использовать результаты генерации в коммерческих треках без риска нарушения авторских прав.
Компании планируют привлекать к разработке самих музыкантов, чтобы софт решал реальные задачи, а не просто создавал случайные мелодии.
stability.ai
@ai_machinelearning_big_data
#news #ai #ml
Лаборатория Intology представила новую итерацию своего ИИ-ученого — систему Locus. Главным достижением стал результат на бенчмарке RE-Bench, где Locus обошел команду людей-экспертов, набрав 1.30 балла против человеческих 1.27.
В отличие от агентов, которые упираются в потолок производительности уже через пару часов работы, Locus способен поддерживать прогресс на протяжении нескольких дней. Система использует параллелизацию для одновременного запуска тысяч экспериментов, что позволяет ей решать задачи, требующие глубокого погружения и долгосрочного планирования.
Помимо исследований, Locus показала высокие результаты в оптимизации. В тесте KernelBench она добилась ускорения операций LayerNorm до 100 раз, применив сложные техники асинхронного копирования вместо простого перебора.
intology.ai
Компания развернула функцию коллективных обсуждений на всех тарифных планах, от Free до Pro. В новой функции пользователи могут создавать треды вместимостью до 20 человек, где нейросеть выступает полноценным участником разговора. Доступ открывается через инвайт-ссылки.
ChatGPT анализирует ход разговора и вступает в диалог либо при прямом упоминании, либо когда алгоритм сочтет вмешательство уместным. Тарификация за генерацию ответов ложится на того пользователя, чей запрос или действие активировали модель в данный момент.
Групповые чаты, по словам OpenAI, полностью изолированы. Бот не сохраняет данные в свою память и игнорирует персональные настройки участников, чтобы избежать утечки личного контекста в общий чат.
openai.com
Компания расширила функциональность платформы Agentforce 360, добавив средства мониторинга и отладки для ИИ-систем. Техническая база обновления включает продвинутую модель трейсинга сессий. Система теперь логирует полный контекст работы агента: пользовательские вводы, внутренние цепочки рассуждений, вызовы LLM и проверки безопасности.
Дополнительный слой управления обеспечивает MuleSoft Agent Fabric — хаб для оркестрации и аудита всех активных агентов в инфраструктуре. Это позволяет разработчикам получать метрики в реальном времени, анализировать паттерны и устранять ошибки до того, как они повлияют на продакшен.
salesforce.com
Инструмент, представленный ИИ-хабом, позиционируется как замена стандартного фреймворка Apple Foundation Models. Пакет унифицирует взаимодействие с нейросетями, позволяя разработчикам использовать единый API для работы с разными бэкендами. Библиотека поддерживает как нативный запуск локальных моделей (через Core ML, MLX, llama.cpp и Ollama), так и подключение к облачным провайдерам.
AnyLanguageModel решает проблему конфликта зависимостей за счет использования traits из Swift 6.1. Это дает строгую модульность: если проекту нужен только MLX-движок, библиотека не будет тянуть в сборку лишний код для других форматов. Сейчас решение находится в ранней стадии, но в планах заявлена поддержка вызова инструментов и протокола MCP.
huggingface.co
Stability AI и мейджор-лейбл объявили о партнерстве, цель которого — создание профессиональных инструментов для генерации аудио, безопасных с юридической точки зрения.
В отличие от существующих решений, новые модели будут обучаться исключительно на лицензионном контенте, что позволит артистам и продюсерам использовать результаты генерации в коммерческих треках без риска нарушения авторских прав.
Компании планируют привлекать к разработке самих музыкантов, чтобы софт решал реальные задачи, а не просто создавал случайные мелодии.
stability.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
www.intology.ai
Previewing Locus
Intology is a research lab automating the process of discovery
Forwarded from Machinelearning
Еще одно место, где можно бесплатно попробовать топовую модель.
LMArena добавила в список моделей Nano Banana Pro, у них она называется
gemini-3-pro-image-review(nano-banana-pro) .Выбор модели доступен в режимах Direct Chat (генерация на одной выбранной модели) и Side-by-Side (генерация на 2-х выбранных моделях для сравнения результата).
Поддерживается как text-to-image, так и загрузка рефересных картинок.
Единственный минус - нет выбора разрешения (1К, 2K или 4K) и соотношения сторон.
Про лимиты на количество запусков информации нет, запускайте, пока запускается.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Еще одно место, где можно бесплатно попробовать топовую модель.
LMArena добавила в список моделей Nano Banana Pro, у них она называется
gemini-3-pro-image-review(nano-banana-pro) .Выбор модели доступен в режимах Direct Chat (генерация на одной выбранной модели) и Side-by-Side (генерация на 2-х выбранных моделях для сравнения результата).
Поддерживается как text-to-image, так и загрузка рефересных картинок.
Единственный минус - нет выбора разрешения (1К, 2K или 4K) и соотношения сторон.
Про лимиты на количество запусков информации нет, запускайте, пока запускается.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Джеффри Хинтон сообщил Берни Сандерсу, что ИИ может привести к массовой безработице и социальной нестабильности.
Он предупреждает: стремительное развитие ИИ способно не просто изменить работу, а заменить огромные её сегменты. Это может усилить неравенство, когда выгоду получат немногие, а многие потеряют стабильную и значимую занятость.
Если общество не подготовится заранее, такая динамика может дестабилизировать страну и вызвать серьёзные социальные потрясения.
https://www.businessinsider.com/godfather-ai-geoffrey-hinton-warns-not-ready-for-whats-coming-2025-11
Он предупреждает: стремительное развитие ИИ способно не просто изменить работу, а заменить огромные её сегменты. Это может усилить неравенство, когда выгоду получат немногие, а многие потеряют стабильную и значимую занятость.
Если общество не подготовится заранее, такая динамика может дестабилизировать страну и вызвать серьёзные социальные потрясения.
https://www.businessinsider.com/godfather-ai-geoffrey-hinton-warns-not-ready-for-whats-coming-2025-11
Андрей Карпаты
Его идея в том, что вместо того, чтобы задавать вопрос одной LLM, вы можете объединить их в «Совет моделей».
LLM Council - это простое локальное веб-приложение, с интерфейсом как у ChatGPT, но с той разницей, что запрос отправляется через Openrouter нескольким LLM. Полученные ответы перекрестно оцениваются и ранжируются, и, наконец, «модель-председатель совета» формирует окончательный ответ.
Более подробно процесс выглядит так:
Запрос отправляется всем моделям по отдельности, и их ответы собираются. Ответы каждой модели отображаются в отдельной вкладке, чтобы можно было их посмотреть вручную.
Каждая модель получает ответы других моделей. При этом идентификаторы анонимизированы, чтобы исключить «игру в любимчиков» при оценке чужих результатов. На этом этапе ответы ранжируются их по точности и глубине анализа.
Модель-председатель принимает все ответы моделей и компилирует их в единый окончательный ответ.
⚠️ Для использования нужен API-ключ OpenRouter.
@ai_machinelearning_big_data
#AI #ML #LLMCouncil #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👑 Gemini 3 Pro теперь лидирует в IQ-тестах, набрав внушительные 130 баллов, опережая все прочие LLM!
По шкале IQ такой результат помещает её в число примерно 2% людей с наивысшим интеллектом среди всех, кто когда-либо проходил подобные тесты.
А в тесте норвежского отделения Mensa модель показала эквивалент 142 баллов IQ, что соответствует уровню лишь 0,3% самых интеллектуальных людей на планете.
@ai_machinelearning_big_data
#Gemini #google
По шкале IQ такой результат помещает её в число примерно 2% людей с наивысшим интеллектом среди всех, кто когда-либо проходил подобные тесты.
А в тесте норвежского отделения Mensa модель показала эквивалент 142 баллов IQ, что соответствует уровню лишь 0,3% самых интеллектуальных людей на планете.
@ai_machinelearning_big_data
#Gemini #google
This media is not supported in your browser
VIEW IN TELEGRAM
📡 Amazon Leo: новый конкурент Starlink
Amazon представил первый рабочий образец своей новой спутниковой антенны - Amazon Leo Ultra - и открыл *ограниченный доступ* для корпоративных клиентов.
— до 1 Гбит/с на скачивание
— до 400 Мбит/с на загрузку
— работает на собственном чипе Leo Silicon
Проект Kuiper теперь называется Amazon Leo. Компания строит сеть из 3000+ спутников на низкой орбите для быстрого широкополосного интернета.
Антенна использует **фазированную решётку** - она электронно направляет луч и отслеживает спутники без моторов, сохраняя связь даже при вибрациях и дожде.
Но Amazon сильно отстаёт от Starlink:
— Starlink уже имеет 9000+ спутников,
— у Amazon — менее 200, хотя запуски продолжаются.
Важно: высокая скорость на бумаге работает только при плотной сети, хорошем спектре и мощной наземной инфраструктуре.
Amazon делает серьёзный шаг, но догнать Starlink будет очень сложно.
https://www.aboutamazon.com/news/amazon-leo/amazon-leo-satellite-internet-ultra-pro
@ai_machinelearning_big_data
#AmazonLeo #ProjectKuiper #SatelliteInternet #LEO #Amazon
Amazon представил первый рабочий образец своей новой спутниковой антенны - Amazon Leo Ultra - и открыл *ограниченный доступ* для корпоративных клиентов.
— до 1 Гбит/с на скачивание
— до 400 Мбит/с на загрузку
— работает на собственном чипе Leo Silicon
Проект Kuiper теперь называется Amazon Leo. Компания строит сеть из 3000+ спутников на низкой орбите для быстрого широкополосного интернета.
Антенна использует **фазированную решётку** - она электронно направляет луч и отслеживает спутники без моторов, сохраняя связь даже при вибрациях и дожде.
Но Amazon сильно отстаёт от Starlink:
— Starlink уже имеет 9000+ спутников,
— у Amazon — менее 200, хотя запуски продолжаются.
Важно: высокая скорость на бумаге работает только при плотной сети, хорошем спектре и мощной наземной инфраструктуре.
Amazon делает серьёзный шаг, но догнать Starlink будет очень сложно.
https://www.aboutamazon.com/news/amazon-leo/amazon-leo-satellite-internet-ultra-pro
@ai_machinelearning_big_data
#AmazonLeo #ProjectKuiper #SatelliteInternet #LEO #Amazon
⚡️ OpenAI, Anthropic и Google только что получили доступ к петабайтам закрытых экспериментальных данных. Эти данные десятилетиями копили 17 Национальных лабораторий США.
И речь уже не про «улучшение чатботов». Новая государственная программа США — Genesis Mission - официально строит автономных научных агентов.
Они называют это «закрытым научным контуром» (Closed-Loop discovery), и это меняет саму физику изобретений. Не человек использует инструменты — система работает полностью автономно.
Схема, описанная в дорожной карте DOE, выглядит как научная фантастика:
• AI проектирует: смотрит на массивы данных и формирует гипотезу вроде «если смешать эти сплавы при 4000°C - получится сверхпроводник».
• Он отправляет инструкции в роботизированную лабораторию (которую строит DOE), чтобы физически смешать материалы.
• Робот мгновенно возвращает результаты. Если эксперимент провален - AI корректирует формулу.
• Такой цикл прогоняется тысячами итераций, без пауз, 24/7.
Genesis Mission - это попытка впервые в истории построить систему, где наука создаёт саму себя. Без человека в центре.
И речь уже не про «улучшение чатботов». Новая государственная программа США — Genesis Mission - официально строит автономных научных агентов.
Они называют это «закрытым научным контуром» (Closed-Loop discovery), и это меняет саму физику изобретений. Не человек использует инструменты — система работает полностью автономно.
Схема, описанная в дорожной карте DOE, выглядит как научная фантастика:
• AI проектирует: смотрит на массивы данных и формирует гипотезу вроде «если смешать эти сплавы при 4000°C - получится сверхпроводник».
• Он отправляет инструкции в роботизированную лабораторию (которую строит DOE), чтобы физически смешать материалы.
• Робот мгновенно возвращает результаты. Если эксперимент провален - AI корректирует формулу.
• Такой цикл прогоняется тысячами итераций, без пауз, 24/7.
Genesis Mission - это попытка впервые в истории построить систему, где наука создаёт саму себя. Без человека в центре.
Задачи, которые у людей занимают около 90 минут и стоят примерно $55 труда, Claude выполняет на 80% быстрее человека.
У большинства пользователей экономия времени - в диапазоне 50–95%.
Вот самые впечатляющие цифры экономии времени:
• Преподаватели и методисты - до 96% быстрее при подготовке программ и учебных материалов
• Библиотекари - до 93%, когда нужно составлять подборки, списки источников и справки
• Научные ассистенты - 91%
• Секретари и администраторы - 87%, подготовка писем, документов, отчётов
• Преподаватели аграрных наук - 83%, создание методичек и рекомендаций
• Финансовые аналитики - 80%, интерпретация данных, рисков, экономических трендов
• Консультанты по образованию и карьере -75%, подготовка справочных материалов и рекомендаций
Это одно из самых масштабных эмпирических измерений влияния генеративного ИИ - и оно показывает, что выгода есть, но зависит от контекста и задач.
Полное исследование: https://www.anthropic.com/research/estimating-productivity-gains
@ai_machinelearning_big_data
#AI #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Главное из нового интервью Ильи Суцквера (25 ноября 2025, Dwarkesh Podcast)
Самые интересные цитаты:
1. Масштабирование кончилось
> «Current scaling approaches will go some distance and then peter out»
2. Суперинтеллект уже на горизонте
> «Superintelligence in 5 to 20 years. You know what’s crazy? That all of this is real»
3. Главная проблема генерализация
> «A teenager learns to drive in 10 hours. Our best models still can’t after billions of examples»
4. RL стал самым дорогим и самым бесполезным этапом
> «Reinforcement learning already takes more compute than pre-training and gives almost nothing in return»
5. Дальше только исследования
> «We are squarely in the age of research, but this time with powerful computers»
6. У ИИ пока нет настоящих «эмоций»
> «Value functions are basically emotions. Without them alignment will stay fragile»
7. Цитата, которую уже растащили все сми
> «The gap between benchmark scores and real-world performance is getting embarrassing»
8. Про свою компанию SSI
> «We have no products, no distractions. Just safe superintelligence»
Главный вопрос он ставит так:
Какой супер-интеллект мы создадим -
Полное интервью: https://www.youtube.com/watch?v=aR20FWCCjAs
Самые интересные цитаты:
1. Масштабирование кончилось
> «Current scaling approaches will go some distance and then peter out»
2. Суперинтеллект уже на горизонте
> «Superintelligence in 5 to 20 years. You know what’s crazy? That all of this is real»
3. Главная проблема генерализация
> «A teenager learns to drive in 10 hours. Our best models still can’t after billions of examples»
4. RL стал самым дорогим и самым бесполезным этапом
> «Reinforcement learning already takes more compute than pre-training and gives almost nothing in return»
5. Дальше только исследования
> «We are squarely in the age of research, but this time with powerful computers»
6. У ИИ пока нет настоящих «эмоций»
> «Value functions are basically emotions. Without them alignment will stay fragile»
7. Цитата, которую уже растащили все сми
> «The gap between benchmark scores and real-world performance is getting embarrassing»
8. Про свою компанию SSI
> «We have no products, no distractions. Just safe superintelligence»
Главный вопрос он ставит так:
Какой супер-интеллект мы создадим -
«15-летнего гениального подростка, который жадно учится или «что-то уже полностью готовое и законченное. »
Полное интервью: https://www.youtube.com/watch?v=aR20FWCCjAs
Согласно данным CNBC компания собирается выпустить готовый продукт в течение примерно двух лет.
Замысел состоит в создании спокойного всегда активного помощника который станет чем то средним между пользователем и шумным миром смартфонов.
Роль Айва в этом проекте огромна .
Ему нужно превратить большие языковые модели OpenAI в вещь которую человек действительно захочет носить или держать при себе.
Именно Айв придумывает форму материалы и способ взаимодействия так же как он однажды определил эстетику и характер эпохи iPhone
Сэм Альтман постоянно говорит о необходимости нового опыта .
Устройство должно брать на себя долгие процессы помнить контекст фильтровать лишние уведомления и позволять общаться с помощником который знает историю действий человека.
Идея состоит в том что человек перестает прыгать по десяткам приложений и просто разговаривает с агентом который понимает его ситуацию.
Есть и более тревожный но важный аспект.
Разработчики говорят что устройство может знать практически все что человек когда либо читал говорил или обдумывал.
Это намекает на глубокую интеграцию со всеми сообщениями документами голосовыми журналами и возможно постоянным аудио потоком который индексируется единым модельным ядром.
На уровне экосистемы OpenAI объединяет эту идею пользовательского устройства с производственной инфраструктурой Foxconn.
Foxconn помогает проектировать и создавать стойки сетевое оборудование системы охлаждения и питания на американских объектах.
Тем самым OpenAI получает и умное устройство у пользователя и тяжелую серверную инфраструктуру под своим контролем.
Такое сочетание уже создает давление на Apple
iPhone и Siri по прежнему опираются на старую модель ассистентов и ограничены прежними концепциями.
В то время как OpenAI пытается создать новый основной объект персональных вычислений где сама языковая модель является центром всех взаимодействий.
cnbc.com/2025/11/24/openai-hardware-jony-ive-sam-altman-emerson-collective.html
@ai_machinelearning_big_data
#chatgpt #opanai
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 Google стала главным двигателем роста S&P 500 в 2025 году
Alphabet в одиночку дала 19.4% всего роста S&P 500, это около $1.3 трлн рыночной капитализации.
Nvidia добавила 16.0% еще $1.05 трлн, индекс теперь почти напрямую следует за AI гигантами.
Broadcom и Microsoft внесли 7.8% и 5.7%, а остальные компании из топ 10 еще 10.6%.
Итог: топ 10 компаний показывают 59.4% всего роста рынка тогда как остальные 490 лишь 40.6%.
S&P 500 все меньше отражает состояние экономики и все больше коррелирует с узким сегментом крупнейших AI корпораций.
https://x.com/KobeissiLetter/status/1993359777062436902
@ai_machinelearning_big_data
Alphabet в одиночку дала 19.4% всего роста S&P 500, это около $1.3 трлн рыночной капитализации.
Nvidia добавила 16.0% еще $1.05 трлн, индекс теперь почти напрямую следует за AI гигантами.
Broadcom и Microsoft внесли 7.8% и 5.7%, а остальные компании из топ 10 еще 10.6%.
Итог: топ 10 компаний показывают 59.4% всего роста рынка тогда как остальные 490 лишь 40.6%.
S&P 500 все меньше отражает состояние экономики и все больше коррелирует с узким сегментом крупнейших AI корпораций.
https://x.com/KobeissiLetter/status/1993359777062436902
@ai_machinelearning_big_data
Это подробный гайд по математическому фундаменту, необходимому для понимания работы алгоритмов «под капотом». Материал полезен тем, кто хочет углубиться в теорию дальше вызова
.fit() в scikit-learn.Ключевые поинты:
* Структура: Roadmap базируется на трех дисциплинах:
1. Linear Algebra: Язык описания данных и моделей (векторы, матрицы, тензоры).
2. Calculus: Инструментарий для обучения и оптимизации (производные, градиенты).
3. Probability Theory: Фреймворк для оценки неопределенности.
Подход: Автор делает упор на интуицию, а не на заучивание формул.
Гайд связывает абстрактную математику с конкретными ML-задачами - от понимания того, как работает Backpropagation и SGD, до причин взрыва градиентов и выбора функции потерь.
🔗 Читать полную версию: https://thepalindrome.org/p/the-roadmap-of-mathematics-for-machine-learning
🔗 Мат база на русском: https://stepik.org/course/226596/info
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Anthropic оценила влияние ассистентов на темпы роста производительности
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.
Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.
Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.
📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.
Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.
Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.
📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
🚀 DeepSeek Вернулись
Компания выпустила DeepSeek Math V2 - мощную модель для самопроверяемых математических рассуждений.
Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.
Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.
📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024
🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.
Модель остаётся компактной и может работать даже на одной GPU, без мощной инфраструктуры. Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
@ai_machinelearning_big_data
#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
Компания выпустила DeepSeek Math V2 - мощную модель для самопроверяемых математических рассуждений.
Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.
Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.
📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024
🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.
Модель остаётся компактной и может работать даже на одной GPU, без мощной инфраструктуры. Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
@ai_machinelearning_big_data
#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
Prime Intellect выкатили INTELLECT-3 - 106B Mixture-of-Experts модель, обученнfz на GLM-4.5 Air Base с двумя этапами: SFT и масштабным RL-дообучением.
Это первая модель такого масштаба, где асинхронный RL - не эксперимент, а основа обучения. В результате модель демонстрирует сильный перформанс в математике, коде и reasoning.
Фокус модели - долгие цепочки действий и агентные задачи, а не просто генерация текста.
Главное:
- Модель показывает топ-результаты для своего размера в математике, коде и reasoning.
- Обучение шло на 512×H200 в течение ~2 месяцев.
- Использован собственный стек: PRIME-RL, Verifiers, Environments Hub и sandbox-инфра.
- Всё открыто: код, среды, инструменты.
@ai_machinelearning_big_data
#ai #intellect3 #primeintellect #glm45
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM