⚡️ Новое исследование, опубликованное в Nature, показывает: языковые модели по-прежнему путают «знание» и «убеждение», смешивая факты и выдумку.
Авторы представили новый бенчмарк KaBLE - 13 тыс. вопросов, 13 задач, 24 протестированные модели — и обнаружили серьёзные провалы в сценариях «ложное убеждение от первого лица».
KaBLE проверяет, понимает ли модель:
- кто что знает,
- кто только верит,
- и соответствует ли утверждение реальности.
На задачах ложного убеждения от первого лица:
- GPT-4o падает с 98.2% до 64.4%,
- DeepSeek R1 — с ~90% до 14.4%.
Это значит, что модели выглядят умными в одной формулировке задач, но ломаются в той, которая ближе к реальному общению пользователей («я думаю…», «я верю…»).
Для ложного убеждения от третьего лица новые модели дают ~95%, старые ~79%,
но у задач от первого лица результаты проседают до 62.6% и 52.5% соответственно.
Разрыв указывает на *атрибутивное смещение*: модель приписывает говорящему фактическое знание, а не различает его убеждения и реальность.
Исследователи также проверили рекурсивные знания — «кто знает, что кто-то знает…».
Новые модели решают многие случаи, но их логические шаги нестабильны и выглядят как сложное сопоставление паттернов, а не как уверенное правило рассуждения.
Итог: LLM всё ещё слабо различают знание, убеждение и факты — особенно когда человек говорит о себе.
nature.com/articles/s42256-025-01113-8
Авторы представили новый бенчмарк KaBLE - 13 тыс. вопросов, 13 задач, 24 протестированные модели — и обнаружили серьёзные провалы в сценариях «ложное убеждение от первого лица».
KaBLE проверяет, понимает ли модель:
- кто что знает,
- кто только верит,
- и соответствует ли утверждение реальности.
На задачах ложного убеждения от первого лица:
- GPT-4o падает с 98.2% до 64.4%,
- DeepSeek R1 — с ~90% до 14.4%.
Это значит, что модели выглядят умными в одной формулировке задач, но ломаются в той, которая ближе к реальному общению пользователей («я думаю…», «я верю…»).
Для ложного убеждения от третьего лица новые модели дают ~95%, старые ~79%,
но у задач от первого лица результаты проседают до 62.6% и 52.5% соответственно.
Разрыв указывает на *атрибутивное смещение*: модель приписывает говорящему фактическое знание, а не различает его убеждения и реальность.
Исследователи также проверили рекурсивные знания — «кто знает, что кто-то знает…».
Новые модели решают многие случаи, но их логические шаги нестабильны и выглядят как сложное сопоставление паттернов, а не как уверенное правило рассуждения.
Итог: LLM всё ещё слабо различают знание, убеждение и факты — особенно когда человек говорит о себе.
nature.com/articles/s42256-025-01113-8
🙏1
Финансовый директор OpenAI Сара Фрайар сообщила, что выход на IPO «не стоит на повестке дня». Приоритеты компании - инвестиции в исследования и рост, а не скорая прибыльность. Масштаб этих инвестиций беспрецедентен: в ближайшие годы OpenAI планирует потратить около $600 млрд. на вычислительные мощности от Oracle, Microsoft и Amazon.
На фоне таких расходов OpenAI остается убыточной, хотя и показывает быстрый рост выручки, которая в 2025, по прогнозам, достигнет $13 млрд. Компания даже надеется на помощь правительства США в финансировании закупок чипов. Фрайар подчеркнула, что доля корпоративных клиентов в выручке выросла с 30% до 40% с начала года. Однако прибыльности мешает необходимость субсидировать вычислительные затраты для бесплатных пользователей ChatGPT.
wsj.com
Консорциум OpenFold при поддержке NVIDIA представили готовый к развертыванию микросервис OpenFold3 NIM для высокоточного прогнозирования трехмерных белковых структур. Инструмент позволяет моделировать взаимодействия белков, ДНК, РНК и малых молекул, что является ключевой задачей в современной фармацевтике и структурной биологии.
Сервис основан на открытой модели OpenFold3, упакован в формат NIM и оптимизирован для работы на GPU NVIDIA с использованием технологий Triton Inference Server и TensorRT. Кроме того, совместимость с NVIDIA FLARE позволяет проводить федеративное и совместное обучение модели без необходимости обмена конфиденциальными данными.
developer.nvidia.com
Компания опубликовала свою первую научную работу, которая делает возможным запуск моделей с триллионом параметров без использования специализированных GPU-кластеров.
Проблема заключалась в том, что сетевой адаптер AWS EFA не поддерживает технологию GPUDirect Async, которая необходима для быстрой прямой связи между GPU на разных серверах. Инженеры Perplexity создали кастомные ядра параллелизма, которые используют CPU для координации обмена данными между GPU, упаковывая токены для передачи через RDMA и совмещая вычисления с передачей данных.
Это решение делает AWS EFA полноценной платформой для инференса массивных MoE-моделей. Тесты показали, что производительность на нескольких узлах AWS не уступает работе на одном кластерном GPU-узле, что позволяет развернуть DeepSeek V3 и Kimi K2.
research.perplexity.ai
ComfyUI открыла публичное бета-тестирование платформы Comfy Cloud. Сервис предоставляет полный доступ к нодовому интерфейсу для генеративных моделей в браузере. Платформа работает на GPU NVIDIA A100 с 40 ГБ видеопамяти. Подписчикам сразу доступны более 400 готовых open-source моделей и 17 популярных расширений.
На время бета-тестирования стоимость составляет $20 в месяц. В эту цену включены кредиты на $10 для доступа к партнерским узлам (Sora, Veo) и до 8 часов использования GPU в сутки. Впрочем, есть и ограничения: не более 30 минут на запуск одного форкфлоу и только одна задача в очереди на выполнение. В планах - загрузка собственных моделей и LoRA, развертывание воркфлоу в виде API и инструменты для командной работы.
blog.comfy.org
Высокий суд Лондона отклонил основной иск Getty Images против Stability AI, создав важный прецедент для индустрии генеративного ИИ. Getty утверждала, что модель Stable Diffusion сама по себе является «пиратской копией», так как ее веса были созданы на основе защищенных авторским правом изображений.
Суд постановил, что модель не является «пиратской копией» по британскому законодательству, поскольку она не хранит и не воспроизводит исходные работы. Это решение - значительная победа для разработчиков ИИ, так как оно снижает юридические риски, связанные с обучением моделей.
reuters.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
The Wall Street Journal
Exclusive | OpenAI Isn’t Yet Working Toward an IPO, CFO Says
Sarah Friar says the AI giant could reach break-even quickly and would like government backstop on data-center investments.
По данным источников, некоторые образцы уже попали к отдельным клиентам, но дальнейшие экспортные разрешения ведомствам теперь запрещено выдавать.
Параллельно Китай обязал государственные дата-центры полностью перейти на отечественные процессоры.
Если в Китае строится новый государственный дата-центр (финансируется государством или связан с госструктурами), и проект пока реализован меньше чем на 30%, то процессоры должны быть китайскими.
B30A задумывался как компромисс: примерно половина мощности B300, один AI-кристалл, четыре стека HBM3e и поддержка NVLink, чтобы всё ещё можно было строить LLM-кластеры. Фактически это позиционировалось как «наследник H20, но на архитектуре Blackwell». Однако теперь поставки запрещены.
Сразу два решения: американское и китайское - сузили рынок до минимума.
Китайские компании сталкиваются с рисками для уже запланированных кластеров, сложной миграцией с CUDA на местные экосистемы и неопределённостью в производительности собственных чипов.
Nvidia фактически теряет один из своих крупнейших исторических рынков.
AI-железо становится не вопросом производительности, а вопросом политических решений, что меняет динамику всей индустрии.
https://www.reuters.com/world/china/us-block-nvidias-sale-scaled-back-ai-chips-china-information-says-2025-11-07/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔬 Учёные из Польши: квантовые частицы связаны "на расстоянии" просто потому, что они одинаковые
Физики-теоретики из Польши показали, что *нелокальность* — загадочная "мгновенная связь" между квантовыми частицами — может возникать без запутанности и без взаимодействия.
🔍 Почему?
Потому что одинаковые квантовые частицы (например, электроны или фотоны) неотличимы по сути.
И этого уже может быть достаточно, чтобы возникали скрытые "связи" на расстоянии.
1. Проще квантовая связь
Если нелокальные связи возникают *автоматически*, то не нужно всегда настраивать хрупкую запутанность.
➡️ Это может упростить квантовые сети и сделать их стабильнее.
2. Новый подход к квантовым компьютерам
Возможно, мы сможем использовать *встроенные* нелокальные корреляции, чтобы сделать вычисления более надёжными и энергоэффективными.
3. Иная перспектива на телепортацию
Сейчас телепортация работает на основе запутанности.
Но если *нелокальность встроена изначально*, возможно появление телепортации без запутанности.
👀
4. Глубокий намёк на структуру Вселенной
Если нелокальность — свойство *тождественности частиц*, то пространство и время могут быть производными, а информация — фундаментальна.
Это поддерживает идеи квантовой гравитации и теории симуляции.
🌌 Вывод
Это не телепортация людей (пока).
Но если *вселенная уже "проводит кабель"* между частицами, нам остаётся лишь подключиться.
Возможно, Вселенная уже всё подготовила. Надо только понять, как этим воспользоваться.
https://www.nature.com/articles/s41534-025-01086-x
Физики-теоретики из Польши показали, что *нелокальность* — загадочная "мгновенная связь" между квантовыми частицами — может возникать без запутанности и без взаимодействия.
🔍 Почему?
Потому что одинаковые квантовые частицы (например, электроны или фотоны) неотличимы по сути.
И этого уже может быть достаточно, чтобы возникали скрытые "связи" на расстоянии.
1. Проще квантовая связь
Если нелокальные связи возникают *автоматически*, то не нужно всегда настраивать хрупкую запутанность.
➡️ Это может упростить квантовые сети и сделать их стабильнее.
2. Новый подход к квантовым компьютерам
Возможно, мы сможем использовать *встроенные* нелокальные корреляции, чтобы сделать вычисления более надёжными и энергоэффективными.
3. Иная перспектива на телепортацию
Сейчас телепортация работает на основе запутанности.
Но если *нелокальность встроена изначально*, возможно появление телепортации без запутанности.
👀
4. Глубокий намёк на структуру Вселенной
Если нелокальность — свойство *тождественности частиц*, то пространство и время могут быть производными, а информация — фундаментальна.
Это поддерживает идеи квантовой гравитации и теории симуляции.
🌌 Вывод
Это не телепортация людей (пока).
Но если *вселенная уже "проводит кабель"* между частицами, нам остаётся лишь подключиться.
Возможно, Вселенная уже всё подготовила. Надо только понять, как этим воспользоваться.
https://www.nature.com/articles/s41534-025-01086-x
Главные новости ИИ дня
✔️ На OpenRouter появилась модель, которую считают прототипом GPT-5.1.
Без официального анонса стала доступна новая ИИ-модель Polaris Alpha с контекстным окном до 256 тыс. токенов. Она описывается как универсальный инструмент для генерации кода и выполнении инструкций. Модель была запущена для сбора обратной связи от пользователей.
В технических сообществах предполагают, что Polaris Alpha может быть тестовой версией GPT-5.1 от OpenAI. Эту гипотезу подкрепляют отзывы первых пользователей, отмечающих крайне низкий уровень галлюцинаций и стиль ответов, характерный для GPT. Сама Polaris Alpha на прямой вопрос о своей связи с GPT-4 отвечает утвердительно.
По результатам бенчмарка EQ-Bench, производительность модели сопоставима с Claude-3.5-Sonnet. Доступ к Polaris Alpha открыт бесплатно через веб-интерфейс и API на OpenRouter.
openrouter.ai
✔️ Microsoft создает команду для разработки гуманистического сверхинтеллекта.
Мустафа Сулейман, CEO Microsoft AI, анонсировал новую стратегию, основанную на концепции «гуманистического сверхинтеллекта» (HSI). Для работы над этим направлением создается специальное подразделение - MAI Superintelligence Team.
В отличие от идеи AGI, подход Microsoft предполагает создание узкоспециализированных и контролируемых систем для решения конкретных проблем человечества. Стратегия отказывается от гонки за ASI в пользу разработки практических технологий.
Цели HSI — добиться прорывов в медицине, поиск чистой энергии и создание персонализированных ИИ-ассистентов, избегая рисков создания автономных и неконтролируемых систем. По словам Сулеймана, это должно гарантировать, что самые топовые версии ИИ будут создаваться строго в интересах людей.
microsoft.ai
✔️ Google выпустила Magika 1.0: ИИ-систему для определения типов файлов.
Google представила первый стабильный релиз опенсорсной утилиты Magika с полностью переписанным с нуля на Rust движком. Новая версия способна сканировать сотни файлов в секунду на одном ядре процессора, используя ONNX Runtime для инференса и Tokio для асинхронной обработки.
Количество поддерживаемых типов файлов было удвоено и теперь превышает 200. Добавилась поддержка актуальных форматов для Data Science и ML (Jupyter, PyTorch, ONNX), современных языков программирования (Swift, Kotlin, TypeScript, Zig) и DevOps-инструментов (Dockerfile, TOML, HCL). Разработчикам доступны обновленные модули для Python и TypeScript, а также новый нативный клиент командной строки.
opensource.googleblog.com
✔️ Foxconn внедрит человекоподобных роботов на производстве ИИ-серверов.
Крупнейший в мире контрактный производитель электроники в течение 6 месяцев начнет использовать человекоподобных роботов на своем заводе в Техасе. Роботы будут задействованы в сборке серверов для ИИ-систем. По словам CEO Янг Лю, это первый подобный опыт за более чем 50-летнюю историю Foxconn.
Этот шаг является частью стратегии по агрессивному расширению производства в Северной Америке. Компания, являясь ключевым поставщиком Nvidia, считает Северную Америку своим главным хабом по выпуску ИИ-серверов на ближайшие 3 года. Решение о роботизации принято для повышения эффективности производства, которое, по словам Лю, критически важно в сфере ИИ.
asia.nikkei.com
✔️ Сооснователь и руководитель PyTorch Сумит Чинтала покидает компанию Марка Цукерберга.
Сумит Чинтала, один из создателей и ключевых руководителей проекта PyTorch, объявил о своем уходе. Его последний рабочий день в компании - 17 ноября. Чинтала, проработавший у Цукерберга 11 лет, возглавлял PyTorch с момента его создания. За это время фреймворк стал индустриальным стандартом, заняв, по оценкам, более 90% рынка ИИ-разработки.
Свой уход он объяснил желанием после долгого отпуска заняться чем-то новым. По его словам, PyTorch достиг зрелости и стабильности, а сильная команда готова продолжать его развитие. Сам Чинтала планирует остаться активным участником open-source сообщества.
Soumith Chintala в сети X
@ai_machinelearning_big_data
#news #ai #ml
Без официального анонса стала доступна новая ИИ-модель Polaris Alpha с контекстным окном до 256 тыс. токенов. Она описывается как универсальный инструмент для генерации кода и выполнении инструкций. Модель была запущена для сбора обратной связи от пользователей.
В технических сообществах предполагают, что Polaris Alpha может быть тестовой версией GPT-5.1 от OpenAI. Эту гипотезу подкрепляют отзывы первых пользователей, отмечающих крайне низкий уровень галлюцинаций и стиль ответов, характерный для GPT. Сама Polaris Alpha на прямой вопрос о своей связи с GPT-4 отвечает утвердительно.
По результатам бенчмарка EQ-Bench, производительность модели сопоставима с Claude-3.5-Sonnet. Доступ к Polaris Alpha открыт бесплатно через веб-интерфейс и API на OpenRouter.
openrouter.ai
Мустафа Сулейман, CEO Microsoft AI, анонсировал новую стратегию, основанную на концепции «гуманистического сверхинтеллекта» (HSI). Для работы над этим направлением создается специальное подразделение - MAI Superintelligence Team.
В отличие от идеи AGI, подход Microsoft предполагает создание узкоспециализированных и контролируемых систем для решения конкретных проблем человечества. Стратегия отказывается от гонки за ASI в пользу разработки практических технологий.
Цели HSI — добиться прорывов в медицине, поиск чистой энергии и создание персонализированных ИИ-ассистентов, избегая рисков создания автономных и неконтролируемых систем. По словам Сулеймана, это должно гарантировать, что самые топовые версии ИИ будут создаваться строго в интересах людей.
microsoft.ai
Google представила первый стабильный релиз опенсорсной утилиты Magika с полностью переписанным с нуля на Rust движком. Новая версия способна сканировать сотни файлов в секунду на одном ядре процессора, используя ONNX Runtime для инференса и Tokio для асинхронной обработки.
Количество поддерживаемых типов файлов было удвоено и теперь превышает 200. Добавилась поддержка актуальных форматов для Data Science и ML (Jupyter, PyTorch, ONNX), современных языков программирования (Swift, Kotlin, TypeScript, Zig) и DevOps-инструментов (Dockerfile, TOML, HCL). Разработчикам доступны обновленные модули для Python и TypeScript, а также новый нативный клиент командной строки.
opensource.googleblog.com
Крупнейший в мире контрактный производитель электроники в течение 6 месяцев начнет использовать человекоподобных роботов на своем заводе в Техасе. Роботы будут задействованы в сборке серверов для ИИ-систем. По словам CEO Янг Лю, это первый подобный опыт за более чем 50-летнюю историю Foxconn.
Этот шаг является частью стратегии по агрессивному расширению производства в Северной Америке. Компания, являясь ключевым поставщиком Nvidia, считает Северную Америку своим главным хабом по выпуску ИИ-серверов на ближайшие 3 года. Решение о роботизации принято для повышения эффективности производства, которое, по словам Лю, критически важно в сфере ИИ.
asia.nikkei.com
Сумит Чинтала, один из создателей и ключевых руководителей проекта PyTorch, объявил о своем уходе. Его последний рабочий день в компании - 17 ноября. Чинтала, проработавший у Цукерберга 11 лет, возглавлял PyTorch с момента его создания. За это время фреймворк стал индустриальным стандартом, заняв, по оценкам, более 90% рынка ИИ-разработки.
Свой уход он объяснил желанием после долгого отпуска заняться чем-то новым. По его словам, PyTorch достиг зрелости и стабильности, а сильная команда готова продолжать его развитие. Сам Чинтала планирует остаться активным участником open-source сообщества.
Soumith Chintala в сети X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenRouter
A router for LLMs and other AI models
GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.
Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.
Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
#google
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
📉 AI-рынок просел на $800 млрд за неделю
Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.
Что происходит:
— Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.
— Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.
— Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.
Почему падение получилось таким резким:
- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.
Главный удар:
- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.
Дополнительные точки напряжения:
- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*
ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.
ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8
@ai_machinelearning_big_data
#ai #ml #finance
Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.
Что происходит:
— Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.
— Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.
— Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.
Почему падение получилось таким резким:
- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.
Главный удар:
- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.
Дополнительные точки напряжения:
- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*
ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.
ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8
@ai_machinelearning_big_data
#ai #ml #finance
Главные новости ИИ и Мл.
✔️ Omnilingual ASR: опенсорсная система распознавания речи для 1600 языков от FAIR.
Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.
Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com
✔️ Microsoft создаёт инструмент для запуска CUDA-кода на видеокартах AMD.
Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.
Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.
Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com
✔️ xAI проведет 24-часовой хакатон.
xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.
Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai
✔️ Выбор новостных источников ChatGPT зависит от способа доступа.
Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.
Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.
Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io
✔️ Wikipedia хочет справедливого лицензирования своего контента.
Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.
В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.
Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org
@ai_machinelearning_big_data
#news #ai #ml
Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.
Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com
Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.
Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.
Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com
xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.
Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai
Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.
Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.
Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io
Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.
В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.
Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - facebookresearch/omnilingual-asr: Omnilingual ASR Open-Source Multilingual SpeechRecognition for 1600+ Languages
Omnilingual ASR Open-Source Multilingual SpeechRecognition for 1600+ Languages - facebookresearch/omnilingual-asr
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ GPT-5 на Sudoku-Bench
Команда Sudoku-Bench обновила результаты тестов. Напомню, когда бенчмарк вышел в мае 2025, ни одна LLM вообще не могла решить обычную судоку 9×9.
Теперь ситуация изменилась: GPT-5 стал новым лидером и решает 33% задач - в два раза умнее ближайшего конкурента. Это первая модель, которой удалось пройти и вариант классической 9×9.
Но главная часть бенчмарка остаётся нерешённой: 67% более сложных головоломок по-прежнему оказываются слишком сложными. Причина в том, что современные модели плохо справляются с тем, что нужно для настоящей судоку: понимать новые правила, держать в голове глобальную структуру, строить длинные логические цепочки и находить "точку входа", которую опытные люди сразу замечают.
Дополнительные эксперименты - GRPO-тюнинг Qwen2.5-7B и Thought Cloning на примерах из Cracking the Cryptic - дали небольшой прогресс, но не решили ключевые проблемы: пространственное мышление и творческий подход всё ещё оказываются для моделей сложными.
Итог: прогресс заметный, но до уровня человеческого логического и пространственного мышления моделям ещё далеко.
Подробнее:
https://pub.sakana.ai/sudoku-gpt5/
Команда Sudoku-Bench обновила результаты тестов. Напомню, когда бенчмарк вышел в мае 2025, ни одна LLM вообще не могла решить обычную судоку 9×9.
Теперь ситуация изменилась: GPT-5 стал новым лидером и решает 33% задач - в два раза умнее ближайшего конкурента. Это первая модель, которой удалось пройти и вариант классической 9×9.
Но главная часть бенчмарка остаётся нерешённой: 67% более сложных головоломок по-прежнему оказываются слишком сложными. Причина в том, что современные модели плохо справляются с тем, что нужно для настоящей судоку: понимать новые правила, держать в голове глобальную структуру, строить длинные логические цепочки и находить "точку входа", которую опытные люди сразу замечают.
Дополнительные эксперименты - GRPO-тюнинг Qwen2.5-7B и Thought Cloning на примерах из Cracking the Cryptic - дали небольшой прогресс, но не решили ключевые проблемы: пространственное мышление и творческий подход всё ещё оказываются для моделей сложными.
Итог: прогресс заметный, но до уровня человеческого логического и пространственного мышления моделям ещё далеко.
Подробнее:
https://pub.sakana.ai/sudoku-gpt5/
Фей-Фей Ли, которую называют "крестной матерью ИИ", опубликовала в своем блоге трек дальнейшего развития ИИ, размышляя, почему следующий прорыв в области ИИ произойдет за счет пространственного интеллекта или систем, которые смогут понимать, рассуждать и создавать трехмерные, непротиворечивые законам физики миры.
Доктор Фэй-Фэй Ли — вице-президент Google, профессор Стэнфордского университета и со-основатель Стэнфордского Института человеко-центричного ИИ (HAI). Её деятельность оказала революционное влияние на развитие современных технологий.
Ли известна как «крёстная мать ИИ», этот статус она получила за создание в 2009 году базы данных ImageNet и одноимённого бенчмарка — масштабного набора данных для распознавания объектов, который стал катализатором прорыва в глубоком обучении и компьютерном зрении.
Ли пишет, что, хотя LLM и овладели абстрактными знаниями, им не хватает способности восприятия и действий в пространстве (например, оценивать расстояние и движение):
Сейчас основная задача - обучить ИИ физике реального мира, и она быстро набирает обороты: лаборатория под руководством Ли, Google и Tencent уже проектируют системы пространственного интеллекта.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Главные новости ИИ и Мл за день
✔️ ElevenLabs Scribe v2 Realtime: STT-модель с задержкой менее 150 мс.
ElevenLabs представила Scribe v2 Realtime, новую модель Speech-to-Text, разработанную для задач, требующих минимальной задержки: голосовых агентов, ассистентов для совещаний и создания субтитров в реальном времени. Система обрабатывает речь с задержкой менее 150 мс, поддерживает более 90 языков и демонстрирует точность 93.5% по 30 популярным языкам. Особое внимание уделено работе с аудиозаписями, содержащими фоновый шум.
Фишкой модели стала «отрицательная задержка» - функция предсказывания следующего слова и знака препинания. Также есть автоматическое определение языка, обнаружение голоса и полный контроль над фиксацией сегментов транскрипции. Сервис готов к корпоративному использованию (SOC 2, GDPR) и уже доступен через API.
elevenlabs.io
✔️ Backboard установила рекорд в тесте долговременной памяти для ИИ.
Платформа для ИИ-агентов Backboard достигла рекордного показателя в 90.1% в бенчмарке LoCoMo, предназначенном для оценки долговременной диалоговой памяти. Это лучше предыдущих показателей популярных библиотек, которые находились в диапазоне 67–69%.
LoCoMo тестирует способность системы запоминать, обновлять и извлекать факты о пользователе и контекст диалога на протяжении многих сессий. Высокий балл означает, что ассистенты будут лучше следовать инструкциям, реже переспрашивать и требовать более коротких промптов, что снижает расход токенов.
Backboard предоставляет API для долгосрочной памяти, мультимодельный API для роутинга между 2200+ LLM и RAG-слой. Все результаты теста воспроизводимы - скрипты, логи и промпты опубликованы на GitHub.
backboard.io
✔️ Две трети топовых ИИ-компаний допустили утечку секретов на GitHub.
Компания по облачной безопасности Wiz обнаружила, что 65% компаний из списка Forbes AI 50 допустили утечку API-ключей, токенов и других учетных данных на GitHub. По словам исследователей, это могло привести к раскрытию приватных моделей, данных обучения или внутренней структуры организаций.
Чаще всего секреты находили в файлах Jupyter Notebook и Python-скриптах. Среди утечек были токены Hugging Face, Azure и W&B. В одном из случаев скомпрометированный токен Hugging Face мог открыть доступ к тысяче приватных моделей.
Wiz публично назвала только ElevenLabs и LangChain, отметив их быструю реакцию. При этом почти половина всех уведомлений об утечках, отправленных другим компаниям, осталась без ответа.
wiz.io
✔️ Cloudflare запустила поддержку Python в сервисе Workflows.
Cloudflare объявила о поддержке Python в своем сервисе Workflows, предназначенном для создания и управления многоэтапными процессами на платформе Workers. Раньше инструмент был доступен только для TypeScript.
Новшество открывает сервис для сообщества Python-разработчиков, специализирующихся на AI/ML и обработке данных. В качестве примеров использования компания приводит оркестрацию конвейеров данных, обучение ML-моделей и создание сложных ИИ-агентов, архитектура которых упрощается за счет встроенной обработке ошибок и сохранению состояния. Технически часть реализована через Pyodide — порт CPython в WebAssembly.
blog.cloudflare.com
✔️ OpenAI тратит на Sora около 15 млн. долларов в день.
По оценкам аналитиков, затраты на видеогенератор Sora обходятся OpenAI в $15 млн. в день, что в годовом выражении превышает $5 млрд. Расчеты основаны на стоимости генерации одного 10-секундного ролика, которая составляет для компании около $1.3, и предполагаемом объеме в 11 млн. видео ежедневно. Несмотря на убыточность, OpenAI, вероятно, следует классической стратегии захвата рынка, стремясь сначала сформировать аудиторию, а уже потом искать пути монетизации. Бесплатный доступ также насыщает компанию огромным количеством данных для дальнейшего обучения моделей.
Впрочем, Сэм Альтман уже подтвердил, что компания планирует сокращать объемы бесплатной генерации. По его словам, ни одна рекламная модель не сможет покрыть расходы на создание «забавных мемов для трех друзей».
forbes.com
@ai_machinelearning_big_data
#news #ai #ml
ElevenLabs представила Scribe v2 Realtime, новую модель Speech-to-Text, разработанную для задач, требующих минимальной задержки: голосовых агентов, ассистентов для совещаний и создания субтитров в реальном времени. Система обрабатывает речь с задержкой менее 150 мс, поддерживает более 90 языков и демонстрирует точность 93.5% по 30 популярным языкам. Особое внимание уделено работе с аудиозаписями, содержащими фоновый шум.
Фишкой модели стала «отрицательная задержка» - функция предсказывания следующего слова и знака препинания. Также есть автоматическое определение языка, обнаружение голоса и полный контроль над фиксацией сегментов транскрипции. Сервис готов к корпоративному использованию (SOC 2, GDPR) и уже доступен через API.
elevenlabs.io
Платформа для ИИ-агентов Backboard достигла рекордного показателя в 90.1% в бенчмарке LoCoMo, предназначенном для оценки долговременной диалоговой памяти. Это лучше предыдущих показателей популярных библиотек, которые находились в диапазоне 67–69%.
LoCoMo тестирует способность системы запоминать, обновлять и извлекать факты о пользователе и контекст диалога на протяжении многих сессий. Высокий балл означает, что ассистенты будут лучше следовать инструкциям, реже переспрашивать и требовать более коротких промптов, что снижает расход токенов.
Backboard предоставляет API для долгосрочной памяти, мультимодельный API для роутинга между 2200+ LLM и RAG-слой. Все результаты теста воспроизводимы - скрипты, логи и промпты опубликованы на GitHub.
backboard.io
Компания по облачной безопасности Wiz обнаружила, что 65% компаний из списка Forbes AI 50 допустили утечку API-ключей, токенов и других учетных данных на GitHub. По словам исследователей, это могло привести к раскрытию приватных моделей, данных обучения или внутренней структуры организаций.
Чаще всего секреты находили в файлах Jupyter Notebook и Python-скриптах. Среди утечек были токены Hugging Face, Azure и W&B. В одном из случаев скомпрометированный токен Hugging Face мог открыть доступ к тысяче приватных моделей.
Wiz публично назвала только ElevenLabs и LangChain, отметив их быструю реакцию. При этом почти половина всех уведомлений об утечках, отправленных другим компаниям, осталась без ответа.
wiz.io
Cloudflare объявила о поддержке Python в своем сервисе Workflows, предназначенном для создания и управления многоэтапными процессами на платформе Workers. Раньше инструмент был доступен только для TypeScript.
Новшество открывает сервис для сообщества Python-разработчиков, специализирующихся на AI/ML и обработке данных. В качестве примеров использования компания приводит оркестрацию конвейеров данных, обучение ML-моделей и создание сложных ИИ-агентов, архитектура которых упрощается за счет встроенной обработке ошибок и сохранению состояния. Технически часть реализована через Pyodide — порт CPython в WebAssembly.
blog.cloudflare.com
По оценкам аналитиков, затраты на видеогенератор Sora обходятся OpenAI в $15 млн. в день, что в годовом выражении превышает $5 млрд. Расчеты основаны на стоимости генерации одного 10-секундного ролика, которая составляет для компании около $1.3, и предполагаемом объеме в 11 млн. видео ежедневно. Несмотря на убыточность, OpenAI, вероятно, следует классической стратегии захвата рынка, стремясь сначала сформировать аудиторию, а уже потом искать пути монетизации. Бесплатный доступ также насыщает компанию огромным количеством данных для дальнейшего обучения моделей.
Впрочем, Сэм Альтман уже подтвердил, что компания планирует сокращать объемы бесплатной генерации. По его словам, ни одна рекламная модель не сможет покрыть расходы на создание «забавных мемов для трех друзей».
forbes.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
ElevenLabs
Introducing Scribe v2 Realtime
💰Anthropic впервые строят собственную инфраструктуру
Компания объявила о масштабных инвестициях в строительство дата-центров в Техасе и Нью-Йорке совместно с Fluidstack. Это объекты, оптимизированные под задачи Anthropic - максимально энергоэффективные и рассчитанные на развитие передовых моделей Claude.
Проект создаст около 800 постоянных рабочих мест и 2 400 рабочих на этапе строительства, запуск ожидается в течение 2026 года. Инициатива поддерживает AI Action Plan администрации США, направленный на укрепление лидерства страны в сфере искусственного интеллекта.
CEO Anthropic Дарио Амодеи отметил, что инфраструктура - ключ к следующему этапу прогресса: созданию ИИ, способного ускорять научные открытия и решать сложные задачи.
Сейчас Anthropic обслуживает более 300 000 бизнес-клиентов, а число крупных контрактов (от 100 000 $ в год) выросло почти в 7 раз за год.
Fluidstack выбрана за способность быстро вводить в эксплуатацию гигаваттные мощности. Партнёры обещают гибкое и эффективное развертывание, обеспечивающее устойчивый рост Anthropic без перегрузки по затратам.
Anthropic закладывает фундамент для долгосрочного доминирования в сфере ИИ, делая ставку на собственную вычислительную базу в США и поддержку национальной технологической независимости.
https://www.anthropic.com/news/anthropic-invests-50-billion-in-american-ai-infrastructure
@ai_machinelearning_big_data
#Anthropic #claude
Компания объявила о масштабных инвестициях в строительство дата-центров в Техасе и Нью-Йорке совместно с Fluidstack. Это объекты, оптимизированные под задачи Anthropic - максимально энергоэффективные и рассчитанные на развитие передовых моделей Claude.
Проект создаст около 800 постоянных рабочих мест и 2 400 рабочих на этапе строительства, запуск ожидается в течение 2026 года. Инициатива поддерживает AI Action Plan администрации США, направленный на укрепление лидерства страны в сфере искусственного интеллекта.
CEO Anthropic Дарио Амодеи отметил, что инфраструктура - ключ к следующему этапу прогресса: созданию ИИ, способного ускорять научные открытия и решать сложные задачи.
Сейчас Anthropic обслуживает более 300 000 бизнес-клиентов, а число крупных контрактов (от 100 000 $ в год) выросло почти в 7 раз за год.
Fluidstack выбрана за способность быстро вводить в эксплуатацию гигаваттные мощности. Партнёры обещают гибкое и эффективное развертывание, обеспечивающее устойчивый рост Anthropic без перегрузки по затратам.
Anthropic закладывает фундамент для долгосрочного доминирования в сфере ИИ, делая ставку на собственную вычислительную базу в США и поддержку национальной технологической независимости.
https://www.anthropic.com/news/anthropic-invests-50-billion-in-american-ai-infrastructure
@ai_machinelearning_big_data
#Anthropic #claude
OpenAI выпустила GPT-5.1, сделав основной упор на интеллект и качество диалога.
Вместе с моделями OpenAI расширила возможности кастомизации тона ответов, добавив новые стили: «Профессиональный», «Откровенный» и «Необычный».
Обновление уже раскатывают на платных подписчиков, а доступ через API появится в ближайшие дни. Предыдущие версии GPT-5 останутся доступны в течение трех месяцев.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Прогресс уже кажется безумным… и самое важное происходит именно в биологии и медицине.
Учёные из Университета Нотр-Дам сделали прорыв, который меняет то, как мы изучаем химию жизни.
Они создали вычислительный инструмент, который за несколько дней может проанализировать сотни белков и предсказать, как изменение pH влияет на их форму и поведение. Раньше на поиск всего одного pH-чувствительного белка уходили годы.
Новая система нашла важные «переключатели» в онкологических белках, таких как Src и SHP2, и показала: едва заметное изменение pH может переводить их из неактивного состояния в гиперактивное - а это запускает рост клеток, деление и развитие болезней.
Если научиться точно контролировать эти молекулярные «pH-переключатели», можно создавать лекарства, которые исправляют неправильную работу конкретных белков, не затрагивая здоровые.
То, что требовало десятилетий лабораторных экспериментов, теперь происходит за дни благодаря вычислениям.
Эра биологии, ускоренной ИИ, уже началась.
https://phys.org/news/2025-11-condense-decades-disease-biology-days.html
Учёные из Университета Нотр-Дам сделали прорыв, который меняет то, как мы изучаем химию жизни.
Они создали вычислительный инструмент, который за несколько дней может проанализировать сотни белков и предсказать, как изменение pH влияет на их форму и поведение. Раньше на поиск всего одного pH-чувствительного белка уходили годы.
Новая система нашла важные «переключатели» в онкологических белках, таких как Src и SHP2, и показала: едва заметное изменение pH может переводить их из неактивного состояния в гиперактивное - а это запускает рост клеток, деление и развитие болезней.
Если научиться точно контролировать эти молекулярные «pH-переключатели», можно создавать лекарства, которые исправляют неправильную работу конкретных белков, не затрагивая здоровые.
То, что требовало десятилетий лабораторных экспериментов, теперь происходит за дни благодаря вычислениям.
Эра биологии, ускоренной ИИ, уже началась.
https://phys.org/news/2025-11-condense-decades-disease-biology-days.html
🧠 Большой шаг к AGI.
MIT представили подход SEAL - метод, который позволяет языковым моделям самостоятельно обновлять свои знания и «вписывать» новую информацию прямо во внутренние веса.
Вместо статичной модели после релиза появляется система, которая:
- пишет свои «учебные конспекты»,
- генерирует несколько вариантов объяснений,
- тестирует себя,
- выбирает лучший результат,
- и обновляет себя же, закрепляя новое знание.
Фактически модель саморедактируется и самообучается, как студент, который улучшает понимание через пробу и ошибки.
Первые результаты впечатляют:
- +15% точности в QA-задачах
- +50% успеха в освоении новых навыков
- маленькая модель превосходит крупные LLM
Проблема катастрофического забывания ещё есть, но прогресс быстрый.
Это выглядит как первый реальный шаг к непрерывно обучающимся AI-агентам, которые могут адаптироваться, эволюционировать и работать вместе.
https://news.mit.edu/2025/teaching-large-language-models-to-absorb-new-knowledge-1112
MIT представили подход SEAL - метод, который позволяет языковым моделям самостоятельно обновлять свои знания и «вписывать» новую информацию прямо во внутренние веса.
Вместо статичной модели после релиза появляется система, которая:
- пишет свои «учебные конспекты»,
- генерирует несколько вариантов объяснений,
- тестирует себя,
- выбирает лучший результат,
- и обновляет себя же, закрепляя новое знание.
Фактически модель саморедактируется и самообучается, как студент, который улучшает понимание через пробу и ошибки.
Первые результаты впечатляют:
- +15% точности в QA-задачах
- +50% успеха в освоении новых навыков
- маленькая модель превосходит крупные LLM
Проблема катастрофического забывания ещё есть, но прогресс быстрый.
Это выглядит как первый реальный шаг к непрерывно обучающимся AI-агентам, которые могут адаптироваться, эволюционировать и работать вместе.
https://news.mit.edu/2025/teaching-large-language-models-to-absorb-new-knowledge-1112
Оценки компаний становятся просто невероятными.
Mira Murati ведёт ранние переговоры о новом раунде инвестиций - по оценке около $50 млрд. Это в 4 раза больше, чем всего четыре месяца назад.
В июле её стартап уже объявил один из крупнейших сид-раундов в истории, привлекая $2 млрд при оценке $12 млрд.
Теперь разговор идёт о пятидесяти.
Безумие.
https://www.bloomberg.com/news/articles/2025-11-13/murati-s-thinking-machines-in-funding-talks-at-50-billion-value
Mira Murati ведёт ранние переговоры о новом раунде инвестиций - по оценке около $50 млрд. Это в 4 раза больше, чем всего четыре месяца назад.
В июле её стартап уже объявил один из крупнейших сид-раундов в истории, привлекая $2 млрд при оценке $12 млрд.
Теперь разговор идёт о пятидесяти.
Безумие.
https://www.bloomberg.com/news/articles/2025-11-13/murati-s-thinking-machines-in-funding-talks-at-50-billion-value
Media is too big
VIEW IN TELEGRAM
🚀 DeepMind представила SIMA 2 - интеллектуального агента, который умеет играть, рассуждать и учиться вместе с человеком в виртуальных 3D-мирах.
Что нового:
- SIMA 2 основан на модели Gemini, поэтому агент не просто выполняет команды, а понимает цели, объясняет свои действия и анализирует ошибки.
- Работает в разных игровых средах, включая те, на которых не обучался — то есть хорошо обобщает опыт.
- Учит себя сам: после стартовых демонстраций улучшает навыки через самостоятельную игру и самооценку.
Это шаг к более универсальным агентам, которые взаимодействуют с окружением почти как человек.
Развитые функции рассуждения и самообучения приближают такие системы к более общему интеллекту.
Игровые миры - отличная тестовая площадка для сложных навыков восприятия, планирования и действий перед переносом в реальный мир.
Ограничения:
- Агент всё ещё ошибается в задачах с длинной логикой, ограниченной памятью и сложными визуальными взаимодействиями.
- Проект остаётся исследовательским, доступ пока ограничен.
SIMA 2 показывает, как можно объединить язык, рассуждение и действие в сложных виртуальных средах - и формирует основу для будущих самообучающихся AI-агентов.
https://deepmind.google/blog/sima-2-an-agent-that-plays-reasons-and-learns-with-you-in-virtual-3d-worlds
Что нового:
- SIMA 2 основан на модели Gemini, поэтому агент не просто выполняет команды, а понимает цели, объясняет свои действия и анализирует ошибки.
- Работает в разных игровых средах, включая те, на которых не обучался — то есть хорошо обобщает опыт.
- Учит себя сам: после стартовых демонстраций улучшает навыки через самостоятельную игру и самооценку.
Это шаг к более универсальным агентам, которые взаимодействуют с окружением почти как человек.
Развитые функции рассуждения и самообучения приближают такие системы к более общему интеллекту.
Игровые миры - отличная тестовая площадка для сложных навыков восприятия, планирования и действий перед переносом в реальный мир.
Ограничения:
- Агент всё ещё ошибается в задачах с длинной логикой, ограниченной памятью и сложными визуальными взаимодействиями.
- Проект остаётся исследовательским, доступ пока ограничен.
SIMA 2 показывает, как можно объединить язык, рассуждение и действие в сложных виртуальных средах - и формирует основу для будущих самообучающихся AI-агентов.
https://deepmind.google/blog/sima-2-an-agent-that-plays-reasons-and-learns-with-you-in-virtual-3d-worlds
🚀 Qwen выпустила DeepResearch 2511 - обновление глубокого исследования.
Основные изменения:
✨ Добавлены два режима работы д
- Normal - быстрый и универсальный
- Advanced - тратит больше времени на анализ, чтобы дать максимально глубокий разбор
📄 Поддержка загрузки файлов
Теперь можно отправлять документы и изображения прямо в модель для анализа.
⚡ Улучшенный поиск
Обновлённый механизм быстрее считывает и обрабатывает веб-информацию, углубляя результаты исследования.
📊 Точный контроль отчётов
Можно задавать структуру отчёта: объём, количество абзацев, формат и детализацию. Улучшена надёжность цитирования.
🧑💻 Новый UX
Переработанная архитектура делает интерфейс заметно быстрее и отзывчивее.
🔗 Web: https://chat.qwen.ai/?inputFeature=deep_research
📱 App: https://qwen.ai/download
@ai_machinelearning_big_data
#qwen
Основные изменения:
✨ Добавлены два режима работы д
- Normal - быстрый и универсальный
- Advanced - тратит больше времени на анализ, чтобы дать максимально глубокий разбор
📄 Поддержка загрузки файлов
Теперь можно отправлять документы и изображения прямо в модель для анализа.
⚡ Улучшенный поиск
Обновлённый механизм быстрее считывает и обрабатывает веб-информацию, углубляя результаты исследования.
📊 Точный контроль отчётов
Можно задавать структуру отчёта: объём, количество абзацев, формат и детализацию. Улучшена надёжность цитирования.
🧑💻 Новый UX
Переработанная архитектура делает интерфейс заметно быстрее и отзывчивее.
🔗 Web: https://chat.qwen.ai/?inputFeature=deep_research
📱 App: https://qwen.ai/download
@ai_machinelearning_big_data
#qwen