#DeepSeek выпустили сегодня 2 модели для агентов
DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Эти модели специально предназначены для агентных задач, такие как сложное мышление, математика, кодинг и использование инструментов.
Они позиционируются как преемники экспериментальной версии V3.2-Exp и показывают высокую производительность, сравнимую с топовыми закрытыми моделями: GPT-5 и Gemini 3.0 Pro.
Интересный факт, слово deepseek названо словом года 2025 по версии китайского словаря Youdao в Китае, что отражает бум ИИ.
DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Эти модели специально предназначены для агентных задач, такие как сложное мышление, математика, кодинг и использование инструментов.
Они позиционируются как преемники экспериментальной версии V3.2-Exp и показывают высокую производительность, сравнимую с топовыми закрытыми моделями: GPT-5 и Gemini 3.0 Pro.
Интересный факт, слово deepseek названо словом года 2025 по версии китайского словаря Youdao в Китае, что отражает бум ИИ.
Telegram
All about AI, Web 3.0, BCI
#DeepSeek just launched DeepSeek-V3.2 & DeepSeek-V3.2-Speciale — Reasoning-first models built for agents
1. DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
2. DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities.…
1. DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
2. DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities.…
1❤8❤🔥5👍5
Тренды интеграции ИИ в нейроинтерфейсы от GOAT индустрии М. Лебедева
Профессор на недавней конференции AIJ предложил использовать ИИ для нейроинтерфейсов вот в таких случаях, смотрите его презентацию.
Лебедев описывает эволюцию роли ИИ в нейроинтерфейсах так:
1 уровень: ИИ как декодер
"Переводим сигналы мозга в команды" → Это стандарт уже 10+ лет (классификаторы, нейросети)
2 уровень: ИИ как генератор
"Создаем стимулы для мозга" → Обратная связь, нейромодуляция, BCI-реабилитация
3 уровень: ИИ как протез функции
"Заменяем утраченные способности" → Коммуникация для парализованных.
Уровень 4: ИИ как усилитель когнитивных способностей
"Улучшаем здоровых людей" → выход за рамки медицины.
Сейчас профессор с командой работает над неинвазивным нейроинтерфейсом, который подключается к чат-боту типа DeepSeek/ChatGpt и исправляет ошибки в набранном тексте и выполняет роль собеседника.
Профессор на недавней конференции AIJ предложил использовать ИИ для нейроинтерфейсов вот в таких случаях, смотрите его презентацию.
Лебедев описывает эволюцию роли ИИ в нейроинтерфейсах так:
1 уровень: ИИ как декодер
"Переводим сигналы мозга в команды" → Это стандарт уже 10+ лет (классификаторы, нейросети)
2 уровень: ИИ как генератор
"Создаем стимулы для мозга" → Обратная связь, нейромодуляция, BCI-реабилитация
3 уровень: ИИ как протез функции
"Заменяем утраченные способности" → Коммуникация для парализованных.
Уровень 4: ИИ как усилитель когнитивных способностей
"Улучшаем здоровых людей" → выход за рамки медицины.
Сейчас профессор с командой работает над неинвазивным нейроинтерфейсом, который подключается к чат-боту типа DeepSeek/ChatGpt и исправляет ошибки в набранном тексте и выполняет роль собеседника.
🔥7👍5❤3🤔1
Утечка SemiAnalysis: за 1,5 года OpenAI не создала новой фронтирной модели
С момента ухода Ильи Суцкевера, с мая 2024 OpenAI не завершили ни одного успешного полномасштабного предобучения для новой фронтирной модели.
Об этом пишет SemiAnalysis и говорит, что это не просто задержка — технический барьер, который OpenAI не преодолел.
Какие причины по версии SemiAnalysis?
1. Проблемы с конвергенцией — модель не достигает нужного качества на больших кластерах. Предыдущие запуски, вероятно, провалились или были прерваны.
2. OpenAI переориентировалась на пост-обучение. Но это не заменяет новое предобучение — оно строится на старой базе данных и вычислений.
3. OpenAI не расширяла кластеры NVIDIA с мая 2024-го. Видна только активность по fine-tuning и RL, но не по предобучению. Они сэкономили ~30% на NVIDIA благодаря конкуренции от TPU, но TPUs ещё не развернуты.
В отличие от OpenAI, Google успешно обучил Gemini 3 целиком на TPUv7, который даёт ~44% снижения TCO по сравнению с NVIDIA GB200, и до 52% для внешних клиентов.
SemiAnalysis подчёркивает, что 3D-торус в TPU важнее микроархитектуры, и Google лидирует в инфраструктуре.
OpenAI, возможно, купит TPU как и Anthropic, Meta(запрещена в России) и xAI, но пока полагается на NVIDIA и AWS.
SemiAnalysis считает, что GPT-5— это пост-тренинг на старой базе GPT-4o. Нет новой предобученной основы, которая бы включала свежие данные и масштабирование FLOPs.
OpenAI не комментировала этот анализ напрямую, но в подкастах, например, с Ноамом Брауном, признавали, что масштабирование предобучения становится дороже и сложнее.
С момента ухода Ильи Суцкевера, с мая 2024 OpenAI не завершили ни одного успешного полномасштабного предобучения для новой фронтирной модели.
Об этом пишет SemiAnalysis и говорит, что это не просто задержка — технический барьер, который OpenAI не преодолел.
Какие причины по версии SemiAnalysis?
1. Проблемы с конвергенцией — модель не достигает нужного качества на больших кластерах. Предыдущие запуски, вероятно, провалились или были прерваны.
2. OpenAI переориентировалась на пост-обучение. Но это не заменяет новое предобучение — оно строится на старой базе данных и вычислений.
3. OpenAI не расширяла кластеры NVIDIA с мая 2024-го. Видна только активность по fine-tuning и RL, но не по предобучению. Они сэкономили ~30% на NVIDIA благодаря конкуренции от TPU, но TPUs ещё не развернуты.
В отличие от OpenAI, Google успешно обучил Gemini 3 целиком на TPUv7, который даёт ~44% снижения TCO по сравнению с NVIDIA GB200, и до 52% для внешних клиентов.
SemiAnalysis подчёркивает, что 3D-торус в TPU важнее микроархитектуры, и Google лидирует в инфраструктуре.
OpenAI, возможно, купит TPU как и Anthropic, Meta(запрещена в России) и xAI, но пока полагается на NVIDIA и AWS.
SemiAnalysis считает, что GPT-5— это пост-тренинг на старой базе GPT-4o. Нет новой предобученной основы, которая бы включала свежие данные и масштабирование FLOPs.
OpenAI не комментировала этот анализ напрямую, но в подкастах, например, с Ноамом Брауном, признавали, что масштабирование предобучения становится дороже и сложнее.
Semianalysis
Google TPUv7: The 900lb Gorilla In the Room
Anthropic’s 1GW+ TPUs, New customers Meta/SSI/xAI/OAI, Full Stack Review of v7 Ironwood, CUDA Moat at risk, Next Generation TPUv8AX and TPUv8X versus Vera Rubin
👍13❤7🔥5👎1
В 2026г. IT-компании в РФ заплатят 3% вузам от сэкономленных ₽ на льготах
Крупные IT-компании для сохранения аккредитации будут обязаны заключать соглашения с профильными вузами и отчислять им 3% от сэкономленных от налоговых льгот средств.
Речь идет о компаниях, у которых:
- выручка не менее 1 млрд руб. за год;
- они пользовались сниженными тарифами страховых взносов/пониженной ставкой на налог на прибыль;
- количество сотрудников составило не менее 100.
IT-компании будут разрабатывать образовательные программы по профильным специальностям и направлять сотрудников для проведения занятий.
Расходы бизнеса на эту инициативу могут составить около 10 млрд руб. в первый год. Пока же из 500 IT-компаний, которые соответствуют критериям, лишь 20% взаимодействуют с системой образования.
Крупные IT-компании для сохранения аккредитации будут обязаны заключать соглашения с профильными вузами и отчислять им 3% от сэкономленных от налоговых льгот средств.
Речь идет о компаниях, у которых:
- выручка не менее 1 млрд руб. за год;
- они пользовались сниженными тарифами страховых взносов/пониженной ставкой на налог на прибыль;
- количество сотрудников составило не менее 100.
IT-компании будут разрабатывать образовательные программы по профильным специальностям и направлять сотрудников для проведения занятий.
Расходы бизнеса на эту инициативу могут составить около 10 млрд руб. в первый год. Пока же из 500 IT-компаний, которые соответствуют критериям, лишь 20% взаимодействуют с системой образования.
Коммерсантъ
Образование процента
Крупнейшие IT-компании заплатят 3% от сэкономленных на льготах средств вузам
👌9❤3
Anthropic проверили ИИ - агентов на смарт-контрактах на основе блокчейна
Команда исследователей из программ MATS и Anthropic Fellows создала новый бенчмарк SCONE-bench из 405 реальных контрактов, которые были взломаны в период 2020-2025 гг.
Смарт-контракты — идеальный полигон для оценки, потому что:
- Весь код публичен на блокчейне
- Уязвимости позволяют прямое хищение средств
- Можно точно измерить стоимость уязвимостей в $
- Навыки аналогичны эксплуатации традиционного ПО
Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 создали уязвимости на $4,6 млн для смарт-контрактов, взломанных после марта 2025 года после даты их обучения. Это устанавливает конкретную нижнюю границу экономического ущерба, который могут нанести эти модели.
Оба агента (Sonnet 4.5 и GPT-5) обнаружили 2 новые уязвимости в 2849 недавно развёрнутых контрактах, создав эксплойты на $3,694, при этом GPT-5 сделал это за $3,476 в API-расходах. Это доказывает, что автономная прибыльная эксплуатация технически возможна уже сегодня.
Команда исследователей из программ MATS и Anthropic Fellows создала новый бенчмарк SCONE-bench из 405 реальных контрактов, которые были взломаны в период 2020-2025 гг.
Смарт-контракты — идеальный полигон для оценки, потому что:
- Весь код публичен на блокчейне
- Уязвимости позволяют прямое хищение средств
- Можно точно измерить стоимость уязвимостей в $
- Навыки аналогичны эксплуатации традиционного ПО
Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 создали уязвимости на $4,6 млн для смарт-контрактов, взломанных после марта 2025 года после даты их обучения. Это устанавливает конкретную нижнюю границу экономического ущерба, который могут нанести эти модели.
Оба агента (Sonnet 4.5 и GPT-5) обнаружили 2 новые уязвимости в 2849 недавно развёрнутых контрактах, создав эксплойты на $3,694, при этом GPT-5 сделал это за $3,476 в API-расходах. Это доказывает, что автономная прибыльная эксплуатация технически возможна уже сегодня.
🔥13🤔3👍2
Ex сотрудник Tesla, HF создал свою компанию по ИИ и робототехнике
UMA — это стартап, у которого продукт — платформа для создания "умных" роботов, способных выполнять задачи в различных сферах.
Они сочетают передовые системы ИИ с робототехникой.
Советниками стартапа стали Ян Лекун и Томас Вольф , СТО Hugging Face.
UMA — это стартап, у которого продукт — платформа для создания "умных" роботов, способных выполнять задачи в различных сферах.
Они сочетают передовые системы ИИ с робототехникой.
Советниками стартапа стали Ян Лекун и Томас Вольф , СТО Hugging Face.
uma.bot
UMA - Building intelligent robots that enhance quality of life for everyone
At UMA, we develop AI and robotics dedicated to shaping a new economic and societal era. We design general-purpose mobile and humanoid robots with human-level dexterity and a deep understanding of the physical world.
👍6🔥4❤3🤔1
ЦБ РФ очень долго запрягают- только поняли, что им нужны стейблкоины и их невозможно игнорировать
Больше про стейблкоины читайте здесь, а также здесь, а еще здесь. А также тут.
Банк России обсуждает возможность облегчения правил обращения криптоактивов не только через супер квалифицированных инвесторов. 1-й зампред ЦБ В. Чистюхин говорит, что криптоактивы могли бы быть распространены и ниже уровнем.
Также ЦБ с Минфином обсуждает вопрос введения в законодательство определения стейблкоинов. Ранее ЦБ писали, что стейблкоины несут риски.
"Нам кажется, что настал момент посмотреть на него (рынок криптоактивов ) действительно как на рынок в целом, может, пользуясь больше международной классификацией относительно той, которая есть сегодня, а это: цифровые валюты центральных банков (CBDC), стейблокоины и криптовалюты", - сказал первый зампред ЦБ.
А с 5 января 2026 года Bank of America официально разрешает своим консультантам предлагать клиентам держать от 1 до 4 % портфеля в криптовалюте, в первую очередь в биткоин-ETF.
Больше про стейблкоины читайте здесь, а также здесь, а еще здесь. А также тут.
Банк России обсуждает возможность облегчения правил обращения криптоактивов не только через супер квалифицированных инвесторов. 1-й зампред ЦБ В. Чистюхин говорит, что криптоактивы могли бы быть распространены и ниже уровнем.
Также ЦБ с Минфином обсуждает вопрос введения в законодательство определения стейблкоинов. Ранее ЦБ писали, что стейблкоины несут риски.
"Нам кажется, что настал момент посмотреть на него (рынок криптоактивов ) действительно как на рынок в целом, может, пользуясь больше международной классификацией относительно той, которая есть сегодня, а это: цифровые валюты центральных банков (CBDC), стейблокоины и криптовалюты", - сказал первый зампред ЦБ.
А с 5 января 2026 года Bank of America официально разрешает своим консультантам предлагать клиентам держать от 1 до 4 % портфеля в криптовалюте, в первую очередь в биткоин-ETF.
Интерфакс
Банк России представит позицию по регулированию криптовалют до конца 2025 года
Интерфакс: Банк России планирует представить свою позицию по вопросу регулирования рынка криптоактивов до конца текущего года, заявил журналистам первый зампред ЦБ Владимир Чистюхин."Мы обсуждаем целесообразность использования "суперквалов" в новом регулировании…
❤7😁6👍5🔥2
ЧП в OpenAI, они на панике готовятся выпустить новую модель Garlik 🧄как ответочка на Gemini 3
Сэм Альтман разослал сотрудникам очередное письмо, в котором объявил режим code red.
Альтман написал: «мы находимся в критической ситуации для ChatGPT», подчёркивая необходимость срочно перераспределить людей, вычисления и ресурсы. Цель — вернуть лидерство в ИИ-чатботах. За 2 недели с момента запуска Gemini 3 количество уникальных активных пользователей ChatGPT в день снизилось на 6%, смотрите в комментариях пруф.
Одновременно с этим команда на этой неделе выпустит новую модель Garlic.
Вчера на подкасте глава по науке OpenAI Марк Чен сказал так: «У нас есть модель, которая обходит GPT-4.5 в кодинге и мышлении, при этом потребляя намного меньше ресурсов».
Также Марк Чен сказал :
1. за последние 2 года мы вложили столько ресурсов в reasoning, что немного потеряли мышцы в pre-training и post-training
2. Они развивают проект, связанный с синтетическими данными, о котором упоминалось в связи с запуском GPT-5. Суть заключается в генерации полезных данных для обучения.
3. Все говорят, что scaling мёртв. Мы так не считаем, у нас есть алгоритмические прорывы, которые позволяют продолжать масштабировать модели.
Вчера мы опубликовали анализ от SemiAnalysis, которые отметили, что GPT-5— по сути глубокий пост-тренинг на базе GPT-4o 2024 года, а не новая фундаментальная модель со свежими данными и 10× вычислениями.
P.S. После ухода Ильи Суцкевера OpenAI потеряла мозговой центр. С тех пор за 1.5 года компания фокусировалась на монетизации, партнёрствах и хайпе, а не на большом прыжке. Нет новой фундаментальной модели уровня GPT-4.
Сэм Альтман разослал сотрудникам очередное письмо, в котором объявил режим code red.
Альтман написал: «мы находимся в критической ситуации для ChatGPT», подчёркивая необходимость срочно перераспределить людей, вычисления и ресурсы. Цель — вернуть лидерство в ИИ-чатботах. За 2 недели с момента запуска Gemini 3 количество уникальных активных пользователей ChatGPT в день снизилось на 6%, смотрите в комментариях пруф.
Одновременно с этим команда на этой неделе выпустит новую модель Garlic.
Вчера на подкасте глава по науке OpenAI Марк Чен сказал так: «У нас есть модель, которая обходит GPT-4.5 в кодинге и мышлении, при этом потребляя намного меньше ресурсов».
Также Марк Чен сказал :
1. за последние 2 года мы вложили столько ресурсов в reasoning, что немного потеряли мышцы в pre-training и post-training
2. Они развивают проект, связанный с синтетическими данными, о котором упоминалось в связи с запуском GPT-5. Суть заключается в генерации полезных данных для обучения.
3. Все говорят, что scaling мёртв. Мы так не считаем, у нас есть алгоритмические прорывы, которые позволяют продолжать масштабировать модели.
Вчера мы опубликовали анализ от SemiAnalysis, которые отметили, что GPT-5— по сути глубокий пост-тренинг на базе GPT-4o 2024 года, а не новая фундаментальная модель со свежими данными и 10× вычислениями.
P.S. После ухода Ильи Суцкевера OpenAI потеряла мозговой центр. С тех пор за 1.5 года компания фокусировалась на монетизации, партнёрствах и хайпе, а не на большом прыжке. Нет новой фундаментальной модели уровня GPT-4.
The Information
OpenAI Developing ‘Garlic’ Model to Counter Google’s Recent Gains
OpenAI, which in recent weeks has appeared to fall behind Google in AI development, is fighting back with a new large language model codenamed Garlic.Last week, OpenAI’s chief research officer Mark Chen told some colleagues about the new model, which was…
👍6🤣6❤5🔥1😱1🙏1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
⚡️AlphaChip от Google сможет в будущем автоматизировать весь процесс проектирования чипов AlphaChip использует методы обучения с подкреплением, похожие на те, что применялись в AlphaGo и AlphaZero для игр. AlphaChip уже применяется для проектирования TPU…
2 девушки, экс-Google, создали компанию по разработке чипов с ИИ
Азалия Мирхосейни и Анна Голди, экс-исследователи Google, которые работали над AlphaChip создали фронтирную
лабораторию Ricursive Intelligence.
Ricursive — это R&D-хаб на стыке ИИ и железа.
Идея в том, что ИИ сам проектирует чипы, а эти чипы, в свою очередь, делают ИИ умнее. Это рекурсивное самоулучшение — цикл, где AI → чипы → лучший AI → ещё лучшие чипы.
Цель - ускорить путь к ASI, решая задачу, которая стоит в $800 млрд индустрии полупроводников.
Они уже собрали $35 млн в seed-раунде при оценке в $750 млн.
Команда небольшая, но звёздная: Jiwoo Pak, Ebrahim Songhori, Yi-Chen Lu, Dan Zhang и Hao Chen. Все с бэком в топ-компаниях типа Google и фокусом на hardware-AI интеграцию.
Азалия Мирхосейни и Анна Голди, экс-исследователи Google, которые работали над AlphaChip создали фронтирную
лабораторию Ricursive Intelligence.
Ricursive — это R&D-хаб на стыке ИИ и железа.
Идея в том, что ИИ сам проектирует чипы, а эти чипы, в свою очередь, делают ИИ умнее. Это рекурсивное самоулучшение — цикл, где AI → чипы → лучший AI → ещё лучшие чипы.
Цель - ускорить путь к ASI, решая задачу, которая стоит в $800 млрд индустрии полупроводников.
Они уже собрали $35 млн в seed-раунде при оценке в $750 млн.
Команда небольшая, но звёздная: Jiwoo Pak, Ebrahim Songhori, Yi-Chen Lu, Dan Zhang и Hao Chen. Все с бэком в топ-компаниях типа Google и фокусом на hardware-AI интеграцию.
Ricursive
Recursive Self-Improvement via AI for Chip Design & Chip Design for AI - Riculsive Intelligence
We develop frontier AI methods to reinvent chip development, collapsing traditional design timelines, closing the loop between AI and the hardware that fuels it, and enabling a Cambrian explosion of custom silicon.
🔥13❤6👏5🤔3🤣3👎1💊1
Anthropic готовится к IPO на $300–400 млрд, но почему не на $1трлн, как OpenAI? Рассказываем в этом посте.
Компания обсуждает IPO в диапазоне $300–400 млрд, почти без markup к последнему частному раунду. Это почти нулевой апсайд для новых инвесторов, что нетипично для «горячих» размещений.
Главная ценность IPO для Anthropic — не деньги, а инфраструктура доверия, то есть enterprise.
Крупный бизнес при подписании контракта на $20–100 млн обязан объяснить своему совету директоров и риск-комитету:
- Кто проверял финансовую отчётность этой компании?
- Есть ли у неё SOX-compliance и аудит по GAAP?
- Что будет, если стартап завтра закроется или сменит владельца?
Частная компания на эти вопросы ответить не может. Публичная — может одним фактом своего статуса.
Anthropic уже в 2025 году выходит на ~$9 млрд ARR и планирует $20–26 млрд в 2026-м. У них положительная юнит-экономика и относительно скромный burn по сравнению с конкурентами. Им не нужно «продавать мечту» за триллион $, как это уже работающий бизнес.
Поэтому они и планируют IPO почти без markup к последнему раунду: $300–400 млрд.
Не чтобы стать дороже, а чтобы стать безопасным выбором для любого корпоративного закупщика в мире.
OpenAI решает другую задачу: им нужно профинансировать $15–20 млрд годовых расходов на пути к AGI. Поэтому они и целятся в $1 трлн+ — им нужны эти деньги.
А Anthropic — нет. Им нужна просто возможность спокойно продавать свой уже готовый продукт большим компаниям без лишних вопросов.
Первой публичной ИИ-компанией с настоящими enterprise-доходами станет именно та, у кого сейчас не капитал, а доверие.
Компания обсуждает IPO в диапазоне $300–400 млрд, почти без markup к последнему частному раунду. Это почти нулевой апсайд для новых инвесторов, что нетипично для «горячих» размещений.
Главная ценность IPO для Anthropic — не деньги, а инфраструктура доверия, то есть enterprise.
Крупный бизнес при подписании контракта на $20–100 млн обязан объяснить своему совету директоров и риск-комитету:
- Кто проверял финансовую отчётность этой компании?
- Есть ли у неё SOX-compliance и аудит по GAAP?
- Что будет, если стартап завтра закроется или сменит владельца?
Частная компания на эти вопросы ответить не может. Публичная — может одним фактом своего статуса.
Anthropic уже в 2025 году выходит на ~$9 млрд ARR и планирует $20–26 млрд в 2026-м. У них положительная юнит-экономика и относительно скромный burn по сравнению с конкурентами. Им не нужно «продавать мечту» за триллион $, как это уже работающий бизнес.
Поэтому они и планируют IPO почти без markup к последнему раунду: $300–400 млрд.
Не чтобы стать дороже, а чтобы стать безопасным выбором для любого корпоративного закупщика в мире.
OpenAI решает другую задачу: им нужно профинансировать $15–20 млрд годовых расходов на пути к AGI. Поэтому они и целятся в $1 трлн+ — им нужны эти деньги.
А Anthropic — нет. Им нужна просто возможность спокойно продавать свой уже готовый продукт большим компаниям без лишних вопросов.
Первой публичной ИИ-компанией с настоящими enterprise-доходами станет именно та, у кого сейчас не капитал, а доверие.
Reuters
Anthropic plans an IPO as early as 2026, FT reports
Anthropic, the artificial intelligence startup backed by Alphabet's Google and Amazon.com , has hired the law firm Wilson Sonsini to prepare for an initial public offering that could take place as early as 2026, the Financial Times reported on Tuesday.
❤14🔥9👍4🤔1
Google DeepMind поменяла подход к пониманию ИИ
Команда перешла к прагматической интерпретируемости, чтобы исследования лучше служили реальным целям, таким как безопасность AGI.
Что такое прагматическая интерпретируемость и зачем её ввели?
Раньше команда использовала механистическую интерпретируемость — когда исследователи пытаются разобрать нейронные сети, как механизм, чтобы понять, как они работают внутри. Это дало интересные открытия: от понимания, как модели хранят знания в "суперпозиции" , до выявления скрытых целей в поведении ИИ.
Но DeepMind заметили проблему: такие исследования часто остаются на уровне любопытных находок, без прямого влияния на безопасность. AGI ещё не существует, но риски — реальны, и нужно фокусироваться на том, что приближает к решению этих рисков. Прагматическая интерпретируемость — это расширение: не только разбирать "внутренности", но и применять навыки для практических задач. Главное — измерять прогресс через эмпирические прокси-задачи, которые имитируют будущие проблемы AGI.
Почему именно сейчас? Модели ИИ стали сложнее (типа Claude Sonnet 4.5), и появились реальные примеры, когда ИИ не следует целям создателей.
Команда перешла к прагматической интерпретируемости, чтобы исследования лучше служили реальным целям, таким как безопасность AGI.
Что такое прагматическая интерпретируемость и зачем её ввели?
Раньше команда использовала механистическую интерпретируемость — когда исследователи пытаются разобрать нейронные сети, как механизм, чтобы понять, как они работают внутри. Это дало интересные открытия: от понимания, как модели хранят знания в "суперпозиции" , до выявления скрытых целей в поведении ИИ.
Но DeepMind заметили проблему: такие исследования часто остаются на уровне любопытных находок, без прямого влияния на безопасность. AGI ещё не существует, но риски — реальны, и нужно фокусироваться на том, что приближает к решению этих рисков. Прагматическая интерпретируемость — это расширение: не только разбирать "внутренности", но и применять навыки для практических задач. Главное — измерять прогресс через эмпирические прокси-задачи, которые имитируют будущие проблемы AGI.
Почему именно сейчас? Модели ИИ стали сложнее (типа Claude Sonnet 4.5), и появились реальные примеры, когда ИИ не следует целям создателей.
1❤12👍7🔥2
Мир переходит в фазу войны за цифровые деньги между блоками
Европа, в лице 10 крупнейших банков + поддержка ЕЦБ, создаёт свой евро-стейблкоин, чтобы вытеснить американские USDT/USDC. У Европы есть свой консорциумом MiCA и будет свой стейблкоин, свои резервы, свои правила.
Великобритания первой в мире закрепляет в законе, что биткоин и любая крипта — это полноценное имущество с теми же правами, что золото или акции.
Сейчас 99,6 % всех стейблкоинов — долларовые. Через 2–3 года появится реальный конкурент в виде регулируемого евро-стейблкоина от крупнейших банков ЕС с резервами в сотни миллиардов.
Одновременно Трамп готовит свой закон о стейблкоинах, который ожидается в 2026 и уже привлекает Circle, Tether, Kraken на свою сторону.
А РФ пока в оборонительной позиции, боится стейблкоинов.
Европа, в лице 10 крупнейших банков + поддержка ЕЦБ, создаёт свой евро-стейблкоин, чтобы вытеснить американские USDT/USDC. У Европы есть свой консорциумом MiCA и будет свой стейблкоин, свои резервы, свои правила.
Великобритания первой в мире закрепляет в законе, что биткоин и любая крипта — это полноценное имущество с теми же правами, что золото или акции.
Сейчас 99,6 % всех стейблкоинов — долларовые. Через 2–3 года появится реальный конкурент в виде регулируемого евро-стейблкоина от крупнейших банков ЕС с резервами в сотни миллиардов.
Одновременно Трамп готовит свой закон о стейблкоинах, который ожидается в 2026 и уже привлекает Circle, Tether, Kraken на свою сторону.
А РФ пока в оборонительной позиции, боится стейблкоинов.
Reuters
European banks led by BNP, ING push ahead on euro stablecoin plan
A group of 10 European banks, including ING , UniCredit and BNP Paribas , have formed a company to launch a euro-pegged stablecoin in the second half of 2026, in a move they hope will counter U.S. dominance in digital payments.
👍8❤6😁4🔥2🤔2
А теперь про NeurIPS 2025
В этом году здесь рекордное количество участников 26 000 со всего мира. Рост на 64%, что говорит о диком хайпе вокруг ИИ. Сюда приехали лучшие ученые, инженеры, компании, венчурные и инвест фонды со всего мира. Это лучшее место для хантинга людей в команды и питчинга проектов инвесторам.
Фокус конференции в этом году сместился с больших моделей к памяти, надёжности агентов, качеству данных, безопасности ИИ.
Главную награду конференции в номинации Test of Time взяла работа Faster R-CNN, которую 10 лет назад представила Meta, запрещенная в РФ.
Компьютерное зрение — главный тренд этого года. Например, эта статья Vision Transformers Don't Need Trained Registers — показывает, как фиксить attention sinks без переобучения, добавив аналитическую модель. GitHub.
Ещё одна статья iFinder от NEC Labs.
В направлении LLM и reasoning все обсуждают свежую работу Google Nested Learning. Свежая статья тут.
По агентам и RL вот эта работа интересная MindGames — ИИ в стратегиях, social reasoning и играх. LLM переходят от текста к реальной конкуренции.
Продолжение следует, идем слушать Саттона.
В этом году здесь рекордное количество участников 26 000 со всего мира. Рост на 64%, что говорит о диком хайпе вокруг ИИ. Сюда приехали лучшие ученые, инженеры, компании, венчурные и инвест фонды со всего мира. Это лучшее место для хантинга людей в команды и питчинга проектов инвесторам.
Фокус конференции в этом году сместился с больших моделей к памяти, надёжности агентов, качеству данных, безопасности ИИ.
Главную награду конференции в номинации Test of Time взяла работа Faster R-CNN, которую 10 лет назад представила Meta, запрещенная в РФ.
Компьютерное зрение — главный тренд этого года. Например, эта статья Vision Transformers Don't Need Trained Registers — показывает, как фиксить attention sinks без переобучения, добавив аналитическую модель. GitHub.
Ещё одна статья iFinder от NEC Labs.
В направлении LLM и reasoning все обсуждают свежую работу Google Nested Learning. Свежая статья тут.
По агентам и RL вот эта работа интересная MindGames — ИИ в стратегиях, social reasoning и играх. LLM переходят от текста к реальной конкуренции.
Продолжение следует, идем слушать Саттона.
1❤10👍7🔥3👏1🤔1
Стартап Сэма Альтмана по долголетию привлекает $1млрд и оценивается в $5млрд
Стартап Retro Bio близок к закрытию одного из крупнейших раундов в фарме.
Retro Bio работает над 3 основными программами, используя анализ молекул на уровне одной клетки, вычислительной биологии и автоматизации лабораторий.
Согласно презентациям для инвесторов, которые были подготовлены Retro, прогнозируется, что рынок долголетия превысит капитализацию фарм-гигантов: Eli Lilly и Novo Nordisk, приблизившись к Alphabet и Microsoft.
Там же цитата: "Longevity will be the greatest pharma market of all time".
Такая сумасшедшая оценка стартапа в $5млрд, не имея клинических данных, а есть только обещания, вероятность успеха для инвесторов близка к 0.
Retro позиционируется как underdog по сравнению с гигантами типа Altos Labs, финансируемый Безосом на $3 млрд, но с фокусом на быстрые клинические тесты.
Надо отдать должное, Сэм сумел капитализировать свою фамилию и большинство проектов, где он участвует реально собирает огромные суммы от инвесторов.
Это классический PR-цикл венчура. Посмотрим, чем закончится.
Стартап Retro Bio близок к закрытию одного из крупнейших раундов в фарме.
Retro Bio работает над 3 основными программами, используя анализ молекул на уровне одной клетки, вычислительной биологии и автоматизации лабораторий.
Согласно презентациям для инвесторов, которые были подготовлены Retro, прогнозируется, что рынок долголетия превысит капитализацию фарм-гигантов: Eli Lilly и Novo Nordisk, приблизившись к Alphabet и Microsoft.
Там же цитата: "Longevity will be the greatest pharma market of all time".
Такая сумасшедшая оценка стартапа в $5млрд, не имея клинических данных, а есть только обещания, вероятность успеха для инвесторов близка к 0.
Retro позиционируется как underdog по сравнению с гигантами типа Altos Labs, финансируемый Безосом на $3 млрд, но с фокусом на быстрые клинические тесты.
Надо отдать должное, Сэм сумел капитализировать свою фамилию и большинство проектов, где он участвует реально собирает огромные суммы от инвесторов.
Это классический PR-цикл венчура. Посмотрим, чем закончится.
STAT
Aging startup backed by Sam Altman chases $5 billion valuation
Retro Bio, a longevity startup backed by OpenAI CEO Sam Altman, is close to raising what could be one of the drug industry’s largest investment rounds.
👍11🔥9💯5💊3
Вы будете смеяться, но Альтман собирает $ на покупку космической компании или партнерства с ней
Сэм рассматривает возможность создания фонда для покупки или партнерства с ракетной компанией.
Альтман связался летом со Stoke Space — стартапом, разрабатывающим полностью многоразовые ракеты (у них есть модель Nova, предназначенная для средних грузов). Переговоры активизировались осенью. По данным WSJ, среди предложений были инвестиции в акции Stoke Space на сумму в миллиарды $, которые могли бы дать OpenAI контролирующий пакет акций.
Цель - выход OpenAI за пределы ИИ в космическую отрасль. Альтман уже говорил о размещении дата-центров в космосе для расширения вычислительных мощностей под ИИ.
Такие планы обсуждаются и другими компаниями: Google и Planet Labs запускают спутники с ИИ-чипами в 2027 году, а Джефф Безос, Илон Маск и Сундар Пичаи продвигают идею космических кластеров для ИИ. А здесь технико-экономический анализ таких проектов.
Напомним, что Альтман как и Маск хочет создать свои нейроинтерфейсы.
Сэм рассматривает возможность создания фонда для покупки или партнерства с ракетной компанией.
Альтман связался летом со Stoke Space — стартапом, разрабатывающим полностью многоразовые ракеты (у них есть модель Nova, предназначенная для средних грузов). Переговоры активизировались осенью. По данным WSJ, среди предложений были инвестиции в акции Stoke Space на сумму в миллиарды $, которые могли бы дать OpenAI контролирующий пакет акций.
Цель - выход OpenAI за пределы ИИ в космическую отрасль. Альтман уже говорил о размещении дата-центров в космосе для расширения вычислительных мощностей под ИИ.
Такие планы обсуждаются и другими компаниями: Google и Planet Labs запускают спутники с ИИ-чипами в 2027 году, а Джефф Безос, Илон Маск и Сундар Пичаи продвигают идею космических кластеров для ИИ. А здесь технико-экономический анализ таких проектов.
Напомним, что Альтман как и Маск хочет создать свои нейроинтерфейсы.
The Wall Street Journal
Exclusive | Sam Altman Has Explored Deal to Build Competitor to Elon Musk’s SpaceX
The OpenAI chief executive has looked to put together funds to either acquire or partner with a rocket company.
1👍7❤6🤔4🔥2🌚1🤣1
Новый фреймворк позволяет ИИ-агентам общаться без каналов коммуникации
Это свежая работа LatentMAS, подготовленная исследователями из Стэнфорда, Принстона и Университета Иллинойса в Урбана-Шампейн.
Исследователи показали, что LLM-агенты обмениваются короткими векторами через общую память на основе KV-кэша. Всё происходит внутри моделей, снаружи ничего не видно.
В итоге:
- Коммуникация возникает сама по себе, даже если полностью запретить обмен текстом
- Агенты автоматически делят задачи и формируют роли
- Более сильные модели берут на себя основную работу, слабые отходят в сторону
- Точность на сложных задачах растёт до +14,6 %
- Расход токенов падает на 70–83 %, скорость инференса ×4–4,3.
Это не новый алгоритм обучения, а plug-and-play фреймворк.
GitHub.
Это свежая работа LatentMAS, подготовленная исследователями из Стэнфорда, Принстона и Университета Иллинойса в Урбана-Шампейн.
Исследователи показали, что LLM-агенты обмениваются короткими векторами через общую память на основе KV-кэша. Всё происходит внутри моделей, снаружи ничего не видно.
В итоге:
- Коммуникация возникает сама по себе, даже если полностью запретить обмен текстом
- Агенты автоматически делят задачи и формируют роли
- Более сильные модели берут на себя основную работу, слабые отходят в сторону
- Точность на сложных задачах растёт до +14,6 %
- Расход токенов падает на 70–83 %, скорость инференса ×4–4,3.
Это не новый алгоритм обучения, а plug-and-play фреймворк.
GitHub.
arXiv.org
Latent Collaboration in Multi-Agent Systems
Multi-agent systems (MAS) extend large language models (LLMs) from independent single-model reasoning to coordinative system-level intelligence. While existing LLM agents depend on text-based...
1👍14🔥5👏3🤔2
CEO самой крупной инвесткомпании мира сказал, что фонды из Абу-Даби и Люксембурга активно скупают биткоин, когда цена падает
Ларри Финк, глава BlackRock, не называя имен, рассказал, что некоторые гос фонды активно покупают биткоин.
Эти фонды секретно покупают биткоин постепенно и планомерно. Когда цена биткоина недавно упала с максимума $126 000 до диапазона $80 000–90 000, они не паниковали и не продавали, а наоборот — докупали ещё больше, они рассматривают биткоин как стратегический резервный актив.
Также Финк предсказывает взрывной рост токенизации быстрее, чем ожидают многие, по аналогии с интернетом в 1996 году. За последние 20 месяцев токенизация выросла на 300%. Финк об этом ранее говорил здесь, a тут, что делает BlackRock.
В будущем акции, облигации и крипта будут в одном цифровом кошельке.
Долгосрочная фундаментальная причина покупки биткоина — обесценивание финансовых активов из-за дефицитов.
Ларри Финк, глава BlackRock, не называя имен, рассказал, что некоторые гос фонды активно покупают биткоин.
Эти фонды секретно покупают биткоин постепенно и планомерно. Когда цена биткоина недавно упала с максимума $126 000 до диапазона $80 000–90 000, они не паниковали и не продавали, а наоборот — докупали ещё больше, они рассматривают биткоин как стратегический резервный актив.
Также Финк предсказывает взрывной рост токенизации быстрее, чем ожидают многие, по аналогии с интернетом в 1996 году. За последние 20 месяцев токенизация выросла на 300%. Финк об этом ранее говорил здесь, a тут, что делает BlackRock.
В будущем акции, облигации и крипта будут в одном цифровом кошельке.
Долгосрочная фундаментальная причина покупки биткоина — обесценивание финансовых активов из-за дефицитов.
Forbes
They ‘Bought More’—BlackRock CEO Reveals Sovereign Fund Bitcoin Price Bombshell Alongside A Stark Trump Warning
The chief executive of the world’s largest asset manager BlackRock has predicted the “enormous growth” of crypto-based tokenization in coming years...
🔥8🥰5❤4👏3👍1🤔1
AIRI представили Wikontic — способ строить графы знаний в 10–20 раз дешевле и без логических ошибок
Индустрия столкнулась с проблемой, что LLM пишут красиво, но часто выдумывают факты. Графы знаний решают это, превращая текст в структурированные и проверяемые триплеты.
Большинство существующих методов (GraphRAG, AriGraph и др.) создают огромные, шумные графы: много дубликатов, неправильные типы сущностей, бессмысленные связи.
Wikontic делает иначе:
1. Берёт любой англоязычный текст общего домена.
2. Извлекает триплеты + квалификаторы с помощью обычных открытых LLM (Llama-3.1-70B, Mixtral, GPT-4o и т.д.).
3. Принудительно проверяет каждый триплет на соответствие онтологии Wikidata.
4. Объединяет одинаковые сущности в один канонический Q-код Wikidata.
Для бизнеса это значит:
- надёжные ответы чат-ботов и агентов,
- экономия на вызовы больших моделей,
- лёгкая проверка и аудит каждого ответа.
Индустрия столкнулась с проблемой, что LLM пишут красиво, но часто выдумывают факты. Графы знаний решают это, превращая текст в структурированные и проверяемые триплеты.
Большинство существующих методов (GraphRAG, AriGraph и др.) создают огромные, шумные графы: много дубликатов, неправильные типы сущностей, бессмысленные связи.
Wikontic делает иначе:
1. Берёт любой англоязычный текст общего домена.
2. Извлекает триплеты + квалификаторы с помощью обычных открытых LLM (Llama-3.1-70B, Mixtral, GPT-4o и т.д.).
3. Принудительно проверяет каждый триплет на соответствие онтологии Wikidata.
4. Объединяет одинаковые сущности в один канонический Q-код Wikidata.
Для бизнеса это значит:
- надёжные ответы чат-ботов и агентов,
- экономия на вызовы больших моделей,
- лёгкая проверка и аудит каждого ответа.
huggingface.co
Paper page - Wikontic: Constructing Wikidata-Aligned, Ontology-Aware Knowledge Graphs with Large Language Models
Join the discussion on this paper page
5❤14🔥13🥰5🤔1🐳1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
А теперь про NeurIPS 2025 В этом году здесь рекордное количество участников 26 000 со всего мира. Рост на 64%, что говорит о диком хайпе вокруг ИИ. Сюда приехали лучшие ученые, инженеры, компании, венчурные и инвест фонды со всего мира. Это лучшее место…
Лауреат премии Тьюринга Саттон вчера на NeurIPS разнес зал и показал карту, как дойти до AGI и объяснил, почему мы сейчас в жутком локальном минимуме
Коротко по пунктам, что он сказал и некоторые слайды его в комментариях у нас:
1. Современный ИИ — это замороженные артефакты человеческой культуры. Мы копируем людей, а не строим интеллект. Это тупик.
2. Горький урок всё ещё никто не понял. Урок не про больше параметров, а про то, что любые человеческие алгоритмы и архитектуры в долгосрочной перспективе проигрывают чистому обучению через опыт. Backprop он прямо назвал проблемным. Вспоминаем его статью.
3. Путь к суперинтеллекту — это агент, который:
- учится непрерывно всю жизнь
- сам изобретает всё более мощные абстракции и признаки
- сам ставит себе подзадачи
- сам строит модель мира и планирует
- и всё это без единой строчки человеческого кода для архитектуры и фичей
4. Это он назвал OAK (Options + Knowledge). На слайде — 8 шагов, которые крутятся параллельно в реальном времени. Семь из них уже ± решаемы. Один большой красный вопрос — как автоматически генерировать новые state features. Именно здесь сейчас стопор.
5. Цитата дословно:
«Super intelligence will come from the agent’s own experience, not from human datasets».
6. Он сказал, что индустрия ИИ во многом потеряла ориентиры из-за коммерции. Нужно возвращаться к continual learning, average-reward RL, meta-learning step-sizes, self-discovered knowledge.
Коротко по пунктам, что он сказал и некоторые слайды его в комментариях у нас:
1. Современный ИИ — это замороженные артефакты человеческой культуры. Мы копируем людей, а не строим интеллект. Это тупик.
2. Горький урок всё ещё никто не понял. Урок не про больше параметров, а про то, что любые человеческие алгоритмы и архитектуры в долгосрочной перспективе проигрывают чистому обучению через опыт. Backprop он прямо назвал проблемным. Вспоминаем его статью.
3. Путь к суперинтеллекту — это агент, который:
- учится непрерывно всю жизнь
- сам изобретает всё более мощные абстракции и признаки
- сам ставит себе подзадачи
- сам строит модель мира и планирует
- и всё это без единой строчки человеческого кода для архитектуры и фичей
4. Это он назвал OAK (Options + Knowledge). На слайде — 8 шагов, которые крутятся параллельно в реальном времени. Семь из них уже ± решаемы. Один большой красный вопрос — как автоматически генерировать новые state features. Именно здесь сейчас стопор.
5. Цитата дословно:
«Super intelligence will come from the agent’s own experience, not from human datasets».
6. Он сказал, что индустрия ИИ во многом потеряла ориентиры из-за коммерции. Нужно возвращаться к continual learning, average-reward RL, meta-learning step-sizes, self-discovered knowledge.
17👍41💯12❤9🤔1