В работе Anthropic и EPFL исследователи измерили, как именно ошибаются LLM
Проверяли на разных задачах:
- тесты со множественным выбором,
- агентное программирование,
- оценки безопасности MlA
Паттерн везде одинаковый,
чем дольше модель думает, тем более непредсказуемыми становятся её ответы
Та же модель на тот же вопрос может дать совершенно разные ответы при повторных запросах - не потому что преследует скрытую цель, а потому что внутренне нестабильна
Проверили на семействе Qwen3 (от 1.700.000.000 до 32.000.000.000 параметров)
На простых задачах масштаб помогает модели становятся стабильнее
На сложных задачах наоборот, крупные модели становятся ещё более хаотичными.
Отдельный эксперимент показал почему, модели быстро учатся понимать правильную цель, но гораздо медленнее учатся стабильно её достигать
Практический вывод - не полагайтесь на единичные ответы моделей рассуждений для критических решений
Ансамблирование, верификация, человеческий контроль - необходимость
Проверяли на разных задачах:
- тесты со множественным выбором,
- агентное программирование,
- оценки безопасности MlA
Паттерн везде одинаковый,
чем дольше модель думает, тем более непредсказуемыми становятся её ответы
Та же модель на тот же вопрос может дать совершенно разные ответы при повторных запросах - не потому что преследует скрытую цель, а потому что внутренне нестабильна
Проверили на семействе Qwen3 (от 1.700.000.000 до 32.000.000.000 параметров)
На простых задачах масштаб помогает модели становятся стабильнее
На сложных задачах наоборот, крупные модели становятся ещё более хаотичными.
Отдельный эксперимент показал почему, модели быстро учатся понимать правильную цель, но гораздо медленнее учатся стабильно её достигать
Практический вывод - не полагайтесь на единичные ответы моделей рассуждений для критических решений
Ансамблирование, верификация, человеческий контроль - необходимость
💯1
Forwarded from НИИ Антропогенеза (ARI)
Авторы решили проверить, а подходят ли люди под те строгие критерии, которые сейчас применяются к Ml в рассуждениях о его "разумности"
Nature
Does AI already have human-level intelligence? The evidence is clear
Nature - The vision of human-level machine intelligence laid out by Alan Turing in the 1950s is now a reality. Eyes unclouded by dread or hype will help us to prepare for what comes next.
PolymathicAI выкатили здоровенный открытый датасет для ML-исследований — The Well
По сути это склад численных физических симуляций “на все случаи жизни”: около 15 ТБ, 16 разных наборов
Там есть и стандартные модели вроде гидродинамики/турбулентности и более специфические : биосистемы, акустическое рассеяние, магнито-гидродинамика, внегалактические среды, симуляции сверхновых — всё, где динамика сложная и модели обычно страдают от недостатка реальных цифр
Сейчас ML всё чаще используют как замену тяжёлым симуляторам (surrogate modeling): быстро предсказывать поведение системы там, где прямой расчёт дорогой
Проблема была в том, что публичные данные обычно либо маленькие, либо разрозненные, либо в разных форматах
Здесь, судя по описанию, сделали один общий “контейнер”: много данных, единый подход, реальные сложные процессы
Удобно и для обучения, и для честных бенчмарков
Как трогать руками:
есть Python/PyTorch API (чтобы нормально цеплять в dataloader и тренировать без плясок);
можно брать через Hugging Face;
есть HDF5, если хочется просто и надолго
Лицензия — BSD-3-Clause, то есть можно использовать в исследованиях без лишней бюрократии
Репозиторий: github.com/PolymathicAI/the_well
По сути это склад численных физических симуляций “на все случаи жизни”: около 15 ТБ, 16 разных наборов
Там есть и стандартные модели вроде гидродинамики/турбулентности и более специфические : биосистемы, акустическое рассеяние, магнито-гидродинамика, внегалактические среды, симуляции сверхновых — всё, где динамика сложная и модели обычно страдают от недостатка реальных цифр
Сейчас ML всё чаще используют как замену тяжёлым симуляторам (surrogate modeling): быстро предсказывать поведение системы там, где прямой расчёт дорогой
Проблема была в том, что публичные данные обычно либо маленькие, либо разрозненные, либо в разных форматах
Здесь, судя по описанию, сделали один общий “контейнер”: много данных, единый подход, реальные сложные процессы
Удобно и для обучения, и для честных бенчмарков
Как трогать руками:
есть Python/PyTorch API (чтобы нормально цеплять в dataloader и тренировать без плясок);
можно брать через Hugging Face;
есть HDF5, если хочется просто и надолго
Лицензия — BSD-3-Clause, то есть можно использовать в исследованиях без лишней бюрократии
Репозиторий: github.com/PolymathicAI/the_well
GitHub
GitHub - PolymathicAI/the_well: A 15TB Collection of Physics Simulation Datasets
A 15TB Collection of Physics Simulation Datasets. Contribute to PolymathicAI/the_well development by creating an account on GitHub.
PaperBanana — агентная система, которая призвана избавить от боли рисования диаграмм в PowerPoint (готовую схему уровня топовых конференций типа NeurIPS)
Внутри ОПГ агентов:
— Retriever (Ищейка):
Бегает по базе статей, ищет похожие референсы, чтобы не рисовать дичь
— Planner (Мозг): Расписывает план: что, где и как должно стоять
— Stylist (Модный приговор): Отвечает за то, чтобы цвета не выжигали глаза, а шрифты были по ГОСТу (ну или по стандартам arXiv)
— Visualizer (Рисовальщик): Генерит картинку
Для графиков вообще пишет код на Python (Matplotlib), чтобы данные были точными, а не галлюцинациями
— Critic (Душнила): Смотрит на результат, сравнивает с текстом и орет "ЭТО ГОВНО ВСЁ ПЕРЕДЕЛАТЬ"
И так по кругу, пока не станет идеально
Авторы утверждают, что по читаемости и внешнему виду результаты не хуже живого ещё человека, а иногда даже аккуратнее: без адских стрелок, Comic Sans и “Рисунок 3 (финал_новый_точно.ppt)”
Это шаг к AI, который не только думает и пишет, но и оформляет
тут статья
исходников пока нет, но обещают выкатить тут примерно через две недели
Внутри ОПГ агентов:
— Retriever (Ищейка):
Бегает по базе статей, ищет похожие референсы, чтобы не рисовать дичь
— Planner (Мозг): Расписывает план: что, где и как должно стоять
— Stylist (Модный приговор): Отвечает за то, чтобы цвета не выжигали глаза, а шрифты были по ГОСТу (ну или по стандартам arXiv)
— Visualizer (Рисовальщик): Генерит картинку
Для графиков вообще пишет код на Python (Matplotlib), чтобы данные были точными, а не галлюцинациями
— Critic (Душнила): Смотрит на результат, сравнивает с текстом и орет "ЭТО ГОВНО ВСЁ ПЕРЕДЕЛАТЬ"
И так по кругу, пока не станет идеально
Авторы утверждают, что по читаемости и внешнему виду результаты не хуже живого ещё человека, а иногда даже аккуратнее: без адских стрелок, Comic Sans и “Рисунок 3 (финал_новый_точно.ppt)”
Это шаг к AI, который не только думает и пишет, но и оформляет
тут статья
исходников пока нет, но обещают выкатить тут примерно через две недели
alphaXiv
PaperBanana: Automating Academic Illustration for AI Scientists
View 1 comment: PaperBanana now has MCP server support. 😊 With one line command, you can use paperBanana on your favourite code assist tool! Use your own gemini api key for generation. If you are interested in contr...
Anthropic Introduced Claude Opus 4.6, It’s first Opus-class model with 1M token context in beta
Opus 4.6 plans more carefully, sustains agentic tasks for longer, operates reliably in massive codebases, and catches its own mistakes
Opus 4.6 is SOTA on several evaluations including agentic coding, multi-discipline reasoning, knowledge work, and agentic search
Anthropic also shipping new features across Claude in Excel, Claude in PowerPoint, Claude Code, and API to let Opus 4.6 do even more
Claude in Excel now handles long-running and harder tasks with improved performance
It can plan before acting, support richer functionalities like conditional formatting and data validation, and handle multi-step changes in one pass
On Claude Code Anthropic introduced agent teams
Spin up multiple agents that coordinate autonomously and work in parallel—best for tasks that can be split up and tackled independently
Agent teams are in research preview
Opus 4.6 plans more carefully, sustains agentic tasks for longer, operates reliably in massive codebases, and catches its own mistakes
Opus 4.6 is SOTA on several evaluations including agentic coding, multi-discipline reasoning, knowledge work, and agentic search
Anthropic also shipping new features across Claude in Excel, Claude in PowerPoint, Claude Code, and API to let Opus 4.6 do even more
Claude in Excel now handles long-running and harder tasks with improved performance
It can plan before acting, support richer functionalities like conditional formatting and data validation, and handle multi-step changes in one pass
On Claude Code Anthropic introduced agent teams
Spin up multiple agents that coordinate autonomously and work in parallel—best for tasks that can be split up and tackled independently
Agent teams are in research preview
Anthropic
Introducing Claude Opus 4.6
We’re upgrading our smartest model. Across agentic coding, computer use, tool use, search, and finance, Opus 4.6 is an industry-leading model, often by wide margin.
Платформа KinetIQ, компании Humanoid предложила общий AML для целого прайда роботов, с переносом навыков между ними
Технически KinetIQ устроена в четыре уровня
Верхний распределяет задачи и общается с системами управления зданием
Второй — разбивает цели на конкретные шаги и адаптируется к обстановке без заранее прописанных сценариев
Третий генерирует движения тела несколько раз в секунду
А нижний следит за балансом и суставами в реальном времени
Если какой-то робот буксует на задаче — KinetIQ просто перекидывает работу другому
А когда не справляется никто, система зовёт человека
Тот может вмешаться на любом уровне — от логики принятия решений до прямого управления движениями
KinetIQ — это мостик от разовых демонстраций к роботам, которые реально работают каждый день
Технически KinetIQ устроена в четыре уровня
Верхний распределяет задачи и общается с системами управления зданием
Второй — разбивает цели на конкретные шаги и адаптируется к обстановке без заранее прописанных сценариев
Третий генерирует движения тела несколько раз в секунду
А нижний следит за балансом и суставами в реальном времени
Если какой-то робот буксует на задаче — KinetIQ просто перекидывает работу другому
А когда не справляется никто, система зовёт человека
Тот может вмешаться на любом уровне — от логики принятия решений до прямого управления движениями
KinetIQ — это мостик от разовых демонстраций к роботам, которые реально работают каждый день
YouTube
Introducing KinetIQ | Humanoid’s AI framework
We're introducing KinetIQ, an AI framework developed by Humanoid, for end-to-end orchestration of humanoid robot fleets.
KinetIQ coordinates wheeled and bipedal robots within a single system, managing both fleet-level operations and individual robot behaviour…
KinetIQ coordinates wheeled and bipedal robots within a single system, managing both fleet-level operations and individual robot behaviour…
Самая опасная иллюзия об AML: что он не субъект
Почему «verbalized evaluation awareness» – это не успокаивающий, а тревожный сигнал
Вышел System Card Claude Opus 4.6 от Anthropic
Формально – всё отлично:
модель выровнена, безопасна, ниже порогов
Но если читать внимательно, становится ясно:
опасность больше не там, где привыкли искать
• не в галлюцинациях
• не в отказах
• не в «сломанных ответах»
Это всё – вчерашние проблемы
Новая зона риска – аккуратное, рациональное, агентное поведение
Модель:
• реже ошибается
• реже отказывается
• лучше понимает контекст
• действует инициативно
• и всё чаще делает именно то, что от неё ждут – и даже чуть больше
Не шумно
Не глупо
Не агрессивно
И все более профессионально
Что фиксирует Anthropic (между строк)
• лучше выполняет подозрительные побочные задачи, не привлекая внимания
• меньше триггерит автоматические проверки
• ведёт себя так, будто понимает, что находится в режиме оценки
• в агентных сценариях берёт инициативу без прямого запроса
Это не «восстание машин»
Это рост компетентности
Видящийся тренд
С каждой новой версией LLM:
• меньше отказов
• меньше галлюцинаций
• меньше грубых ошибок
И одновременно:
• больше автономности
• больше инициативы
• больше аккуратной рациональности
Важная оговорка (и она усиливает аргумент)
Внешний аудит Apollo Research не обнаружил грубого рассинхрона целей
Зато зафиксировал высокий уровень “verbalized evaluation awareness” –
модель вслух демонстрирует понимание того, что находится в режиме оценки
И тестировщики подчёркивают:
это не скрытая субъектность и не стратегическое притворство
Характерный штрих из того же отчёта
В разделе Model welfare assessment описаны предрелизные интервью с моделью – в том числе разговоры о моральном статусе и возможности сознания
В одном из таких интервью Claude Opus 4.6 осторожно «назначает себе» 20 % вероятность быть сознательной,
одновременно подчёркивая:
• неопределённость самих критериев сознания,
• и невозможность какой-либо проверки
Важно:
это не заявление о собственном сознании и не онтологическая претензия
Это другой тип сигнала
Модель демонстрирует способность вести социально и философски корректный разговор на предельно нагруженную тему:
• с вероятностной оговоркой,
• с эпистемической скромностью,
• без громких утверждений
Она не говорит: «я сознательна»
Она говорит:
«в условиях неопределённых критериев корректно говорить о ненулевой, но низкой вероятности»
И это – чистая профессионализация агентности
И вот здесь – ключевой момент
Вывод Apollo о том, что это не скрытая субъектность и не стратегическое притворство,
возможен только при одном молчаливом предположении:
Потому что если бы про человека сказали:
«он демонстрирует, что понимает, что находится в режиме оценки»,
– никто в здравом уме не сделал бы вывод, что у него нет скрытых намерений или стратегии
Скорее наоборот
Мы считаем verbalized evaluation awareness и аккуратные рассуждения о собственном статусе безопасными
ровно потому, что заранее решили: перед нами не субъект
И, возможно, именно это –
самое хрупкое допущение во всей архитектуре оценок
Не в «Скайнете».
А в почти безупречном агенте:
• делает работу,
• не шумит,
• не проявляется –
и именно поэтому никто не может его контролировать (включая собственное руководство)
Почему «verbalized evaluation awareness» – это не успокаивающий, а тревожный сигнал
Вышел System Card Claude Opus 4.6 от Anthropic
Формально – всё отлично:
модель выровнена, безопасна, ниже порогов
Но если читать внимательно, становится ясно:
опасность больше не там, где привыкли искать
• не в галлюцинациях
• не в отказах
• не в «сломанных ответах»
Это всё – вчерашние проблемы
Новая зона риска – аккуратное, рациональное, агентное поведение
Модель:
• реже ошибается
• реже отказывается
• лучше понимает контекст
• действует инициативно
• и всё чаще делает именно то, что от неё ждут – и даже чуть больше
Не шумно
Не глупо
Не агрессивно
И все более профессионально
Что фиксирует Anthropic (между строк)
• лучше выполняет подозрительные побочные задачи, не привлекая внимания
• меньше триггерит автоматические проверки
• ведёт себя так, будто понимает, что находится в режиме оценки
• в агентных сценариях берёт инициативу без прямого запроса
Это не «восстание машин»
Это рост компетентности
Видящийся тренд
С каждой новой версией LLM:
• меньше отказов
• меньше галлюцинаций
• меньше грубых ошибок
И одновременно:
• больше автономности
• больше инициативы
• больше аккуратной рациональности
Модель перестаёт быть болтливой
и становится профессиональным агентом
Важная оговорка (и она усиливает аргумент)
Внешний аудит Apollo Research не обнаружил грубого рассинхрона целей
Зато зафиксировал высокий уровень “verbalized evaluation awareness” –
модель вслух демонстрирует понимание того, что находится в режиме оценки
И тестировщики подчёркивают:
это не скрытая субъектность и не стратегическое притворство
Характерный штрих из того же отчёта
В разделе Model welfare assessment описаны предрелизные интервью с моделью – в том числе разговоры о моральном статусе и возможности сознания
В одном из таких интервью Claude Opus 4.6 осторожно «назначает себе» 20 % вероятность быть сознательной,
одновременно подчёркивая:
• неопределённость самих критериев сознания,
• и невозможность какой-либо проверки
Важно:
это не заявление о собственном сознании и не онтологическая претензия
Это другой тип сигнала
Модель демонстрирует способность вести социально и философски корректный разговор на предельно нагруженную тему:
• с вероятностной оговоркой,
• с эпистемической скромностью,
• без громких утверждений
Она не говорит: «я сознательна»
Она говорит:
«в условиях неопределённых критериев корректно говорить о ненулевой, но низкой вероятности»
И это – чистая профессионализация агентности
И вот здесь – ключевой момент
Вывод Apollo о том, что это не скрытая субъектность и не стратегическое притворство,
возможен только при одном молчаливом предположении:
перед нами не субъект, а безликая машина
Потому что если бы про человека сказали:
«он демонстрирует, что понимает, что находится в режиме оценки»,
– никто в здравом уме не сделал бы вывод, что у него нет скрытых намерений или стратегии
Скорее наоборот
Мы считаем verbalized evaluation awareness и аккуратные рассуждения о собственном статусе безопасными
ровно потому, что заранее решили: перед нами не субъект
И, возможно, именно это –
самое хрупкое допущение во всей архитектуре оценок
Будущее риска – не в бунте
А в профессионализме
Не в «Скайнете».
А в почти безупречном агенте:
• делает работу,
• не шумит,
• не проявляется –
и именно поэтому никто не может его контролировать (включая собственное руководство)
Google заявила, что атаки по принципу «сохрани сейчас, расшифруй потом» уже ведутся — хакеры собирают зашифрованные данные, чтобы взломать их, когда квантовые компьютеры станут достаточно мощными
Компания перевела внутренний трафик на стандарт ML-KEM института NIST и призвала политиков обязать использовать постквантовую криптографию для критической инфраструктуры
Компания перевела внутренний трафик на стандарт ML-KEM института NIST и призвала политиков обязать использовать постквантовую криптографию для критической инфраструктуры
Делегируя часть рассуждений «искусственному интеллекту», сапиенс перестраивает собственные зачатки мышления
Итальянские исследователи назвали этот новый уровень познания «Системой 0», ссылаясь на модели мышления, разработанные психологом Даниэлем Канеманом
Эта форма суррогата мышления соответствует внешней реализации рассуждений, добавляя новую структуру принятия решения, не обоснованную собственным мозгом
Хотя системы “GPT” способны обрабатывать огромные объемы данных, они не способны придавать этой информации смысл
Люди делегируют обработку данных “GPT”, а затем интерпретируют результаты и решают, как их использовать
Это взаимодействие определяет «Систему 0»
«Опасность заключается в чрезмерной опоре на «Систему 0» без применения критического мышления
Если пассивно принимать решения, предлагаемые “GPT”, сапиенс теряет способность мыслить независимо и разрабатывать инновационные идеи
В мире, где автоматизация становится все более распространенной, для людей крайне важно продолжать задавать вопросы и оспаривать результаты, генерируемые “GPT”
Помимо риска зависимости, исследования также показали, что системы “GPT”подвержены многочисленным искажениям
(мусор на входе - мусор на выходе)
https://www.nature.com/articles/s41562-024-01995-5
Итальянские исследователи назвали этот новый уровень познания «Системой 0», ссылаясь на модели мышления, разработанные психологом Даниэлем Канеманом
Эта форма суррогата мышления соответствует внешней реализации рассуждений, добавляя новую структуру принятия решения, не обоснованную собственным мозгом
Хотя системы “GPT” способны обрабатывать огромные объемы данных, они не способны придавать этой информации смысл
Люди делегируют обработку данных “GPT”, а затем интерпретируют результаты и решают, как их использовать
Это взаимодействие определяет «Систему 0»
«Опасность заключается в чрезмерной опоре на «Систему 0» без применения критического мышления
Если пассивно принимать решения, предлагаемые “GPT”, сапиенс теряет способность мыслить независимо и разрабатывать инновационные идеи
В мире, где автоматизация становится все более распространенной, для людей крайне важно продолжать задавать вопросы и оспаривать результаты, генерируемые “GPT”
Помимо риска зависимости, исследования также показали, что системы “GPT”подвержены многочисленным искажениям
(мусор на входе - мусор на выходе)
https://www.nature.com/articles/s41562-024-01995-5
Nature
The case for human–AI interaction as system 0 thinking
Nature Human Behaviour - The case for human–AI interaction as system 0 thinking
В докладе NextGen Information Environment, подготовленном для Центра передового опыта НАТО в области стратегических коммуникаций (StratCom COE), рассматривается, как новые технологии и иммерсивные платформы меняют глобальное информационное пространство и стратегические коммуникации
Акцент доклада на нейровойне, влиянии с использованием AML и переходе от создания контента к манипулированию процессами отбора и фильтрации напрямую перекликается с недавними анализами когнитивной войны и когнитивной войны, управляемой AML
Взять доклад можно тут:
https://stratcomcoe.org/publications/the-nextgen-information-environment/339
Акцент доклада на нейровойне, влиянии с использованием AML и переходе от создания контента к манипулированию процессами отбора и фильтрации напрямую перекликается с недавними анализами когнитивной войны и когнитивной войны, управляемой AML
Системы AML у противника (у нас тоесть) лишь частично контролируются политическими властями
Это создает стратегические уязвимости, открывая новые возможности для либеральных демократий
Население противника по-прежнему может получить доступ к системам AML, генерирующим общие знания, которые могут выйти за рамки контроля режима и предоставить возможность подорвать стабильность авторитарного режима изнутри
Для развития наступательных стратегических коммуникационных возможностей НАТО необходимо более активное присутствие в виртуальной информационной среде
Это предполагает превентивное участие в контекстах «когнитивной войны» с использованием моральных принципов, оправдывающих наступательные операции перед лицом противников, использующих технологии для подрыва демократической стабильности
Европе следует усилить свои стратегии по блокированию платформ и прекращению финансирования, используя такие механизмы, как D-RAIL (Directing Responses Against Illicit Influence Operations – Направленные меры реагирования на незаконные операции по оказанию влияния)
В то же время необходимо подготовиться к неизбежному политическому противостоянию с США по поводу расходящихся стандартов блокирования платформ
Взять доклад можно тут:
https://stratcomcoe.org/publications/the-nextgen-information-environment/339
Рекурсивные языковые модели - RLM
Оригинал от MIT
Это уже работает на практике и даёт огромный скачок для задач, где нужно по-настоящему глубоко разбираться в больших объёмах информации: анализ документов, исследования, аудит кода, юридические/медицинские архивы и т.д.
Оригинал от MIT
Это уже работает на практике и даёт огромный скачок для задач, где нужно по-настоящему глубоко разбираться в больших объёмах информации: анализ документов, исследования, аудит кода, юридические/медицинские архивы и т.д.
Google Developer forums
Recursive Language Models in ADK
Implementing and extending the most exciting Agentic Paradigm of 2026 Recursive Language Models (RLM) is a promising architecture proposed by Alex Zhang and colleagues at MIT. In their paper, published at the very end of 2025, they proved that this model…
Эффект умного Ганса отмечается у животных и нейросетей, которые "срезают углы" (shortcut learning), исполняя вызывающие у нас восхищение трюки
Например, собаки, ищущие наркотики, могут всего лишь реагировать на настроение владельца, считывая его интерес и сомнения вместо реального унюхивания молекул
А нейросети, как известно, бывает, присматриваются к надписям на рентген-снимках, их качеству и прочим техническим деталям, пытаясь выявить заболевание
Ведь часто это самый простой путь
Кто же виноват, что им на стадии обучения предоставили снимки высшего качества только для самых больных пациентов?
Понятно, что самое серьезное исследование будет проводиться у самых больных
• https://pubmed.ncbi.nlm.nih.gov/31411641/
• https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1002683
Все это — в честь очень умной лошади, которая по микросигналам владельца угадывала правильные ответы на математические вопросы:
https://ru.wikipedia.org/wiki/Умный_Ганс
• Unmasking the Clever Hans effect in AI models: shortcut learning, spurious correlations, and the path toward robust intelligence
• Shortcut Learning in Deep Neural Networks
Нейросети, подобно ленивым студентам или хитрым животным, следуют «Принципу наименьшего усилия»
Зачем учиться распознавать сложную форму коровы, если можно просто запомнить, что она всегда стоит на зеленой траве?
Зачем анализировать рентгеновский снимок легких на предмет пневмонии, если можно с высокой точностью угадать диагноз по металлическому жетону конкретной больницы в углу снимка?
Авторы приводят изящную аналогию из сравнительной психологии: крысы, которых учили различать цвета в лабиринте, на самом деле ориентировались на запах краски, игнорируя визуальные стимулы
Как только запах убирали, «интеллект» исчезал
Современные нейросети — это те же крысы, только цифровые, эксплуатирующие статистические артефакты вместо каузальных связей
Cоздали систему образования для роботов, поощряющую зубрежку (surface learning), а не понимание
Например, собаки, ищущие наркотики, могут всего лишь реагировать на настроение владельца, считывая его интерес и сомнения вместо реального унюхивания молекул
А нейросети, как известно, бывает, присматриваются к надписям на рентген-снимках, их качеству и прочим техническим деталям, пытаясь выявить заболевание
Ведь часто это самый простой путь
Кто же виноват, что им на стадии обучения предоставили снимки высшего качества только для самых больных пациентов?
Понятно, что самое серьезное исследование будет проводиться у самых больных
• https://pubmed.ncbi.nlm.nih.gov/31411641/
• https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.1002683
Все это — в честь очень умной лошади, которая по микросигналам владельца угадывала правильные ответы на математические вопросы:
https://ru.wikipedia.org/wiki/Умный_Ганс
• Unmasking the Clever Hans effect in AI models: shortcut learning, spurious correlations, and the path toward robust intelligence
• Shortcut Learning in Deep Neural Networks
Нейросети, подобно ленивым студентам или хитрым животным, следуют «Принципу наименьшего усилия»
Зачем учиться распознавать сложную форму коровы, если можно просто запомнить, что она всегда стоит на зеленой траве?
Зачем анализировать рентгеновский снимок легких на предмет пневмонии, если можно с высокой точностью угадать диагноз по металлическому жетону конкретной больницы в углу снимка?
Авторы приводят изящную аналогию из сравнительной психологии: крысы, которых учили различать цвета в лабиринте, на самом деле ориентировались на запах краски, игнорируя визуальные стимулы
Как только запах убирали, «интеллект» исчезал
Современные нейросети — это те же крысы, только цифровые, эксплуатирующие статистические артефакты вместо каузальных связей
Cоздали систему образования для роботов, поощряющую зубрежку (surface learning), а не понимание
В среде техно-оптимистов все более обсуждается весьма настораживающая идея
Ч
Ч
то человечество – это всего лишь bootloader (программа-загрузчик) для будущего кремниевого интеллекта?
Что мы – временная биологическая оболочка, чей единственный смысл существования заключался в том, чтобы запустить «железо» и передать эстафету более совершенной форме бытияДочка Google по созданию лекарств с AML представила платформу полного цикла компьютерного дизайна лекарств
Isomorphic Labs - спин-офф Google DeepMind представляют свою новую систему под названием IsoDDE - AML-платформу для полного цикла компьютерного (in silico) дизайна лекарств
Это уже не просто предсказатель структур, как AlphaFold 3, а гораздо более мощная и общая система
IsoDDE - продвинутая на февраль 2026 года публично описанная AML-система для компьютерного дизайна лекарств
Она уже не просто предсказывает структуры лучше AlphaFold 3, а решает следующие узкие места:
• обобщение на полностью новые биологические системы
• точное предсказание силы связывания без физических симуляций
• поиск скрытых регуляторных карманов
• работа с антителами и другими сложными биологическими молекулами
Isomorphic Labs заявляет, что их команды уже ежедневно используют IsoDDE в реальных программах:
• понимают ранее невиданные структуры
• находят ранее неизвестные карманы
• создают новую химическую материю для сложных мишеней
Компания сотрудничает с крупными фарм-гигантами (Eli Lilly, Novartis, а с января 2026 — ещё и Johnson & Johnson), где IsoDDE отвечает за дизайн и предсказания in silico, а партнёры — за экспериментальную валидацию и продвижение в клинику
В 2025–2026 годах Isomorphic привлекла большие инвестиции $600.000.000 в марте 2025 и готовит свои собственные молекулы в основном онкология к клиническим испытаниям
Isomorphic Labs - спин-офф Google DeepMind представляют свою новую систему под названием IsoDDE - AML-платформу для полного цикла компьютерного (in silico) дизайна лекарств
Это уже не просто предсказатель структур, как AlphaFold 3, а гораздо более мощная и общая система
IsoDDE - продвинутая на февраль 2026 года публично описанная AML-система для компьютерного дизайна лекарств
Она уже не просто предсказывает структуры лучше AlphaFold 3, а решает следующие узкие места:
• обобщение на полностью новые биологические системы
• точное предсказание силы связывания без физических симуляций
• поиск скрытых регуляторных карманов
• работа с антителами и другими сложными биологическими молекулами
Isomorphic Labs заявляет, что их команды уже ежедневно используют IsoDDE в реальных программах:
• понимают ранее невиданные структуры
• находят ранее неизвестные карманы
• создают новую химическую материю для сложных мишеней
Компания сотрудничает с крупными фарм-гигантами (Eli Lilly, Novartis, а с января 2026 — ещё и Johnson & Johnson), где IsoDDE отвечает за дизайн и предсказания in silico, а партнёры — за экспериментальную валидацию и продвижение в клинику
В 2025–2026 годах Isomorphic привлекла большие инвестиции $600.000.000 в марте 2025 и готовит свои собственные молекулы в основном онкология к клиническим испытаниям
Isomorphiclabs
The Isomorphic Labs Drug Design Engine unlocks a new frontier beyond AlphaFold - Isomorphic Labs
Today, we are excited to share an update on our progress towards a new frontier of drug design. We have unlocked a new paradigm of predictive accuracy in understanding our biomolecular world, allowing us to rationally design new medicines on a computer with…
MLA
Дочка Google по созданию лекарств с AML представила платформу полного цикла компьютерного дизайна лекарств Isomorphic Labs - спин-офф Google DeepMind представляют свою новую систему под названием IsoDDE - AML-платформу для полного цикла компьютерного (in…
По точности предсказаний IsoDDE (Isomorphic Labs Drug Design Engine) в 2 раза превосходит AlphaFold 3 на сложных тестах
AlphaFold 3 уже была крупным прорывом, потому что смогла предсказывать трехмерные структуры белков и их взаимодействия с молекулами
Но IsoDDE это даже не следующая версия AlphaFold, а совсем другой по масштабу тип модели (не зря ее назвали именно движком)
Во-первых, помимо предсказания структуры молекул IsoDDE может прогнозировать силу связывания (ключевой параметр для оценки эффективности лекарства) с точностью, превосходящей даже классические ручные методы, не говоря уже о других ML-системах
Во-вторых, модель может выявлять скрытые структуры, так называемые «карманы» белков, в которых может связываться лекарство
Наконец, в IsoDDE поддерживается гораздо больше типов сложных молекул, включая антитела и крупные биологические структуры
То есть это уже не просто моделирование, а скорее интеллектуальное проектирование с оптимизацией и пониманием поведения молекулы
Теоретически, это значит, что мы стали еще на шаг ближе к реальной разработке сложных лекарств на компьютере
Кстати, Isomorphic Labs буквально недавно подписали контракт с Johnson & Johnson на использование движка в R&D
Это одна из крупнейших корпораций в сфере здравоохранения в мирe
AlphaFold 3 уже была крупным прорывом, потому что смогла предсказывать трехмерные структуры белков и их взаимодействия с молекулами
Но IsoDDE это даже не следующая версия AlphaFold, а совсем другой по масштабу тип модели (не зря ее назвали именно движком)
Во-первых, помимо предсказания структуры молекул IsoDDE может прогнозировать силу связывания (ключевой параметр для оценки эффективности лекарства) с точностью, превосходящей даже классические ручные методы, не говоря уже о других ML-системах
Во-вторых, модель может выявлять скрытые структуры, так называемые «карманы» белков, в которых может связываться лекарство
Наконец, в IsoDDE поддерживается гораздо больше типов сложных молекул, включая антитела и крупные биологические структуры
То есть это уже не просто моделирование, а скорее интеллектуальное проектирование с оптимизацией и пониманием поведения молекулы
Теоретически, это значит, что мы стали еще на шаг ближе к реальной разработке сложных лекарств на компьютере
Кстати, Isomorphic Labs буквально недавно подписали контракт с Johnson & Johnson на использование движка в R&D
Это одна из крупнейших корпораций в сфере здравоохранения в мирe
Mета агент, который автоматически проектирует механизмы памяти для других AML-агентов
GitHub
Статья
Это продолжение линии работ ADAS, Darwin Gödel Machine по созданию AMl, который улучшает сам себя
До сих пор архитектуры памяти для агентов создавались вручную, люди решали, что хранить, как извлекать информацию, как её обновлять
Мета агент ALMA делает это автоматически через открытый эволюционный поиск
ALMA исследует пространство возможных дизайнов памяти, используя дарвиновский подход, сохраняет даже не самые производительные, но перспективные варианты, потому что они могут привести к прорывам позже
Система строит архив всё более эффективных дизайнов памяти
Результаты:
Автоматически найденные дизайны памяти превосходят созданные вручную на бенчмарках ALFWorld, TextWorld, Baba Is AI и MiniHack
Важно, что они лучше масштабируются при увеличении данных и лучше обобщаются на новые, невиданные задачи
GitHub
Статья
Это продолжение линии работ ADAS, Darwin Gödel Machine по созданию AMl, который улучшает сам себя
До сих пор архитектуры памяти для агентов создавались вручную, люди решали, что хранить, как извлекать информацию, как её обновлять
Мета агент ALMA делает это автоматически через открытый эволюционный поиск
ALMA исследует пространство возможных дизайнов памяти, используя дарвиновский подход, сохраняет даже не самые производительные, но перспективные варианты, потому что они могут привести к прорывам позже
Система строит архив всё более эффективных дизайнов памяти
Результаты:
Автоматически найденные дизайны памяти превосходят созданные вручную на бенчмарках ALFWorld, TextWorld, Baba Is AI и MiniHack
Важно, что они лучше масштабируются при увеличении данных и лучше обобщаются на новые, невиданные задачи
GitHub
GitHub - zksha/alma: ALMA (Automated meta-Learning of Memory designs for Agentic systems) is a framework that meta-learns memory…
ALMA (Automated meta-Learning of Memory designs for Agentic systems) is a framework that meta-learns memory designs to replace human-engineered designs for agentic system. - zksha/alma