Google понемногу двигаются к тому, чтобы обучать роботов с помощью ИИ-моделей мира
Они выпустили статью, в которой сделали первый большой шаг к соединению Veo и робототехники. Это пока не про полноценное обучение роботов в ИИ-симуляции (не обольщаемся), но результаты все равно интересные и важные.
Кратко: у исследователей получилось научить Veo-2 предсказывать, что конкретно будет видеть робот, совершая те или иные действия.
Они взяли базовую Veo-2 и дотюнили ее по первому кадру + действиям робота генерировать будущие согласованные кадры с его 4 камер. Это называется action-conditioned rollout и, по сути, позволяет недорого и безопасно оценивать политику робота с помощью одной только world модели.
Полученный дотюн, кстати, красиво назвали Veo (Robotics).
Чем это круче, чем обычная симуляция?
Строгие физические симуляторы работают хорошо, если ситуация простая и предсказумая. ИИ-симуляцию можно масштабировать на нетривиальные миры. Более того, каждый объект в физ.симуляторе требует четких ассетов и ручной настройки + больших вычислений. Сильно далеко на таком не уедешь. А тут – добавляй новые предметы и кейсы сколько хочешь, достаточно промт написать или отредактировать начальный кадр с помощью Nano Banana.
Конечно, есть и минусы. В основном они касаются качества моделирования строгой, в особенности мелкой, физики. Но тут еще все впереди.
По сути: Google научились довольно сносно (см последний график) эвалить политику робота с помощью Veo. Добавь обновление политики, и уже получишь обучение с подкреплением. Пока что этого не делают сознательно, опять же из-за недостаточной точности World model. Но еще раз: шаг большой.
https://www.alphaxiv.org/abs/2512.10675
Они выпустили статью, в которой сделали первый большой шаг к соединению Veo и робототехники. Это пока не про полноценное обучение роботов в ИИ-симуляции (не обольщаемся), но результаты все равно интересные и важные.
Кратко: у исследователей получилось научить Veo-2 предсказывать, что конкретно будет видеть робот, совершая те или иные действия.
Они взяли базовую Veo-2 и дотюнили ее по первому кадру + действиям робота генерировать будущие согласованные кадры с его 4 камер. Это называется action-conditioned rollout и, по сути, позволяет недорого и безопасно оценивать политику робота с помощью одной только world модели.
Полученный дотюн, кстати, красиво назвали Veo (Robotics).
Чем это круче, чем обычная симуляция?
Строгие физические симуляторы работают хорошо, если ситуация простая и предсказумая. ИИ-симуляцию можно масштабировать на нетривиальные миры. Более того, каждый объект в физ.симуляторе требует четких ассетов и ручной настройки + больших вычислений. Сильно далеко на таком не уедешь. А тут – добавляй новые предметы и кейсы сколько хочешь, достаточно промт написать или отредактировать начальный кадр с помощью Nano Banana.
Конечно, есть и минусы. В основном они касаются качества моделирования строгой, в особенности мелкой, физики. Но тут еще все впереди.
По сути: Google научились довольно сносно (см последний график) эвалить политику робота с помощью Veo. Добавь обновление политики, и уже получишь обучение с подкреплением. Пока что этого не делают сознательно, опять же из-за недостаточной точности World model. Но еще раз: шаг большой.
https://www.alphaxiv.org/abs/2512.10675
3❤72🔥27👍17😁1
Новый скандал с OpenAI: публикуемые исследования теперь подвергаются в компании жесткой цензуре
Недавно из компании ушел старший экономический исследователь Том Каннингем. Wired получили доступ к его прощальному меморандуму и выяснили, что уволился он из-за того, что руководство «превратило исследовательскую команду в инструмент пропаганды».
Оказывается, в компании теперь очень осторожно относятся к публикации работ, относящимся к рискам ИИ для экономики. Например, вместо исследований о влиянии ИИ на рабочие места, они предпочитают опубликовать какие-нибудь положительные результаты.
По этой же причине из стартапа ушел еще как минимум один сотрудник экономической команды. В других подразделениях несколько ушедших сотрудников тоже жаловались на «сложности с публикацией важных работ».
Компания цензуру отрицает. Но теперь экономические исследования курирует Аарон Чаттерджи. В сентябре именно он выпустил отчет о том, как ChatGPT ускоряет и удешевляет работу.
Недавно из компании ушел старший экономический исследователь Том Каннингем. Wired получили доступ к его прощальному меморандуму и выяснили, что уволился он из-за того, что руководство «превратило исследовательскую команду в инструмент пропаганды».
Оказывается, в компании теперь очень осторожно относятся к публикации работ, относящимся к рискам ИИ для экономики. Например, вместо исследований о влиянии ИИ на рабочие места, они предпочитают опубликовать какие-нибудь положительные результаты.
«Команда отклонилась от реальных исследований к продвижению корпоративных интересов» – пишет Том.
По этой же причине из стартапа ушел еще как минимум один сотрудник экономической команды. В других подразделениях несколько ушедших сотрудников тоже жаловались на «сложности с публикацией важных работ».
Компания цензуру отрицает. Но теперь экономические исследования курирует Аарон Чаттерджи. В сентябре именно он выпустил отчет о том, как ChatGPT ускоряет и удешевляет работу.
This media is not supported in your browser
VIEW IN TELEGRAM
«Главной ошибкой Google было недооценить трансформеры» – Сергей Брин
Стэнфорд выпустил интересное Q&A с Сергеем Брином. В нем основатель Google говорит, что успех OpenAI, по сути, не в технической составляющей, а в том, что они поверили в скейлинг и чат-ботов.
Google выпустили трансформеры в 2017 году, но не восприняли их достаточно серьезно, чтобы инвестировать крупные суммы. То же самое – с чат-ботами. Google не хотели раскатывать подобное на пользователей, потому что боты «иногда говорили чепуху». А OpenAI выпустили – и сорвали куш.
А представьте, если бы Google не опубликовали статью о трансформерах, оставили технологию закрытой и сами влили в нее пару миллиардов в 2017…
youtu.be/0nlNX94FcUE?si=Hmj92pGtpTVfc3db
Стэнфорд выпустил интересное Q&A с Сергеем Брином. В нем основатель Google говорит, что успех OpenAI, по сути, не в технической составляющей, а в том, что они поверили в скейлинг и чат-ботов.
Google выпустили трансформеры в 2017 году, но не восприняли их достаточно серьезно, чтобы инвестировать крупные суммы. То же самое – с чат-ботами. Google не хотели раскатывать подобное на пользователей, потому что боты «иногда говорили чепуху». А OpenAI выпустили – и сорвали куш.
А представьте, если бы Google не опубликовали статью о трансформерах, оставили технологию закрытой и сами влили в нее пару миллиардов в 2017…
youtu.be/0nlNX94FcUE?si=Hmj92pGtpTVfc3db
😁231❤70🤔34👍15💯1
Крах OpenAI и нормальный Siri: смотрим, что журналисты напредсказывали на 2026
Декабрь любим в первую очередь за всевозможные «итоги года» и прогнозы. Почти никогда они не сбываются, но читать все равно интересно.
У The Verge совместно с The Wall Street Journal как раз вышел подкаст с гаданием на судьбу тех.индустрии в 2026.
Что говорят:
– У Apple в 2026 наконец появится нормальный голосовой ассистент, причем (почему-то) с акцентом на эмпатию и «душевное» общение. Но как бы там ни было, если и в 2026 Apple с ИИ ничего не придумают, то земля им пухом.
– OpenAI перестанет быть доминирующим игроком, если все останется в текущем виде. Бизнес-модель типа ChatGPT сама по себе не окупает объем привлеченных денег, так что шансы остаться на плаву у стартапа есть только если вокруг их продукта появится некая экосистема или гаджет. Спорное заявление, конечно, но, с другой стороны, последние события показывают, что какие-то изменения компании действительно нужны.
– Поворотная точка произойдет в восприятии автономного транспорта и роботов. Будет либо «ну ок, это работает», либо усиление недоверия из-за инцидентов. Тут есть ощущение, что немного забежали вперед: кажется, что массовым использованием роботов и беспилотных авто в 2026 все еще не пахнет.
– ИИ-слоп достигнет апогея, и соцсети спасут только новые механизмы рекомендаций. Вот это похоже на правду больше всего.
А ваши прогнозы на 2026?
Декабрь любим в первую очередь за всевозможные «итоги года» и прогнозы. Почти никогда они не сбываются, но читать все равно интересно.
У The Verge совместно с The Wall Street Journal как раз вышел подкаст с гаданием на судьбу тех.индустрии в 2026.
Что говорят:
– У Apple в 2026 наконец появится нормальный голосовой ассистент, причем (почему-то) с акцентом на эмпатию и «душевное» общение. Но как бы там ни было, если и в 2026 Apple с ИИ ничего не придумают, то земля им пухом.
– OpenAI перестанет быть доминирующим игроком, если все останется в текущем виде. Бизнес-модель типа ChatGPT сама по себе не окупает объем привлеченных денег, так что шансы остаться на плаву у стартапа есть только если вокруг их продукта появится некая экосистема или гаджет. Спорное заявление, конечно, но, с другой стороны, последние события показывают, что какие-то изменения компании действительно нужны.
– Поворотная точка произойдет в восприятии автономного транспорта и роботов. Будет либо «ну ок, это работает», либо усиление недоверия из-за инцидентов. Тут есть ощущение, что немного забежали вперед: кажется, что массовым использованием роботов и беспилотных авто в 2026 все еще не пахнет.
– ИИ-слоп достигнет апогея, и соцсети спасут только новые механизмы рекомендаций. Вот это похоже на правду больше всего.
А ваши прогнозы на 2026?
❤68😁40👍14🔥12🤩4🤔1🤝1🦄1😎1
Новый день – новые модели: Nvidia выпустили прекрасную Nemotron 3 Nano
В ней 31.6B параметров, но активных всего 3.6B (это MoE). Запустить можно на 24ГБ RAM. Зафайнтюнить – на 60ГБ VRAM.
Контекст – 1 миллион токенов.
По метрикам, внимание, обходит Qwen3-30В-А3В-Thinking и GPT-oss-20B-А4В. Получается, модель не просто конкурентоспособная, но и лучшая в своем классе на многих основных бенчмарках: SWE-bench, GPQA и др.
И еще – моделька очень шустрая, выдает больше 350 токенов в секунду. Это в 2-3 раза быстрее того же Qwen.
Nvidia умеют удивлять.
Веса (+датасеты!) | Статья | Блогпост
P.S. Любителям опенсорса напоминаем, что сегодня также ждем новенькую Gemma-3
В ней 31.6B параметров, но активных всего 3.6B (это MoE). Запустить можно на 24ГБ RAM. Зафайнтюнить – на 60ГБ VRAM.
Контекст – 1 миллион токенов.
По метрикам, внимание, обходит Qwen3-30В-А3В-Thinking и GPT-oss-20B-А4В. Получается, модель не просто конкурентоспособная, но и лучшая в своем классе на многих основных бенчмарках: SWE-bench, GPQA и др.
И еще – моделька очень шустрая, выдает больше 350 токенов в секунду. Это в 2-3 раза быстрее того же Qwen.
Nvidia умеют удивлять.
Веса (+датасеты!) | Статья | Блогпост
P.S. Любителям опенсорса напоминаем, что сегодня также ждем новенькую Gemma-3
1👍92❤31🔥19😁2🤔2
Словарь Merriam-Webster выбрали «Slop» в качестве слова года
Вообще, исторически, slop означало что-то типа помоев (образовалось от звука, который издает грязь, когда в нее наступаешь). Затем слово приобрело значение «пищевые отходы», еще позже – просто «хлам». И вот, в 21 веке, оно опять заиграло новыми красками. Спасибо ИИ🙄
Мы определяем slop как цифровой контент низкого качества, который обычно массово производится с помощью искусственного интеллекта.
В 2025 году это были абсурдные видео, кривые рекламные картинки, пошлая пропаганда, фальшивые новости. Люди считают это раздражающим, но потребляют.
Вообще, исторически, slop означало что-то типа помоев (образовалось от звука, который издает грязь, когда в нее наступаешь). Затем слово приобрело значение «пищевые отходы», еще позже – просто «хлам». И вот, в 21 веке, оно опять заиграло новыми красками. Спасибо ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
😁84 16🔥11 6❤5💯5👍4👏1🤔1🤨1🗿1
Media is too big
VIEW IN TELEGRAM
OpenAI выкатили ответ на Nano Banana – GPT Images
Обещают фотореалистичность, отличное следование инструкциям и очень высокое качество редактирования изображений, включая многошаговый edit, где нужно сохранять лицо или другие детали неизменными. А еще генерация теперь будет в 4 раза быстрее.
В ChatGPT Images уже доступны всем юзерам (да, и бесплатно тоже, но про лимиты пока непонятно). В API выкатили как GPT Image 1.5
Пробуем пробуем пробуем!
https://openai.com/index/new-chatgpt-images-is-here/
UPD: и промптинг гайд катнули
Обещают фотореалистичность, отличное следование инструкциям и очень высокое качество редактирования изображений, включая многошаговый edit, где нужно сохранять лицо или другие детали неизменными. А еще генерация теперь будет в 4 раза быстрее.
В ChatGPT Images уже доступны всем юзерам (да, и бесплатно тоже, но про лимиты пока непонятно). В API выкатили как GPT Image 1.5
Пробуем пробуем пробуем!
https://openai.com/index/new-chatgpt-images-is-here/
UPD: и промптинг гайд катнули
❤66👍35🔥29🐳7🗿5😁1🤔1🤯1
OpenAI поместили GPT-5 в реальную биологическую лабораторию, и модель оптимизировала процесс клонирования ДНК в 79 раз
Стартап заколабился с Red Queen Bio и провел первый в истории эксперимент, в рамках которого GPT-5, фактически, работала в условиях реального научного мира. Это называется wet lab и представляет из себя вот такой закрытый цикл:
1. Модель предлагает гипотезу и план реализации
2. Люди или роботы в лаборатории строго выполняют инструкции и замеряют результат
3. Этот результат возвращается GPT-5, она анализирует, что сработало, что нет, и предлагает новую итерацию
В качестве задачи выбрали молекулярное клонирование, а конкретно – Gibson Assembly. Это базовый протокол молекулярной биологии. Целью было его оптимизировать (метрика простая: число успешных колоний).
Gibson Assembly – старый и изучен очень хорошо, так что супер-эффекта никто не ожидал. Такой оптимизацией даже сами ученые редко занимаются, потому что делать это нужно для каждого кейса отдельно, для этого требуется много времени и экспериментов, а результаты максимум х2-х3.
Но в итоге модель всех удивила: за несколько раундов система стала в 79 раз эффективнее, чем исходный метод. Причем результат был стабильным и надежно воспроизводился.
Конкретнее, GPT-5 предложила добавить в одну из реакций два белка: RecA и gp32. Они оба хорошо известны, но никто раньше не использовал их функционально вместе именно в клонировании.
Прорывом это, конечно, назвать нельзя. Скорее просто уровень хорошего PhD-студента в довольно специфической задаче. Но интересно другое: довольно успешная смена роли модели с просто генератора текста или агента внутри компьютера на активного участника физического процесса.
openai.com/index/accelerating-biological-research-in-the-wet-lab/
Стартап заколабился с Red Queen Bio и провел первый в истории эксперимент, в рамках которого GPT-5, фактически, работала в условиях реального научного мира. Это называется wet lab и представляет из себя вот такой закрытый цикл:
1. Модель предлагает гипотезу и план реализации
2. Люди или роботы в лаборатории строго выполняют инструкции и замеряют результат
3. Этот результат возвращается GPT-5, она анализирует, что сработало, что нет, и предлагает новую итерацию
В качестве задачи выбрали молекулярное клонирование, а конкретно – Gibson Assembly. Это базовый протокол молекулярной биологии. Целью было его оптимизировать (метрика простая: число успешных колоний).
Gibson Assembly – старый и изучен очень хорошо, так что супер-эффекта никто не ожидал. Такой оптимизацией даже сами ученые редко занимаются, потому что делать это нужно для каждого кейса отдельно, для этого требуется много времени и экспериментов, а результаты максимум х2-х3.
Но в итоге модель всех удивила: за несколько раундов система стала в 79 раз эффективнее, чем исходный метод. Причем результат был стабильным и надежно воспроизводился.
Конкретнее, GPT-5 предложила добавить в одну из реакций два белка: RecA и gp32. Они оба хорошо известны, но никто раньше не использовал их функционально вместе именно в клонировании.
Прорывом это, конечно, назвать нельзя. Скорее просто уровень хорошего PhD-студента в довольно специфической задаче. Но интересно другое: довольно успешная смена роли модели с просто генератора текста или агента внутри компьютера на активного участника физического процесса.
openai.com/index/accelerating-biological-research-in-the-wet-lab/
2👍164❤56🔥40 23🤯8 5😁3☃2🤔2🗿1
Где взять полный стек инструментов для работы с GenAI
Чтобы не собирать решения по частям и не упираться в инфраструктурные ограничения, Cloud.ru запустил Evolution AI Factory — среду для внедрения GenAI в ваши проекты.
Все это на российских серверах и с доступными ценами.
Узнайте больше про Evolution AI Factory
2025-й стал годом экспериментов: бизнес пробовал разные модели, собирал свои первые RAG-системы, тестировал агентов для клиентов и сотрудников.
В 2026-м фокус смещается с экспериментов на промышленное внедрение и масштабирование.
Чтобы не собирать решения по частям и не упираться в инфраструктурные ограничения, Cloud.ru запустил Evolution AI Factory — среду для внедрения GenAI в ваши проекты.
Там можно:😶🌫️ быстро собрать MVP😶🌫️ протестировать 20+ LLM😶🌫️ дообучить их на своих данных😶🌫️ собрать AI-агента или мультиагентную систему
Все это на российских серверах и с доступными ценами.
Узнайте больше про Evolution AI Factory
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿40❤10🤨5👍2🤔1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Пища для размышлений вам на вечер: Ян Лекун заявил, что понятия «general intelligence» вообще не существует
Обычно этот термин употребляют, чтобы обозначить человеческий уровень интеллекта, но, по его словам, человеческий интеллект очень узкоспециализирован. Мы хорошо ориентируемся в мире и общаемся, но есть много вещей, в которых мы плохи (например, шахматы) и вещей, в которых животные лучше нас.
Этот отрывок вызвал много споров в соцсетях. Например, Hunter Ash комментирует это так:
Илон Маск тоже оказался несогласен с мнением Лекуна, но сильно в аргументах не рассыпался: просто написал, что ученый «давно выжил из ума»✌️
Обычно этот термин употребляют, чтобы обозначить человеческий уровень интеллекта, но, по его словам, человеческий интеллект очень узкоспециализирован. Мы хорошо ориентируемся в мире и общаемся, но есть много вещей, в которых мы плохи (например, шахматы) и вещей, в которых животные лучше нас.
«Мы думаем о самих себе как об общем интеллекте, но это только иллюзия. Наш интеллект общий только в тех задачах, которые мы можем придумать, но есть много задач, о которых мы и понятия не имеем. Так что general intelligence полная чушь.»
Этот отрывок вызвал много споров в соцсетях. Например, Hunter Ash комментирует это так:
«Если Ян может рассуждать об интеллекте в целом, то он уже представитель общего интеллекта, а не узкоспециализированного. Да, в шахматах мы хуже компьютеров, но мы можем играть в любые игры и понимать, почему та или иная стратегия хуже или лучше (неважно, насколько хорошо мы это делаем). Конечно, есть пределы, но в широком смысле это и есть универсальность интеллекта»
Илон Маск тоже оказался несогласен с мнением Лекуна, но сильно в аргументах не рассыпался: просто написал, что ученый «давно выжил из ума»
Please open Telegram to view this post
VIEW IN TELEGRAM
😁82❤63👍29 13🤔7💯5🗿5🔥3❤🔥1👌1🤨1
Обещают frontier-уровень интеллекта при низкой цене и минимальной задержке: быстрые рассуждения, сильный кодинг и нормальную мультимодальность для реального продакшена, а не только демо.
По бенчмаркам: уверенно выступает на GPQA Diamond и Humanity’s Last Exam (PhD-уровень задач), а на MMMU Pro почти догоняет Gemini 3 Pro.
По скорости и стоимости заметно быстрее 2.5 Pro, при этом использует меньше токенов. На SWE-bench Verified обгоняет не только 2.5-ю линейку, но и Gemini 3 Pro.
https://blog.google/products/gemini/gemini-3-flash/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥96👍38❤16 5🎄2🤔1🗿1
Data Secrets
Новое с OpenAI DevDay 2025 (будет несколько постов): 1. В ChatGPT завезли приложения. Это что-то типа MCP на максималках: ChatGPT соединяется с приложением, и вы можете работать с ним прямо не выходя из чата. Например: ➖ скинуть боту набросок дизайна и…
В ChatGPT спустя два месяца после анонса наконец добавили App Store
Напоминаем, что приложения – это то, что раньше называлось коннекторами. ChatGPT соединяется с каким-нибудь сервисом, и в результате вы можете работать с ним с помощью бота, не выходя из чата.
Ну, например, пишете «хочу плейлист для тренировки», бот вызывает Spotify, составляет плейлист прямо там и скидывает вам готовую ссылку.
Сейчас в стор, помимо уже существующих интеграций, добавили новые. Из интересного – Apple Music и DoorDash, например.
Но самое приятное в другом: разработчикам разрешили сабмитить собственные приложения! Это уже серьезный намек на монетизацию.
Если хотите попробовать, то вот, что надо знать:
– Все приложения должны разрабатываться на основе библиотеки Apps SDK, вот документация с пошаговыми гайдами
– Все приложения должны соответствовать установленным требованиям по дизайну, UX и прочее. Вот ссылка со всеми условиями, не пропустите ее
– После разработки отправляем приложение на проверку сюда, здесь же можно будет трекать метрики и управлять приложением, если оно попадет в стор
Интересная возможность. Особенно для тех, у кого есть собственный продукт.
Напоминаем, что приложения – это то, что раньше называлось коннекторами. ChatGPT соединяется с каким-нибудь сервисом, и в результате вы можете работать с ним с помощью бота, не выходя из чата.
Ну, например, пишете «хочу плейлист для тренировки», бот вызывает Spotify, составляет плейлист прямо там и скидывает вам готовую ссылку.
Сейчас в стор, помимо уже существующих интеграций, добавили новые. Из интересного – Apple Music и DoorDash, например.
Но самое приятное в другом: разработчикам разрешили сабмитить собственные приложения! Это уже серьезный намек на монетизацию.
Если хотите попробовать, то вот, что надо знать:
– Все приложения должны разрабатываться на основе библиотеки Apps SDK, вот документация с пошаговыми гайдами
– Все приложения должны соответствовать установленным требованиям по дизайну, UX и прочее. Вот ссылка со всеми условиями, не пропустите ее
– После разработки отправляем приложение на проверку сюда, здесь же можно будет трекать метрики и управлять приложением, если оно попадет в стор
Интересная возможность. Особенно для тех, у кого есть собственный продукт.
3❤54👍34 21🔥5😁1🗿1