Forwarded from e/acc
Google сделали симуляционную видео-модель. В отличии от Veo, она поддерживает инпут от пользователя как в компьютерной игре. Сам мир имеет память и симулируемую физику: вы можете пройти по улице, вернуться и сцена будет такой же как раньше. При этом это не игровой движок, а именно нейронка.
Разница между фильмами и играми окончательно стирается. Ты будешь смотреть кино, а потом в любой интересный момент сможешь впрыгнуть в историю и взаимодействовать с героями.
Разница между фильмами и играми окончательно стирается. Ты будешь смотреть кино, а потом в любой интересный момент сможешь впрыгнуть в историю и взаимодействовать с героями.
Forwarded from Сиолошная
В преддверии выхода GPT-5 — выжимка двух постов TheInformation (первый и второй):
— Изначально Orion, ставший GPT-4.5, хотели сделать GPT-5. Однако большинство трюков, которые исследователи нашли на «маленьких» моделях, потеряли свою эффективность при масштабировании. Так происходит часто, но тут, видимо, упадок был больше ожидаемого.
— по данным аутлета, o3 имеет ту же базовую модель, что и o1 (я так думал с первого дня + про это рассказывал Dylan Patel), поэтому все приросты, что мы видели — исключительно за счёт дотренировки рассуждениям.
— o3 в ChatGPT тупее o3, показанной в декабре. Основная причина в том, что первая — это исследовательский результат, а вторая — это продукт, который дотренировали на человечность общения, поддержку чата, итд.
— Ещё в июне в OpenAI не было модели настолько хорошей, чтобы называться GPT-5. Рад, что ребята справились с техническими трудностями🩷
— Однако у OpenAI все еще был козырь в рукаве: компания разрабатывала то, что исследователи назвали «универсальным верификатором», который автоматизирует процесс проверки ответов в процессе обучения. Этот процесс по сути заключается в поручении версии LLM проверки и оценки ответов другой модели с использованием различных источников для их исследования. Тут могут пригодиться и веб-поиск из Deep Research / o3, и навыки написания кода, и другие.
— Сейчас все модели, что мы видим, были обучены рассуждениям в доменах с простой верификацией. Magistral, DeepSeek R1, Qwen, o3 — все учились по большей степени на задачах математики, где ответ легко извлечь и сравнить за долю секунды с исходным, и на задачах программирования, где код решения запускался на разных тестах и либо их проходил, либо нет. Конечно, добавляли тесты с выбором ответа из разных доменов (физика, биология, итд), но ключевое здесь — ответ везде легко извлечь и проверить. «Универсальный верификатор» позволяет перевернуть страницу и начать обучаться рассуждениям на задачах, где критерии оценки ответа не очевидны и даже субъективны.
— «Технические детали работы универсального верификатора пока неясны. По сути, он заключается в поручении LLM проверки и оценки ответов другой модели»
— «Один исследователь рассказал, что верификатор может быть похож на концепцию генеративно-состязательных сетей (GAN). В GAN есть две модели: модель-генератор, которая пытается создать поддельные данные, такие как текст, изображения и аудио, и модель-дискриминатор, которая пытается отличить поддельные данные, созданные ИИ, от настоящих данных, созданных человеком. В ходе итеративного обучения модель-генератор учится генерировать высококачественные данные, неотличимые от реальных» (ну а в контексте GPT-5, видимо, генерировать ответы, неотличимые от правильных)
Пока на ум приходит две статьи, которые, надеюсь, разберу в канале:
— Inference-Time Scaling for Generalist Reward Modeling от DeepSeek
— Seed1.5-Thinking: Advancing Superb Reasoning Models with Reinforcement Learning от ByteDance
Ну а какой выйдет GPT-5 и насколько она BIG или не BIG мы узнаем уже совсем скоро!
— Изначально Orion, ставший GPT-4.5, хотели сделать GPT-5. Однако большинство трюков, которые исследователи нашли на «маленьких» моделях, потеряли свою эффективность при масштабировании. Так происходит часто, но тут, видимо, упадок был больше ожидаемого.
— по данным аутлета, o3 имеет ту же базовую модель, что и o1 (я так думал с первого дня + про это рассказывал Dylan Patel), поэтому все приросты, что мы видели — исключительно за счёт дотренировки рассуждениям.
— o3 в ChatGPT тупее o3, показанной в декабре. Основная причина в том, что первая — это исследовательский результат, а вторая — это продукт, который дотренировали на человечность общения, поддержку чата, итд.
— Ещё в июне в OpenAI не было модели настолько хорошей, чтобы называться GPT-5. Рад, что ребята справились с техническими трудностями
— Однако у OpenAI все еще был козырь в рукаве: компания разрабатывала то, что исследователи назвали «универсальным верификатором», который автоматизирует процесс проверки ответов в процессе обучения. Этот процесс по сути заключается в поручении версии LLM проверки и оценки ответов другой модели с использованием различных источников для их исследования. Тут могут пригодиться и веб-поиск из Deep Research / o3, и навыки написания кода, и другие.
— Сейчас все модели, что мы видим, были обучены рассуждениям в доменах с простой верификацией. Magistral, DeepSeek R1, Qwen, o3 — все учились по большей степени на задачах математики, где ответ легко извлечь и сравнить за долю секунды с исходным, и на задачах программирования, где код решения запускался на разных тестах и либо их проходил, либо нет. Конечно, добавляли тесты с выбором ответа из разных доменов (физика, биология, итд), но ключевое здесь — ответ везде легко извлечь и проверить. «Универсальный верификатор» позволяет перевернуть страницу и начать обучаться рассуждениям на задачах, где критерии оценки ответа не очевидны и даже субъективны.
— «Технические детали работы универсального верификатора пока неясны. По сути, он заключается в поручении LLM проверки и оценки ответов другой модели»
— «Один исследователь рассказал, что верификатор может быть похож на концепцию генеративно-состязательных сетей (GAN). В GAN есть две модели: модель-генератор, которая пытается создать поддельные данные, такие как текст, изображения и аудио, и модель-дискриминатор, которая пытается отличить поддельные данные, созданные ИИ, от настоящих данных, созданных человеком. В ходе итеративного обучения модель-генератор учится генерировать высококачественные данные, неотличимые от реальных» (ну а в контексте GPT-5, видимо, генерировать ответы, неотличимые от правильных)
Пока на ум приходит две статьи, которые, надеюсь, разберу в канале:
— Inference-Time Scaling for Generalist Reward Modeling от DeepSeek
— Seed1.5-Thinking: Advancing Superb Reasoning Models with Reinforcement Learning от ByteDance
Ну а какой выйдет GPT-5 и насколько она BIG или не BIG мы узнаем уже совсем скоро!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Мониторинг СМИ для БГ Поисковых сервисов и ИИ
Илон Маск пообещал открыть исходный код Grok 2
Глава xAI Илон Маск заявил, что откроет исходный код чат-бота Grok 2 на следующей неделе.
#нейросети
Глава xAI Илон Маск заявил, что откроет исходный код чат-бота Grok 2 на следующей неделе.
#нейросети
👍1
Forwarded from Мониторинг СМИ для БГ Поисковых сервисов и ИИ
Редакторы «Википедии» приняли политику «быстрого удаления» статей, созданных ИИ
«Википедия» официально утвердила новую политику против текстов, созданных нейросетями. Так редакторы библиотеки пытаются защитить качество статей от низкосортного сгенерированного контента.
По новым правилам, редакторы энциклопедии могут моментально удалять статьи, в которых явно прослеживаются среды машинного происхождения — обычный процесс удаления занимает около недели.
#нейросети
«Википедия» официально утвердила новую политику против текстов, созданных нейросетями. Так редакторы библиотеки пытаются защитить качество статей от низкосортного сгенерированного контента.
По новым правилам, редакторы энциклопедии могут моментально удалять статьи, в которых явно прослеживаются среды машинного происхождения — обычный процесс удаления занимает около недели.
#нейросети
❤1
Forwarded from Denis Sexy IT 🤖
Премьер министр Швеции в интервью:
В ответ некоторые шведы ему говорят, что не голосовали за ChatGPT, но мне кажется Кристерссон молодец, потому что во первых уже сейчас АИ можно использовать эффективно (тот же o3 Pro), во вторых – вопрос времени пока все политики начнут делать так же
Я сам довольно часто пользуюсь ChatGPT. Если ни для чего другого, то хотя бы чтобы получить второе мнение. Что сделали бы другие? А не стоит ли нам подумать прямо противоположное? Такие вопросы
В ответ некоторые шведы ему говорят, что не голосовали за ChatGPT, но мне кажется Кристерссон молодец, потому что во первых уже сейчас АИ можно использовать эффективно (тот же o3 Pro), во вторых – вопрос времени пока все политики начнут делать так же
❤2🔥1🤡1
Google добавил в Gemini режимы для образования. Чуть позже чем ChatGPT.
А ведь еще могли до сентября пару недель пилить 🪚
А ведь еще могли до сентября пару недель пилить 🪚
🤔1
Figma Make раскатали на всех пару дней назад (раньше было только для корпоративных аккаунтов). Пока всё ещё не Cursor.
Другие обновления Фигмы в видео
Другие обновления Фигмы в видео
👍1
Илон Маск заявил о планах по внедрению рекламы в Grok во время трансляции в X, пишет Financial Times. Рекламодатели смогут заплатить за упоминание компании в ответах чат-бота.
https://vc.ru/ai/2143795-ilon-mask-reklama-v-grok
https://vc.ru/ai/2143795-ilon-mask-reklama-v-grok
Ft
Elon Musk to introduce ads to X’s AI chatbot
Billionaire owner outlines plans to improve advertising on social media platform in rare overture to marketers
В браузере Dia запустили подписку за 20$
https://techcrunch.com/2025/08/06/the-browser-company-launches-a-20-monthly-subnoscription-for-its-ai-powered-browser/
https://techcrunch.com/2025/08/06/the-browser-company-launches-a-20-monthly-subnoscription-for-its-ai-powered-browser/
TechCrunch
The Browser Company launches a $20 monthly subnoscription for its AI-powered browser | TechCrunch
The Browser Company has its first paid plan in the form of $20 per month Dia Pro.
Forwarded from e/acc
Сегодня… (с)
Тем временем, Сэм Альтман выдал бонус в $1,5М ВСЕМ сотрудникам OpenAI в течении следующих двух лет.
Тем временем, Сэм Альтман выдал бонус в $1,5М ВСЕМ сотрудникам OpenAI в течении следующих двух лет.
Forwarded from Cерафимодальный AI
Через две минуты презентация, но на девелоперском сайте уже выложили все данные.
Главное:
Input $1.25
Output $10.00
https://platform.openai.com/docs/models/gpt-5
Главное:
Input $1.25
Output $10.00
https://platform.openai.com/docs/models/gpt-5
Forwarded from Denis Sexy IT 🤖
Так, вышла GPT5 – спасибо JetBrains, партнеру OpenAI который подключил ее один из первых и в продуктах которого она будет доступна в течение часа по дефолту, где я ее и тестил
Бенчмарки постить не буду, хочу начать со своего опыта использования:
– GPT5 гениальна в кодинге – я застал и трогал все главные серии моделей начиная с GPT-2, и лучше для написания кода просто не существовало до этого момента (Claude челики – сорян)
– Страницы в видео она сделала с одного промпта (и одного ответа) – вы можете ей скормить или идею, или научный пейпер, и она соберет готовую веб страницу где сразу будут все виды скинов, прописаны стили, состояния кнопок, анимации и тп, она неимоверно клево делает frontend задачи
– Это первая модель, с которой я кодил 2 часа Python проект, распилил его на части, докинул кучу новой логики, потом запустил и все заработало – такого никогда не получалось с Gemini Pro 2.5 или Sonnet 4
– Она все еще оверинженерит простые задачи (если неправильно промптить) – но ее оверинженеринг работает, в отличие от Sonnet-Opues 4, с первого раза – и работая с ней долго, можно быть уверенным, что она не сделала никаких новых «призрачных функций» которые не используются (давняя проблема вайбкодинга)
– Если с ней работать в многошаговом режиме для разработки, она прям хорошо дебажит проблемы по скриншотам – эти страницы она сделала с 1-3х ходов:
https://shir-man.com/pie-photo/
https://shir-man.com/solar/
– Модель обучена на данных до октября 2024 года – она уже знает как работают агенты на LLM, как делать запросы в API к крупным провайдерам, с ней очень быстро можно кодить любой современный АИ-софт
– Цены, модель стоит ДЕШЕВЛЕ чем Sonnet-4; но тут есть нюансы, вы можете указать в API как долго модель будет думать перед ответом или «мыслительный бюджет», от этого меняется цена результата
В общем, правда не знаю что Antropic планирует делать с таким конкурентом, они выпустили вчера Opus 4.1 и она хуже и дороже
Бенчмарки постить не буду, хочу начать со своего опыта использования:
– GPT5 гениальна в кодинге – я застал и трогал все главные серии моделей начиная с GPT-2, и лучше для написания кода просто не существовало до этого момента (Claude челики – сорян)
– Страницы в видео она сделала с одного промпта (и одного ответа) – вы можете ей скормить или идею, или научный пейпер, и она соберет готовую веб страницу где сразу будут все виды скинов, прописаны стили, состояния кнопок, анимации и тп, она неимоверно клево делает frontend задачи
– Это первая модель, с которой я кодил 2 часа Python проект, распилил его на части, докинул кучу новой логики, потом запустил и все заработало – такого никогда не получалось с Gemini Pro 2.5 или Sonnet 4
– Она все еще оверинженерит простые задачи (если неправильно промптить) – но ее оверинженеринг работает, в отличие от Sonnet-Opues 4, с первого раза – и работая с ней долго, можно быть уверенным, что она не сделала никаких новых «призрачных функций» которые не используются (давняя проблема вайбкодинга)
– Если с ней работать в многошаговом режиме для разработки, она прям хорошо дебажит проблемы по скриншотам – эти страницы она сделала с 1-3х ходов:
https://shir-man.com/pie-photo/
https://shir-man.com/solar/
– Модель обучена на данных до октября 2024 года – она уже знает как работают агенты на LLM, как делать запросы в API к крупным провайдерам, с ней очень быстро можно кодить любой современный АИ-софт
– Цены, модель стоит ДЕШЕВЛЕ чем Sonnet-4; но тут есть нюансы, вы можете указать в API как долго модель будет думать перед ответом или «мыслительный бюджет», от этого меняется цена результата
В общем, правда не знаю что Antropic планирует делать с таким конкурентом, они выпустили вчера Opus 4.1 и она хуже и дороже