Forwarded from Machinelearning
MiniMax-M1 — первая в мире open-weight гибридная reasoning‑LLM c 1M контекстом (8× DeepSeek R1) и гибридной архитектурой MoE + lightning attention.
• 456 млрд параметров (45,9 млрд активируются на токен), сверхэффективная генерация — 25% FLOPs DeepSeek R1 на 100K токенов
• Обучение через RL с новым алгоритмом CISPO, решающим реальные задачи от математики до кодинга
• На обучение было потрачено $534K, две версии — 40K/80K “thinking budget”
• Обходит DeepSeek R1 и Qwen3-235B на бенчмарках по математике и кодингу,
• Топ результат на задачах для software engineering и reasoning
Бенчмарки:
AIME 2024: 86.0 (M1-80K) vs 85.7 (Qwen3) vs 79.8 (DeepSeek R1)
SWE-bench Verified: 56.0 vs 34.4 (Qwen3)
OpenAI-MRCR (128k): 73.4 vs 27.7 (Qwen3)
TAU-bench (airline): 62.0 vs 34.7 (Qwen3)
LongBench-v2: 61.5 vs 50.1 (Qwen3)▪Hugging Face: https://huggingface.co/collections/MiniMaxAI/minimax-m1-68502ad9634ec0eeac8cf094
▪GitHub: https://github.com/MiniMax-AI/MiniMax-M1
▪Tech Report: https://github.com/MiniMax-AI/MiniMax-M1/blob/main/MiniMax_M1_tech_report.pdf
@ai_machinelearning_big_data
#llm #reasoningmodels #minimaxm1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥2
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
(Сделайте потише динамики)
Google выкатил MagentaRT модельку для генерации музыки в реальном времени – я поигрался и прям залип; запускается она сейчас не очень удобно, но будет очень классно когда кто-то обернет это в простой интерфейс
Как в видео, модель может играть бесконечно, сама меняя рисунок композиции – ждем новый уровень музыки для лифтов / магазинов / кафе
Модель | Google Colab для запуска | Анонс
Google выкатил MagentaRT модельку для генерации музыки в реальном времени – я поигрался и прям залип; запускается она сейчас не очень удобно, но будет очень классно когда кто-то обернет это в простой интерфейс
Как в видео, модель может играть бесконечно, сама меняя рисунок композиции – ждем новый уровень музыки для лифтов / магазинов / кафе
Модель | Google Colab для запуска | Анонс
🔥2
Яндекс Погода научилась прогнозировать грозы и показывать молнии в реальном времени
У ML-команды Яндекса вышел новый разбор: рассказали, как решали задачу прогноза гроз с опорой на данные о молниях и выкатывали обновление в продакшен. Сейчас Погода предупреждает о грозе с шагом в 10 минут и показывает молнии на карте в реальном времени.
Что интересного сделали:
1. Дообучили рабочую модель без деградации качества
Когда добавляли новую модальность — прогноз гроз по архивным данным с грозопеленгаторов — заморозили веса блока осадков и обучали только новые компоненты. Это позволило сохранить точность осадков и не испортить ранее выстроенные зависимости.
2. Переосмыслили работу с редкими событиями для обучения
Вместо использования точек с координатами ударов молний модель предсказывает вероятность грозовой активности в ячейках сетки с шагом по времени в 10 минут. Это сглаживает хаотичность обучающих данных и повышает устойчивость модели.
3. Обновили архитектуру: PredRNN++ → Temporal Attention Unit
Отказались от авторегрессинной архитектуры в пользу трансформера с вниманием по времени. В итоге улучшилась точность прогноза и ускорился inference.
4. Настроили лоссы для сегментации границ
Для выделения областей с вероятностью возникновения гроз использовали комбинацию BCE, Dice и Contour Loss. Последняя функция улучшает качество предсказаний по границам туч
5. Объединил мультимодальные источники
Тут объединили данные с радаров, спутников и грозопеленгаторов с предварительной калибровкой и выравниванием → система стала устойчивее к шуму и пропускам в отдельных каналах.
Подводя итог: кейс будет интересен специалистам из ИБ, медицины, финтеха, RecSys и компьютерного зрения и всем, кто работает с редкими событиями, мультимодальными данными и дообучением моделей — есть что перенять по части инженерных решений. Покопать статью
У ML-команды Яндекса вышел новый разбор: рассказали, как решали задачу прогноза гроз с опорой на данные о молниях и выкатывали обновление в продакшен. Сейчас Погода предупреждает о грозе с шагом в 10 минут и показывает молнии на карте в реальном времени.
Что интересного сделали:
1. Дообучили рабочую модель без деградации качества
Когда добавляли новую модальность — прогноз гроз по архивным данным с грозопеленгаторов — заморозили веса блока осадков и обучали только новые компоненты. Это позволило сохранить точность осадков и не испортить ранее выстроенные зависимости.
2. Переосмыслили работу с редкими событиями для обучения
Вместо использования точек с координатами ударов молний модель предсказывает вероятность грозовой активности в ячейках сетки с шагом по времени в 10 минут. Это сглаживает хаотичность обучающих данных и повышает устойчивость модели.
3. Обновили архитектуру: PredRNN++ → Temporal Attention Unit
Отказались от авторегрессинной архитектуры в пользу трансформера с вниманием по времени. В итоге улучшилась точность прогноза и ускорился inference.
4. Настроили лоссы для сегментации границ
Для выделения областей с вероятностью возникновения гроз использовали комбинацию BCE, Dice и Contour Loss. Последняя функция улучшает качество предсказаний по границам туч
5. Объединил мультимодальные источники
Тут объединили данные с радаров, спутников и грозопеленгаторов с предварительной калибровкой и выравниванием → система стала устойчивее к шуму и пропускам в отдельных каналах.
Подводя итог: кейс будет интересен специалистам из ИБ, медицины, финтеха, RecSys и компьютерного зрения и всем, кто работает с редкими событиями, мультимодальными данными и дообучением моделей — есть что перенять по части инженерных решений. Покопать статью
Хабр
Как мы научились прогнозировать грозы на карте осадков в Яндекс Погоде
Экстремальные погодные явления оказывают большое влияние на нашу жизнь. Это может проявляться в бытовых вещах, просто чтобы не попасть под сильный ливень или грозу....
❤3🤔1
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini CLI — официальный агент для Gemini от Google
Использовать можно бесплатно просто залогинившись с аккаунтом Google — дают до 60 запросов в минуту к Gemini 2.5 Pro и до тысячи в день. Такой щедрости не проявляет ни Codex ни Claude Code. Есть поддержка MCP, которая позволяет подключать туда сторонние тулы. Гугл даже запилил MCP серверы для взаимодействия с Veo/Imagen/Lyria.
Доступен код по лицензии Apache 2.0, так что с ним можно делать всё что угодно. А вот в апстрим залить что-либо будет сильно сложнее — у гугла очень специфическая политика по поводу сторонних контрибьюторов.
Блогпост
Исходники
@ai_newz
Использовать можно бесплатно просто залогинившись с аккаунтом Google — дают до 60 запросов в минуту к Gemini 2.5 Pro и до тысячи в день. Такой щедрости не проявляет ни Codex ни Claude Code. Есть поддержка MCP, которая позволяет подключать туда сторонние тулы. Гугл даже запилил MCP серверы для взаимодействия с Veo/Imagen/Lyria.
Доступен код по лицензии Apache 2.0, так что с ним можно делать всё что угодно. А вот в апстрим залить что-либо будет сильно сложнее — у гугла очень специфическая политика по поводу сторонних контрибьюторов.
npm install -g @google/gemini-cli
Блогпост
Исходники
@ai_newz
1👎2❤1🔥1
Forwarded from Life2film
Посмотрел новое видео от Андрея Карпатого и решил поделиться саммари:
Три эпохи программирования:
* Software 1.0 — традиционный код, который мы пишем руками
* Software 2.0 — нейронные сети и их веса
* Software 3.0 — LLM, программируемые промптами на естественном языке
LLM = новые операционные системы
Карпатый проводит мощную аналогию: мы сейчас в "1960-х годах компьютеров" для ИИ. Дорогие вычисления заставляют держать LLM в облаке, а мы все — тонкие клиенты, работающие по принципу time-sharing.
⚡ Революция "Vibe Coding"
Теперь каждый может программировать! Не нужно 5-10 лет изучать языки программирования. Карпатый за день создал iOS приложение, не зная Swift. Естественный язык стал языком программирования.
Partial Autonomy Apps — будущее
Успешные ИИ-приложения имеют:
* Автоматическое управление контекстом
* Оркестрацию нескольких моделей
* Специализированный GUI для аудита
* Слайдер автономии (пользователь контролирует уровень ИИ)
Принципы работы с ИИ:
* ИИ генерирует → человек верифицирует
* Работать небольшими порциями
* Ускорять верификацию через визуальные интерфейсы
* Держать ИИ "на поводке" — не давать слишком много автономии
Почему это важно:
* Программное обеспечение не менялось 70 лет, а теперь меняется дважды за несколько лет
* Огромное количество кода нужно переписать
* Беспрецедентные возможности для новых разработчиков
* Мы в начале "десятилетия агентов"
💡 Главный вывод:
В отличие от всех предыдущих технологий (электричество, интернет), ИИ сначала дошел до потребителей, а не к корпорациям. У каждого из нас есть "магический компьютер", который помогает варить яйца, а не решать военные задачи.
Мы живем в уникальное время фундаментального сдвига в программировании. Время действовать!
https://youtu.be/LCEmiRjPEtQ?si=TSnghOHX_erK45jJ
Три эпохи программирования:
* Software 1.0 — традиционный код, который мы пишем руками
* Software 2.0 — нейронные сети и их веса
* Software 3.0 — LLM, программируемые промптами на естественном языке
LLM = новые операционные системы
Карпатый проводит мощную аналогию: мы сейчас в "1960-х годах компьютеров" для ИИ. Дорогие вычисления заставляют держать LLM в облаке, а мы все — тонкие клиенты, работающие по принципу time-sharing.
⚡ Революция "Vibe Coding"
Теперь каждый может программировать! Не нужно 5-10 лет изучать языки программирования. Карпатый за день создал iOS приложение, не зная Swift. Естественный язык стал языком программирования.
Partial Autonomy Apps — будущее
Успешные ИИ-приложения имеют:
* Автоматическое управление контекстом
* Оркестрацию нескольких моделей
* Специализированный GUI для аудита
* Слайдер автономии (пользователь контролирует уровень ИИ)
Принципы работы с ИИ:
* ИИ генерирует → человек верифицирует
* Работать небольшими порциями
* Ускорять верификацию через визуальные интерфейсы
* Держать ИИ "на поводке" — не давать слишком много автономии
Почему это важно:
* Программное обеспечение не менялось 70 лет, а теперь меняется дважды за несколько лет
* Огромное количество кода нужно переписать
* Беспрецедентные возможности для новых разработчиков
* Мы в начале "десятилетия агентов"
💡 Главный вывод:
В отличие от всех предыдущих технологий (электричество, интернет), ИИ сначала дошел до потребителей, а не к корпорациям. У каждого из нас есть "магический компьютер", который помогает варить яйца, а не решать военные задачи.
Мы живем в уникальное время фундаментального сдвига в программировании. Время действовать!
https://youtu.be/LCEmiRjPEtQ?si=TSnghOHX_erK45jJ
YouTube
Andrej Karpathy: Software Is Changing (Again)
Andrej Karpathy's keynote on June 17, 2025 at AI Startup School in San Francisco. Slides provided by Andrej: https://drive.google.com/file/d/1a0h1mkwfmV2PlekxDN8isMrDA5evc4wW/view?usp=sharing
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
❤5🔥4
Forwarded from Machinelearning
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4)
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
Младшая модель может запускаться даже на локальном железе!
https://github.com/huggingface/transformers/releases/tag/v4.55.0
🚀 Попробовать можно тут: https://www.gpt-oss.com/
@ai_machinelearning_big_data
#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🥰1
Forwarded from Нейронавт | Нейросети в творчестве
GPT-5: все что вам нужно знать
Основные изменения:
➖ GPT-5 превосходит предыдущие модели по точности, скорости и глубине анализа.
➖ Один запрос создает готовое решение: сайт, приложение, игру.
➖ Расширенное контекстное мышление: справляется с длинными задачами и задает уточняющие вопросы.
➖ Снижены «галлюцинации», повышая надежность.
➖ Бесплатный доступ для всех, для Pro - без лимитов.
Ключевые особенности:
➖ Объединяет все предыдущие версии, работает быстрее и точнее.
➖ Пишет сайты, приложения и игры по одному запросу.
➖ Переключается между быстрым и «думающим» режимами.
➖ Улучшена в кодинге, знает новые API.
➖ Самая мощная модель по метрикам LM Arena.
Версии:
➖ GPT-5 — флагманская версия для сложных логических и многоэтапных задач
➖ GPT-5-mini — облегченная версия с балансом производительности и стоимости
➖ GPT-5-nano — сверхбыстрая версия для задач с низкой задержкой (только через API)
➖ GPT-5-chat — специализированная версия для корпоративных диалоговых систем
Мультимодальность и безопасность:
➖ Интеграция с изображениями, аудио и видео.
➖ Лучшее распознавание визуальных структур.
➖ Встроенные guardrails снижают риск jailbreak'ов.
API и настройка:
➖ Поддержка длительной памяти до 256K токенов.
➖ Настройка через custom GPTs и function calling 2.0.
➖ Выход на CPU и edge-устройствах ожидается в 2026.
Cursor
Copilot
API
Попробовать
Кто уже наложил руки - делитесь впечатлениями
#news #assistant
Основные изменения:
➖ GPT-5 превосходит предыдущие модели по точности, скорости и глубине анализа.
➖ Один запрос создает готовое решение: сайт, приложение, игру.
➖ Расширенное контекстное мышление: справляется с длинными задачами и задает уточняющие вопросы.
➖ Снижены «галлюцинации», повышая надежность.
➖ Бесплатный доступ для всех, для Pro - без лимитов.
Ключевые особенности:
➖ Объединяет все предыдущие версии, работает быстрее и точнее.
➖ Пишет сайты, приложения и игры по одному запросу.
➖ Переключается между быстрым и «думающим» режимами.
➖ Улучшена в кодинге, знает новые API.
➖ Самая мощная модель по метрикам LM Arena.
Версии:
➖ GPT-5 — флагманская версия для сложных логических и многоэтапных задач
➖ GPT-5-mini — облегченная версия с балансом производительности и стоимости
➖ GPT-5-nano — сверхбыстрая версия для задач с низкой задержкой (только через API)
➖ GPT-5-chat — специализированная версия для корпоративных диалоговых систем
Мультимодальность и безопасность:
➖ Интеграция с изображениями, аудио и видео.
➖ Лучшее распознавание визуальных структур.
➖ Встроенные guardrails снижают риск jailbreak'ов.
API и настройка:
➖ Поддержка длительной памяти до 256K токенов.
➖ Настройка через custom GPTs и function calling 2.0.
➖ Выход на CPU и edge-устройствах ожидается в 2026.
Cursor
Copilot
API
Попробовать
Кто уже наложил руки - делитесь впечатлениями
#news #assistant
👍5👎1😁1
Forwarded from XOR
Для GPT-5 выпустили официальный гайд по промптам
Внутри cookbook openai теперь есть готовые примеры, инструкции и советы по использованию модели. А здесь лежит системный промпт GPT-5.
Изучаем, забираем себе полезные фишечки, пользуемся👍
@xor_journal
Внутри cookbook openai теперь есть готовые примеры, инструкции и советы по использованию модели. А здесь лежит системный промпт GPT-5.
Изучаем, забираем себе полезные фишечки, пользуемся
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Фей-Фей Ли хвастается world model своего стартапа — World Labs
Для генерации всего мира понадобилась всего лишь одна картинка, причём по видео видно что консистентность на высоте — модель не забывает детали локации как только пользователь отвернулся, ну и длина генерации не ограничена.
@ai_newz
Для генерации всего мира понадобилась всего лишь одна картинка, причём по видео видно что консистентность на высоте — модель не забывает детали локации как только пользователь отвернулся, ну и длина генерации не ограничена.
@ai_newz
👍3👎2
Forwarded from XOR
Сеньор-инженер из Google выпустил 400-страничный (!) гайд по архитектурным паттернам для AI-агентов — Agentic Design Patterns.
Внутри как правильно строить промпты, параллелить задачи, Также есть практические примеры с кодом, разбор MCP и многое другое.
Забираем🫡
@xor_journal
Внутри как правильно строить промпты, параллелить задачи, Также есть практические примеры с кодом, разбор MCP и многое другое.
Забираем
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥1
Forwarded from Data Secrets
Sakana AI сделали опенсорсный аналог AlphaEvolve – ShinkaEvolve
Это фреймворк для оптимизации и разработки сложных алгоритмов и архитектур. И, так как Sakana везде пытаются применять идеи эволюции (см этот пост со списком их статей), здесь без этого тоже не обошлось. «Shinka» (進化) с японского и есть "эволюция".
Работает это как нечто среднее между обычным генетическим алгоритмом и LLM-ным поиском по дереву:
Оставшихся прогоняем через оценщика и лучших добавляем в архив. А дальше – все с начала. Кстати, в архиве есть «острова» (несколько независимых популяций). Если система совсем встает в тупик и разнообразие решений начинает падать – можно осуществить между ними миграцию. Интересный инженерный ход.
Тестировали в четырех разничных областях. Результаты занятные:
1. На задаче математической оптимизации всего за 150 сэмплов система вывела новое решение для задачи Circle Packing, превосходящее аналогичные подходы.
2. При проектировании ИИ-агента за ~75 поколений фреймворк "изобрел" трехчастную архитектуру, которая побила бейзлайн на AIME.
3. На задачках из спортивного программирования система добавила много полезных оптимизаций, и в итоге дотянула до уровня серебрянного медалиста.
4. И еще проверяли, насколько хорошо ShinkaEvolve сможет обучить другую LLM. Это самое интересное: примерно 30 поколений система билась с лоссом для MoE, и внезапно вывела функцию потерь, которая по эффективности превзошла многие популярные решения.
И главное: в отличие от AlphaEvolve воспользоваться фреймворком можно прямо сейчас и бесплатно. Код вот тут. Просто переписываете
Это фреймворк для оптимизации и разработки сложных алгоритмов и архитектур. И, так как Sakana везде пытаются применять идеи эволюции (см этот пост со списком их статей), здесь без этого тоже не обошлось. «Shinka» (進化) с японского и есть "эволюция".
Работает это как нечто среднее между обычным генетическим алгоритмом и LLM-ным поиском по дереву:
1. Система получает на вход Seed-программу и верификатор, который считает метрики качества (фитнес). На каждом шаге свежие полученные скрипты добавляются в единый архив (это наш "банк" родителей).
2. LLM тут выступает мутационным оператором: на каждом шаге из банка берутся один или два родителя, и модель предлагает какие-то изменения в их коде в одном из определенных режимов: diff-патч поверх родителя, полная перезапись, кроссовер (смешивание идей из двух программ). Кстати, LLM выбирается не всегда одна и та же: есть специальный многорукий бандит, который смотрит, кто чаще приносит улучшения на данном типе задач при приемлемой цене, и подстраивает приоритеты.
3. Полученных кандидатов прогоняют через верификатор, но сначала они проходят дополнительный фильтр novelty-rejection. Считаются эмбеддинги программы, проверяется похожесть на архив. Слишком похожие идеи отбраковываются ещё до рассчета метрик, это резко экономит время и деньги.
Оставшихся прогоняем через оценщика и лучших добавляем в архив. А дальше – все с начала. Кстати, в архиве есть «острова» (несколько независимых популяций). Если система совсем встает в тупик и разнообразие решений начинает падать – можно осуществить между ними миграцию. Интересный инженерный ход.
Тестировали в четырех разничных областях. Результаты занятные:
1. На задаче математической оптимизации всего за 150 сэмплов система вывела новое решение для задачи Circle Packing, превосходящее аналогичные подходы.
2. При проектировании ИИ-агента за ~75 поколений фреймворк "изобрел" трехчастную архитектуру, которая побила бейзлайн на AIME.
3. На задачках из спортивного программирования система добавила много полезных оптимизаций, и в итоге дотянула до уровня серебрянного медалиста.
4. И еще проверяли, насколько хорошо ShinkaEvolve сможет обучить другую LLM. Это самое интересное: примерно 30 поколений система билась с лоссом для MoE, и внезапно вывела функцию потерь, которая по эффективности превзошла многие популярные решения.
И главное: в отличие от AlphaEvolve воспользоваться фреймворком можно прямо сейчас и бесплатно. Код вот тут. Просто переписываете
evaluate.py под вашу задачу, кладете initial.py и запускаете shinka_launch variant=experiment_name. Подробная инструкция тут.❤5👎1
Forwarded from эйай ньюз
Claude Sonnet 4.5
GPT-5 Codex уже побыла лучшей моделью для кодинга уже целых две недели, так что пришло время для нового лидера. Клода ещё больше прокачали в кодинге и агентных тасках, где видно достаточно сильный прирост по бенчам. Цену сохранили прежнюю, Anthropic всё ещё упорно отказывается сбрасывать цены, в отличие от всех конкурентов.
По заявлениям Anthropic, новый Sonnet может автономно работать над задачей до 30 часов, предыдущий рекорд — 7 часов. Я не уверен как именно это измеряют, поэтому конкретно к этой части отношусь скептично.
Вместе с моделью обновили Claude Code до версии 2.0. Теперь Claude Code делает чекпоинты кодбазы перед каждым изменением, так что их можно легко откатить. Кроме этого обновили интерфейс и сделали расширение для VS Code. И наконец-то добавили возможность видеть оставшиеся лимиты использования моделей.
@ai_newz
GPT-5 Codex уже побыла лучшей моделью для кодинга уже целых две недели, так что пришло время для нового лидера. Клода ещё больше прокачали в кодинге и агентных тасках, где видно достаточно сильный прирост по бенчам. Цену сохранили прежнюю, Anthropic всё ещё упорно отказывается сбрасывать цены, в отличие от всех конкурентов.
По заявлениям Anthropic, новый Sonnet может автономно работать над задачей до 30 часов, предыдущий рекорд — 7 часов. Я не уверен как именно это измеряют, поэтому конкретно к этой части отношусь скептично.
Вместе с моделью обновили Claude Code до версии 2.0. Теперь Claude Code делает чекпоинты кодбазы перед каждым изменением, так что их можно легко откатить. Кроме этого обновили интерфейс и сделали расширение для VS Code. И наконец-то добавили возможность видеть оставшиеся лимиты использования моделей.
@ai_newz
Forwarded from эйай ньюз
Sora 2: Новая SOTA и AI-TikTok
Sora 2 вышла и, похоже, это новая SOTA. Хотя чем дальше развиваются видеомодели, тем меньше становятся различия между ними. Как и в прошлый раз, Sora вышла с опозданием — после Veo 3 и Kling 2.5 она уже не вызывает такого вау-эффекта. Интересно, что будет на практике и как у неё с пониманием промпта.
Чтобы привнести хоть какую-то инновацию, OpenAI выкатили отдельное приложение для Sora — по сути, свой генеративный TikTok. Кто такое будет смотреть, не совсем понятно, хотя ленты и так уже наполовину генеративные. Вместе с этим челы переизобрели Elements, которые уже почти год являются стандартом индустрии. Но здесь обещают большую консистентность и, что действительно ново, — генерацию голоса. Теперь можно создать полноценного AI-аватара, который ходит по кадру, а не просто говорящую голову. На стриме сказали, что работает с животными и предметами, правда, там же ещё сказали, что в целях безопасности нужно будет пройти серию испытаний. Интересно, как очередной продукт с WB будет зачитывать аудиокод.
Качество генераций в черри-пиках, конечно, бомбическое: физика на уровне, картинка крайне реалистичная — полноценный ответ Veo 3. Но во время теста с аватаром Сэма на стриме лицо всё ещё выглядело жутковато. Зловещую долину пока не перешагнули. Возможно, дело в мешках под глазами Сэма, который, видимо, не спит и пилит AGI.
Судя по промо-роликам, в датасете было очень много видео, снятых на телефон. Может, поэтому и решили сделать AI-соцсеть? Видео выглядят более реалистично, но как у них с киношностью — большой вопрос.
Хигсфилд уже открыли вейтлист пишут, что Sora генерит видео в 1080p (там же правда, видео от комьюнити для презентации, но почему-то от wan 2.2). Если это идёт вкупе с хорошей физикой и коллизиями, и есть шанс, что Sora слушается промпта так же хорошо, как Veo, то это, конечно, разнос. Однако упор OpenAI в продуктовость настораживает, для них это нехарактерно.
Скачать Sora App можно будет уже сегодня, но только на iOS в США и Канаде. Схема доступа: сначала вейтлист, затем можно пригласить 4 друзей.
@ai_newz
Sora 2 вышла и, похоже, это новая SOTA. Хотя чем дальше развиваются видеомодели, тем меньше становятся различия между ними. Как и в прошлый раз, Sora вышла с опозданием — после Veo 3 и Kling 2.5 она уже не вызывает такого вау-эффекта. Интересно, что будет на практике и как у неё с пониманием промпта.
Чтобы привнести хоть какую-то инновацию, OpenAI выкатили отдельное приложение для Sora — по сути, свой генеративный TikTok. Кто такое будет смотреть, не совсем понятно, хотя ленты и так уже наполовину генеративные. Вместе с этим челы переизобрели Elements, которые уже почти год являются стандартом индустрии. Но здесь обещают большую консистентность и, что действительно ново, — генерацию голоса. Теперь можно создать полноценного AI-аватара, который ходит по кадру, а не просто говорящую голову. На стриме сказали, что работает с животными и предметами, правда, там же ещё сказали, что в целях безопасности нужно будет пройти серию испытаний. Интересно, как очередной продукт с WB будет зачитывать аудиокод.
Качество генераций в черри-пиках, конечно, бомбическое: физика на уровне, картинка крайне реалистичная — полноценный ответ Veo 3. Но во время теста с аватаром Сэма на стриме лицо всё ещё выглядело жутковато. Зловещую долину пока не перешагнули. Возможно, дело в мешках под глазами Сэма, который, видимо, не спит и пилит AGI.
Судя по промо-роликам, в датасете было очень много видео, снятых на телефон. Может, поэтому и решили сделать AI-соцсеть? Видео выглядят более реалистично, но как у них с киношностью — большой вопрос.
Хигсфилд уже открыли вейтлист пишут, что Sora генерит видео в 1080p (там же правда, видео от комьюнити для презентации, но почему-то от wan 2.2). Если это идёт вкупе с хорошей физикой и коллизиями, и есть шанс, что Sora слушается промпта так же хорошо, как Veo, то это, конечно, разнос. Однако упор OpenAI в продуктовость настораживает, для них это нехарактерно.
Скачать Sora App можно будет уже сегодня, но только на iOS в США и Канаде. Схема доступа: сначала вейтлист, затем можно пригласить 4 друзей.
@ai_newz
❤1👎1
Forwarded from XOR
Anthropic опубликовали бесплатный гайд, как выжать из ИИ-агентов максимум
Спойлер — всё дело в эффективном контекст-инженеринге: надо правильно структурировать, задавать агенту роль, дробить задачи. Внутри много советов по работе и примеров.
Вайбкодеры, сохраняем☕️
@xor_journal
Спойлер — всё дело в эффективном контекст-инженеринге: надо правильно структурировать, задавать агенту роль, дробить задачи. Внутри много советов по работе и примеров.
Вайбкодеры, сохраняем
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Позволяет создать нативные приложенийяпрямо внутри ChatGPT.
Идея простая: теперь не нужно выходить из ChatGPT, чтобы делать привычные вещи.
Можно прямо в чате работать с дизайном в Figma, создавать презентации в Canva, искать жильё на Booking или смотреть курсы на Coursera — всё в одном окне.
Платформа поддерживает авторизацию, оплату и подключение внешних сервисов,
а значит, ChatGPT становится центром, где совмещаются ИИ, приложения и автоматизация задач.
Скоро разработчики (вайбкодеры) смогут добавлять свои приложения и зарабатывать на них через ChatGPT SDK.
По сути это убийца n8n и Zapier.
Это интуитивно понятный**визуальный конструктор**, где можно создавать своих ИИ-агентов без единой строчки кода.
Просто перетаскиваешь блоки, подключаешь MCP и ChatKit — и агент сам ищет файлы, анализирует данные и выполняет задачи.
Инструмент уже доступен всем.
OpenAi умеют в дизайн, должно быть удобно.
Можно уже попробовать: https://platform.openai.com/agent-builder
Вышел из беты, получил интеграцию со Slack и собственный SDK.
На демо агент управлял светом и экраном голосом - без кода.
На презентации заявили, что теперь почти весь их код пишется с помощью Codex
Благодаря Codex разработчики OpenAI стали отправлять на 70% больше pull-request’ов в неделю, чем раньше.
Теперь у кодекса появляется интеграция со Slack и SDK, чтобы разработчики могли встраивать его в свои рабочие процессы.
Прямо в эфире Codex написал код для управления камерой, сам собрал интерфейс и **запустил готовое при
$15 за ввод и $120 за вывод за 1M токенов
Gpt-realtime-mini - на 70% дешевле, подходит для мгновенных ответов и потоковых задач
Можно будет генерировать видео прямо из кода
PS: Agent Builder выглядит действительно интересно - интуитивный, гибкий, инструмент с большим потенциало
м.
А вот насколько полезными окажутся приложения внутри ChatGPT, не особо понятно.
OpenAI не боится экспериментировать.
Они развивают ChatGPT как платформу, ищут
новые варианты захвата рынка и пробуют смелые идеи. Это дорогого стоит.
Их интерфейс просто топ: минимализм, аккуратность, почти в духе Apple. UX - на уровне искусства.
У OpenAI уже более 800 млн активных пользователей в неделю и они обрабатывают 6 миллиардов токенов в минуту!
К концу года число пользователей, похоже, вплотную подойдёт к 1 миллиарду.
Но гонка только начинается.
Google явно готовит ответ - Gemini 3 обещает быть топом. Другие игроки тоже не дремлют.
@ai_machinelearning_big_data
#openai #chatgpt #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1🔥1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Создание AI-агентов становится одной из самых востребованных профессий на рынке.
Теперь вы можете научиться этом на курсе.
Курс научит вас реализовывать четыре ключевых паттерна дизайна агентов:
- Reflection - как агент анализирует свои ответы и улучшает их
- Tool use - модель выбирает, какие инструменты использовать (поиск, почта, календарь, код и т.д.)
- **Planning**- ИИ планирует и разбивает задачу на подзадачи
- Multi-agent collaboration - взаимодействие нескольких агентов, как сотрудников в команде
Andrew Ng делает акцент на оценке (evals) и анализе ошибок - ключевых навыках для успешной отладки агентных систем.
В курсе есть практика, где можно создадите deep research-агента, который умеет искать, синтезировать и формировать отчёты, применяя все эти паттерны.
- Все уроки и код на Python
- Очень подробно и пошагало объяснены все вунтренности
- В курсе рассматриваются для самые популярные фреймворками для создания ИИ агентнов
Требование для учащихся - базовые знания Python
@ai_machinelearning_big_data
#AI #AgenticAI #AndrewNg #DeepLearningAI #AIagents
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥2