Яндекс Погода научилась прогнозировать грозы и показывать молнии в реальном времени
У ML-команды Яндекса вышел новый разбор: рассказали, как решали задачу прогноза гроз с опорой на данные о молниях и выкатывали обновление в продакшен. Сейчас Погода предупреждает о грозе с шагом в 10 минут и показывает молнии на карте в реальном времени.
Что интересного сделали:
1. Дообучили рабочую модель без деградации качества
Когда добавляли новую модальность — прогноз гроз по архивным данным с грозопеленгаторов — заморозили веса блока осадков и обучали только новые компоненты. Это позволило сохранить точность осадков и не испортить ранее выстроенные зависимости.
2. Переосмыслили работу с редкими событиями для обучения
Вместо использования точек с координатами ударов молний модель предсказывает вероятность грозовой активности в ячейках сетки с шагом по времени в 10 минут. Это сглаживает хаотичность обучающих данных и повышает устойчивость модели.
3. Обновили архитектуру: PredRNN++ → Temporal Attention Unit
Отказались от авторегрессинной архитектуры в пользу трансформера с вниманием по времени. В итоге улучшилась точность прогноза и ускорился inference.
4. Настроили лоссы для сегментации границ
Для выделения областей с вероятностью возникновения гроз использовали комбинацию BCE, Dice и Contour Loss. Последняя функция улучшает качество предсказаний по границам туч
5. Объединил мультимодальные источники
Тут объединили данные с радаров, спутников и грозопеленгаторов с предварительной калибровкой и выравниванием → система стала устойчивее к шуму и пропускам в отдельных каналах.
Подводя итог: кейс будет интересен специалистам из ИБ, медицины, финтеха, RecSys и компьютерного зрения и всем, кто работает с редкими событиями, мультимодальными данными и дообучением моделей — есть что перенять по части инженерных решений. Покопать статью
У ML-команды Яндекса вышел новый разбор: рассказали, как решали задачу прогноза гроз с опорой на данные о молниях и выкатывали обновление в продакшен. Сейчас Погода предупреждает о грозе с шагом в 10 минут и показывает молнии на карте в реальном времени.
Что интересного сделали:
1. Дообучили рабочую модель без деградации качества
Когда добавляли новую модальность — прогноз гроз по архивным данным с грозопеленгаторов — заморозили веса блока осадков и обучали только новые компоненты. Это позволило сохранить точность осадков и не испортить ранее выстроенные зависимости.
2. Переосмыслили работу с редкими событиями для обучения
Вместо использования точек с координатами ударов молний модель предсказывает вероятность грозовой активности в ячейках сетки с шагом по времени в 10 минут. Это сглаживает хаотичность обучающих данных и повышает устойчивость модели.
3. Обновили архитектуру: PredRNN++ → Temporal Attention Unit
Отказались от авторегрессинной архитектуры в пользу трансформера с вниманием по времени. В итоге улучшилась точность прогноза и ускорился inference.
4. Настроили лоссы для сегментации границ
Для выделения областей с вероятностью возникновения гроз использовали комбинацию BCE, Dice и Contour Loss. Последняя функция улучшает качество предсказаний по границам туч
5. Объединил мультимодальные источники
Тут объединили данные с радаров, спутников и грозопеленгаторов с предварительной калибровкой и выравниванием → система стала устойчивее к шуму и пропускам в отдельных каналах.
Подводя итог: кейс будет интересен специалистам из ИБ, медицины, финтеха, RecSys и компьютерного зрения и всем, кто работает с редкими событиями, мультимодальными данными и дообучением моделей — есть что перенять по части инженерных решений. Покопать статью
Хабр
Как мы научились прогнозировать грозы на карте осадков в Яндекс Погоде
Экстремальные погодные явления оказывают большое влияние на нашу жизнь. Это может проявляться в бытовых вещах, просто чтобы не попасть под сильный ливень или грозу....
❤3🤔1
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini CLI — официальный агент для Gemini от Google
Использовать можно бесплатно просто залогинившись с аккаунтом Google — дают до 60 запросов в минуту к Gemini 2.5 Pro и до тысячи в день. Такой щедрости не проявляет ни Codex ни Claude Code. Есть поддержка MCP, которая позволяет подключать туда сторонние тулы. Гугл даже запилил MCP серверы для взаимодействия с Veo/Imagen/Lyria.
Доступен код по лицензии Apache 2.0, так что с ним можно делать всё что угодно. А вот в апстрим залить что-либо будет сильно сложнее — у гугла очень специфическая политика по поводу сторонних контрибьюторов.
Блогпост
Исходники
@ai_newz
Использовать можно бесплатно просто залогинившись с аккаунтом Google — дают до 60 запросов в минуту к Gemini 2.5 Pro и до тысячи в день. Такой щедрости не проявляет ни Codex ни Claude Code. Есть поддержка MCP, которая позволяет подключать туда сторонние тулы. Гугл даже запилил MCP серверы для взаимодействия с Veo/Imagen/Lyria.
Доступен код по лицензии Apache 2.0, так что с ним можно делать всё что угодно. А вот в апстрим залить что-либо будет сильно сложнее — у гугла очень специфическая политика по поводу сторонних контрибьюторов.
npm install -g @google/gemini-cli
Блогпост
Исходники
@ai_newz
1👎2❤1🔥1
Forwarded from Life2film
Посмотрел новое видео от Андрея Карпатого и решил поделиться саммари:
Три эпохи программирования:
* Software 1.0 — традиционный код, который мы пишем руками
* Software 2.0 — нейронные сети и их веса
* Software 3.0 — LLM, программируемые промптами на естественном языке
LLM = новые операционные системы
Карпатый проводит мощную аналогию: мы сейчас в "1960-х годах компьютеров" для ИИ. Дорогие вычисления заставляют держать LLM в облаке, а мы все — тонкие клиенты, работающие по принципу time-sharing.
⚡ Революция "Vibe Coding"
Теперь каждый может программировать! Не нужно 5-10 лет изучать языки программирования. Карпатый за день создал iOS приложение, не зная Swift. Естественный язык стал языком программирования.
Partial Autonomy Apps — будущее
Успешные ИИ-приложения имеют:
* Автоматическое управление контекстом
* Оркестрацию нескольких моделей
* Специализированный GUI для аудита
* Слайдер автономии (пользователь контролирует уровень ИИ)
Принципы работы с ИИ:
* ИИ генерирует → человек верифицирует
* Работать небольшими порциями
* Ускорять верификацию через визуальные интерфейсы
* Держать ИИ "на поводке" — не давать слишком много автономии
Почему это важно:
* Программное обеспечение не менялось 70 лет, а теперь меняется дважды за несколько лет
* Огромное количество кода нужно переписать
* Беспрецедентные возможности для новых разработчиков
* Мы в начале "десятилетия агентов"
💡 Главный вывод:
В отличие от всех предыдущих технологий (электричество, интернет), ИИ сначала дошел до потребителей, а не к корпорациям. У каждого из нас есть "магический компьютер", который помогает варить яйца, а не решать военные задачи.
Мы живем в уникальное время фундаментального сдвига в программировании. Время действовать!
https://youtu.be/LCEmiRjPEtQ?si=TSnghOHX_erK45jJ
Три эпохи программирования:
* Software 1.0 — традиционный код, который мы пишем руками
* Software 2.0 — нейронные сети и их веса
* Software 3.0 — LLM, программируемые промптами на естественном языке
LLM = новые операционные системы
Карпатый проводит мощную аналогию: мы сейчас в "1960-х годах компьютеров" для ИИ. Дорогие вычисления заставляют держать LLM в облаке, а мы все — тонкие клиенты, работающие по принципу time-sharing.
⚡ Революция "Vibe Coding"
Теперь каждый может программировать! Не нужно 5-10 лет изучать языки программирования. Карпатый за день создал iOS приложение, не зная Swift. Естественный язык стал языком программирования.
Partial Autonomy Apps — будущее
Успешные ИИ-приложения имеют:
* Автоматическое управление контекстом
* Оркестрацию нескольких моделей
* Специализированный GUI для аудита
* Слайдер автономии (пользователь контролирует уровень ИИ)
Принципы работы с ИИ:
* ИИ генерирует → человек верифицирует
* Работать небольшими порциями
* Ускорять верификацию через визуальные интерфейсы
* Держать ИИ "на поводке" — не давать слишком много автономии
Почему это важно:
* Программное обеспечение не менялось 70 лет, а теперь меняется дважды за несколько лет
* Огромное количество кода нужно переписать
* Беспрецедентные возможности для новых разработчиков
* Мы в начале "десятилетия агентов"
💡 Главный вывод:
В отличие от всех предыдущих технологий (электричество, интернет), ИИ сначала дошел до потребителей, а не к корпорациям. У каждого из нас есть "магический компьютер", который помогает варить яйца, а не решать военные задачи.
Мы живем в уникальное время фундаментального сдвига в программировании. Время действовать!
https://youtu.be/LCEmiRjPEtQ?si=TSnghOHX_erK45jJ
YouTube
Andrej Karpathy: Software Is Changing (Again)
Andrej Karpathy's keynote on June 17, 2025 at AI Startup School in San Francisco. Slides provided by Andrej: https://drive.google.com/file/d/1a0h1mkwfmV2PlekxDN8isMrDA5evc4wW/view?usp=sharing
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
Chapters:
00:00 - Intro
01:25 - Software evolution: From 1.0 to…
❤5🔥4
Forwarded from Machinelearning
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4)
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
Младшая модель может запускаться даже на локальном железе!
https://github.com/huggingface/transformers/releases/tag/v4.55.0
🚀 Попробовать можно тут: https://www.gpt-oss.com/
@ai_machinelearning_big_data
#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🥰1
Forwarded from Нейронавт | Нейросети в творчестве
GPT-5: все что вам нужно знать
Основные изменения:
➖ GPT-5 превосходит предыдущие модели по точности, скорости и глубине анализа.
➖ Один запрос создает готовое решение: сайт, приложение, игру.
➖ Расширенное контекстное мышление: справляется с длинными задачами и задает уточняющие вопросы.
➖ Снижены «галлюцинации», повышая надежность.
➖ Бесплатный доступ для всех, для Pro - без лимитов.
Ключевые особенности:
➖ Объединяет все предыдущие версии, работает быстрее и точнее.
➖ Пишет сайты, приложения и игры по одному запросу.
➖ Переключается между быстрым и «думающим» режимами.
➖ Улучшена в кодинге, знает новые API.
➖ Самая мощная модель по метрикам LM Arena.
Версии:
➖ GPT-5 — флагманская версия для сложных логических и многоэтапных задач
➖ GPT-5-mini — облегченная версия с балансом производительности и стоимости
➖ GPT-5-nano — сверхбыстрая версия для задач с низкой задержкой (только через API)
➖ GPT-5-chat — специализированная версия для корпоративных диалоговых систем
Мультимодальность и безопасность:
➖ Интеграция с изображениями, аудио и видео.
➖ Лучшее распознавание визуальных структур.
➖ Встроенные guardrails снижают риск jailbreak'ов.
API и настройка:
➖ Поддержка длительной памяти до 256K токенов.
➖ Настройка через custom GPTs и function calling 2.0.
➖ Выход на CPU и edge-устройствах ожидается в 2026.
Cursor
Copilot
API
Попробовать
Кто уже наложил руки - делитесь впечатлениями
#news #assistant
Основные изменения:
➖ GPT-5 превосходит предыдущие модели по точности, скорости и глубине анализа.
➖ Один запрос создает готовое решение: сайт, приложение, игру.
➖ Расширенное контекстное мышление: справляется с длинными задачами и задает уточняющие вопросы.
➖ Снижены «галлюцинации», повышая надежность.
➖ Бесплатный доступ для всех, для Pro - без лимитов.
Ключевые особенности:
➖ Объединяет все предыдущие версии, работает быстрее и точнее.
➖ Пишет сайты, приложения и игры по одному запросу.
➖ Переключается между быстрым и «думающим» режимами.
➖ Улучшена в кодинге, знает новые API.
➖ Самая мощная модель по метрикам LM Arena.
Версии:
➖ GPT-5 — флагманская версия для сложных логических и многоэтапных задач
➖ GPT-5-mini — облегченная версия с балансом производительности и стоимости
➖ GPT-5-nano — сверхбыстрая версия для задач с низкой задержкой (только через API)
➖ GPT-5-chat — специализированная версия для корпоративных диалоговых систем
Мультимодальность и безопасность:
➖ Интеграция с изображениями, аудио и видео.
➖ Лучшее распознавание визуальных структур.
➖ Встроенные guardrails снижают риск jailbreak'ов.
API и настройка:
➖ Поддержка длительной памяти до 256K токенов.
➖ Настройка через custom GPTs и function calling 2.0.
➖ Выход на CPU и edge-устройствах ожидается в 2026.
Cursor
Copilot
API
Попробовать
Кто уже наложил руки - делитесь впечатлениями
#news #assistant
👍5👎1😁1
Forwarded from XOR
Для GPT-5 выпустили официальный гайд по промптам
Внутри cookbook openai теперь есть готовые примеры, инструкции и советы по использованию модели. А здесь лежит системный промпт GPT-5.
Изучаем, забираем себе полезные фишечки, пользуемся👍
@xor_journal
Внутри cookbook openai теперь есть готовые примеры, инструкции и советы по использованию модели. А здесь лежит системный промпт GPT-5.
Изучаем, забираем себе полезные фишечки, пользуемся
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Фей-Фей Ли хвастается world model своего стартапа — World Labs
Для генерации всего мира понадобилась всего лишь одна картинка, причём по видео видно что консистентность на высоте — модель не забывает детали локации как только пользователь отвернулся, ну и длина генерации не ограничена.
@ai_newz
Для генерации всего мира понадобилась всего лишь одна картинка, причём по видео видно что консистентность на высоте — модель не забывает детали локации как только пользователь отвернулся, ну и длина генерации не ограничена.
@ai_newz
👍3👎2
Forwarded from XOR
Сеньор-инженер из Google выпустил 400-страничный (!) гайд по архитектурным паттернам для AI-агентов — Agentic Design Patterns.
Внутри как правильно строить промпты, параллелить задачи, Также есть практические примеры с кодом, разбор MCP и многое другое.
Забираем🫡
@xor_journal
Внутри как правильно строить промпты, параллелить задачи, Также есть практические примеры с кодом, разбор MCP и многое другое.
Забираем
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥1
Forwarded from Data Secrets
Sakana AI сделали опенсорсный аналог AlphaEvolve – ShinkaEvolve
Это фреймворк для оптимизации и разработки сложных алгоритмов и архитектур. И, так как Sakana везде пытаются применять идеи эволюции (см этот пост со списком их статей), здесь без этого тоже не обошлось. «Shinka» (進化) с японского и есть "эволюция".
Работает это как нечто среднее между обычным генетическим алгоритмом и LLM-ным поиском по дереву:
Оставшихся прогоняем через оценщика и лучших добавляем в архив. А дальше – все с начала. Кстати, в архиве есть «острова» (несколько независимых популяций). Если система совсем встает в тупик и разнообразие решений начинает падать – можно осуществить между ними миграцию. Интересный инженерный ход.
Тестировали в четырех разничных областях. Результаты занятные:
1. На задаче математической оптимизации всего за 150 сэмплов система вывела новое решение для задачи Circle Packing, превосходящее аналогичные подходы.
2. При проектировании ИИ-агента за ~75 поколений фреймворк "изобрел" трехчастную архитектуру, которая побила бейзлайн на AIME.
3. На задачках из спортивного программирования система добавила много полезных оптимизаций, и в итоге дотянула до уровня серебрянного медалиста.
4. И еще проверяли, насколько хорошо ShinkaEvolve сможет обучить другую LLM. Это самое интересное: примерно 30 поколений система билась с лоссом для MoE, и внезапно вывела функцию потерь, которая по эффективности превзошла многие популярные решения.
И главное: в отличие от AlphaEvolve воспользоваться фреймворком можно прямо сейчас и бесплатно. Код вот тут. Просто переписываете
Это фреймворк для оптимизации и разработки сложных алгоритмов и архитектур. И, так как Sakana везде пытаются применять идеи эволюции (см этот пост со списком их статей), здесь без этого тоже не обошлось. «Shinka» (進化) с японского и есть "эволюция".
Работает это как нечто среднее между обычным генетическим алгоритмом и LLM-ным поиском по дереву:
1. Система получает на вход Seed-программу и верификатор, который считает метрики качества (фитнес). На каждом шаге свежие полученные скрипты добавляются в единый архив (это наш "банк" родителей).
2. LLM тут выступает мутационным оператором: на каждом шаге из банка берутся один или два родителя, и модель предлагает какие-то изменения в их коде в одном из определенных режимов: diff-патч поверх родителя, полная перезапись, кроссовер (смешивание идей из двух программ). Кстати, LLM выбирается не всегда одна и та же: есть специальный многорукий бандит, который смотрит, кто чаще приносит улучшения на данном типе задач при приемлемой цене, и подстраивает приоритеты.
3. Полученных кандидатов прогоняют через верификатор, но сначала они проходят дополнительный фильтр novelty-rejection. Считаются эмбеддинги программы, проверяется похожесть на архив. Слишком похожие идеи отбраковываются ещё до рассчета метрик, это резко экономит время и деньги.
Оставшихся прогоняем через оценщика и лучших добавляем в архив. А дальше – все с начала. Кстати, в архиве есть «острова» (несколько независимых популяций). Если система совсем встает в тупик и разнообразие решений начинает падать – можно осуществить между ними миграцию. Интересный инженерный ход.
Тестировали в четырех разничных областях. Результаты занятные:
1. На задаче математической оптимизации всего за 150 сэмплов система вывела новое решение для задачи Circle Packing, превосходящее аналогичные подходы.
2. При проектировании ИИ-агента за ~75 поколений фреймворк "изобрел" трехчастную архитектуру, которая побила бейзлайн на AIME.
3. На задачках из спортивного программирования система добавила много полезных оптимизаций, и в итоге дотянула до уровня серебрянного медалиста.
4. И еще проверяли, насколько хорошо ShinkaEvolve сможет обучить другую LLM. Это самое интересное: примерно 30 поколений система билась с лоссом для MoE, и внезапно вывела функцию потерь, которая по эффективности превзошла многие популярные решения.
И главное: в отличие от AlphaEvolve воспользоваться фреймворком можно прямо сейчас и бесплатно. Код вот тут. Просто переписываете
evaluate.py под вашу задачу, кладете initial.py и запускаете shinka_launch variant=experiment_name. Подробная инструкция тут.❤5👎1
Forwarded from эйай ньюз
Claude Sonnet 4.5
GPT-5 Codex уже побыла лучшей моделью для кодинга уже целых две недели, так что пришло время для нового лидера. Клода ещё больше прокачали в кодинге и агентных тасках, где видно достаточно сильный прирост по бенчам. Цену сохранили прежнюю, Anthropic всё ещё упорно отказывается сбрасывать цены, в отличие от всех конкурентов.
По заявлениям Anthropic, новый Sonnet может автономно работать над задачей до 30 часов, предыдущий рекорд — 7 часов. Я не уверен как именно это измеряют, поэтому конкретно к этой части отношусь скептично.
Вместе с моделью обновили Claude Code до версии 2.0. Теперь Claude Code делает чекпоинты кодбазы перед каждым изменением, так что их можно легко откатить. Кроме этого обновили интерфейс и сделали расширение для VS Code. И наконец-то добавили возможность видеть оставшиеся лимиты использования моделей.
@ai_newz
GPT-5 Codex уже побыла лучшей моделью для кодинга уже целых две недели, так что пришло время для нового лидера. Клода ещё больше прокачали в кодинге и агентных тасках, где видно достаточно сильный прирост по бенчам. Цену сохранили прежнюю, Anthropic всё ещё упорно отказывается сбрасывать цены, в отличие от всех конкурентов.
По заявлениям Anthropic, новый Sonnet может автономно работать над задачей до 30 часов, предыдущий рекорд — 7 часов. Я не уверен как именно это измеряют, поэтому конкретно к этой части отношусь скептично.
Вместе с моделью обновили Claude Code до версии 2.0. Теперь Claude Code делает чекпоинты кодбазы перед каждым изменением, так что их можно легко откатить. Кроме этого обновили интерфейс и сделали расширение для VS Code. И наконец-то добавили возможность видеть оставшиеся лимиты использования моделей.
@ai_newz
Forwarded from эйай ньюз
Sora 2: Новая SOTA и AI-TikTok
Sora 2 вышла и, похоже, это новая SOTA. Хотя чем дальше развиваются видеомодели, тем меньше становятся различия между ними. Как и в прошлый раз, Sora вышла с опозданием — после Veo 3 и Kling 2.5 она уже не вызывает такого вау-эффекта. Интересно, что будет на практике и как у неё с пониманием промпта.
Чтобы привнести хоть какую-то инновацию, OpenAI выкатили отдельное приложение для Sora — по сути, свой генеративный TikTok. Кто такое будет смотреть, не совсем понятно, хотя ленты и так уже наполовину генеративные. Вместе с этим челы переизобрели Elements, которые уже почти год являются стандартом индустрии. Но здесь обещают большую консистентность и, что действительно ново, — генерацию голоса. Теперь можно создать полноценного AI-аватара, который ходит по кадру, а не просто говорящую голову. На стриме сказали, что работает с животными и предметами, правда, там же ещё сказали, что в целях безопасности нужно будет пройти серию испытаний. Интересно, как очередной продукт с WB будет зачитывать аудиокод.
Качество генераций в черри-пиках, конечно, бомбическое: физика на уровне, картинка крайне реалистичная — полноценный ответ Veo 3. Но во время теста с аватаром Сэма на стриме лицо всё ещё выглядело жутковато. Зловещую долину пока не перешагнули. Возможно, дело в мешках под глазами Сэма, который, видимо, не спит и пилит AGI.
Судя по промо-роликам, в датасете было очень много видео, снятых на телефон. Может, поэтому и решили сделать AI-соцсеть? Видео выглядят более реалистично, но как у них с киношностью — большой вопрос.
Хигсфилд уже открыли вейтлист пишут, что Sora генерит видео в 1080p (там же правда, видео от комьюнити для презентации, но почему-то от wan 2.2). Если это идёт вкупе с хорошей физикой и коллизиями, и есть шанс, что Sora слушается промпта так же хорошо, как Veo, то это, конечно, разнос. Однако упор OpenAI в продуктовость настораживает, для них это нехарактерно.
Скачать Sora App можно будет уже сегодня, но только на iOS в США и Канаде. Схема доступа: сначала вейтлист, затем можно пригласить 4 друзей.
@ai_newz
Sora 2 вышла и, похоже, это новая SOTA. Хотя чем дальше развиваются видеомодели, тем меньше становятся различия между ними. Как и в прошлый раз, Sora вышла с опозданием — после Veo 3 и Kling 2.5 она уже не вызывает такого вау-эффекта. Интересно, что будет на практике и как у неё с пониманием промпта.
Чтобы привнести хоть какую-то инновацию, OpenAI выкатили отдельное приложение для Sora — по сути, свой генеративный TikTok. Кто такое будет смотреть, не совсем понятно, хотя ленты и так уже наполовину генеративные. Вместе с этим челы переизобрели Elements, которые уже почти год являются стандартом индустрии. Но здесь обещают большую консистентность и, что действительно ново, — генерацию голоса. Теперь можно создать полноценного AI-аватара, который ходит по кадру, а не просто говорящую голову. На стриме сказали, что работает с животными и предметами, правда, там же ещё сказали, что в целях безопасности нужно будет пройти серию испытаний. Интересно, как очередной продукт с WB будет зачитывать аудиокод.
Качество генераций в черри-пиках, конечно, бомбическое: физика на уровне, картинка крайне реалистичная — полноценный ответ Veo 3. Но во время теста с аватаром Сэма на стриме лицо всё ещё выглядело жутковато. Зловещую долину пока не перешагнули. Возможно, дело в мешках под глазами Сэма, который, видимо, не спит и пилит AGI.
Судя по промо-роликам, в датасете было очень много видео, снятых на телефон. Может, поэтому и решили сделать AI-соцсеть? Видео выглядят более реалистично, но как у них с киношностью — большой вопрос.
Хигсфилд уже открыли вейтлист пишут, что Sora генерит видео в 1080p (там же правда, видео от комьюнити для презентации, но почему-то от wan 2.2). Если это идёт вкупе с хорошей физикой и коллизиями, и есть шанс, что Sora слушается промпта так же хорошо, как Veo, то это, конечно, разнос. Однако упор OpenAI в продуктовость настораживает, для них это нехарактерно.
Скачать Sora App можно будет уже сегодня, но только на iOS в США и Канаде. Схема доступа: сначала вейтлист, затем можно пригласить 4 друзей.
@ai_newz
❤1👎1
Forwarded from XOR
Anthropic опубликовали бесплатный гайд, как выжать из ИИ-агентов максимум
Спойлер — всё дело в эффективном контекст-инженеринге: надо правильно структурировать, задавать агенту роль, дробить задачи. Внутри много советов по работе и примеров.
Вайбкодеры, сохраняем☕️
@xor_journal
Спойлер — всё дело в эффективном контекст-инженеринге: надо правильно структурировать, задавать агенту роль, дробить задачи. Внутри много советов по работе и примеров.
Вайбкодеры, сохраняем
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Позволяет создать нативные приложенийяпрямо внутри ChatGPT.
Идея простая: теперь не нужно выходить из ChatGPT, чтобы делать привычные вещи.
Можно прямо в чате работать с дизайном в Figma, создавать презентации в Canva, искать жильё на Booking или смотреть курсы на Coursera — всё в одном окне.
Платформа поддерживает авторизацию, оплату и подключение внешних сервисов,
а значит, ChatGPT становится центром, где совмещаются ИИ, приложения и автоматизация задач.
Скоро разработчики (вайбкодеры) смогут добавлять свои приложения и зарабатывать на них через ChatGPT SDK.
По сути это убийца n8n и Zapier.
Это интуитивно понятный**визуальный конструктор**, где можно создавать своих ИИ-агентов без единой строчки кода.
Просто перетаскиваешь блоки, подключаешь MCP и ChatKit — и агент сам ищет файлы, анализирует данные и выполняет задачи.
Инструмент уже доступен всем.
OpenAi умеют в дизайн, должно быть удобно.
Можно уже попробовать: https://platform.openai.com/agent-builder
Вышел из беты, получил интеграцию со Slack и собственный SDK.
На демо агент управлял светом и экраном голосом - без кода.
На презентации заявили, что теперь почти весь их код пишется с помощью Codex
Благодаря Codex разработчики OpenAI стали отправлять на 70% больше pull-request’ов в неделю, чем раньше.
Теперь у кодекса появляется интеграция со Slack и SDK, чтобы разработчики могли встраивать его в свои рабочие процессы.
Прямо в эфире Codex написал код для управления камерой, сам собрал интерфейс и **запустил готовое при
$15 за ввод и $120 за вывод за 1M токенов
Gpt-realtime-mini - на 70% дешевле, подходит для мгновенных ответов и потоковых задач
Можно будет генерировать видео прямо из кода
PS: Agent Builder выглядит действительно интересно - интуитивный, гибкий, инструмент с большим потенциало
м.
А вот насколько полезными окажутся приложения внутри ChatGPT, не особо понятно.
OpenAI не боится экспериментировать.
Они развивают ChatGPT как платформу, ищут
новые варианты захвата рынка и пробуют смелые идеи. Это дорогого стоит.
Их интерфейс просто топ: минимализм, аккуратность, почти в духе Apple. UX - на уровне искусства.
У OpenAI уже более 800 млн активных пользователей в неделю и они обрабатывают 6 миллиардов токенов в минуту!
К концу года число пользователей, похоже, вплотную подойдёт к 1 миллиарду.
Но гонка только начинается.
Google явно готовит ответ - Gemini 3 обещает быть топом. Другие игроки тоже не дремлют.
@ai_machinelearning_big_data
#openai #chatgpt #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1🔥1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Создание AI-агентов становится одной из самых востребованных профессий на рынке.
Теперь вы можете научиться этом на курсе.
Курс научит вас реализовывать четыре ключевых паттерна дизайна агентов:
- Reflection - как агент анализирует свои ответы и улучшает их
- Tool use - модель выбирает, какие инструменты использовать (поиск, почта, календарь, код и т.д.)
- **Planning**- ИИ планирует и разбивает задачу на подзадачи
- Multi-agent collaboration - взаимодействие нескольких агентов, как сотрудников в команде
Andrew Ng делает акцент на оценке (evals) и анализе ошибок - ключевых навыках для успешной отладки агентных систем.
В курсе есть практика, где можно создадите deep research-агента, который умеет искать, синтезировать и формировать отчёты, применяя все эти паттерны.
- Все уроки и код на Python
- Очень подробно и пошагало объяснены все вунтренности
- В курсе рассматриваются для самые популярные фреймворками для создания ИИ агентнов
Требование для учащихся - базовые знания Python
@ai_machinelearning_big_data
#AI #AgenticAI #AndrewNg #DeepLearningAI #AIagents
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥2
Forwarded from Нейронавт | Нейросети в творчестве
Tiny Recursive Model (TRM)
Samsung придумал новую архитектуру рекурсивного мышления для построения языковых моделей, которая при размере всего 7М параметров (!!!) — оказалась круче DeepSeek-R1, Gemini 2.5 Pro и o3-mini в тестах на логику и мышление.
Работает так:
1. Делает первый черновой ответ.
2. Думает над ним внутри себя.
3. Проверяет и исправляет свои мысли.
4. Перерабатывает ответ, чтобы он был точнее.
5. Повторяет, пока не будет уверен в своем решении.
* Маленькая: всего 7 миллионов параметров, это в 10 000 раз меньше, чем у современных LLM
* Эффективная: работает лучше больших моделей, но требует меньше ресурсов.
* Логика важнее всего: TRM показывает, что хорошая архитектура важнее объема данных.
* Доступная: может работать на слабых устройствах, не нужны мощные сервера.
Неплохо, в следующем году будем пользоваться модельками уровня DeepSeek локально на телефоне?
Гитхаб
Препринт
#research #llm #TRM
Samsung придумал новую архитектуру рекурсивного мышления для построения языковых моделей, которая при размере всего 7М параметров (!!!) — оказалась круче DeepSeek-R1, Gemini 2.5 Pro и o3-mini в тестах на логику и мышление.
Работает так:
1. Делает первый черновой ответ.
2. Думает над ним внутри себя.
3. Проверяет и исправляет свои мысли.
4. Перерабатывает ответ, чтобы он был точнее.
5. Повторяет, пока не будет уверен в своем решении.
* Маленькая: всего 7 миллионов параметров, это в 10 000 раз меньше, чем у современных LLM
* Эффективная: работает лучше больших моделей, но требует меньше ресурсов.
* Логика важнее всего: TRM показывает, что хорошая архитектура важнее объема данных.
* Доступная: может работать на слабых устройствах, не нужны мощные сервера.
Неплохо, в следующем году будем пользоваться модельками уровня DeepSeek локально на телефоне?
Гитхаб
Препринт
#research #llm #TRM
👎4🤯3
Forwarded from Neurogen (muzaffar)
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпустили недавно гайд по промптингу Sora 2. Нашел для вас готовый, собранный шаблон, по сути главный и самый лучший.
Свое видео сгенерированное по шаблону прикрепил к посту
Шаблон
Мой промпт к видео в посте:
И вот вам еще один сайт на котором можно получить код https://formbiz.biz/
Гайд по промпту
Свое видео сгенерированное по шаблону прикрепил к посту
Шаблон
[Prose scene denoscription in plain language. Describe characters, costumes, scenery, weather and other details. Be as denoscriptive to generate a video that matches your vision.]
Cinematography:
Camera shot: [framing and angle, e.g. wide establishing shot, eye level]
Mood: [overall tone, e.g. cinematic and tense, playful and suspenseful, luxurious anticipation]
Actions:
- [Action 1: a clear, specific beat or gesture]
- [Action 2: another distinct beat within the clip]
- [Action 3: another action or dialogue line]
Dialogue:
[If the shot has dialogue, add short natural lines here or as part of the actions list. Keep them brief so they match the clip length.]
Мой промпт к видео в посте:
[Prose scene denoscription in plain language]
A young woman stands on the rooftop of a neon-lit Tokyo building at night. Her silver jacket reflects the glow of digital billboards, and rain gently falls around her. The city stretches infinitely below — cars, lights, and holographic ads painting the skyline. Steam rises from nearby vents as wind blows strands of her wet hair across her face.
Cinematography:
Camera shot: Medium close-up, slowly dolly out to reveal the cityscape behind her.
Mood: Cinematic and melancholic, with a sense of quiet determination.
Actions:
She looks down at a glowing holographic wrist display, scanning incoming data.
She exhales, closes her eyes briefly, and lifts her head toward the horizon.
She whispers softly, “It’s time.”
Dialogue:
“It’s time.”
И вот вам еще один сайт на котором можно получить код https://formbiz.biz/
Гайд по промпту