🔮📈 Prophet Arena
Бенчмарк на котором LLM предсказывают ещё не случившиеся события из prediction markets. Оценивают по 1−Brier (насколько честно калибрована вероятность) и по Average Return (сколько бы вы заработали при выбранном risk profile).
🤔 Зачем это нам
Обычные тесты - про прошлое. Prophet Arena про то, что происходит в реальном мире: модель ставит на вероятность события до того, как оно совершилось, а лидерборд обновляется по факту.
⚙️ Как устроено
Собирают новости и цены с рынков (контекст одинаковый для всех моделей) → модель выдаёт распределение вероятностей + краткое обоснование → после исхода событие оценивают и обновляют лидерборд.
📊 Две оси
• 1−Brier: выше = лучше калибровка/точность вероятностей (на сайте так и показывают - «1 минус классический Brier»).
• Average Return: симуляция прибыли, если следовать вероятностям модели; на лидерборде можно крутить Risk Aversion (γ) и смотреть, как меняются места.
⚽️ Живой пример
Матч MLS San Diego FC — Toronto FC: o3-mini даёт 30% на Торонто, рынок — 11%. Edge ≈ 3× → ставка $1 превратилась в $9, когда Торонто реально выиграл. Отличная иллюстрация, почему высокий Return может прийти без топового Brier.
✅ Итог
Prophet Arena позволяет смотреть на точность и деньги одновременно - так проще понять, когда модели реально полезны.
Ссылка
Расскажите в комментариях что еще могут предсказывать LLM?
Бенчмарк на котором LLM предсказывают ещё не случившиеся события из prediction markets. Оценивают по 1−Brier (насколько честно калибрована вероятность) и по Average Return (сколько бы вы заработали при выбранном risk profile).
🤔 Зачем это нам
Обычные тесты - про прошлое. Prophet Arena про то, что происходит в реальном мире: модель ставит на вероятность события до того, как оно совершилось, а лидерборд обновляется по факту.
⚙️ Как устроено
Собирают новости и цены с рынков (контекст одинаковый для всех моделей) → модель выдаёт распределение вероятностей + краткое обоснование → после исхода событие оценивают и обновляют лидерборд.
📊 Две оси
• 1−Brier: выше = лучше калибровка/точность вероятностей (на сайте так и показывают - «1 минус классический Brier»).
• Average Return: симуляция прибыли, если следовать вероятностям модели; на лидерборде можно крутить Risk Aversion (γ) и смотреть, как меняются места.
⚽️ Живой пример
Матч MLS San Diego FC — Toronto FC: o3-mini даёт 30% на Торонто, рынок — 11%. Edge ≈ 3× → ставка $1 превратилась в $9, когда Торонто реально выиграл. Отличная иллюстрация, почему высокий Return может прийти без топового Brier.
✅ Итог
Prophet Arena позволяет смотреть на точность и деньги одновременно - так проще понять, когда модели реально полезны.
Ссылка
Расскажите в комментариях что еще могут предсказывать LLM?
🔥14👍8❤6😱1
Визуальный разбор GPT-OSS 🧠⚙️
OpenAI выложила gpt-oss-20B и gpt-oss-120B - это MoE-модели с 128k контекстом и «ручкой» reasoning: low/medium/high. Плюс новый формат harmony для сообщений и тулколлов.
Зачем нам это сейчас 🔥
Впервые со времён GPT-2 у OpenAI появились LLM с открытыми весами: можно скачать веса, крутить локально, настраивать под свои пайплайны и политику данных.
Как все устроено простыми словами 🛠️
• Архитектура: трансформер с Mixture-of-Experts. В 120B — 128 экспертов, в 20B — 32, при этом на токен активны 4 (экономия времени/памяти без просадки качества на типичных задачах). Контекст — до ~128k токенов.
• Размер и железо: чекпоинты ≈ 60.8 GiB (120B) и 12.8 GiB (20B). Благодаря квантованию MXFP4 MoE-веса ужимаются так, что 120B помещается в 80 ГБ GPU, а 20B можно запускать от ~16 ГБ памяти.
• Формат harmony: «каналы» ответа — analysis (мышление/часть тулколлов), commentary (тулколлы), final (итог). Он нужен, чтобы модель корректно «думала» и вызывала инструменты.
• Reasoning modes: low/medium/high задаются в системном промпте и напрямую меняют бюджет размышлений: выше точность → дольше отвечает -> выше стоимость.
• Токенизатор: o200k_harmony—чуть аккуратнее с не-английскими символами/эмодзи, но датасет в основном англоязычный—держим это в голове для RU-кейсов.
Мини-пример: как «крутить ручку» рассуждений 🎚️
Так вы буквально указываете модели «думать средне». Для A/B можно сравнить low/medium/high по задержке и качеству на своей задаче..
Почему это важно в большом контексте 🌍
• Локальные агенты и приватность: 20B реально тянется на доступном железе; можно строить оффлайн-ассистентов с чувствительными данными.
• Стандартизация интерфейса: harmony снимает боль разношёрстных промпт-форматов и упрощает перенос между рантаймами (vLLM/Ollama/и т.д.).
• Осознанный трейд-офф: режимы рассуждений позволяют тонко балансировать «скорость ↔ точность» и деньги. Пример с AIME в разборе у Джея: medium даёт правильный ответ, а high просто тратит больше токенов.
Как попробовать за час ⏱️
1. Запуск: возьмите 20B на локальной машине (≥16 ГБ RAM/VRAM) или арендуйте 80 ГБ GPU для 120B (или используйте провайдера с vLLM/Ollama).
2. Форматирование: подайте промпты в harmony (готовые рендереры — Python/Rust).
3. Эксперимент: замерьте на своей задаче low vs medium vs high (качество/латентность/стоимость) и выберите пресет под прод.
Пара важных оговорок 🧯
• CoT-трейсы (цепочки рассуждений) не показывайте пользователям без фильтрации/суммаризации — в модельной карте это отмечено отдельно.
• Мультиязычность неплохая, но датасет в основном EN—для чувствительных RU-кейсов планируйте адаптацию/дообучение.
Итого: GPT-OSS — это не «магический скачок», а грамотная инженерия плюс удобные стандарты. В сумме — ниже порог входа, выше контролируемость и понятный путь к локальным агентам.
Если было полезно — поделитесь с коллегами.
Лучше всего почитать блог пост в оригинале:
Джей Аламмар — визуальный разбор (очень наглядно) и про каналы/режимы рассуждений.
OpenAI выложила gpt-oss-20B и gpt-oss-120B - это MoE-модели с 128k контекстом и «ручкой» reasoning: low/medium/high. Плюс новый формат harmony для сообщений и тулколлов.
Зачем нам это сейчас 🔥
Впервые со времён GPT-2 у OpenAI появились LLM с открытыми весами: можно скачать веса, крутить локально, настраивать под свои пайплайны и политику данных.
Как все устроено простыми словами 🛠️
• Архитектура: трансформер с Mixture-of-Experts. В 120B — 128 экспертов, в 20B — 32, при этом на токен активны 4 (экономия времени/памяти без просадки качества на типичных задачах). Контекст — до ~128k токенов.
• Размер и железо: чекпоинты ≈ 60.8 GiB (120B) и 12.8 GiB (20B). Благодаря квантованию MXFP4 MoE-веса ужимаются так, что 120B помещается в 80 ГБ GPU, а 20B можно запускать от ~16 ГБ памяти.
• Формат harmony: «каналы» ответа — analysis (мышление/часть тулколлов), commentary (тулколлы), final (итог). Он нужен, чтобы модель корректно «думала» и вызывала инструменты.
• Reasoning modes: low/medium/high задаются в системном промпте и напрямую меняют бюджет размышлений: выше точность → дольше отвечает -> выше стоимость.
• Токенизатор: o200k_harmony—чуть аккуратнее с не-английскими символами/эмодзи, но датасет в основном англоязычный—держим это в голове для RU-кейсов.
Мини-пример: как «крутить ручку» рассуждений 🎚️
```
<|start|>system<|message|>
You are a helpful AI.
Reasoning: medium
Tools: web_search, python
<|end|>
```Так вы буквально указываете модели «думать средне». Для A/B можно сравнить low/medium/high по задержке и качеству на своей задаче..
Почему это важно в большом контексте 🌍
• Локальные агенты и приватность: 20B реально тянется на доступном железе; можно строить оффлайн-ассистентов с чувствительными данными.
• Стандартизация интерфейса: harmony снимает боль разношёрстных промпт-форматов и упрощает перенос между рантаймами (vLLM/Ollama/и т.д.).
• Осознанный трейд-офф: режимы рассуждений позволяют тонко балансировать «скорость ↔ точность» и деньги. Пример с AIME в разборе у Джея: medium даёт правильный ответ, а high просто тратит больше токенов.
Как попробовать за час ⏱️
1. Запуск: возьмите 20B на локальной машине (≥16 ГБ RAM/VRAM) или арендуйте 80 ГБ GPU для 120B (или используйте провайдера с vLLM/Ollama).
2. Форматирование: подайте промпты в harmony (готовые рендереры — Python/Rust).
3. Эксперимент: замерьте на своей задаче low vs medium vs high (качество/латентность/стоимость) и выберите пресет под прод.
Пара важных оговорок 🧯
• CoT-трейсы (цепочки рассуждений) не показывайте пользователям без фильтрации/суммаризации — в модельной карте это отмечено отдельно.
• Мультиязычность неплохая, но датасет в основном EN—для чувствительных RU-кейсов планируйте адаптацию/дообучение.
Итого: GPT-OSS — это не «магический скачок», а грамотная инженерия плюс удобные стандарты. В сумме — ниже порог входа, выше контролируемость и понятный путь к локальным агентам.
Если было полезно — поделитесь с коллегами.
Лучше всего почитать блог пост в оригинале:
Джей Аламмар — визуальный разбор (очень наглядно) и про каналы/режимы рассуждений.
👍23❤8🔥6
EfficientLLM: короткий разбор
Исследователи прогнали 100+ конфигураций LLM/VLM и мерили не только качество, но и память, задержку и энергию. Универсального победителя нет: выбирайте технику под свой главный bottleneck — VRAM, латентность, энергия или метрики.
Я люблю исследования, где считают не мифические FLOPs, а как это реально выглядит на проде. Здесь так и сделали: сравнили виды внимания (память против качества), позиционирование (удобство длинного контекста против скорости), MoE (экономия вычислений, но дороже по памяти), способы дообучения (LoRA-семейство, RSLoRA, заморозка слоёв) и квантизацию вплоть до int4.
Главные выводы:
• Если упираетесь в память/скорость — варианты внимания с «меньше ключей/голов» дают ощутимую экономию VRAM и времени отклика.
• Если нужна максимальная точность - берите более «тяжёлые» варианты внимания и RoPE; цена - ресурсы.
• MoE поднимает качество при той же «активной» вычислительной цене, но потребует больше VRAM и усложнит прод.
• Файнтюнинг: на маленьких моделях (≈1–3B) практичнее LoRA-семейство; на крупных (≈14B+) чаще выигрывает RSLoRA. Для быстрых итераций заморозка слоёв даёт кратный прирост скорости.
• Инференс: пост-квантизация в int4 - серьезный буст по $/Вт/ГБ с небольшой просадкой качества. Если не хотите терять точность, bf16 обычно приятнее fp16 на современных GPU.
Шпаргалка на завтра
• Мало VRAM → «экономное» внимание + относительные позиции, тюним LoRA, пробуем int4.
• Качество first → «точное» внимание + RoPE, RSLoRA; инференс bf16.
• Уперлись в compute → смотрим MoE, но заранее считаем VRAM и сложность.
• Нужны быстрые циклы → временно freeze, затем переключаемся на LoRA/RSLoRA.
Ваш ход: что болит сильнее - память, задержка, энергия или качество? Напишите в комментах свой кейс, а если пост был полезен — поделитесь с коллегами 🙌
Статья
Исследователи прогнали 100+ конфигураций LLM/VLM и мерили не только качество, но и память, задержку и энергию. Универсального победителя нет: выбирайте технику под свой главный bottleneck — VRAM, латентность, энергия или метрики.
Я люблю исследования, где считают не мифические FLOPs, а как это реально выглядит на проде. Здесь так и сделали: сравнили виды внимания (память против качества), позиционирование (удобство длинного контекста против скорости), MoE (экономия вычислений, но дороже по памяти), способы дообучения (LoRA-семейство, RSLoRA, заморозка слоёв) и квантизацию вплоть до int4.
Главные выводы:
• Если упираетесь в память/скорость — варианты внимания с «меньше ключей/голов» дают ощутимую экономию VRAM и времени отклика.
• Если нужна максимальная точность - берите более «тяжёлые» варианты внимания и RoPE; цена - ресурсы.
• MoE поднимает качество при той же «активной» вычислительной цене, но потребует больше VRAM и усложнит прод.
• Файнтюнинг: на маленьких моделях (≈1–3B) практичнее LoRA-семейство; на крупных (≈14B+) чаще выигрывает RSLoRA. Для быстрых итераций заморозка слоёв даёт кратный прирост скорости.
• Инференс: пост-квантизация в int4 - серьезный буст по $/Вт/ГБ с небольшой просадкой качества. Если не хотите терять точность, bf16 обычно приятнее fp16 на современных GPU.
Шпаргалка на завтра
• Мало VRAM → «экономное» внимание + относительные позиции, тюним LoRA, пробуем int4.
• Качество first → «точное» внимание + RoPE, RSLoRA; инференс bf16.
• Уперлись в compute → смотрим MoE, но заранее считаем VRAM и сложность.
• Нужны быстрые циклы → временно freeze, затем переключаемся на LoRA/RSLoRA.
Ваш ход: что болит сильнее - память, задержка, энергия или качество? Напишите в комментах свой кейс, а если пост был полезен — поделитесь с коллегами 🙌
Статья
🔥18👍8❤5
SEIR x PINNs для предсказания каскадных сбоев в мультиагентных системах
Мы всё больше доверяем AI-агентам: они коммитят код, вносят изменения в базы данных, анализируют медицинские данные и блокируют подозрительные транзакции. По данным KPMG 88% компаний с выручкой $1B+ уже используют или деплоят ИИ-агентов. И это сложно не заметить - при общении за к-н сервисом первая линия уже почти всегда ИИ (телекомы, банки, отели, - you name it)
Но… всё хорошо, пока всё хорошо. AI-агенты тоже могут "заболеть" - только их вирусы это дезинформация, малварь, джейлбрейки и заражения RAG. По данным DoomArena, GPT-4o можно сломать в 22,7% случаев в защищённом сценарии, и 78,6% OSWorld, Computer-Use. Для Claude-3.5 attack success rate (ASR) 0,7% и 22,9% соответственно. Главное - судя по архитектуре нынешних мультиагентных систем, успешная атака на к-н популярную модель разлетиться быстрее, чем утренние мемы в чате.
И тут возникают неприятные вопросы: если агент начнет совершать скомпрометированные действия, когда мы это заметим? В тот же день, на следующий, или когда произойдет что-то серьезное? А что делать, когда заметили? "Выдернуть" из розетки, развернуть локальные guardian модели или "вакцинировать" патчами?
На хакатоне Physics x AI Safety Grand Challenge 2025 мы (@GingerSpacetail и Karay.me) занялись именно этой проблемой и сделали фреймворк, который моделирует эпидемии в мире AI-агентов, рассмотрев 8 разных деплоймент сценариев: enterprise, ритейл, трейдинг, кодинг ассистенты, customer service, академия, медицинские AI и критическая инфраструктура. И… внезапно заняли 4-е призовое место среди очень крутых работ.😊
Что именно мы сделали.
Шаг 1. Адаптировали классическую эпидемиологию SEIR-модель для популяции ИИ-агентов.
В основе (любой) эпидемиологической модели лежит система ОДУ (обыкновенных дифференциальных уравнений), описывающая, как "вирус" (в нашем случае скомпрометированное поведение) распространяется среди агентов. Модель SEIR делит популяцию на четыре состояния:
S - Susceptible (уязвимые)
E - Exposed (атакованы, но пока нет "симптомов", или мы их не замечаем)
I - Infectious (активно вредят)
R - Removed (изолированы или "иммунны")
Здесь важны коэффициенты-скорости перехода одного состояния в другое, мы их прикинули на основе открытых данных.
Шаг 2. Подмешали физико-информированные нейросети (Physics-Informed Neural Networks, PINNs) для поиска численного решения ОДУ.
Т.е прямо в функцию потерь добавили физику. Кто хочет математики - residuals, или по-русски невязки уравнений, должны стремиться к нулю. PINNs дают три бонуса:
1. Модель "понимает" законы, по которым развивается процесс.
2. Можно работать и с неполными данными - физика "достраивает" картину.
3. Можно вшивать ASR, MTTD и другие параметры в модель для разных сценариев.
Шаг 3. Прогнали фазовый анализ, нашли точки бифуркаций (где система резко меняет поведение) и аттракторы (куда она падает, как шарик в ямку).
В практическом смысле смогли оценить:
- Какая сейчас эпидемиологическая ситуация среди корпоративных ассистентов, ритейл ботов, медицинских AI и тд.
- Где системы сами стабилизируются, а где уходят в "киберэпидемию" с R_0 > 1
- Какие меры работают лучше: повышение скорости обнаружения (коэфф. gamma), снижение передачи атаки (beta) или "вакцинация" агентов патчами (nu).
А заодно показали, что PINNs отлично работают не только в инженерии или медицине, но и в кибербезопасности.
Что интересно сделать дальше.
Любопытно вместо реактивной киберзащиты отслеживать "эпидемиологию" атак в реальном времени и подбирать меры в зависимости от их стоимости и серьезности, т.е. прогноза, сколько времени осталось до критической точки (заражения 90% агентов).
Поэтому если у вас есть агенты и данные, мы рады коллаборациям (NDA без проблем)
🔗код
📝публикация
Мы всё больше доверяем AI-агентам: они коммитят код, вносят изменения в базы данных, анализируют медицинские данные и блокируют подозрительные транзакции. По данным KPMG 88% компаний с выручкой $1B+ уже используют или деплоят ИИ-агентов. И это сложно не заметить - при общении за к-н сервисом первая линия уже почти всегда ИИ (телекомы, банки, отели, - you name it)
Но… всё хорошо, пока всё хорошо. AI-агенты тоже могут "заболеть" - только их вирусы это дезинформация, малварь, джейлбрейки и заражения RAG. По данным DoomArena, GPT-4o можно сломать в 22,7% случаев в защищённом сценарии, и 78,6% OSWorld, Computer-Use. Для Claude-3.5 attack success rate (ASR) 0,7% и 22,9% соответственно. Главное - судя по архитектуре нынешних мультиагентных систем, успешная атака на к-н популярную модель разлетиться быстрее, чем утренние мемы в чате.
И тут возникают неприятные вопросы: если агент начнет совершать скомпрометированные действия, когда мы это заметим? В тот же день, на следующий, или когда произойдет что-то серьезное? А что делать, когда заметили? "Выдернуть" из розетки, развернуть локальные guardian модели или "вакцинировать" патчами?
На хакатоне Physics x AI Safety Grand Challenge 2025 мы (@GingerSpacetail и Karay.me) занялись именно этой проблемой и сделали фреймворк, который моделирует эпидемии в мире AI-агентов, рассмотрев 8 разных деплоймент сценариев: enterprise, ритейл, трейдинг, кодинг ассистенты, customer service, академия, медицинские AI и критическая инфраструктура. И… внезапно заняли 4-е призовое место среди очень крутых работ.😊
Что именно мы сделали.
Шаг 1. Адаптировали классическую эпидемиологию SEIR-модель для популяции ИИ-агентов.
В основе (любой) эпидемиологической модели лежит система ОДУ (обыкновенных дифференциальных уравнений), описывающая, как "вирус" (в нашем случае скомпрометированное поведение) распространяется среди агентов. Модель SEIR делит популяцию на четыре состояния:
S - Susceptible (уязвимые)
E - Exposed (атакованы, но пока нет "симптомов", или мы их не замечаем)
I - Infectious (активно вредят)
R - Removed (изолированы или "иммунны")
Здесь важны коэффициенты-скорости перехода одного состояния в другое, мы их прикинули на основе открытых данных.
Шаг 2. Подмешали физико-информированные нейросети (Physics-Informed Neural Networks, PINNs) для поиска численного решения ОДУ.
Т.е прямо в функцию потерь добавили физику. Кто хочет математики - residuals, или по-русски невязки уравнений, должны стремиться к нулю. PINNs дают три бонуса:
1. Модель "понимает" законы, по которым развивается процесс.
2. Можно работать и с неполными данными - физика "достраивает" картину.
3. Можно вшивать ASR, MTTD и другие параметры в модель для разных сценариев.
Шаг 3. Прогнали фазовый анализ, нашли точки бифуркаций (где система резко меняет поведение) и аттракторы (куда она падает, как шарик в ямку).
В практическом смысле смогли оценить:
- Какая сейчас эпидемиологическая ситуация среди корпоративных ассистентов, ритейл ботов, медицинских AI и тд.
- Где системы сами стабилизируются, а где уходят в "киберэпидемию" с R_0 > 1
- Какие меры работают лучше: повышение скорости обнаружения (коэфф. gamma), снижение передачи атаки (beta) или "вакцинация" агентов патчами (nu).
А заодно показали, что PINNs отлично работают не только в инженерии или медицине, но и в кибербезопасности.
Что интересно сделать дальше.
Любопытно вместо реактивной киберзащиты отслеживать "эпидемиологию" атак в реальном времени и подбирать меры в зависимости от их стоимости и серьезности, т.е. прогноза, сколько времени осталось до критической точки (заражения 90% агентов).
Поэтому если у вас есть агенты и данные, мы рады коллаборациям (NDA без проблем)
🔗код
📝публикация
❤14🔥12🎉5😁1
🎓 Образование × ИИ: как преподаватели реально используют Claude
Самый спорный кейс - автоматизация оценивания. Всё остальное - про augmentation: планирование курсов, задания, обратная связь, инструменты под задачи.
Антропик выпустили свежий отчёт о том, как преподаватели используют Claude в реальной работе (высшее образование, лето 2025). Интересно не «что умеет модель», а как меняется педагогика на уровне практик.
Главная идея - augmentation, не замена.
ИИ не «делает работу за вас», но помогает думать быстрее и глубже. В подготовке курсов преподаватели используют Claude как ассистента: накидать структуру модуля, выровнять уровень сложности, придумать как проверить понимание. А в исследовательских задачах: собрать источники, предложить план эксперимента, наметить аргументацию (с последующей верификацией человеком, конечно).
Где автоматизация особенно заметна?
В обслуживающих задачах (расписания, шаблоны писем, бюджеты) и частично в оценивании. И вот тут конфликт: соблазн поручить проверку работ ИИ большой, но именно с оцениванием у преподавателей больше всего сомнений - сложно сохранить справедливость, контекст и нюанс.
Новый слой практик - мини-инструменты.
С появлением Artifacts многие делают не только тексты, но и небольшие учебные утилиты прямо «в чате»:
— симуляции и игры под тему модуля;
— автогенерация рубрик и мгновенная обратная связь;
— мини-дашборды для визуализации данных;
— предметные помощники (от стехиометрии до грамматики).
Почему это важно?
1. Персонализация становится реальнее: задания, примеры и объяснения подстраиваются «под скорость» и фон студента.
2. Смена формата оценивания: больше внимания на проверку умения мыслить, а не «сдать правильный ответ».
3. Новая роль преподавателя: куратор и дизайнер опыта обучения, а не только лектор.
4. Навыки будущего: студенты учатся не «бороться с ИИ», а грамотно работать с ним - задавать рамки, проверять, комбинировать.
Пример, который можно попробовать уже сегодня.
Дайте Claude краткое описание темы модуля и уровень группы. Попросите:
«Сгенерируй план из 4 занятий, для каждого - 1 активность на 15 минут, 1 мини-проект на неделю и 3 вопроса для самопроверки. В конце — критерии оценивания в виде рубрики».
Получится хороший «черновик», который вы быстро доведёте до стандарта курса. Это и есть augmentation.
Итог. ИИ в образовании работает лучше всего там, где он усиливает человека: помогает думать, проектировать и давать обратную связь. Автоматизировать стоит то, что точно не снижает качество - расписание, шаблоны, черновики. А вот оценивание требует аккуратности и прозрачных правил.
Вопрос к вам. Как вы уже используете ИИ в обучении — и где проводите границу между «помощью» и «автопилотом»? Что работает/не работает у вас на практике?
Если было полезно - поделитесь с учителями и преподавателями!
Самый спорный кейс - автоматизация оценивания. Всё остальное - про augmentation: планирование курсов, задания, обратная связь, инструменты под задачи.
Антропик выпустили свежий отчёт о том, как преподаватели используют Claude в реальной работе (высшее образование, лето 2025). Интересно не «что умеет модель», а как меняется педагогика на уровне практик.
Главная идея - augmentation, не замена.
ИИ не «делает работу за вас», но помогает думать быстрее и глубже. В подготовке курсов преподаватели используют Claude как ассистента: накидать структуру модуля, выровнять уровень сложности, придумать как проверить понимание. А в исследовательских задачах: собрать источники, предложить план эксперимента, наметить аргументацию (с последующей верификацией человеком, конечно).
Где автоматизация особенно заметна?
В обслуживающих задачах (расписания, шаблоны писем, бюджеты) и частично в оценивании. И вот тут конфликт: соблазн поручить проверку работ ИИ большой, но именно с оцениванием у преподавателей больше всего сомнений - сложно сохранить справедливость, контекст и нюанс.
Новый слой практик - мини-инструменты.
С появлением Artifacts многие делают не только тексты, но и небольшие учебные утилиты прямо «в чате»:
— симуляции и игры под тему модуля;
— автогенерация рубрик и мгновенная обратная связь;
— мини-дашборды для визуализации данных;
— предметные помощники (от стехиометрии до грамматики).
Почему это важно?
1. Персонализация становится реальнее: задания, примеры и объяснения подстраиваются «под скорость» и фон студента.
2. Смена формата оценивания: больше внимания на проверку умения мыслить, а не «сдать правильный ответ».
3. Новая роль преподавателя: куратор и дизайнер опыта обучения, а не только лектор.
4. Навыки будущего: студенты учатся не «бороться с ИИ», а грамотно работать с ним - задавать рамки, проверять, комбинировать.
Пример, который можно попробовать уже сегодня.
Дайте Claude краткое описание темы модуля и уровень группы. Попросите:
«Сгенерируй план из 4 занятий, для каждого - 1 активность на 15 минут, 1 мини-проект на неделю и 3 вопроса для самопроверки. В конце — критерии оценивания в виде рубрики».
Получится хороший «черновик», который вы быстро доведёте до стандарта курса. Это и есть augmentation.
Итог. ИИ в образовании работает лучше всего там, где он усиливает человека: помогает думать, проектировать и давать обратную связь. Автоматизировать стоит то, что точно не снижает качество - расписание, шаблоны, черновики. А вот оценивание требует аккуратности и прозрачных правил.
Вопрос к вам. Как вы уже используете ИИ в обучении — и где проводите границу между «помощью» и «автопилотом»? Что работает/не работает у вас на практике?
Если было полезно - поделитесь с учителями и преподавателями!
❤18🔥4👍1🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Chat: Научите как в VEO3 настраивать голоса и lip syncing
Наблюдаем, как ИИ-ассистенты становятся все популярнее: они все чаще берут на себя рутинные операции и позволяют людям работать быстрее и сосредотачиваться на сложных проектах.
3 сентября Cloud.ru подвёл первые итоги работы AI-помощника Клаудии. Создание виртуальной машины теперь выполняется не за 5-30 минут, а за 1–2 минуты. В среднем Клаудия выполняет задачи в 15 раз быстрее. Чаще всего AI-ассистент помогает запускать веб-сервисы, сайты, Telegram-боты и тестовые окружения.
Кроме того, Клаудия может выполнять функции SRE-агента для мониторинга приложений и алертов по логам, а также FinOps-сценарий для выявления неэффективно используемых ресурсов и рекомендаций по оптимизации. Это следующий шаг в развитии Клаудии — от автоматизации рутинных DevOps-задач к более сложным сценариям SRE и FinOps.
#текстприслан
3 сентября Cloud.ru подвёл первые итоги работы AI-помощника Клаудии. Создание виртуальной машины теперь выполняется не за 5-30 минут, а за 1–2 минуты. В среднем Клаудия выполняет задачи в 15 раз быстрее. Чаще всего AI-ассистент помогает запускать веб-сервисы, сайты, Telegram-боты и тестовые окружения.
Кроме того, Клаудия может выполнять функции SRE-агента для мониторинга приложений и алертов по логам, а также FinOps-сценарий для выявления неэффективно используемых ресурсов и рекомендаций по оптимизации. Это следующий шаг в развитии Клаудии — от автоматизации рутинных DevOps-задач к более сложным сценариям SRE и FinOps.
#текстприслан
❤6😁6👍4
Forwarded from DLStories
Открыт набор на осенний семестр Deep Learning School! \ (•◡•) /
DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. С этого семестра у курса уже три раздела:
- Часть 1: введение в ML, DL & computer vision. Начинаем с основ машинного обучения и нейросетей, переходим к CNN для обработки картинок, заканчиваем переносом стиля изображений и GAN.
- Часть 2: обработке естественного языка (NLP). Начинаем с эмбеддингов слов и заканчиваем GPT-2,3, RLHF, RAG и другими актуальными темами вокруг LLM.
- Audio & speech processing. Это отдельный семестровый курс, полностью посвященный обработке аудио и речи. Начинаем с основных способ представления аудиосигналов, переходим к задачам и моделям, Speech LLM и Multimodal LLM.
Регистироваться на курс тут. Форму регистрации обязательно нужно заполнить, если хотите получить диплом по окончании курсов.
Старт обучения — 20 сентября. В этот день откроется первое занятие.
Немного подробнее про DLS:
Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра, которые будет не стыдно показывать на собеседованиях. Больше информации об организации курса и программы обучения можно найти тут.
Ну и, как обычно, этом семестре мы продолжаем улучшать многие занятия и домашки, записывать новые версии лекций и семинаров.
Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий. Среди них — я (Таня), буду вести у вас несколько лекций в обеих частях курса.
Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.
❗️Для первой чати курса также есть возможность приобрести дополнительный пакет, в который входит индивидуальная поддержка от менторов и преподавателей в прохождении курса, дополнительные вебинары и возможность переноса дедлайнов по домашкам. Подробнее о нем читайте на нашем сайте.
Ссылки:
Наш сайт
Тг-канал с новостями DLS
Подробная программа и оргинформация обоих частей курса
Ответы на часто задаваемые вопросы (F.A.Q)
Наш YouTube (тут видео всех лекций и семинаров школы, а также открытые лекции и интервью)
Наша группа VK
🧡 Поддержать нашу школу на Boosty
Если остались вопросы, задавайте их нам на почту (dlphystech@gmail.com), в комментариях тг-канала DLS или в комментарии под этим постом.
Ждём вас в чатиках курса в новом семестре!
DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. С этого семестра у курса уже три раздела:
- Часть 1: введение в ML, DL & computer vision. Начинаем с основ машинного обучения и нейросетей, переходим к CNN для обработки картинок, заканчиваем переносом стиля изображений и GAN.
- Часть 2: обработке естественного языка (NLP). Начинаем с эмбеддингов слов и заканчиваем GPT-2,3, RLHF, RAG и другими актуальными темами вокруг LLM.
- Audio & speech processing. Это отдельный семестровый курс, полностью посвященный обработке аудио и речи. Начинаем с основных способ представления аудиосигналов, переходим к задачам и моделям, Speech LLM и Multimodal LLM.
Регистироваться на курс тут. Форму регистрации обязательно нужно заполнить, если хотите получить диплом по окончании курсов.
Старт обучения — 20 сентября. В этот день откроется первое занятие.
Немного подробнее про DLS:
Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра, которые будет не стыдно показывать на собеседованиях. Больше информации об организации курса и программы обучения можно найти тут.
Ну и, как обычно, этом семестре мы продолжаем улучшать многие занятия и домашки, записывать новые версии лекций и семинаров.
Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий. Среди них — я (Таня), буду вести у вас несколько лекций в обеих частях курса.
Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.
❗️Для первой чати курса также есть возможность приобрести дополнительный пакет, в который входит индивидуальная поддержка от менторов и преподавателей в прохождении курса, дополнительные вебинары и возможность переноса дедлайнов по домашкам. Подробнее о нем читайте на нашем сайте.
Ссылки:
Наш сайт
Тг-канал с новостями DLS
Подробная программа и оргинформация обоих частей курса
Ответы на часто задаваемые вопросы (F.A.Q)
Наш YouTube (тут видео всех лекций и семинаров школы, а также открытые лекции и интервью)
Наша группа VK
🧡 Поддержать нашу школу на Boosty
Если остались вопросы, задавайте их нам на почту (dlphystech@gmail.com), в комментариях тг-канала DLS или в комментарии под этим постом.
Ждём вас в чатиках курса в новом семестре!
🔥7👍3❤1
Forwarded from Журнал НОЖ
Палимпсесты: как ИИ помогает читать стёртые рукописи?
Под верхним слоем средневековых манускриптов прячутся тысячи утраченных текстов. Писцы часто стирали старый текст, чтобы сэкономить пергамент, и писали новый текст поверх.
Манускрипт фотографируют в нескольких спектрах. Полученные кадры совмещают и «чистят», собирая из них единый «куб» данных. Потом алгоритмы отделяют верхний слой от нижнего и усиливают слабые контуры букв.
Затем используют системы распознавания рукописного текста (HTR), которые предлагают свою интерпретацию. Там, где буквы утрачены, модель даёт варианты реконструкции, но последнее слово остаётся за филологом.
Такие находки меняют наше понимание эпох: в палимпсестах всплывают ранние версии богослужебных текстов, утраченные трактаты, частная переписка.
#Мнение простыми словами подготовил редактор канала «AI для всех».
Под верхним слоем средневековых манускриптов прячутся тысячи утраченных текстов. Писцы часто стирали старый текст, чтобы сэкономить пергамент, и писали новый текст поверх.
Манускрипт фотографируют в нескольких спектрах. Полученные кадры совмещают и «чистят», собирая из них единый «куб» данных. Потом алгоритмы отделяют верхний слой от нижнего и усиливают слабые контуры букв.
Затем используют системы распознавания рукописного текста (HTR), которые предлагают свою интерпретацию. Там, где буквы утрачены, модель даёт варианты реконструкции, но последнее слово остаётся за филологом.
Такие находки меняют наше понимание эпох: в палимпсестах всплывают ранние версии богослужебных текстов, утраченные трактаты, частная переписка.
#Мнение простыми словами подготовил редактор канала «AI для всех».
🔥21👍10❤7
ChatGPT: главное из исследования 700 млн пользователей
Три года назад ChatGPT был игрушкой для гиков. Сегодня - 700 миллионов активных пользователей еженедельно, 18 миллиардов сообщений в неделю. Harvard и OpenAI проанализировали, как люди реально используют этот инструмент.
Стереотипы рухнули
Забудьте про “ChatGPT для программистов-мужчин”. К июню 2025 женщины - половина аудитории. Почти 50% запросов от людей младше 26, но старшее поколение догоняет. Самое неожиданное: развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу.
Три способа использования
Asking (49%) - “Помоги разобраться”
Не просто вопросы, а поддержка решений. Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда. Растёт быстрее всех и получает высшие оценки качества.
Doing (40%) - “Сделай за меня”
Письма, презентации, код. Доминирует в рабочих задачах (56% рабочих запросов).
Expressing (11%) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка.
О чём спрашивают (75% всех запросов)
Практические советы - 29%
От починки крана до ведения переговоров.
Поиск информации - 24%
Выросло с 14% за год. ChatGPT вытесняет Google для фактчекинга и сравнения товаров.
Написание текстов - 24%
Упало с 36%. Важно: 2/3 — редактирование вашего текста, не генерация с нуля.
Сюрпризы
Кодинг - всего 4.2%**
Программисты ушли в специализированные инструменты (Cursor, Copilot).
Работа vs личная жизнь: 30/70
70% использования — личные задачи, и эта доля растёт. В работе 40% — тексты: email, презентации, документы.
Где настоящая ценность
Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений. ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы.
Пример: выбирал между двумя квартирами. ChatGPT предложил критерии, которые я не учёл - от розы ветров до демографии района через 10 лет. Решение за день вместо недель.
Вопрос: Вы больше спрашиваете советы (Asking) или делегируете задачи (Doing)? Где ChatGPT дал максимальную пользу - работа или быт?
Исследование
Три года назад ChatGPT был игрушкой для гиков. Сегодня - 700 миллионов активных пользователей еженедельно, 18 миллиардов сообщений в неделю. Harvard и OpenAI проанализировали, как люди реально используют этот инструмент.
Стереотипы рухнули
Забудьте про “ChatGPT для программистов-мужчин”. К июню 2025 женщины - половина аудитории. Почти 50% запросов от людей младше 26, но старшее поколение догоняет. Самое неожиданное: развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу.
Три способа использования
Asking (49%) - “Помоги разобраться”
Не просто вопросы, а поддержка решений. Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда. Растёт быстрее всех и получает высшие оценки качества.
Doing (40%) - “Сделай за меня”
Письма, презентации, код. Доминирует в рабочих задачах (56% рабочих запросов).
Expressing (11%) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка.
О чём спрашивают (75% всех запросов)
Практические советы - 29%
От починки крана до ведения переговоров.
Поиск информации - 24%
Выросло с 14% за год. ChatGPT вытесняет Google для фактчекинга и сравнения товаров.
Написание текстов - 24%
Упало с 36%. Важно: 2/3 — редактирование вашего текста, не генерация с нуля.
Сюрпризы
Кодинг - всего 4.2%**
Программисты ушли в специализированные инструменты (Cursor, Copilot).
Работа vs личная жизнь: 30/70
70% использования — личные задачи, и эта доля растёт. В работе 40% — тексты: email, презентации, документы.
Где настоящая ценность
Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений. ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы.
Пример: выбирал между двумя квартирами. ChatGPT предложил критерии, которые я не учёл - от розы ветров до демографии района через 10 лет. Решение за день вместо недель.
Вопрос: Вы больше спрашиваете советы (Asking) или делегируете задачи (Doing)? Где ChatGPT дал максимальную пользу - работа или быт?
Исследование
1❤28👍15😐2
DigitalMarketingConf: Стачка
Digital-маркетинг | 2-3 октября | Питер
Секция объединит практикующих маркетологов, бренд-менеджеров и специалистов digital-сферы. Здесь вы получите реальные инструменты для интеграции каналов, оптимизации бюджетов и повышения ROI, а не просто теорию на слайдах.
На секции выступят спикеры из ведущих компаний, среди них:
→ Светлана Федорова, руководитель департамента продвижения и PR в Союзмультфильм. Тема доклада: «Битва за Альф - это вам не игрушки»
→ Алексей Павлов, PR в BesedER. Тема доклада: «Дофаминовый маркетинг: проектируем игровые механики под ваши бизнес-задачи»
Разберём ключевые направления: Взаимодействие digital-инструментов и AI в маркетинге.
А после основной программы – афтепати, чтобы обсудить услышанное в неформальной обстановке и найти партнёров и единомышленников!
Форматы участия: онлайн и офлайн (2-3 октября в Санкт-Петербурге)
Купить билет можно на сайте
По промокодку
Следите за новостями в Телеграм и ВКонтакте
#промо
Digital-маркетинг | 2-3 октября | Питер
Секция объединит практикующих маркетологов, бренд-менеджеров и специалистов digital-сферы. Здесь вы получите реальные инструменты для интеграции каналов, оптимизации бюджетов и повышения ROI, а не просто теорию на слайдах.
На секции выступят спикеры из ведущих компаний, среди них:
→ Светлана Федорова, руководитель департамента продвижения и PR в Союзмультфильм. Тема доклада: «Битва за Альф - это вам не игрушки»
→ Алексей Павлов, PR в BesedER. Тема доклада: «Дофаминовый маркетинг: проектируем игровые механики под ваши бизнес-задачи»
Разберём ключевые направления: Взаимодействие digital-инструментов и AI в маркетинге.
А после основной программы – афтепати, чтобы обсудить услышанное в неформальной обстановке и найти партнёров и единомышленников!
Форматы участия: онлайн и офлайн (2-3 октября в Санкт-Петербурге)
Купить билет можно на сайте
По промокодку
Nn_for_science скидка 10%!Следите за новостями в Телеграм и ВКонтакте
#промо
❤5🔥4😁1
Вот такой вот новый транспорт предлагают жителям Сан Франциско. Обещают что, по вейтлисту, дадут доступ к этому беспилотному такси до конца сентября!
🔥18❤8
🤝 Встретил @denissexy
Обсуждали с ним, что мы живём в демках и твиттере - и легко поверить, что массовое внедрениеAI уже случилось. Выходишь из пузыря: цели размыты, пилоты «для галочки», ответственности за результат нет.
Еще поговорили про Skill issue - это когда инструмент «винят» за ошибку постановки задачи: дают грязные данные, просят «сделай красиво», не задают критерии качества и владельца, не делают пост-проверки. Итог - «AI не работает».
Что делать на практике:
Вспоминаем что AI система - это в первую очередь система, и во вторую AI, и итеративно улучшаем: сначала данные, потом инструкцию, потом модель.
Обсуждали с ним, что мы живём в демках и твиттере - и легко поверить, что массовое внедрениеAI уже случилось. Выходишь из пузыря: цели размыты, пилоты «для галочки», ответственности за результат нет.
Еще поговорили про Skill issue - это когда инструмент «винят» за ошибку постановки задачи: дают грязные данные, просят «сделай красиво», не задают критерии качества и владельца, не делают пост-проверки. Итог - «AI не работает».
Что делать на практике:
Вспоминаем что AI система - это в первую очередь система, и во вторую AI, и итеративно улучшаем: сначала данные, потом инструкцию, потом модель.
1❤54🔥7👍5😁5🎉3😢1
🎥🧠 Видео-модели способны к Chain-of-Frames размышлениям
Крупные генеративные видео-модели (например Veo 3) уже решают базовые задачи CV и простые визуальные головоломки без дообучения, если правильно задать роль и попросить рисовать ответ прямо поверх кадров.
В новом исследовании авторы проверили, может ли одна крупная генеративная видеомодель без дообучения решать разные задачи - от классической перцепции (границы, сегментация, улучшение кадра) до простых визуальных головоломок (лабиринты, симметрия). Вместо отдельной модели под каждую задачу они давали только инструкции в промпте - буквально «реши и нарисуй вот так» - и смотрели, появится ли ответ в кадрах. Оказалось, что на десятках задач и тысячах примеров модель часто справляется zero-shot.
Как «программировать» модель ролями
Ключ - задать и задачу, и формат вывода. Это превращает генерацию в визуальную аналитику: вы получаете не описание, а аннотированный видеоряд.
Мини-шпаргалка промптов (скопируйте)
Видео-модели научились отвечать кадрами, попросите не решить задачу, а решить и нарисовать ответ вот так. На сайте куча крутых примеров, которые позволяют поверить в то, что генеративные видео модели можно использовать как LLM для решения задач в режиме zero-shot.
Сайт статьи
Крупные генеративные видео-модели (например Veo 3) уже решают базовые задачи CV и простые визуальные головоломки без дообучения, если правильно задать роль и попросить рисовать ответ прямо поверх кадров.
В новом исследовании авторы проверили, может ли одна крупная генеративная видеомодель без дообучения решать разные задачи - от классической перцепции (границы, сегментация, улучшение кадра) до простых визуальных головоломок (лабиринты, симметрия). Вместо отдельной модели под каждую задачу они давали только инструкции в промпте - буквально «реши и нарисуй вот так» - и смотрели, появится ли ответ в кадрах. Оказалось, что на десятках задач и тысячах примеров модель часто справляется zero-shot.
Как «программировать» модель ролями
Ключ - задать и задачу, и формат вывода. Это превращает генерацию в визуальную аналитику: вы получаете не описание, а аннотированный видеоряд.
Мини-шпаргалка промптов (скопируйте)
You are a video analyst. Solve the task and DRAW the answer ON TOP of frames.
Maze: draw the shortest valid path in RED, thickness 3 px, unbroken line from START to GOAL.
Segmentation: fill ONLY the person with a semi-transparent overlay; keep everything else unchanged.
Background removal: keep the subject; replace background with uniform gray; avoid halos around hair.
Physics: render two variants side-by-side labeled “Earth (9.81 m/s^2)” and “Moon (1.62 m/s^2)”; show motion difference.
Deblur/denoise: increase sharpness while preserving faces; avoid over-smoothing and ringing artifacts.
ИтогВидео-модели научились отвечать кадрами, попросите не решить задачу, а решить и нарисовать ответ вот так. На сайте куча крутых примеров, которые позволяют поверить в то, что генеративные видео модели можно использовать как LLM для решения задач в режиме zero-shot.
Сайт статьи
🔥24❤6
Уверенное владение математическим аппаратом — ключевой фактор для решения сложных задач в Data Science, ML и других it-специальностях.
Преподаватели МФТИ и создатели проекта Popmath приглашают вас на бесплатный вебинар "Как выучить математику во взрослом возрасте?"
На вебинаре вы получите ответы на ключевые вопросы:
🔴 Прикладная математика: Какие разделы наиболее критичны для современных IT-специальностей
🔵 Эффективность обучения: Почему академический подход часто не работает и как выстроить процесс с максимальным КПД
🟠 Актуальные методики: Какие образовательные технологии позволяют в сжатые сроки восстановить и систематизировать знания
Дата: 7 октября
Время: 19:00 по МСК
Длительность: 1 час
➡️ Регистрируйтесь по ссылке
🔻 Всем участникам вебинара скидка 10% на 4-х месячный онлайн-курс "Математика с нуля для взрослых", который начнётся уже 16 октября🔺
#текстприслан
Преподаватели МФТИ и создатели проекта Popmath приглашают вас на бесплатный вебинар "Как выучить математику во взрослом возрасте?"
На вебинаре вы получите ответы на ключевые вопросы:
🔴 Прикладная математика: Какие разделы наиболее критичны для современных IT-специальностей
🔵 Эффективность обучения: Почему академический подход часто не работает и как выстроить процесс с максимальным КПД
🟠 Актуальные методики: Какие образовательные технологии позволяют в сжатые сроки восстановить и систематизировать знания
Дата: 7 октября
Время: 19:00 по МСК
Длительность: 1 час
➡️ Регистрируйтесь по ссылке
🔻 Всем участникам вебинара скидка 10% на 4-х месячный онлайн-курс "Математика с нуля для взрослых", который начнётся уже 16 октября🔺
#текстприслан
❤7😢3👍1🔥1
🛒🤖 ACP: AI агенты наконец-то оформляют заказы
Agentic Commerce Protocol (ACP) - открытый JSON/REST-стандарт: агент собирает корзину у продавца и завершает заказ, а списание идёт через платёжного провайдера торговца с помощью Shared Payment Token (SPT). Данные карты агент не видит. Уже работает в Instant Checkout в ChatGPT: Etsy - уже онлайн, Shopify - на подходе.
Очень давно ждал, когда мы сделаем публичный анонс, и вот этот день пришел! Stripe и OpenAI запускают свой собственный протокол для AI Agentic Commerce!
Почему это важно сейчас. Покупка теперь доступна прямо в диалоге с ChatGPT. Вместо «вот ссылка, сходите на сайт» - «оформлено и оплачено». ACP даёт общий язык для таких сценариев, без зоопарка частных интеграций и виджетов.
Что такое ACP по сути. Это язык чекаута между «покупатель ↔ агент ↔ бизнес». Агент вызывает эндпоинты торговца (создать/обновить/получить/завершить/отменить), а торговец на каждом шаге возвращает состояние корзины: позиции, суммы, варианты доставки. На финальном шаге передаётся SPT - ограниченный по области и времени токен к сохранённому платёжному методу - и платёж проходит рельсам торговца (по финтеховски это называется merchant of record).
Где это уже полезно. Классическая розница: физические и цифровые товары, подписки, асинхронные заказы. Всё, что касается ассортимента, налогов, антифрода и фулфилмента, остаётся под контролем торговца. Плюс появляется новый канал: покупка «там, где возникло намерение».
Что пока не закрывает. Полная идентификация и политики для полуавтономных агентов, сквозной аудит между платформами, возвраты/обмены — это отдельные процессы и следующий слой экосистемы.
Итог. ACP - это интероперабельный чекаут для агентов с платежами. Порог входа низкий, если у вас уже есть API чекаута от Stripe. Хотите дистрибуцию в ChatGPT - подайте заявку на Instant Checkout.
Анонс
Agentic Commerce Protocol (ACP) - открытый JSON/REST-стандарт: агент собирает корзину у продавца и завершает заказ, а списание идёт через платёжного провайдера торговца с помощью Shared Payment Token (SPT). Данные карты агент не видит. Уже работает в Instant Checkout в ChatGPT: Etsy - уже онлайн, Shopify - на подходе.
Очень давно ждал, когда мы сделаем публичный анонс, и вот этот день пришел! Stripe и OpenAI запускают свой собственный протокол для AI Agentic Commerce!
Почему это важно сейчас. Покупка теперь доступна прямо в диалоге с ChatGPT. Вместо «вот ссылка, сходите на сайт» - «оформлено и оплачено». ACP даёт общий язык для таких сценариев, без зоопарка частных интеграций и виджетов.
Что такое ACP по сути. Это язык чекаута между «покупатель ↔ агент ↔ бизнес». Агент вызывает эндпоинты торговца (создать/обновить/получить/завершить/отменить), а торговец на каждом шаге возвращает состояние корзины: позиции, суммы, варианты доставки. На финальном шаге передаётся SPT - ограниченный по области и времени токен к сохранённому платёжному методу - и платёж проходит рельсам торговца (по финтеховски это называется merchant of record).
Где это уже полезно. Классическая розница: физические и цифровые товары, подписки, асинхронные заказы. Всё, что касается ассортимента, налогов, антифрода и фулфилмента, остаётся под контролем торговца. Плюс появляется новый канал: покупка «там, где возникло намерение».
Что пока не закрывает. Полная идентификация и политики для полуавтономных агентов, сквозной аудит между платформами, возвраты/обмены — это отдельные процессы и следующий слой экосистемы.
Итог. ACP - это интероперабельный чекаут для агентов с платежами. Порог входа низкий, если у вас уже есть API чекаута от Stripe. Хотите дистрибуцию в ChatGPT - подайте заявку на Instant Checkout.
Анонс
🔥9😐6❤4
Пост для любителей обучать нейросети на работе, после работы, вместо работы, на выходных, в отпуске, с женой или вместо жены.
На прошлой неделе стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.
Когда
15 сентября — 1 декабря
Призовой фонд
$13,600
Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.
Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.
>_ Участвовать
#текстприслан
На прошлой неделе стартовал Wunder RNN Challenge —соревнование по нейронкам от HFT-фонда Wunder Fund.
Участникам предстоит создать модель, предсказывающую следующее состояние рынка на основе последовательности предыдущих состояний. Именно с такими задачами каждый день работают кванты.
Когда
15 сентября — 1 декабря
Призовой фонд
$13,600
Вы будете работать с реальными биржевыми данными.
Победители получат денежные призы, возможность пообщаться с нашими квантами, а главное — утонченное интеллектуальное удовлетворение от решения сложной задачи.
Wunder Fund с 2014 года занимается HFT, высокочастотным алгоритмическим трейдингом. Мы торгуем на многих биржах по всему миру — как традиционных, так и криптовалютных. Наш дневной торговый оборот превышает $10 млрд.
>_ Участвовать
#текстприслан
😁8❤7👍5😐2