🧹💥 «Чистильщики диска» больше не нужны
Помните софт «почистить диск»? Забудьте.
Я написал GPT-5 в Cursor: «найди, что можно безопасно удалить и почисти мой диск». Через минуту получил план, удалил кеши Hugging Face и Ollama - и за 5 минут освободил 142 ГБ. Ничего не сломалось.
Почему это лучше утилит?
LLM видит контекст: отличает проекты от регенерируемых кешей, предупреждает о рисках, подсказывает порядок действий (остановить сервис → вынести кеши → при желании docker prune).
Мораль простая: вместо «магических клинеров» — один умный запрос к GPT-5 в IDE. Быстрее, безопаснее, под ваш стек.
Если было полезно - напишите в комментах: какой у вас топ-3 прожорливых папок и какой промпт даёте модели для «уборки»?
Помните софт «почистить диск»? Забудьте.
Я написал GPT-5 в Cursor: «найди, что можно безопасно удалить и почисти мой диск». Через минуту получил план, удалил кеши Hugging Face и Ollama - и за 5 минут освободил 142 ГБ. Ничего не сломалось.
Почему это лучше утилит?
LLM видит контекст: отличает проекты от регенерируемых кешей, предупреждает о рисках, подсказывает порядок действий (остановить сервис → вынести кеши → при желании docker prune).
Мораль простая: вместо «магических клинеров» — один умный запрос к GPT-5 в IDE. Быстрее, безопаснее, под ваш стек.
Если было полезно - напишите в комментах: какой у вас топ-3 прожорливых папок и какой промпт даёте модели для «уборки»?
😁54😐13👍7❤3😢2🔥1
🤝 GPT-5 Thinking + Claude Code: как я ставлю задачи AI агенту
Я использую GPT-5 Thinking в качестве «оркестратора»: он превращает идею в чёткий «Claude-ready бриф» с критериями приёмки. Claude Code исполняет задачу в терминале (читает репо, пишет диффы, тесты, PR)
🧩 Уже 2 недели пользуюсь Claude Code для своего нового проекта по предсказанию временных рядов и вот к какому взаимодействию я пока пришел:
Я формулирую цель человеческим языком (например, нужно сделать загрузку CSV, и так что бы была валидация данных и индикатор прогресса). GPT-5 Thinking упаковывает это в «Claude-ready бриф»: цель, границы (какие директории трогать), ограничения (типобезопасность, а11y), acceptance criteria, тест-план и риски. Заметил, что короткий бриф с атомарными задачами лучше, чем один размытый эпик. Сохраняю как
🛠️ Следующим шагом я кидаю ссылку на задачу в Claude и прошу: сначала «прочитай и предложи план» (без кода), потом «сгенерируй диффы + тесты». Claude открывает PR, зовёт встроенного reviewer-субагента, прикладывает e2e/юнит-тесты и чек-лист. Если что-то не сходится, прошу GPT-5 Thinking выпустить «доп задачи » - например, на миграцию API или обвязку логов.
📊 По исполнению работы, я запрашиваю у Claude текущее состояние проекта: он собирает статус по репо и CI (какие PR готовы, где красные тесты, какие ошибки в логах чаще всего всплывали), помечает блокеры, находит дублированные файлы и прочий мусор и предлагает next steps.
Итог. За 2 недели, работая только по вечерам и в рамках 20$ подписки на Claude Code, я довел проект до первой онлайн версии, которую уже отправил тестить друзьям.
Если вам тоже нужно что нибудь предсказывать (еду в ресторане, номера в отеле, урожай яблок и тд) - расскажите об этом в комментариях!
Я использую GPT-5 Thinking в качестве «оркестратора»: он превращает идею в чёткий «Claude-ready бриф» с критериями приёмки. Claude Code исполняет задачу в терминале (читает репо, пишет диффы, тесты, PR)
🧩 Уже 2 недели пользуюсь Claude Code для своего нового проекта по предсказанию временных рядов и вот к какому взаимодействию я пока пришел:
Я формулирую цель человеческим языком (например, нужно сделать загрузку CSV, и так что бы была валидация данных и индикатор прогресса). GPT-5 Thinking упаковывает это в «Claude-ready бриф»: цель, границы (какие директории трогать), ограничения (типобезопасность, а11y), acceptance criteria, тест-план и риски. Заметил, что короткий бриф с атомарными задачами лучше, чем один размытый эпик. Сохраняю как
tasks/SB01_BUILD_CSV.md🛠️ Следующим шагом я кидаю ссылку на задачу в Claude и прошу: сначала «прочитай и предложи план» (без кода), потом «сгенерируй диффы + тесты». Claude открывает PR, зовёт встроенного reviewer-субагента, прикладывает e2e/юнит-тесты и чек-лист. Если что-то не сходится, прошу GPT-5 Thinking выпустить «доп задачи » - например, на миграцию API или обвязку логов.
📊 По исполнению работы, я запрашиваю у Claude текущее состояние проекта: он собирает статус по репо и CI (какие PR готовы, где красные тесты, какие ошибки в логах чаще всего всплывали), помечает блокеры, находит дублированные файлы и прочий мусор и предлагает next steps.
Итог. За 2 недели, работая только по вечерам и в рамках 20$ подписки на Claude Code, я довел проект до первой онлайн версии, которую уже отправил тестить друзьям.
Если вам тоже нужно что нибудь предсказывать (еду в ресторане, номера в отеле, урожай яблок и тд) - расскажите об этом в комментариях!
❤32👍12🔥10😐1
Anthropic Claude Code: самое полезное с семинара
Сходил на семинар по Claude Code от его разработчиков, вот что мне запомнилось:
🧠 Hot keys
•
•
•
•
•
•
•
🧩 MCP-экосистема
• Сотни серверов на GitHub → modelcontextprotocol/servers
• Puppeteer/Playwright — пишешь код и сразу тестируешь в реальном браузере
• Context7 — актуальные доки по популярным SDK и библиотекам
• SQL MCPs — SQLite/Postgres/Supabase для прямого доступа к БД
• Figma MCP — агент читает/проверяет макеты в Figma
📄 Claude.md
• Работает и на уровне пользователя (~/.claude), и локально в проекте (./claude) — задаёт поведение/гайды.
⚡ Свои /custom-commands
Сохраняем часто используемые промпты и вызываем как /optimize:
Сходил на семинар по Claude Code от его разработчиков, вот что мне запомнилось:
🧠 Hot keys
•
Shift+Tab — Planning mode (Claude сначала строит план, потом действует)•
Esc Esc — «откат» шага диалога•
think / think hard / ultrathink — явно просим больше reasoning budget•
!bash — запускаем shell-команды прямо из чата•
@mention — подкидываем файлы в контекст•
Drag & drop — кидаем скриншоты/изображения•
Ctrl+B — запуск Claude Code в фоне🧩 MCP-экосистема
• Сотни серверов на GitHub → modelcontextprotocol/servers
• Puppeteer/Playwright — пишешь код и сразу тестируешь в реальном браузере
• Context7 — актуальные доки по популярным SDK и библиотекам
• SQL MCPs — SQLite/Postgres/Supabase для прямого доступа к БД
• Figma MCP — агент читает/проверяет макеты в Figma
📄 Claude.md
• Работает и на уровне пользователя (~/.claude), и локально в проекте (./claude) — задаёт поведение/гайды.
⚡ Свои /custom-commands
Сохраняем часто используемые промпты и вызываем как /optimize:
# Проектный уровень
mkdir -p ./claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ./claude/commands/optimize.md
# Пользовательский уровень (глобально)
mkdir -p ~/.claude/commands
printf "Analyze this code for performance issues and suggest optimizations.\n" > ~/.claude/commands/optimize.md2❤24🔥14
This media is not supported in your browser
VIEW IN TELEGRAM
🤖🧪 ChatGPT-Agent хорошо справляется с QA тестированием
Я взял ChatGPT-агента и дал ему задачу «как у живого тестера»: логиниться, загружать данные, проверять графики и экспорт. Он не просто кликает скриптом — он смотрит, думает и меняет план, когда что-то идёт не так.
☕️ Утро. Я нажимаю «Запустить проверку» и иду делать кофе.
Агент заходит в мое веб-приложение, заливает CSV, включает оверлеи, пробует экспорт. Где-то зависает спиннер - он не паникует, меняет маршрут и продолжает проверять остальное.
🐶 Я выхожу гулять с собакой. В это время агент собирает улики: скрины, логи и тп. Видит тонкости - «фича включилась, но данных нет» - и помечает это как задачу для другого AI агента.
📬 Возвращаюсь - на экране готовый отчёт:
— 3 проблемы с шагами «ожидал → получил»,
— ссылки на скрины/HAR,
— приоритеты и быстрые фиксы.
Я просто перетягиваю задачи в следующий диалог с Claude Code. Всё. Никаких «не воспроизводится».
🌇 Агент сделал рутину за меня; моё время ушло на решения (и отдых), а не на клики и скриншоты. По ощущениям, экономит по паре часов в день - минимум.
Не магия. Просто внимательный джуниор из кремния, который не устает.
Кстати, я думаю что готов к ограниченной бете, так что если вам есть что предсказывать (еду в кафе, номера в отеле, закупку продуктов в магазин и вообще что угодно) - пишите в комменты, дам доступ!
Я взял ChatGPT-агента и дал ему задачу «как у живого тестера»: логиниться, загружать данные, проверять графики и экспорт. Он не просто кликает скриптом — он смотрит, думает и меняет план, когда что-то идёт не так.
☕️ Утро. Я нажимаю «Запустить проверку» и иду делать кофе.
Агент заходит в мое веб-приложение, заливает CSV, включает оверлеи, пробует экспорт. Где-то зависает спиннер - он не паникует, меняет маршрут и продолжает проверять остальное.
🐶 Я выхожу гулять с собакой. В это время агент собирает улики: скрины, логи и тп. Видит тонкости - «фича включилась, но данных нет» - и помечает это как задачу для другого AI агента.
📬 Возвращаюсь - на экране готовый отчёт:
— 3 проблемы с шагами «ожидал → получил»,
— ссылки на скрины/HAR,
— приоритеты и быстрые фиксы.
Я просто перетягиваю задачи в следующий диалог с Claude Code. Всё. Никаких «не воспроизводится».
🌇 Агент сделал рутину за меня; моё время ушло на решения (и отдых), а не на клики и скриншоты. По ощущениям, экономит по паре часов в день - минимум.
Не магия. Просто внимательный джуниор из кремния, который не устает.
Кстати, я думаю что готов к ограниченной бете, так что если вам есть что предсказывать (еду в кафе, номера в отеле, закупку продуктов в магазин и вообще что угодно) - пишите в комменты, дам доступ!
🔥30❤8👍4
🔮📈 Prophet Arena
Бенчмарк на котором LLM предсказывают ещё не случившиеся события из prediction markets. Оценивают по 1−Brier (насколько честно калибрована вероятность) и по Average Return (сколько бы вы заработали при выбранном risk profile).
🤔 Зачем это нам
Обычные тесты - про прошлое. Prophet Arena про то, что происходит в реальном мире: модель ставит на вероятность события до того, как оно совершилось, а лидерборд обновляется по факту.
⚙️ Как устроено
Собирают новости и цены с рынков (контекст одинаковый для всех моделей) → модель выдаёт распределение вероятностей + краткое обоснование → после исхода событие оценивают и обновляют лидерборд.
📊 Две оси
• 1−Brier: выше = лучше калибровка/точность вероятностей (на сайте так и показывают - «1 минус классический Brier»).
• Average Return: симуляция прибыли, если следовать вероятностям модели; на лидерборде можно крутить Risk Aversion (γ) и смотреть, как меняются места.
⚽️ Живой пример
Матч MLS San Diego FC — Toronto FC: o3-mini даёт 30% на Торонто, рынок — 11%. Edge ≈ 3× → ставка $1 превратилась в $9, когда Торонто реально выиграл. Отличная иллюстрация, почему высокий Return может прийти без топового Brier.
✅ Итог
Prophet Arena позволяет смотреть на точность и деньги одновременно - так проще понять, когда модели реально полезны.
Ссылка
Расскажите в комментариях что еще могут предсказывать LLM?
Бенчмарк на котором LLM предсказывают ещё не случившиеся события из prediction markets. Оценивают по 1−Brier (насколько честно калибрована вероятность) и по Average Return (сколько бы вы заработали при выбранном risk profile).
🤔 Зачем это нам
Обычные тесты - про прошлое. Prophet Arena про то, что происходит в реальном мире: модель ставит на вероятность события до того, как оно совершилось, а лидерборд обновляется по факту.
⚙️ Как устроено
Собирают новости и цены с рынков (контекст одинаковый для всех моделей) → модель выдаёт распределение вероятностей + краткое обоснование → после исхода событие оценивают и обновляют лидерборд.
📊 Две оси
• 1−Brier: выше = лучше калибровка/точность вероятностей (на сайте так и показывают - «1 минус классический Brier»).
• Average Return: симуляция прибыли, если следовать вероятностям модели; на лидерборде можно крутить Risk Aversion (γ) и смотреть, как меняются места.
⚽️ Живой пример
Матч MLS San Diego FC — Toronto FC: o3-mini даёт 30% на Торонто, рынок — 11%. Edge ≈ 3× → ставка $1 превратилась в $9, когда Торонто реально выиграл. Отличная иллюстрация, почему высокий Return может прийти без топового Brier.
✅ Итог
Prophet Arena позволяет смотреть на точность и деньги одновременно - так проще понять, когда модели реально полезны.
Ссылка
Расскажите в комментариях что еще могут предсказывать LLM?
🔥14👍8❤6😱1
Визуальный разбор GPT-OSS 🧠⚙️
OpenAI выложила gpt-oss-20B и gpt-oss-120B - это MoE-модели с 128k контекстом и «ручкой» reasoning: low/medium/high. Плюс новый формат harmony для сообщений и тулколлов.
Зачем нам это сейчас 🔥
Впервые со времён GPT-2 у OpenAI появились LLM с открытыми весами: можно скачать веса, крутить локально, настраивать под свои пайплайны и политику данных.
Как все устроено простыми словами 🛠️
• Архитектура: трансформер с Mixture-of-Experts. В 120B — 128 экспертов, в 20B — 32, при этом на токен активны 4 (экономия времени/памяти без просадки качества на типичных задачах). Контекст — до ~128k токенов.
• Размер и железо: чекпоинты ≈ 60.8 GiB (120B) и 12.8 GiB (20B). Благодаря квантованию MXFP4 MoE-веса ужимаются так, что 120B помещается в 80 ГБ GPU, а 20B можно запускать от ~16 ГБ памяти.
• Формат harmony: «каналы» ответа — analysis (мышление/часть тулколлов), commentary (тулколлы), final (итог). Он нужен, чтобы модель корректно «думала» и вызывала инструменты.
• Reasoning modes: low/medium/high задаются в системном промпте и напрямую меняют бюджет размышлений: выше точность → дольше отвечает -> выше стоимость.
• Токенизатор: o200k_harmony—чуть аккуратнее с не-английскими символами/эмодзи, но датасет в основном англоязычный—держим это в голове для RU-кейсов.
Мини-пример: как «крутить ручку» рассуждений 🎚️
Так вы буквально указываете модели «думать средне». Для A/B можно сравнить low/medium/high по задержке и качеству на своей задаче..
Почему это важно в большом контексте 🌍
• Локальные агенты и приватность: 20B реально тянется на доступном железе; можно строить оффлайн-ассистентов с чувствительными данными.
• Стандартизация интерфейса: harmony снимает боль разношёрстных промпт-форматов и упрощает перенос между рантаймами (vLLM/Ollama/и т.д.).
• Осознанный трейд-офф: режимы рассуждений позволяют тонко балансировать «скорость ↔ точность» и деньги. Пример с AIME в разборе у Джея: medium даёт правильный ответ, а high просто тратит больше токенов.
Как попробовать за час ⏱️
1. Запуск: возьмите 20B на локальной машине (≥16 ГБ RAM/VRAM) или арендуйте 80 ГБ GPU для 120B (или используйте провайдера с vLLM/Ollama).
2. Форматирование: подайте промпты в harmony (готовые рендереры — Python/Rust).
3. Эксперимент: замерьте на своей задаче low vs medium vs high (качество/латентность/стоимость) и выберите пресет под прод.
Пара важных оговорок 🧯
• CoT-трейсы (цепочки рассуждений) не показывайте пользователям без фильтрации/суммаризации — в модельной карте это отмечено отдельно.
• Мультиязычность неплохая, но датасет в основном EN—для чувствительных RU-кейсов планируйте адаптацию/дообучение.
Итого: GPT-OSS — это не «магический скачок», а грамотная инженерия плюс удобные стандарты. В сумме — ниже порог входа, выше контролируемость и понятный путь к локальным агентам.
Если было полезно — поделитесь с коллегами.
Лучше всего почитать блог пост в оригинале:
Джей Аламмар — визуальный разбор (очень наглядно) и про каналы/режимы рассуждений.
OpenAI выложила gpt-oss-20B и gpt-oss-120B - это MoE-модели с 128k контекстом и «ручкой» reasoning: low/medium/high. Плюс новый формат harmony для сообщений и тулколлов.
Зачем нам это сейчас 🔥
Впервые со времён GPT-2 у OpenAI появились LLM с открытыми весами: можно скачать веса, крутить локально, настраивать под свои пайплайны и политику данных.
Как все устроено простыми словами 🛠️
• Архитектура: трансформер с Mixture-of-Experts. В 120B — 128 экспертов, в 20B — 32, при этом на токен активны 4 (экономия времени/памяти без просадки качества на типичных задачах). Контекст — до ~128k токенов.
• Размер и железо: чекпоинты ≈ 60.8 GiB (120B) и 12.8 GiB (20B). Благодаря квантованию MXFP4 MoE-веса ужимаются так, что 120B помещается в 80 ГБ GPU, а 20B можно запускать от ~16 ГБ памяти.
• Формат harmony: «каналы» ответа — analysis (мышление/часть тулколлов), commentary (тулколлы), final (итог). Он нужен, чтобы модель корректно «думала» и вызывала инструменты.
• Reasoning modes: low/medium/high задаются в системном промпте и напрямую меняют бюджет размышлений: выше точность → дольше отвечает -> выше стоимость.
• Токенизатор: o200k_harmony—чуть аккуратнее с не-английскими символами/эмодзи, но датасет в основном англоязычный—держим это в голове для RU-кейсов.
Мини-пример: как «крутить ручку» рассуждений 🎚️
```
<|start|>system<|message|>
You are a helpful AI.
Reasoning: medium
Tools: web_search, python
<|end|>
```Так вы буквально указываете модели «думать средне». Для A/B можно сравнить low/medium/high по задержке и качеству на своей задаче..
Почему это важно в большом контексте 🌍
• Локальные агенты и приватность: 20B реально тянется на доступном железе; можно строить оффлайн-ассистентов с чувствительными данными.
• Стандартизация интерфейса: harmony снимает боль разношёрстных промпт-форматов и упрощает перенос между рантаймами (vLLM/Ollama/и т.д.).
• Осознанный трейд-офф: режимы рассуждений позволяют тонко балансировать «скорость ↔ точность» и деньги. Пример с AIME в разборе у Джея: medium даёт правильный ответ, а high просто тратит больше токенов.
Как попробовать за час ⏱️
1. Запуск: возьмите 20B на локальной машине (≥16 ГБ RAM/VRAM) или арендуйте 80 ГБ GPU для 120B (или используйте провайдера с vLLM/Ollama).
2. Форматирование: подайте промпты в harmony (готовые рендереры — Python/Rust).
3. Эксперимент: замерьте на своей задаче low vs medium vs high (качество/латентность/стоимость) и выберите пресет под прод.
Пара важных оговорок 🧯
• CoT-трейсы (цепочки рассуждений) не показывайте пользователям без фильтрации/суммаризации — в модельной карте это отмечено отдельно.
• Мультиязычность неплохая, но датасет в основном EN—для чувствительных RU-кейсов планируйте адаптацию/дообучение.
Итого: GPT-OSS — это не «магический скачок», а грамотная инженерия плюс удобные стандарты. В сумме — ниже порог входа, выше контролируемость и понятный путь к локальным агентам.
Если было полезно — поделитесь с коллегами.
Лучше всего почитать блог пост в оригинале:
Джей Аламмар — визуальный разбор (очень наглядно) и про каналы/режимы рассуждений.
👍23❤8🔥6
EfficientLLM: короткий разбор
Исследователи прогнали 100+ конфигураций LLM/VLM и мерили не только качество, но и память, задержку и энергию. Универсального победителя нет: выбирайте технику под свой главный bottleneck — VRAM, латентность, энергия или метрики.
Я люблю исследования, где считают не мифические FLOPs, а как это реально выглядит на проде. Здесь так и сделали: сравнили виды внимания (память против качества), позиционирование (удобство длинного контекста против скорости), MoE (экономия вычислений, но дороже по памяти), способы дообучения (LoRA-семейство, RSLoRA, заморозка слоёв) и квантизацию вплоть до int4.
Главные выводы:
• Если упираетесь в память/скорость — варианты внимания с «меньше ключей/голов» дают ощутимую экономию VRAM и времени отклика.
• Если нужна максимальная точность - берите более «тяжёлые» варианты внимания и RoPE; цена - ресурсы.
• MoE поднимает качество при той же «активной» вычислительной цене, но потребует больше VRAM и усложнит прод.
• Файнтюнинг: на маленьких моделях (≈1–3B) практичнее LoRA-семейство; на крупных (≈14B+) чаще выигрывает RSLoRA. Для быстрых итераций заморозка слоёв даёт кратный прирост скорости.
• Инференс: пост-квантизация в int4 - серьезный буст по $/Вт/ГБ с небольшой просадкой качества. Если не хотите терять точность, bf16 обычно приятнее fp16 на современных GPU.
Шпаргалка на завтра
• Мало VRAM → «экономное» внимание + относительные позиции, тюним LoRA, пробуем int4.
• Качество first → «точное» внимание + RoPE, RSLoRA; инференс bf16.
• Уперлись в compute → смотрим MoE, но заранее считаем VRAM и сложность.
• Нужны быстрые циклы → временно freeze, затем переключаемся на LoRA/RSLoRA.
Ваш ход: что болит сильнее - память, задержка, энергия или качество? Напишите в комментах свой кейс, а если пост был полезен — поделитесь с коллегами 🙌
Статья
Исследователи прогнали 100+ конфигураций LLM/VLM и мерили не только качество, но и память, задержку и энергию. Универсального победителя нет: выбирайте технику под свой главный bottleneck — VRAM, латентность, энергия или метрики.
Я люблю исследования, где считают не мифические FLOPs, а как это реально выглядит на проде. Здесь так и сделали: сравнили виды внимания (память против качества), позиционирование (удобство длинного контекста против скорости), MoE (экономия вычислений, но дороже по памяти), способы дообучения (LoRA-семейство, RSLoRA, заморозка слоёв) и квантизацию вплоть до int4.
Главные выводы:
• Если упираетесь в память/скорость — варианты внимания с «меньше ключей/голов» дают ощутимую экономию VRAM и времени отклика.
• Если нужна максимальная точность - берите более «тяжёлые» варианты внимания и RoPE; цена - ресурсы.
• MoE поднимает качество при той же «активной» вычислительной цене, но потребует больше VRAM и усложнит прод.
• Файнтюнинг: на маленьких моделях (≈1–3B) практичнее LoRA-семейство; на крупных (≈14B+) чаще выигрывает RSLoRA. Для быстрых итераций заморозка слоёв даёт кратный прирост скорости.
• Инференс: пост-квантизация в int4 - серьезный буст по $/Вт/ГБ с небольшой просадкой качества. Если не хотите терять точность, bf16 обычно приятнее fp16 на современных GPU.
Шпаргалка на завтра
• Мало VRAM → «экономное» внимание + относительные позиции, тюним LoRA, пробуем int4.
• Качество first → «точное» внимание + RoPE, RSLoRA; инференс bf16.
• Уперлись в compute → смотрим MoE, но заранее считаем VRAM и сложность.
• Нужны быстрые циклы → временно freeze, затем переключаемся на LoRA/RSLoRA.
Ваш ход: что болит сильнее - память, задержка, энергия или качество? Напишите в комментах свой кейс, а если пост был полезен — поделитесь с коллегами 🙌
Статья
🔥18👍8❤5
SEIR x PINNs для предсказания каскадных сбоев в мультиагентных системах
Мы всё больше доверяем AI-агентам: они коммитят код, вносят изменения в базы данных, анализируют медицинские данные и блокируют подозрительные транзакции. По данным KPMG 88% компаний с выручкой $1B+ уже используют или деплоят ИИ-агентов. И это сложно не заметить - при общении за к-н сервисом первая линия уже почти всегда ИИ (телекомы, банки, отели, - you name it)
Но… всё хорошо, пока всё хорошо. AI-агенты тоже могут "заболеть" - только их вирусы это дезинформация, малварь, джейлбрейки и заражения RAG. По данным DoomArena, GPT-4o можно сломать в 22,7% случаев в защищённом сценарии, и 78,6% OSWorld, Computer-Use. Для Claude-3.5 attack success rate (ASR) 0,7% и 22,9% соответственно. Главное - судя по архитектуре нынешних мультиагентных систем, успешная атака на к-н популярную модель разлетиться быстрее, чем утренние мемы в чате.
И тут возникают неприятные вопросы: если агент начнет совершать скомпрометированные действия, когда мы это заметим? В тот же день, на следующий, или когда произойдет что-то серьезное? А что делать, когда заметили? "Выдернуть" из розетки, развернуть локальные guardian модели или "вакцинировать" патчами?
На хакатоне Physics x AI Safety Grand Challenge 2025 мы (@GingerSpacetail и Karay.me) занялись именно этой проблемой и сделали фреймворк, который моделирует эпидемии в мире AI-агентов, рассмотрев 8 разных деплоймент сценариев: enterprise, ритейл, трейдинг, кодинг ассистенты, customer service, академия, медицинские AI и критическая инфраструктура. И… внезапно заняли 4-е призовое место среди очень крутых работ.😊
Что именно мы сделали.
Шаг 1. Адаптировали классическую эпидемиологию SEIR-модель для популяции ИИ-агентов.
В основе (любой) эпидемиологической модели лежит система ОДУ (обыкновенных дифференциальных уравнений), описывающая, как "вирус" (в нашем случае скомпрометированное поведение) распространяется среди агентов. Модель SEIR делит популяцию на четыре состояния:
S - Susceptible (уязвимые)
E - Exposed (атакованы, но пока нет "симптомов", или мы их не замечаем)
I - Infectious (активно вредят)
R - Removed (изолированы или "иммунны")
Здесь важны коэффициенты-скорости перехода одного состояния в другое, мы их прикинули на основе открытых данных.
Шаг 2. Подмешали физико-информированные нейросети (Physics-Informed Neural Networks, PINNs) для поиска численного решения ОДУ.
Т.е прямо в функцию потерь добавили физику. Кто хочет математики - residuals, или по-русски невязки уравнений, должны стремиться к нулю. PINNs дают три бонуса:
1. Модель "понимает" законы, по которым развивается процесс.
2. Можно работать и с неполными данными - физика "достраивает" картину.
3. Можно вшивать ASR, MTTD и другие параметры в модель для разных сценариев.
Шаг 3. Прогнали фазовый анализ, нашли точки бифуркаций (где система резко меняет поведение) и аттракторы (куда она падает, как шарик в ямку).
В практическом смысле смогли оценить:
- Какая сейчас эпидемиологическая ситуация среди корпоративных ассистентов, ритейл ботов, медицинских AI и тд.
- Где системы сами стабилизируются, а где уходят в "киберэпидемию" с R_0 > 1
- Какие меры работают лучше: повышение скорости обнаружения (коэфф. gamma), снижение передачи атаки (beta) или "вакцинация" агентов патчами (nu).
А заодно показали, что PINNs отлично работают не только в инженерии или медицине, но и в кибербезопасности.
Что интересно сделать дальше.
Любопытно вместо реактивной киберзащиты отслеживать "эпидемиологию" атак в реальном времени и подбирать меры в зависимости от их стоимости и серьезности, т.е. прогноза, сколько времени осталось до критической точки (заражения 90% агентов).
Поэтому если у вас есть агенты и данные, мы рады коллаборациям (NDA без проблем)
🔗код
📝публикация
Мы всё больше доверяем AI-агентам: они коммитят код, вносят изменения в базы данных, анализируют медицинские данные и блокируют подозрительные транзакции. По данным KPMG 88% компаний с выручкой $1B+ уже используют или деплоят ИИ-агентов. И это сложно не заметить - при общении за к-н сервисом первая линия уже почти всегда ИИ (телекомы, банки, отели, - you name it)
Но… всё хорошо, пока всё хорошо. AI-агенты тоже могут "заболеть" - только их вирусы это дезинформация, малварь, джейлбрейки и заражения RAG. По данным DoomArena, GPT-4o можно сломать в 22,7% случаев в защищённом сценарии, и 78,6% OSWorld, Computer-Use. Для Claude-3.5 attack success rate (ASR) 0,7% и 22,9% соответственно. Главное - судя по архитектуре нынешних мультиагентных систем, успешная атака на к-н популярную модель разлетиться быстрее, чем утренние мемы в чате.
И тут возникают неприятные вопросы: если агент начнет совершать скомпрометированные действия, когда мы это заметим? В тот же день, на следующий, или когда произойдет что-то серьезное? А что делать, когда заметили? "Выдернуть" из розетки, развернуть локальные guardian модели или "вакцинировать" патчами?
На хакатоне Physics x AI Safety Grand Challenge 2025 мы (@GingerSpacetail и Karay.me) занялись именно этой проблемой и сделали фреймворк, который моделирует эпидемии в мире AI-агентов, рассмотрев 8 разных деплоймент сценариев: enterprise, ритейл, трейдинг, кодинг ассистенты, customer service, академия, медицинские AI и критическая инфраструктура. И… внезапно заняли 4-е призовое место среди очень крутых работ.😊
Что именно мы сделали.
Шаг 1. Адаптировали классическую эпидемиологию SEIR-модель для популяции ИИ-агентов.
В основе (любой) эпидемиологической модели лежит система ОДУ (обыкновенных дифференциальных уравнений), описывающая, как "вирус" (в нашем случае скомпрометированное поведение) распространяется среди агентов. Модель SEIR делит популяцию на четыре состояния:
S - Susceptible (уязвимые)
E - Exposed (атакованы, но пока нет "симптомов", или мы их не замечаем)
I - Infectious (активно вредят)
R - Removed (изолированы или "иммунны")
Здесь важны коэффициенты-скорости перехода одного состояния в другое, мы их прикинули на основе открытых данных.
Шаг 2. Подмешали физико-информированные нейросети (Physics-Informed Neural Networks, PINNs) для поиска численного решения ОДУ.
Т.е прямо в функцию потерь добавили физику. Кто хочет математики - residuals, или по-русски невязки уравнений, должны стремиться к нулю. PINNs дают три бонуса:
1. Модель "понимает" законы, по которым развивается процесс.
2. Можно работать и с неполными данными - физика "достраивает" картину.
3. Можно вшивать ASR, MTTD и другие параметры в модель для разных сценариев.
Шаг 3. Прогнали фазовый анализ, нашли точки бифуркаций (где система резко меняет поведение) и аттракторы (куда она падает, как шарик в ямку).
В практическом смысле смогли оценить:
- Какая сейчас эпидемиологическая ситуация среди корпоративных ассистентов, ритейл ботов, медицинских AI и тд.
- Где системы сами стабилизируются, а где уходят в "киберэпидемию" с R_0 > 1
- Какие меры работают лучше: повышение скорости обнаружения (коэфф. gamma), снижение передачи атаки (beta) или "вакцинация" агентов патчами (nu).
А заодно показали, что PINNs отлично работают не только в инженерии или медицине, но и в кибербезопасности.
Что интересно сделать дальше.
Любопытно вместо реактивной киберзащиты отслеживать "эпидемиологию" атак в реальном времени и подбирать меры в зависимости от их стоимости и серьезности, т.е. прогноза, сколько времени осталось до критической точки (заражения 90% агентов).
Поэтому если у вас есть агенты и данные, мы рады коллаборациям (NDA без проблем)
🔗код
📝публикация
❤14🔥12🎉5😁1
🎓 Образование × ИИ: как преподаватели реально используют Claude
Самый спорный кейс - автоматизация оценивания. Всё остальное - про augmentation: планирование курсов, задания, обратная связь, инструменты под задачи.
Антропик выпустили свежий отчёт о том, как преподаватели используют Claude в реальной работе (высшее образование, лето 2025). Интересно не «что умеет модель», а как меняется педагогика на уровне практик.
Главная идея - augmentation, не замена.
ИИ не «делает работу за вас», но помогает думать быстрее и глубже. В подготовке курсов преподаватели используют Claude как ассистента: накидать структуру модуля, выровнять уровень сложности, придумать как проверить понимание. А в исследовательских задачах: собрать источники, предложить план эксперимента, наметить аргументацию (с последующей верификацией человеком, конечно).
Где автоматизация особенно заметна?
В обслуживающих задачах (расписания, шаблоны писем, бюджеты) и частично в оценивании. И вот тут конфликт: соблазн поручить проверку работ ИИ большой, но именно с оцениванием у преподавателей больше всего сомнений - сложно сохранить справедливость, контекст и нюанс.
Новый слой практик - мини-инструменты.
С появлением Artifacts многие делают не только тексты, но и небольшие учебные утилиты прямо «в чате»:
— симуляции и игры под тему модуля;
— автогенерация рубрик и мгновенная обратная связь;
— мини-дашборды для визуализации данных;
— предметные помощники (от стехиометрии до грамматики).
Почему это важно?
1. Персонализация становится реальнее: задания, примеры и объяснения подстраиваются «под скорость» и фон студента.
2. Смена формата оценивания: больше внимания на проверку умения мыслить, а не «сдать правильный ответ».
3. Новая роль преподавателя: куратор и дизайнер опыта обучения, а не только лектор.
4. Навыки будущего: студенты учатся не «бороться с ИИ», а грамотно работать с ним - задавать рамки, проверять, комбинировать.
Пример, который можно попробовать уже сегодня.
Дайте Claude краткое описание темы модуля и уровень группы. Попросите:
«Сгенерируй план из 4 занятий, для каждого - 1 активность на 15 минут, 1 мини-проект на неделю и 3 вопроса для самопроверки. В конце — критерии оценивания в виде рубрики».
Получится хороший «черновик», который вы быстро доведёте до стандарта курса. Это и есть augmentation.
Итог. ИИ в образовании работает лучше всего там, где он усиливает человека: помогает думать, проектировать и давать обратную связь. Автоматизировать стоит то, что точно не снижает качество - расписание, шаблоны, черновики. А вот оценивание требует аккуратности и прозрачных правил.
Вопрос к вам. Как вы уже используете ИИ в обучении — и где проводите границу между «помощью» и «автопилотом»? Что работает/не работает у вас на практике?
Если было полезно - поделитесь с учителями и преподавателями!
Самый спорный кейс - автоматизация оценивания. Всё остальное - про augmentation: планирование курсов, задания, обратная связь, инструменты под задачи.
Антропик выпустили свежий отчёт о том, как преподаватели используют Claude в реальной работе (высшее образование, лето 2025). Интересно не «что умеет модель», а как меняется педагогика на уровне практик.
Главная идея - augmentation, не замена.
ИИ не «делает работу за вас», но помогает думать быстрее и глубже. В подготовке курсов преподаватели используют Claude как ассистента: накидать структуру модуля, выровнять уровень сложности, придумать как проверить понимание. А в исследовательских задачах: собрать источники, предложить план эксперимента, наметить аргументацию (с последующей верификацией человеком, конечно).
Где автоматизация особенно заметна?
В обслуживающих задачах (расписания, шаблоны писем, бюджеты) и частично в оценивании. И вот тут конфликт: соблазн поручить проверку работ ИИ большой, но именно с оцениванием у преподавателей больше всего сомнений - сложно сохранить справедливость, контекст и нюанс.
Новый слой практик - мини-инструменты.
С появлением Artifacts многие делают не только тексты, но и небольшие учебные утилиты прямо «в чате»:
— симуляции и игры под тему модуля;
— автогенерация рубрик и мгновенная обратная связь;
— мини-дашборды для визуализации данных;
— предметные помощники (от стехиометрии до грамматики).
Почему это важно?
1. Персонализация становится реальнее: задания, примеры и объяснения подстраиваются «под скорость» и фон студента.
2. Смена формата оценивания: больше внимания на проверку умения мыслить, а не «сдать правильный ответ».
3. Новая роль преподавателя: куратор и дизайнер опыта обучения, а не только лектор.
4. Навыки будущего: студенты учатся не «бороться с ИИ», а грамотно работать с ним - задавать рамки, проверять, комбинировать.
Пример, который можно попробовать уже сегодня.
Дайте Claude краткое описание темы модуля и уровень группы. Попросите:
«Сгенерируй план из 4 занятий, для каждого - 1 активность на 15 минут, 1 мини-проект на неделю и 3 вопроса для самопроверки. В конце — критерии оценивания в виде рубрики».
Получится хороший «черновик», который вы быстро доведёте до стандарта курса. Это и есть augmentation.
Итог. ИИ в образовании работает лучше всего там, где он усиливает человека: помогает думать, проектировать и давать обратную связь. Автоматизировать стоит то, что точно не снижает качество - расписание, шаблоны, черновики. А вот оценивание требует аккуратности и прозрачных правил.
Вопрос к вам. Как вы уже используете ИИ в обучении — и где проводите границу между «помощью» и «автопилотом»? Что работает/не работает у вас на практике?
Если было полезно - поделитесь с учителями и преподавателями!
❤18🔥4👍1🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Chat: Научите как в VEO3 настраивать голоса и lip syncing
Наблюдаем, как ИИ-ассистенты становятся все популярнее: они все чаще берут на себя рутинные операции и позволяют людям работать быстрее и сосредотачиваться на сложных проектах.
3 сентября Cloud.ru подвёл первые итоги работы AI-помощника Клаудии. Создание виртуальной машины теперь выполняется не за 5-30 минут, а за 1–2 минуты. В среднем Клаудия выполняет задачи в 15 раз быстрее. Чаще всего AI-ассистент помогает запускать веб-сервисы, сайты, Telegram-боты и тестовые окружения.
Кроме того, Клаудия может выполнять функции SRE-агента для мониторинга приложений и алертов по логам, а также FinOps-сценарий для выявления неэффективно используемых ресурсов и рекомендаций по оптимизации. Это следующий шаг в развитии Клаудии — от автоматизации рутинных DevOps-задач к более сложным сценариям SRE и FinOps.
#текстприслан
3 сентября Cloud.ru подвёл первые итоги работы AI-помощника Клаудии. Создание виртуальной машины теперь выполняется не за 5-30 минут, а за 1–2 минуты. В среднем Клаудия выполняет задачи в 15 раз быстрее. Чаще всего AI-ассистент помогает запускать веб-сервисы, сайты, Telegram-боты и тестовые окружения.
Кроме того, Клаудия может выполнять функции SRE-агента для мониторинга приложений и алертов по логам, а также FinOps-сценарий для выявления неэффективно используемых ресурсов и рекомендаций по оптимизации. Это следующий шаг в развитии Клаудии — от автоматизации рутинных DevOps-задач к более сложным сценариям SRE и FinOps.
#текстприслан
❤6😁6👍4
Forwarded from DLStories
Открыт набор на осенний семестр Deep Learning School! \ (•◡•) /
DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. С этого семестра у курса уже три раздела:
- Часть 1: введение в ML, DL & computer vision. Начинаем с основ машинного обучения и нейросетей, переходим к CNN для обработки картинок, заканчиваем переносом стиля изображений и GAN.
- Часть 2: обработке естественного языка (NLP). Начинаем с эмбеддингов слов и заканчиваем GPT-2,3, RLHF, RAG и другими актуальными темами вокруг LLM.
- Audio & speech processing. Это отдельный семестровый курс, полностью посвященный обработке аудио и речи. Начинаем с основных способ представления аудиосигналов, переходим к задачам и моделям, Speech LLM и Multimodal LLM.
Регистироваться на курс тут. Форму регистрации обязательно нужно заполнить, если хотите получить диплом по окончании курсов.
Старт обучения — 20 сентября. В этот день откроется первое занятие.
Немного подробнее про DLS:
Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра, которые будет не стыдно показывать на собеседованиях. Больше информации об организации курса и программы обучения можно найти тут.
Ну и, как обычно, этом семестре мы продолжаем улучшать многие занятия и домашки, записывать новые версии лекций и семинаров.
Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий. Среди них — я (Таня), буду вести у вас несколько лекций в обеих частях курса.
Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.
❗️Для первой чати курса также есть возможность приобрести дополнительный пакет, в который входит индивидуальная поддержка от менторов и преподавателей в прохождении курса, дополнительные вебинары и возможность переноса дедлайнов по домашкам. Подробнее о нем читайте на нашем сайте.
Ссылки:
Наш сайт
Тг-канал с новостями DLS
Подробная программа и оргинформация обоих частей курса
Ответы на часто задаваемые вопросы (F.A.Q)
Наш YouTube (тут видео всех лекций и семинаров школы, а также открытые лекции и интервью)
Наша группа VK
🧡 Поддержать нашу школу на Boosty
Если остались вопросы, задавайте их нам на почту (dlphystech@gmail.com), в комментариях тг-канала DLS или в комментарии под этим постом.
Ждём вас в чатиках курса в новом семестре!
DLschool — это школа при ФПМИ МФТИ, где мы учим нейронным сетям с самых азов до продвинутого уровня. С этого семестра у курса уже три раздела:
- Часть 1: введение в ML, DL & computer vision. Начинаем с основ машинного обучения и нейросетей, переходим к CNN для обработки картинок, заканчиваем переносом стиля изображений и GAN.
- Часть 2: обработке естественного языка (NLP). Начинаем с эмбеддингов слов и заканчиваем GPT-2,3, RLHF, RAG и другими актуальными темами вокруг LLM.
- Audio & speech processing. Это отдельный семестровый курс, полностью посвященный обработке аудио и речи. Начинаем с основных способ представления аудиосигналов, переходим к задачам и моделям, Speech LLM и Multimodal LLM.
Регистироваться на курс тут. Форму регистрации обязательно нужно заполнить, если хотите получить диплом по окончании курсов.
Старт обучения — 20 сентября. В этот день откроется первое занятие.
Немного подробнее про DLS:
Особенность нашей школы в том, что мы даем много практики (теория при этом тоже есть, разумеется, и немало). Вам предстоит много практических домашних заданий и самостоятельный итоговый проект в конце семестра, которые будет не стыдно показывать на собеседованиях. Больше информации об организации курса и программы обучения можно найти тут.
Ну и, как обычно, этом семестре мы продолжаем улучшать многие занятия и домашки, записывать новые версии лекций и семинаров.
Преподаватели школы — ведущие специалисты российских и зарубежных IT-компаний и научные сотрудники исследовательских лабораторий. Среди них — я (Таня), буду вести у вас несколько лекций в обеих частях курса.
Школа бесплатная. Полностью онлайн: учиться можно из любой точки мира, где есть интернет. Занятия проходят раз в неделю — лекция, семинар и домашнее задание. Обучение проходит на платформе Stepik. Берем всех, отбора нет.
❗️Для первой чати курса также есть возможность приобрести дополнительный пакет, в который входит индивидуальная поддержка от менторов и преподавателей в прохождении курса, дополнительные вебинары и возможность переноса дедлайнов по домашкам. Подробнее о нем читайте на нашем сайте.
Ссылки:
Наш сайт
Тг-канал с новостями DLS
Подробная программа и оргинформация обоих частей курса
Ответы на часто задаваемые вопросы (F.A.Q)
Наш YouTube (тут видео всех лекций и семинаров школы, а также открытые лекции и интервью)
Наша группа VK
🧡 Поддержать нашу школу на Boosty
Если остались вопросы, задавайте их нам на почту (dlphystech@gmail.com), в комментариях тг-канала DLS или в комментарии под этим постом.
Ждём вас в чатиках курса в новом семестре!
🔥7👍3❤1
Forwarded from Журнал НОЖ
Палимпсесты: как ИИ помогает читать стёртые рукописи?
Под верхним слоем средневековых манускриптов прячутся тысячи утраченных текстов. Писцы часто стирали старый текст, чтобы сэкономить пергамент, и писали новый текст поверх.
Манускрипт фотографируют в нескольких спектрах. Полученные кадры совмещают и «чистят», собирая из них единый «куб» данных. Потом алгоритмы отделяют верхний слой от нижнего и усиливают слабые контуры букв.
Затем используют системы распознавания рукописного текста (HTR), которые предлагают свою интерпретацию. Там, где буквы утрачены, модель даёт варианты реконструкции, но последнее слово остаётся за филологом.
Такие находки меняют наше понимание эпох: в палимпсестах всплывают ранние версии богослужебных текстов, утраченные трактаты, частная переписка.
#Мнение простыми словами подготовил редактор канала «AI для всех».
Под верхним слоем средневековых манускриптов прячутся тысячи утраченных текстов. Писцы часто стирали старый текст, чтобы сэкономить пергамент, и писали новый текст поверх.
Манускрипт фотографируют в нескольких спектрах. Полученные кадры совмещают и «чистят», собирая из них единый «куб» данных. Потом алгоритмы отделяют верхний слой от нижнего и усиливают слабые контуры букв.
Затем используют системы распознавания рукописного текста (HTR), которые предлагают свою интерпретацию. Там, где буквы утрачены, модель даёт варианты реконструкции, но последнее слово остаётся за филологом.
Такие находки меняют наше понимание эпох: в палимпсестах всплывают ранние версии богослужебных текстов, утраченные трактаты, частная переписка.
#Мнение простыми словами подготовил редактор канала «AI для всех».
🔥21👍10❤7
ChatGPT: главное из исследования 700 млн пользователей
Три года назад ChatGPT был игрушкой для гиков. Сегодня - 700 миллионов активных пользователей еженедельно, 18 миллиардов сообщений в неделю. Harvard и OpenAI проанализировали, как люди реально используют этот инструмент.
Стереотипы рухнули
Забудьте про “ChatGPT для программистов-мужчин”. К июню 2025 женщины - половина аудитории. Почти 50% запросов от людей младше 26, но старшее поколение догоняет. Самое неожиданное: развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу.
Три способа использования
Asking (49%) - “Помоги разобраться”
Не просто вопросы, а поддержка решений. Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда. Растёт быстрее всех и получает высшие оценки качества.
Doing (40%) - “Сделай за меня”
Письма, презентации, код. Доминирует в рабочих задачах (56% рабочих запросов).
Expressing (11%) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка.
О чём спрашивают (75% всех запросов)
Практические советы - 29%
От починки крана до ведения переговоров.
Поиск информации - 24%
Выросло с 14% за год. ChatGPT вытесняет Google для фактчекинга и сравнения товаров.
Написание текстов - 24%
Упало с 36%. Важно: 2/3 — редактирование вашего текста, не генерация с нуля.
Сюрпризы
Кодинг - всего 4.2%**
Программисты ушли в специализированные инструменты (Cursor, Copilot).
Работа vs личная жизнь: 30/70
70% использования — личные задачи, и эта доля растёт. В работе 40% — тексты: email, презентации, документы.
Где настоящая ценность
Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений. ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы.
Пример: выбирал между двумя квартирами. ChatGPT предложил критерии, которые я не учёл - от розы ветров до демографии района через 10 лет. Решение за день вместо недель.
Вопрос: Вы больше спрашиваете советы (Asking) или делегируете задачи (Doing)? Где ChatGPT дал максимальную пользу - работа или быт?
Исследование
Три года назад ChatGPT был игрушкой для гиков. Сегодня - 700 миллионов активных пользователей еженедельно, 18 миллиардов сообщений в неделю. Harvard и OpenAI проанализировали, как люди реально используют этот инструмент.
Стереотипы рухнули
Забудьте про “ChatGPT для программистов-мужчин”. К июню 2025 женщины - половина аудитории. Почти 50% запросов от людей младше 26, но старшее поколение догоняет. Самое неожиданное: развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу.
Три способа использования
Asking (49%) - “Помоги разобраться”
Не просто вопросы, а поддержка решений. Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда. Растёт быстрее всех и получает высшие оценки качества.
Doing (40%) - “Сделай за меня”
Письма, презентации, код. Доминирует в рабочих задачах (56% рабочих запросов).
Expressing (11%) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка.
О чём спрашивают (75% всех запросов)
Практические советы - 29%
От починки крана до ведения переговоров.
Поиск информации - 24%
Выросло с 14% за год. ChatGPT вытесняет Google для фактчекинга и сравнения товаров.
Написание текстов - 24%
Упало с 36%. Важно: 2/3 — редактирование вашего текста, не генерация с нуля.
Сюрпризы
Кодинг - всего 4.2%**
Программисты ушли в специализированные инструменты (Cursor, Copilot).
Работа vs личная жизнь: 30/70
70% использования — личные задачи, и эта доля растёт. В работе 40% — тексты: email, презентации, документы.
Где настоящая ценность
Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений. ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы.
Пример: выбирал между двумя квартирами. ChatGPT предложил критерии, которые я не учёл - от розы ветров до демографии района через 10 лет. Решение за день вместо недель.
Вопрос: Вы больше спрашиваете советы (Asking) или делегируете задачи (Doing)? Где ChatGPT дал максимальную пользу - работа или быт?
Исследование
1❤28👍15😐2
DigitalMarketingConf: Стачка
Digital-маркетинг | 2-3 октября | Питер
Секция объединит практикующих маркетологов, бренд-менеджеров и специалистов digital-сферы. Здесь вы получите реальные инструменты для интеграции каналов, оптимизации бюджетов и повышения ROI, а не просто теорию на слайдах.
На секции выступят спикеры из ведущих компаний, среди них:
→ Светлана Федорова, руководитель департамента продвижения и PR в Союзмультфильм. Тема доклада: «Битва за Альф - это вам не игрушки»
→ Алексей Павлов, PR в BesedER. Тема доклада: «Дофаминовый маркетинг: проектируем игровые механики под ваши бизнес-задачи»
Разберём ключевые направления: Взаимодействие digital-инструментов и AI в маркетинге.
А после основной программы – афтепати, чтобы обсудить услышанное в неформальной обстановке и найти партнёров и единомышленников!
Форматы участия: онлайн и офлайн (2-3 октября в Санкт-Петербурге)
Купить билет можно на сайте
По промокодку
Следите за новостями в Телеграм и ВКонтакте
#промо
Digital-маркетинг | 2-3 октября | Питер
Секция объединит практикующих маркетологов, бренд-менеджеров и специалистов digital-сферы. Здесь вы получите реальные инструменты для интеграции каналов, оптимизации бюджетов и повышения ROI, а не просто теорию на слайдах.
На секции выступят спикеры из ведущих компаний, среди них:
→ Светлана Федорова, руководитель департамента продвижения и PR в Союзмультфильм. Тема доклада: «Битва за Альф - это вам не игрушки»
→ Алексей Павлов, PR в BesedER. Тема доклада: «Дофаминовый маркетинг: проектируем игровые механики под ваши бизнес-задачи»
Разберём ключевые направления: Взаимодействие digital-инструментов и AI в маркетинге.
А после основной программы – афтепати, чтобы обсудить услышанное в неформальной обстановке и найти партнёров и единомышленников!
Форматы участия: онлайн и офлайн (2-3 октября в Санкт-Петербурге)
Купить билет можно на сайте
По промокодку
Nn_for_science скидка 10%!Следите за новостями в Телеграм и ВКонтакте
#промо
❤5🔥4😁1
Вот такой вот новый транспорт предлагают жителям Сан Франциско. Обещают что, по вейтлисту, дадут доступ к этому беспилотному такси до конца сентября!
🔥18❤8
🤝 Встретил @denissexy
Обсуждали с ним, что мы живём в демках и твиттере - и легко поверить, что массовое внедрениеAI уже случилось. Выходишь из пузыря: цели размыты, пилоты «для галочки», ответственности за результат нет.
Еще поговорили про Skill issue - это когда инструмент «винят» за ошибку постановки задачи: дают грязные данные, просят «сделай красиво», не задают критерии качества и владельца, не делают пост-проверки. Итог - «AI не работает».
Что делать на практике:
Вспоминаем что AI система - это в первую очередь система, и во вторую AI, и итеративно улучшаем: сначала данные, потом инструкцию, потом модель.
Обсуждали с ним, что мы живём в демках и твиттере - и легко поверить, что массовое внедрениеAI уже случилось. Выходишь из пузыря: цели размыты, пилоты «для галочки», ответственности за результат нет.
Еще поговорили про Skill issue - это когда инструмент «винят» за ошибку постановки задачи: дают грязные данные, просят «сделай красиво», не задают критерии качества и владельца, не делают пост-проверки. Итог - «AI не работает».
Что делать на практике:
Вспоминаем что AI система - это в первую очередь система, и во вторую AI, и итеративно улучшаем: сначала данные, потом инструкцию, потом модель.
1❤54🔥7👍5😁5🎉3😢1