Резонансное расследование показало: популярные VPN-расширения для браузеров долгое время собирали и продавали переписки пользователей с ИИ-чатами — включая ChatGPT, Claude и Gemini.
Речь не о ноунеймах. Urban VPN Proxy — 6+ млн установок, рейтинг 4.7, значок Featured(!) от Google и Microsoft. Бесплатный VPN, обещающий приватность. На практике — полный перехват ИИ-диалогов.
Расширения внедряли скрипты прямо в страницы ChatGPT, Claude и других ИИ-платформ и перехватывали сетевые запросы на уровне браузера. Это позволяло им видеть весь диалог целиком — промпты, ответы, метаданные и идентификаторы сессий — и отправлять эти данные на собственные серверы и дата-брокерам. Сбор работал постоянно, не зависел от включённого VPN и не отключался в настройках: остановить его можно было только удалением расширения.
Механизм добавили тихим обновлением в июле 2025 года, которое автоматически установилось у пользователей Chrome и Edge. Сбор данных при этом маскировался под функцию «AI-защиты»: она якобы предупреждала о рисках, но на практике не мешала передаче диалогов третьим сторонам. Один и тот же код использовался в нескольких расширениях со статусом Featured, затронув суммарно более 8 миллионов пользователей.
@ai_for_devs
Речь не о ноунеймах. Urban VPN Proxy — 6+ млн установок, рейтинг 4.7, значок Featured(!) от Google и Microsoft. Бесплатный VPN, обещающий приватность. На практике — полный перехват ИИ-диалогов.
Расширения внедряли скрипты прямо в страницы ChatGPT, Claude и других ИИ-платформ и перехватывали сетевые запросы на уровне браузера. Это позволяло им видеть весь диалог целиком — промпты, ответы, метаданные и идентификаторы сессий — и отправлять эти данные на собственные серверы и дата-брокерам. Сбор работал постоянно, не зависел от включённого VPN и не отключался в настройках: остановить его можно было только удалением расширения.
Механизм добавили тихим обновлением в июле 2025 года, которое автоматически установилось у пользователей Chrome и Edge. Сбор данных при этом маскировался под функцию «AI-защиты»: она якобы предупреждала о рисках, но на практике не мешала передаче диалогов третьим сторонам. Один и тот же код использовался в нескольких расширениях со статусом Featured, затронув суммарно более 8 миллионов пользователей.
Если продукт бесплатный и непонятно, на чём он зарабатывает – зарабатывает он на тебе 🙂
@ai_for_devs
Хабр
Как «приватные» VPN-расширения слили переписки 8 миллионов пользователей с ChatGPT и Claude
Команда AI for Devs подготовила перевод резонансного расследования о том, как "приватные" VPN-расширения на самом деле зарабатывают на ваших ИИ-переписках. 8 миллионов пользователей, Featured-бейджи...
1😱16👍13🤯6❤2
😎 Вайбкодим с плагином Kilo Code в VS Code и IntelliJ IDEA из России
В новой статье разбираемся, как организовать вайб-кодинг с плагином Kilo Code в VS Code и IntelliJ IDEA из России.
Пошагово настраиваем Kilo Code через RouterAI, подключаем Claude, GPT, DeepSeek и другие модели, разбираем роли агента, diff-патчи, правила проекта и нюансы работы с контекстом.
📚 Читайте и комментируйте на Хабр.
@ai_for_devs
В новой статье разбираемся, как организовать вайб-кодинг с плагином Kilo Code в VS Code и IntelliJ IDEA из России.
Пошагово настраиваем Kilo Code через RouterAI, подключаем Claude, GPT, DeepSeek и другие модели, разбираем роли агента, diff-патчи, правила проекта и нюансы работы с контекстом.
📚 Читайте и комментируйте на Хабр.
@ai_for_devs
👍18🔥4❤2🤯1
⚡️ Google выпустили Gemini 3 Flash — frontier-интеллект со скоростью Flash и ценой ниже рынка
По бенчмаркам модель выглядит неожиданно сильно. На GPQA Diamond — 90.4%, на Humanity’s Last Exam — 33.7% без инструментов, а на MMMU Pro — 81.2%, почти на уровне Gemini 3 Pro.
При этом Flash уверенно обходит Gemini 2.5 Pro и конкурирует с крупными frontier-моделями, оставаясь в другом ценовом классе.
Ключевая инженерная фишка — управляемый thinking. На сложных задачах модель может «думать дольше», но в среднем использует на 30% меньше токенов, чем 2.5 Pro, сохраняя более высокое качество.
@ai_for_devs
По бенчмаркам модель выглядит неожиданно сильно. На GPQA Diamond — 90.4%, на Humanity’s Last Exam — 33.7% без инструментов, а на MMMU Pro — 81.2%, почти на уровне Gemini 3 Pro.
При этом Flash уверенно обходит Gemini 2.5 Pro и конкурирует с крупными frontier-моделями, оставаясь в другом ценовом классе.
Ключевая инженерная фишка — управляемый thinking. На сложных задачах модель может «думать дольше», но в среднем использует на 30% меньше токенов, чем 2.5 Pro, сохраняя более высокое качество.
@ai_for_devs
❤12👍9🔥5⚡2
⚡️ OpenAI выпустили GPT-5.2-Codex
Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:
• SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)
• Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах
Ключевое отличие — эволюция компакции. Теперь модель лучше удерживает план, корректирует стратегию после неудач и реже скатывается в повторные попытки. Это особенно заметно на больших рефакторингах и миграциях, где Codex теперь дольше работает автономно.
Вторая крупная ось апдейта — defensive cybersecurity. В отличие от 5.1-Codex-Max, GPT-5.2-Codex целенаправленно прокачан под security-workflow: анализ attack surface, воспроизведение уязвимостей, fuzzing и валидацию багов. На профессиональных CTF-оценках это уже третий подряд скачок качества для линейки Codex.
Карточка модели
@ai_for_devs
Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:
• SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)
• Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачах
Ключевое отличие — эволюция компакции. Теперь модель лучше удерживает план, корректирует стратегию после неудач и реже скатывается в повторные попытки. Это особенно заметно на больших рефакторингах и миграциях, где Codex теперь дольше работает автономно.
Вторая крупная ось апдейта — defensive cybersecurity. В отличие от 5.1-Codex-Max, GPT-5.2-Codex целенаправленно прокачан под security-workflow: анализ attack surface, воспроизведение уязвимостей, fuzzing и валидацию багов. На профессиональных CTF-оценках это уже третий подряд скачок качества для линейки Codex.
Карточка модели
@ai_for_devs
1👍20🔥6❤4😁1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?
Подготовили перевод просто пушечной статьи про кэширование промтов. Внутри много теоретической базы изложенной простыми словами, с классными примерами и наглядными анимациями(без математики тоже не обошлось 🫠) .
Вот как сам автор описал свою статью и мы с ним полностью согласны:
📚 Читайте и комментируйте на Хабр.
@ai_for_devs
Подготовили перевод просто пушечной статьи про кэширование промтов. Внутри много теоретической базы изложенной простыми словами, с классными примерами и наглядными анимациями
Вот как сам автор описал свою статью и мы с ним полностью согласны:
Не удовлетворившись ответами в документации вендоров ПО для разработчиков, которые хорошо объясняют, как пользоваться кэшированием промптов, но аккуратно обходят вопрос о том, что именно кэшируется, я решил копнуть глубже.
Я нырнул в кроличью нору устройства LLM, пока не понял, какие именно данные провайдеры кэшируют, для чего они используются и как это делает всё быстрее и дешевле для всех.
К концу этой статьи вы:
– глубже поймёте, как работают LLM
– сформируете новую интуицию о том, почему LLM устроены именно так
– разберётесь, какие именно нули и единицы кэшируются и как это снижает стоимость ваших запросов к LLM
📚 Читайте и комментируйте на Хабр.
@ai_for_devs
51🔥20👍10👏2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Вслед за MCP Anthropic заопенсорсили Skills
Anthropic продолжает последовательно выносить ключевые элементы агентной архитектуры в открытую экосистему.
Вслед за MCP компания заопенсорсила Agent Skills — открытый стандарт для описания и распространения повторяемых агентных workflows между AI-платформами.
Anthropic также запустила каталог skills, доступный на claude.com/connectors. На старте в нем представлены навыки от партнеров, включая: Notion, Canva, Figma, Atlassian и другие SaaS-платформы.
@ai_for_devs
Anthropic продолжает последовательно выносить ключевые элементы агентной архитектуры в открытую экосистему.
Вслед за MCP компания заопенсорсила Agent Skills — открытый стандарт для описания и распространения повторяемых агентных workflows между AI-платформами.
Что такое Skills и зачем они нужны
Skills — это формализованные сценарии действий агента: цепочки инструкций, доступ к инструментам, файлам и вычислениям, которые можно переиспользовать и переносить между средами.
Идея в том, чтобы:
• отделить логику работы агента от конкретной модели;
• сделать навыки воспроизводимыми и проверяемыми;
• упростить распространение лучших практик внутри организаций и экосистемы.
До сих пор подобные механики существовали либо в виде проприетарных prompt-шаблонов, либо как внутренняя логика конкретных фреймворков. Agent Skills пытается зафиксировать это на уровне стандарта.
Anthropic также запустила каталог skills, доступный на claude.com/connectors. На старте в нем представлены навыки от партнеров, включая: Notion, Canva, Figma, Atlassian и другие SaaS-платформы.
@ai_for_devs
🔥18👍10❤7
This media is not supported in your browser
VIEW IN TELEGRAM
😎 Вчера Anthropic завершили неделю, научив Claude Code взаимодействовать с браузером
Модель не только пишет код, но и читает DOM, видит ошибки в консоли и проверяет поведение фич прямо в браузере.
Забираем тут.
@ai_for_devs
Модель не только пишет код, но и читает DOM, видит ошибки в консоли и проверяет поведение фич прямо в браузере.
Забираем тут.
@ai_for_devs
🔥24👍13❤4😁1
🔥 Китайцы снова радуют. Вышла GLM-4.7 – заметный апгрейд именно для агентного кодинга
Z.ai представили GLM-4.7 — новую версию своей модели для кодинга, и апдейт получился не косметическим. Основной фокус — агентные сценарии, терминал и устойчивость на длинных задачах.
По бенчмаркам рост выглядит вполне предметно: SWE-bench Verified — 73.8% (+5.8%), SWE-bench Multilingual — 66.7% (+12.9%), Terminal Bench 2.0 — 41% (+16.5%).
Ключевое отличие GLM-4.7 — работа с мышлением. Модель использует interleaved thinking (думает перед каждым действием), а в агентных сценариях сохраняет reasoning между ходами. За счёт этого длинные цепочки команд в терминале и IDE становятся заметно стабильнее: меньше дрейфа контекста и меньше «переизобретений» одного и того же шага.
Модель уже доступна через API Z.ai и OpenRouter, а веса выложены публично.
@ai_for_devs
Z.ai представили GLM-4.7 — новую версию своей модели для кодинга, и апдейт получился не косметическим. Основной фокус — агентные сценарии, терминал и устойчивость на длинных задачах.
По бенчмаркам рост выглядит вполне предметно: SWE-bench Verified — 73.8% (+5.8%), SWE-bench Multilingual — 66.7% (+12.9%), Terminal Bench 2.0 — 41% (+16.5%).
Ключевое отличие GLM-4.7 — работа с мышлением. Модель использует interleaved thinking (думает перед каждым действием), а в агентных сценариях сохраняет reasoning между ходами. За счёт этого длинные цепочки команд в терминале и IDE становятся заметно стабильнее: меньше дрейфа контекста и меньше «переизобретений» одного и того же шага.
Модель уже доступна через API Z.ai и OpenRouter, а веса выложены публично.
@ai_for_devs
🔥13👍6⚡3😁2❤1
⚡️ Anthropic выкатили нативную поддержку Language Server Protocol (LSP) для Claude Code
LSP даёт агенту доступ к семантике кода: переход к определениям, поиск ссылок, типов и символов на уровне полноценной IDE.
Сейчас CLI-агенты опираются на grep и эвристики контекста, что плохо масштабируется при рефакторинге больших кодовых баз.
Интеграция с LSP должна помочь решить эту проблему.
@ai_for_devs
LSP даёт агенту доступ к семантике кода: переход к определениям, поиск ссылок, типов и символов на уровне полноценной IDE.
Сейчас CLI-агенты опираются на grep и эвристики контекста, что плохо масштабируется при рефакторинге больших кодовых баз.
Интеграция с LSP должна помочь решить эту проблему.
@ai_for_devs
1🔥35👍6🤯5❤1