Tailwind CSS чуть не умер, но его спасли в последний момент
8 января Vercel, Google и ещё несколько компаний объявили о спонсорстве Tailwind. И это не благотворительность — проект реально был на грани краха: выручка рухнула на 80%, пришлось уволить 75% команды 😱
В чём проблема? ИИ-ассистенты убивают опенсорс. Разработчики теперь спрашивают у Claude и Copilot, как работает Tailwind, вместо того чтобы заходить в документацию. Трафик упал на 40%, а именно там продавались платные продукты.
Ирония ситуации: создатель Tailwind отклонил PR с добавлением
Гильермо Раух из Vercel написал, что Tailwind — это уже критическая инфраструктура веба, и индустрия должна его поддержать.
История показывает, как ИИ ломает старые бизнес-модели опенсорса. Раньше работало: бесплатный продукт → трафик в доки → конверсия в платные фичи. Теперь этот путь разрушен.
@ai_for_dev
8 января Vercel, Google и ещё несколько компаний объявили о спонсорстве Tailwind. И это не благотворительность — проект реально был на грани краха: выручка рухнула на 80%, пришлось уволить 75% команды 😱
В чём проблема? ИИ-ассистенты убивают опенсорс. Разработчики теперь спрашивают у Claude и Copilot, как работает Tailwind, вместо того чтобы заходить в документацию. Трафик упал на 40%, а именно там продавались платные продукты.
Ирония ситуации: создатель Tailwind отклонил PR с добавлением
llms.txt (файл для удобной работы LLM с доками). Объяснение честное: "Если мы сделаем это, люди вообще перестанут заходить на сайт".Гильермо Раух из Vercel написал, что Tailwind — это уже критическая инфраструктура веба, и индустрия должна его поддержать.
История показывает, как ИИ ломает старые бизнес-модели опенсорса. Раньше работало: бесплатный продукт → трафик в доки → конверсия в платные фичи. Теперь этот путь разрушен.
@ai_for_dev
🤯1
Почему изоляция Python внезапно стала проблемой №1 для AI-агентов
В Python до сих пор нет способа безопасно запустить недоверенный код. И это не потому, что никто не старался — просто язык слишком интроспективный. Через traceback и граф объектов можно добраться до внутренностей интерпретатора, даже если вы «всё закрыли». Песочница внутри Python не работает. Работает только одно — запускать Python внутри песочницы.
Раньше это была почти теоретическая проблема. Теперь — нет.
Python стал языком по умолчанию для AI и агентных систем. Агенты читают файлы, ходят в базы, парсят веб и исполняют код, сгенерированный моделью или пришедший извне. Недоверенный код перестал быть редкостью — он стал частью обычного флоу.
Добавьте к этому prompt injection. LLM не понимают, где системный промпт, а где вредоносная инструкция. И это не лечится «лучшими промптами». Это архитектурная особенность, а значит — вопрос безопасности.
Выход: изоляция и принцип наименьших привилегий. Не давать агенту больше доступа, чем ему действительно нужно, и считать, что однажды он обязательно сделает что-то не так.
Читать дальше — про Firecracker, gVisor, WebAssembly и почему изоляция на уровне задач может оказаться ключевой.
@ai_for_dev
В Python до сих пор нет способа безопасно запустить недоверенный код. И это не потому, что никто не старался — просто язык слишком интроспективный. Через traceback и граф объектов можно добраться до внутренностей интерпретатора, даже если вы «всё закрыли». Песочница внутри Python не работает. Работает только одно — запускать Python внутри песочницы.
Раньше это была почти теоретическая проблема. Теперь — нет.
Python стал языком по умолчанию для AI и агентных систем. Агенты читают файлы, ходят в базы, парсят веб и исполняют код, сгенерированный моделью или пришедший извне. Недоверенный код перестал быть редкостью — он стал частью обычного флоу.
Добавьте к этому prompt injection. LLM не понимают, где системный промпт, а где вредоносная инструкция. И это не лечится «лучшими промптами». Это архитектурная особенность, а значит — вопрос безопасности.
Выход: изоляция и принцип наименьших привилегий. Не давать агенту больше доступа, чем ему действительно нужно, и считать, что однажды он обязательно сделает что-то не так.
Читать дальше — про Firecracker, gVisor, WebAssembly и почему изоляция на уровне задач может оказаться ключевой.
@ai_for_dev
This media is not supported in your browser
VIEW IN TELEGRAM
RL-агенты без GPU-кластера? Теперь реально
Команда проф. Jiaxuan You из UIUC выкатила OpenTinker 🎯
Проблема классического RL: нужны GPU, сложный деплой, куча инженерных костылей. OpenTinker решает это через Reinforcement-Learning-as-a-Service — разбивает пайплайн на микросервисы с простыми API.
Зачем это нужно:
- Обучать агентов можно на обычном железе
- Поддержка и single-turn (решение задач), и multi-turn логики (игры, диалоги)
- Готовые примеры под математику, Gomoku, AlfWorld
- Работает с LLM и VLM моделями
Все эксперименты с метриками — на WandB. Код полностью открытый.
Сайт проекта | GitHub
@ai_for_dev
Команда проф. Jiaxuan You из UIUC выкатила OpenTinker 🎯
Проблема классического RL: нужны GPU, сложный деплой, куча инженерных костылей. OpenTinker решает это через Reinforcement-Learning-as-a-Service — разбивает пайплайн на микросервисы с простыми API.
Зачем это нужно:
- Обучать агентов можно на обычном железе
- Поддержка и single-turn (решение задач), и multi-turn логики (игры, диалоги)
- Готовые примеры под математику, Gomoku, AlfWorld
- Работает с LLM и VLM моделями
Все эксперименты с метриками — на WandB. Код полностью открытый.
Сайт проекта | GitHub
@ai_for_dev
This media is not supported in your browser
VIEW IN TELEGRAM
VS Code научили прокачивать AI-агентов через Agent Skills
Anthropіc запустил открытый стандарт Agent Skills — он позволяет добавлять AI-агентам в VS Code кастомные возможности. Типа плагинов, но для искусственного интеллекта.
Уже работает с Claude Code, скоро добавят в Cursor. Главное — стандарт открытый, так что разработчики смогут создавать свои расширения для AI-помощников прямо в редакторе.
По сути, это шаг к тому, чтобы AI-агенты могли делать не только базовые вещи, но и использовать специализированные инструменты под конкретные задачи.
@ai_for_dev
Anthropіc запустил открытый стандарт Agent Skills — он позволяет добавлять AI-агентам в VS Code кастомные возможности. Типа плагинов, но для искусственного интеллекта.
Уже работает с Claude Code, скоро добавят в Cursor. Главное — стандарт открытый, так что разработчики смогут создавать свои расширения для AI-помощников прямо в редакторе.
По сути, это шаг к тому, чтобы AI-агенты могли делать не только базовые вещи, но и использовать специализированные инструменты под конкретные задачи.
@ai_for_dev
Когда AI пишет почти весь код: что будет с разработчиками?
The Pragmatic Engineer опубликовал размышления о том, как новые модели (Opus 4.5, GPT-5.2, Gemini 3) изменили профессию.
Плохие новости:
Специализация в конкретных языках и стеках теряет смысл. Разделение на frontend/backend может исчезнуть. Даже не-технари теперь могут делать прототипы.
Хорошие новости:
Инженерные навыки (архитектура, тестирование, ревью кода) ценятся больше, чем раньше. Product-подход и системное мышление становятся базой. Tech lead компетенции — теперь минимальные требования.
Неприятная правда:
Больше AI-кода = больше проблем. Слабые практики разработки начнут бить по продукту быстрее.
Автор сам испытал «магию» — написал и задеплоил production-код с телефона через Claude Code for Web, просто промптами и ревью пулл-реквестов.
Вывод: кодер теряет ценность, инженер становится незаменимым.
@ai_for_dev
The Pragmatic Engineer опубликовал размышления о том, как новые модели (Opus 4.5, GPT-5.2, Gemini 3) изменили профессию.
Плохие новости:
Специализация в конкретных языках и стеках теряет смысл. Разделение на frontend/backend может исчезнуть. Даже не-технари теперь могут делать прототипы.
Хорошие новости:
Инженерные навыки (архитектура, тестирование, ревью кода) ценятся больше, чем раньше. Product-подход и системное мышление становятся базой. Tech lead компетенции — теперь минимальные требования.
Неприятная правда:
Больше AI-кода = больше проблем. Слабые практики разработки начнут бить по продукту быстрее.
Автор сам испытал «магию» — написал и задеплоил production-код с телефона через Claude Code for Web, просто промптами и ревью пулл-реквестов.
Вывод: кодер теряет ценность, инженер становится незаменимым.
@ai_for_dev
Pragmaticengineer
When AI writes almost all code, what happens to software engineering?
No longer a hypothetical question, this is a mega-trend set to hit the tech industry
Хакеры придумали, как украсть вашу крипту через VS Code 😱
Группа Lazarus нашла способ заражать разработчиков прямо через редактор кода. Никаких сомнительных ссылок — только стандартные функции VS Code.
Сценарий атаки:
Вам пишет «рекрутер» с офером мечты в крипто-стартап. Просит склонировать репозиторий и пофиксить баг. Вы открываете папку в VS Code, жмёте «Yes, I trust» — и всё, поздно пить боржоми 💀
В .vscode лежит tasks.json с параметром runOn: folderOpen. Редактор послушно запускает вредоносный скрипт в фоне.
Что улетает к хакерам:
— Все ваши криптокошельки (40+ типов: MetaMask, Phantom, Binance)
— Пароли из браузеров
— Доступы к системе + бэкдор для удалённого управления
Как защититься:
Тестовые задания открываем только в Docker или виртуалке. Перед запуском проекта заглядываем в .vscode/tasks.json — там не должно быть ничего подозрительного.
Берегите свои биткоины 🔐
@ai_for_dev
Группа Lazarus нашла способ заражать разработчиков прямо через редактор кода. Никаких сомнительных ссылок — только стандартные функции VS Code.
Сценарий атаки:
Вам пишет «рекрутер» с офером мечты в крипто-стартап. Просит склонировать репозиторий и пофиксить баг. Вы открываете папку в VS Code, жмёте «Yes, I trust» — и всё, поздно пить боржоми 💀
В .vscode лежит tasks.json с параметром runOn: folderOpen. Редактор послушно запускает вредоносный скрипт в фоне.
Что улетает к хакерам:
— Все ваши криптокошельки (40+ типов: MetaMask, Phantom, Binance)
— Пароли из браузеров
— Доступы к системе + бэкдор для удалённого управления
Как защититься:
Тестовые задания открываем только в Docker или виртуалке. Перед запуском проекта заглядываем в .vscode/tasks.json — там не должно быть ничего подозрительного.
Берегите свои биткоины 🔐
@ai_for_dev
👍1
Сколько кода реально пишет AI? Отвечают Microsoft, Google и Meta
MIT Technology Review назвал AI-кодогенерацию прорывной технологией 2026. Но что происходит на практике?
💻 Цифры, которые стоит знать:
• В Microsoft AI пишет до 30% кода
• В Google — больше 25%
• Марк Цукерберг говорит, что в Meta скоро большая часть кода будет AI-генерируемой
🚀 Инструменты вроде Copilot, Cursor, Lovable и Replit дошли до того, что даже люди без опыта программирования могут собрать рабочее приложение через промпты.
Но есть нюанс 👇
AI может выдавать ошибки, которые без человеческой проверки уйдут в продакшн. Поэтому экспертиза разработчика никуда не делась.
📉 Обратная сторона: меньше позиций для джунов. AI упрощает задачи, но делает порог входа выше — нужно понимать, что проверять.
Читать полностью на MIT Technology Review
@ai_for_dev
MIT Technology Review назвал AI-кодогенерацию прорывной технологией 2026. Но что происходит на практике?
💻 Цифры, которые стоит знать:
• В Microsoft AI пишет до 30% кода
• В Google — больше 25%
• Марк Цукерберг говорит, что в Meta скоро большая часть кода будет AI-генерируемой
🚀 Инструменты вроде Copilot, Cursor, Lovable и Replit дошли до того, что даже люди без опыта программирования могут собрать рабочее приложение через промпты.
Но есть нюанс 👇
AI может выдавать ошибки, которые без человеческой проверки уйдут в продакшн. Поэтому экспертиза разработчика никуда не делась.
📉 Обратная сторона: меньше позиций для джунов. AI упрощает задачи, но делает порог входа выше — нужно понимать, что проверять.
Читать полностью на MIT Technology Review
@ai_for_dev
MIT Technology Review
Generative coding: 10 Breakthrough Technologies 2026
AI coding tools are rapidly changing how we produce software, and the industry is embracing it—perhaps at the expense of entry-level coding jobs.
Почему ваш чат-бот тормозит: разбираемся в кэшировании промптов
Классная статья про то, как устроено кэширование в продакшн-системах LLM 🚀
Автор делился фичей в жёсткие сроки и засунул пользовательские данные в конец системного промпта. Работало, но медленно. Оказалось — он неправильно понимал, как работает кэш.
Главный инсайт: провайдеры вроде OpenAI обрабатывают запросы асинхронно на кластерах GPU. Ваш системный промпт может попасть в кэш между РАЗНЫМИ пользователями, а не только в рамках одной сессии.
📌 Что внутри:
PagedAttention — vLLM разбивает KV-кэш на блоки (как страницы памяти в ОС) вместо выделения гигантского непрерывного куска. Это убивает фрагментацию.
Prefix caching — блоки хешируются и переиспользуются. Совпал префикс → пропускаем prefill → моментальный ответ.
✅ Как попадать в кэш:
— Системный промпт должен быть одинаковым для всех юзеров
— Всё изменяемое (контекст, данные) — в конец
— Не вставляйте динамику в середину промпта
Теория + практические примеры. Рекомендую, если работаете с LLM API.
Статья
@ai_for_dev
Классная статья про то, как устроено кэширование в продакшн-системах LLM 🚀
Автор делился фичей в жёсткие сроки и засунул пользовательские данные в конец системного промпта. Работало, но медленно. Оказалось — он неправильно понимал, как работает кэш.
Главный инсайт: провайдеры вроде OpenAI обрабатывают запросы асинхронно на кластерах GPU. Ваш системный промпт может попасть в кэш между РАЗНЫМИ пользователями, а не только в рамках одной сессии.
📌 Что внутри:
PagedAttention — vLLM разбивает KV-кэш на блоки (как страницы памяти в ОС) вместо выделения гигантского непрерывного куска. Это убивает фрагментацию.
Prefix caching — блоки хешируются и переиспользуются. Совпал префикс → пропускаем prefill → моментальный ответ.
✅ Как попадать в кэш:
— Системный промпт должен быть одинаковым для всех юзеров
— Всё изменяемое (контекст, данные) — в конец
— Не вставляйте динамику в середину промпта
Теория + практические примеры. Рекомендую, если работаете с LLM API.
Статья
@ai_for_dev
Хабр
Как работает кэширование промптов — PagedAttention и автоматическое кэширование префикса плюс практические советы
Содержание Предыстория и мотивация — коротко о том, зачем я написал этот пост, и краткий обзор территории, куда мы сейчас полезем. Советы, как стабильнее попадать в кэш промпта — зачем вообще нужно...
Редактор Fresh: наконец-то Vim с человеческим лицом 😄
Если вы так и не осилили выход из Vim, но хотите быстрый редактор для терминала — вот решение. Fresh берёт скорость консоли и добавляет привычный интерфейс из Sublime/VS Code.
Что реально крутое:
• Просто открыл и пишешь — работают обычные шорткаты, есть мышь и меню
• Мгновенно открывает файлы на несколько гигабайт, стримя данные с диска
• Вкладки, мультикурсоры, Command Palette и встроенный LSP для автодополнения
• Плагины на TypeScript в песочнице Deno
Идеально для редактирования конфигов на серверах или работы с огромными логами. Пока другие редакторы тормозят и жрут оперативку, Fresh держит стабильную производительность на любом объёме данных.
Попробовать Fresh
@ai_for_dev
Если вы так и не осилили выход из Vim, но хотите быстрый редактор для терминала — вот решение. Fresh берёт скорость консоли и добавляет привычный интерфейс из Sublime/VS Code.
Что реально крутое:
• Просто открыл и пишешь — работают обычные шорткаты, есть мышь и меню
• Мгновенно открывает файлы на несколько гигабайт, стримя данные с диска
• Вкладки, мультикурсоры, Command Palette и встроенный LSP для автодополнения
• Плагины на TypeScript в песочнице Deno
Идеально для редактирования конфигов на серверах или работы с огромными логами. Пока другие редакторы тормозят и жрут оперативку, Fresh держит стабильную производительность на любом объёме данных.
Попробовать Fresh
@ai_for_dev
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic выпустила Claude Cowork — Claude Code для всех, кто не пишет код
Представьте: вы ставите задачу вечером, а утром агент на вашем компьютере уже всё сделал. Именно это обещает Claude Cowork — новый инструмент от Anthropic для macOS.
Что умеет:
• Работает с вашими файлами — читает, правит, создаёт документы в выбранной папке
• Действует автономно — составляет план и выполняет его, периодически отчитываясь о прогрессе
• Подключается к вашим сервисам — Google Drive, Slack, браузер (через расширение)
• Не требует терминала — всё работает прямо в приложении Claude
Реальные примеры:
• Разложить хаос в Downloads по папкам с нормальными названиями
• Собрать таблицу трат из кучи скриншотов чеков
• Написать первый драфт отчёта из ваших заметок
Важный момент: агент может удалять файлы, если вы его об этом попросите (или если он неправильно понял задачу). Плюс есть риск prompt injection — когда вредоносные инструкции спрятаны в обрабатываемых файлах.
Пока что это research preview для подписчиков Claude Max. Но уже видно, куда движется индустрия: от чат-ботов к полноценным ассистентам, которые реально работают за вас.
@ai_for_dev
Представьте: вы ставите задачу вечером, а утром агент на вашем компьютере уже всё сделал. Именно это обещает Claude Cowork — новый инструмент от Anthropic для macOS.
Что умеет:
• Работает с вашими файлами — читает, правит, создаёт документы в выбранной папке
• Действует автономно — составляет план и выполняет его, периодически отчитываясь о прогрессе
• Подключается к вашим сервисам — Google Drive, Slack, браузер (через расширение)
• Не требует терминала — всё работает прямо в приложении Claude
Реальные примеры:
• Разложить хаос в Downloads по папкам с нормальными названиями
• Собрать таблицу трат из кучи скриншотов чеков
• Написать первый драфт отчёта из ваших заметок
Важный момент: агент может удалять файлы, если вы его об этом попросите (или если он неправильно понял задачу). Плюс есть риск prompt injection — когда вредоносные инструкции спрятаны в обрабатываемых файлах.
Пока что это research preview для подписчиков Claude Max. Но уже видно, куда движется индустрия: от чат-ботов к полноценным ассистентам, которые реально работают за вас.
@ai_for_dev
Как правильно встроить LLM в приложение: эволюция подходов
Делаете AI-бота? Есть три варианта, от древнего до современного 👇
Rule-based боты — дедовский метод
Помните телефонные автоответчики с «нажмите 1, чтобы...»? Работает надёжно, но масштабировать больно. Плюс диалог получается деревянный.
Управляющие конструкции в промптах — переходный этап
Год-полтора назад было популярно, но сейчас уже костыль. Идея: модель сама парсит специальные команды из текста. Быстро поднять можно, но в продакшене — головная боль.
Tool calling — так делают сейчас
Модель не угадывает, а вызывает нормальные функции. Допустим, бот для записи на встречи:
Результат: бот говорит как человек, галлюцинаций минимум, работает стабильно. С каждой новой моделью становится только лучше.
Глубже в тему — курс по RAG и автоматизации LLM.
@ai_for_dev
Делаете AI-бота? Есть три варианта, от древнего до современного 👇
Rule-based боты — дедовский метод
Помните телефонные автоответчики с «нажмите 1, чтобы...»? Работает надёжно, но масштабировать больно. Плюс диалог получается деревянный.
Управляющие конструкции в промптах — переходный этап
Год-полтора назад было популярно, но сейчас уже костыль. Идея: модель сама парсит специальные команды из текста. Быстро поднять можно, но в продакшене — головная боль.
Tool calling — так делают сейчас
Модель не угадывает, а вызывает нормальные функции. Допустим, бот для записи на встречи:
get_available_slots(start_date, end_date)
book_meeting(date, time, duration_minutes, format)
Результат: бот говорит как человек, галлюцинаций минимум, работает стабильно. С каждой новой моделью становится только лучше.
Глубже в тему — курс по RAG и автоматизации LLM.
@ai_for_dev
FLUX.2-dev теперь работает на RTX 3060 — Black Forest Labs выпустили NVFP4 кванты
Оригинальная FLUX.2-dev была зверской моделью, которая требовала ~90GB видеопамяти. Даже RTX 5090 с трудом справлялась. Теперь всё изменилось — новые кванты NVFP4 сжимают модель до 8GB VRAM.
Что такое NVFP4?
Это формат с 4-битной точностью: 1 бит знака + 2 бита экспоненты + 1 бит мантиссы. Каждые 16 значений получают свой FP8 масштабный коэффициент. Ошибка квантизации: 0.08 против 0.72 у старого E8M0.
Две версии на выбор:
• flux2-dev-nvfp4.safetensors (21GB) — полная квантизация, максимальное сжатие
• flux2-dev-nvfp4-mixed.safetensors (22.8GB) — часть весов в BF16 для лучшего качества
Потянет ли твоя карта?
• RTX 3060 12GB / RTX 4060 Ti → да, но 5-8 минут на картинку 1024x1024
• RTX 4090 / RTX 5080 → комфортная работа
• Для 8GB карт используй group_offloading
Качество почти не пострадало:
Тесты на DeepSeek-R1 показывают минимальную деградацию. На Math-500 вообще без потерь (98%), на AIME 2024 даже +2% к точности.
Бонус: энергоэффективность в 50 раз лучше H100 (0.2 Дж/токен против 10 Дж/токен).
@ai_for_dev
Оригинальная FLUX.2-dev была зверской моделью, которая требовала ~90GB видеопамяти. Даже RTX 5090 с трудом справлялась. Теперь всё изменилось — новые кванты NVFP4 сжимают модель до 8GB VRAM.
Что такое NVFP4?
Это формат с 4-битной точностью: 1 бит знака + 2 бита экспоненты + 1 бит мантиссы. Каждые 16 значений получают свой FP8 масштабный коэффициент. Ошибка квантизации: 0.08 против 0.72 у старого E8M0.
Две версии на выбор:
• flux2-dev-nvfp4.safetensors (21GB) — полная квантизация, максимальное сжатие
• flux2-dev-nvfp4-mixed.safetensors (22.8GB) — часть весов в BF16 для лучшего качества
Потянет ли твоя карта?
• RTX 3060 12GB / RTX 4060 Ti → да, но 5-8 минут на картинку 1024x1024
• RTX 4090 / RTX 5080 → комфортная работа
• Для 8GB карт используй group_offloading
Качество почти не пострадало:
Тесты на DeepSeek-R1 показывают минимальную деградацию. На Math-500 вообще без потерь (98%), на AIME 2024 даже +2% к точности.
Бонус: энергоэффективность в 50 раз лучше H100 (0.2 Дж/токен против 10 Дж/токен).
@ai_for_dev