Хакеры придумали, как украсть вашу крипту через VS Code 😱
Группа Lazarus нашла способ заражать разработчиков прямо через редактор кода. Никаких сомнительных ссылок — только стандартные функции VS Code.
Сценарий атаки:
Вам пишет «рекрутер» с офером мечты в крипто-стартап. Просит склонировать репозиторий и пофиксить баг. Вы открываете папку в VS Code, жмёте «Yes, I trust» — и всё, поздно пить боржоми 💀
В .vscode лежит tasks.json с параметром runOn: folderOpen. Редактор послушно запускает вредоносный скрипт в фоне.
Что улетает к хакерам:
— Все ваши криптокошельки (40+ типов: MetaMask, Phantom, Binance)
— Пароли из браузеров
— Доступы к системе + бэкдор для удалённого управления
Как защититься:
Тестовые задания открываем только в Docker или виртуалке. Перед запуском проекта заглядываем в .vscode/tasks.json — там не должно быть ничего подозрительного.
Берегите свои биткоины 🔐
@ai_for_dev
Группа Lazarus нашла способ заражать разработчиков прямо через редактор кода. Никаких сомнительных ссылок — только стандартные функции VS Code.
Сценарий атаки:
Вам пишет «рекрутер» с офером мечты в крипто-стартап. Просит склонировать репозиторий и пофиксить баг. Вы открываете папку в VS Code, жмёте «Yes, I trust» — и всё, поздно пить боржоми 💀
В .vscode лежит tasks.json с параметром runOn: folderOpen. Редактор послушно запускает вредоносный скрипт в фоне.
Что улетает к хакерам:
— Все ваши криптокошельки (40+ типов: MetaMask, Phantom, Binance)
— Пароли из браузеров
— Доступы к системе + бэкдор для удалённого управления
Как защититься:
Тестовые задания открываем только в Docker или виртуалке. Перед запуском проекта заглядываем в .vscode/tasks.json — там не должно быть ничего подозрительного.
Берегите свои биткоины 🔐
@ai_for_dev
👍1
Сколько кода реально пишет AI? Отвечают Microsoft, Google и Meta
MIT Technology Review назвал AI-кодогенерацию прорывной технологией 2026. Но что происходит на практике?
💻 Цифры, которые стоит знать:
• В Microsoft AI пишет до 30% кода
• В Google — больше 25%
• Марк Цукерберг говорит, что в Meta скоро большая часть кода будет AI-генерируемой
🚀 Инструменты вроде Copilot, Cursor, Lovable и Replit дошли до того, что даже люди без опыта программирования могут собрать рабочее приложение через промпты.
Но есть нюанс 👇
AI может выдавать ошибки, которые без человеческой проверки уйдут в продакшн. Поэтому экспертиза разработчика никуда не делась.
📉 Обратная сторона: меньше позиций для джунов. AI упрощает задачи, но делает порог входа выше — нужно понимать, что проверять.
Читать полностью на MIT Technology Review
@ai_for_dev
MIT Technology Review назвал AI-кодогенерацию прорывной технологией 2026. Но что происходит на практике?
💻 Цифры, которые стоит знать:
• В Microsoft AI пишет до 30% кода
• В Google — больше 25%
• Марк Цукерберг говорит, что в Meta скоро большая часть кода будет AI-генерируемой
🚀 Инструменты вроде Copilot, Cursor, Lovable и Replit дошли до того, что даже люди без опыта программирования могут собрать рабочее приложение через промпты.
Но есть нюанс 👇
AI может выдавать ошибки, которые без человеческой проверки уйдут в продакшн. Поэтому экспертиза разработчика никуда не делась.
📉 Обратная сторона: меньше позиций для джунов. AI упрощает задачи, но делает порог входа выше — нужно понимать, что проверять.
Читать полностью на MIT Technology Review
@ai_for_dev
MIT Technology Review
Generative coding: 10 Breakthrough Technologies 2026
AI coding tools are rapidly changing how we produce software, and the industry is embracing it—perhaps at the expense of entry-level coding jobs.
Почему ваш чат-бот тормозит: разбираемся в кэшировании промптов
Классная статья про то, как устроено кэширование в продакшн-системах LLM 🚀
Автор делился фичей в жёсткие сроки и засунул пользовательские данные в конец системного промпта. Работало, но медленно. Оказалось — он неправильно понимал, как работает кэш.
Главный инсайт: провайдеры вроде OpenAI обрабатывают запросы асинхронно на кластерах GPU. Ваш системный промпт может попасть в кэш между РАЗНЫМИ пользователями, а не только в рамках одной сессии.
📌 Что внутри:
PagedAttention — vLLM разбивает KV-кэш на блоки (как страницы памяти в ОС) вместо выделения гигантского непрерывного куска. Это убивает фрагментацию.
Prefix caching — блоки хешируются и переиспользуются. Совпал префикс → пропускаем prefill → моментальный ответ.
✅ Как попадать в кэш:
— Системный промпт должен быть одинаковым для всех юзеров
— Всё изменяемое (контекст, данные) — в конец
— Не вставляйте динамику в середину промпта
Теория + практические примеры. Рекомендую, если работаете с LLM API.
Статья
@ai_for_dev
Классная статья про то, как устроено кэширование в продакшн-системах LLM 🚀
Автор делился фичей в жёсткие сроки и засунул пользовательские данные в конец системного промпта. Работало, но медленно. Оказалось — он неправильно понимал, как работает кэш.
Главный инсайт: провайдеры вроде OpenAI обрабатывают запросы асинхронно на кластерах GPU. Ваш системный промпт может попасть в кэш между РАЗНЫМИ пользователями, а не только в рамках одной сессии.
📌 Что внутри:
PagedAttention — vLLM разбивает KV-кэш на блоки (как страницы памяти в ОС) вместо выделения гигантского непрерывного куска. Это убивает фрагментацию.
Prefix caching — блоки хешируются и переиспользуются. Совпал префикс → пропускаем prefill → моментальный ответ.
✅ Как попадать в кэш:
— Системный промпт должен быть одинаковым для всех юзеров
— Всё изменяемое (контекст, данные) — в конец
— Не вставляйте динамику в середину промпта
Теория + практические примеры. Рекомендую, если работаете с LLM API.
Статья
@ai_for_dev
Хабр
Как работает кэширование промптов — PagedAttention и автоматическое кэширование префикса плюс практические советы
Содержание Предыстория и мотивация — коротко о том, зачем я написал этот пост, и краткий обзор территории, куда мы сейчас полезем. Советы, как стабильнее попадать в кэш промпта — зачем вообще нужно...
Редактор Fresh: наконец-то Vim с человеческим лицом 😄
Если вы так и не осилили выход из Vim, но хотите быстрый редактор для терминала — вот решение. Fresh берёт скорость консоли и добавляет привычный интерфейс из Sublime/VS Code.
Что реально крутое:
• Просто открыл и пишешь — работают обычные шорткаты, есть мышь и меню
• Мгновенно открывает файлы на несколько гигабайт, стримя данные с диска
• Вкладки, мультикурсоры, Command Palette и встроенный LSP для автодополнения
• Плагины на TypeScript в песочнице Deno
Идеально для редактирования конфигов на серверах или работы с огромными логами. Пока другие редакторы тормозят и жрут оперативку, Fresh держит стабильную производительность на любом объёме данных.
Попробовать Fresh
@ai_for_dev
Если вы так и не осилили выход из Vim, но хотите быстрый редактор для терминала — вот решение. Fresh берёт скорость консоли и добавляет привычный интерфейс из Sublime/VS Code.
Что реально крутое:
• Просто открыл и пишешь — работают обычные шорткаты, есть мышь и меню
• Мгновенно открывает файлы на несколько гигабайт, стримя данные с диска
• Вкладки, мультикурсоры, Command Palette и встроенный LSP для автодополнения
• Плагины на TypeScript в песочнице Deno
Идеально для редактирования конфигов на серверах или работы с огромными логами. Пока другие редакторы тормозят и жрут оперативку, Fresh держит стабильную производительность на любом объёме данных.
Попробовать Fresh
@ai_for_dev
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic выпустила Claude Cowork — Claude Code для всех, кто не пишет код
Представьте: вы ставите задачу вечером, а утром агент на вашем компьютере уже всё сделал. Именно это обещает Claude Cowork — новый инструмент от Anthropic для macOS.
Что умеет:
• Работает с вашими файлами — читает, правит, создаёт документы в выбранной папке
• Действует автономно — составляет план и выполняет его, периодически отчитываясь о прогрессе
• Подключается к вашим сервисам — Google Drive, Slack, браузер (через расширение)
• Не требует терминала — всё работает прямо в приложении Claude
Реальные примеры:
• Разложить хаос в Downloads по папкам с нормальными названиями
• Собрать таблицу трат из кучи скриншотов чеков
• Написать первый драфт отчёта из ваших заметок
Важный момент: агент может удалять файлы, если вы его об этом попросите (или если он неправильно понял задачу). Плюс есть риск prompt injection — когда вредоносные инструкции спрятаны в обрабатываемых файлах.
Пока что это research preview для подписчиков Claude Max. Но уже видно, куда движется индустрия: от чат-ботов к полноценным ассистентам, которые реально работают за вас.
@ai_for_dev
Представьте: вы ставите задачу вечером, а утром агент на вашем компьютере уже всё сделал. Именно это обещает Claude Cowork — новый инструмент от Anthropic для macOS.
Что умеет:
• Работает с вашими файлами — читает, правит, создаёт документы в выбранной папке
• Действует автономно — составляет план и выполняет его, периодически отчитываясь о прогрессе
• Подключается к вашим сервисам — Google Drive, Slack, браузер (через расширение)
• Не требует терминала — всё работает прямо в приложении Claude
Реальные примеры:
• Разложить хаос в Downloads по папкам с нормальными названиями
• Собрать таблицу трат из кучи скриншотов чеков
• Написать первый драфт отчёта из ваших заметок
Важный момент: агент может удалять файлы, если вы его об этом попросите (или если он неправильно понял задачу). Плюс есть риск prompt injection — когда вредоносные инструкции спрятаны в обрабатываемых файлах.
Пока что это research preview для подписчиков Claude Max. Но уже видно, куда движется индустрия: от чат-ботов к полноценным ассистентам, которые реально работают за вас.
@ai_for_dev
Как правильно встроить LLM в приложение: эволюция подходов
Делаете AI-бота? Есть три варианта, от древнего до современного 👇
Rule-based боты — дедовский метод
Помните телефонные автоответчики с «нажмите 1, чтобы...»? Работает надёжно, но масштабировать больно. Плюс диалог получается деревянный.
Управляющие конструкции в промптах — переходный этап
Год-полтора назад было популярно, но сейчас уже костыль. Идея: модель сама парсит специальные команды из текста. Быстро поднять можно, но в продакшене — головная боль.
Tool calling — так делают сейчас
Модель не угадывает, а вызывает нормальные функции. Допустим, бот для записи на встречи:
Результат: бот говорит как человек, галлюцинаций минимум, работает стабильно. С каждой новой моделью становится только лучше.
Глубже в тему — курс по RAG и автоматизации LLM.
@ai_for_dev
Делаете AI-бота? Есть три варианта, от древнего до современного 👇
Rule-based боты — дедовский метод
Помните телефонные автоответчики с «нажмите 1, чтобы...»? Работает надёжно, но масштабировать больно. Плюс диалог получается деревянный.
Управляющие конструкции в промптах — переходный этап
Год-полтора назад было популярно, но сейчас уже костыль. Идея: модель сама парсит специальные команды из текста. Быстро поднять можно, но в продакшене — головная боль.
Tool calling — так делают сейчас
Модель не угадывает, а вызывает нормальные функции. Допустим, бот для записи на встречи:
get_available_slots(start_date, end_date)
book_meeting(date, time, duration_minutes, format)
Результат: бот говорит как человек, галлюцинаций минимум, работает стабильно. С каждой новой моделью становится только лучше.
Глубже в тему — курс по RAG и автоматизации LLM.
@ai_for_dev
FLUX.2-dev теперь работает на RTX 3060 — Black Forest Labs выпустили NVFP4 кванты
Оригинальная FLUX.2-dev была зверской моделью, которая требовала ~90GB видеопамяти. Даже RTX 5090 с трудом справлялась. Теперь всё изменилось — новые кванты NVFP4 сжимают модель до 8GB VRAM.
Что такое NVFP4?
Это формат с 4-битной точностью: 1 бит знака + 2 бита экспоненты + 1 бит мантиссы. Каждые 16 значений получают свой FP8 масштабный коэффициент. Ошибка квантизации: 0.08 против 0.72 у старого E8M0.
Две версии на выбор:
• flux2-dev-nvfp4.safetensors (21GB) — полная квантизация, максимальное сжатие
• flux2-dev-nvfp4-mixed.safetensors (22.8GB) — часть весов в BF16 для лучшего качества
Потянет ли твоя карта?
• RTX 3060 12GB / RTX 4060 Ti → да, но 5-8 минут на картинку 1024x1024
• RTX 4090 / RTX 5080 → комфортная работа
• Для 8GB карт используй group_offloading
Качество почти не пострадало:
Тесты на DeepSeek-R1 показывают минимальную деградацию. На Math-500 вообще без потерь (98%), на AIME 2024 даже +2% к точности.
Бонус: энергоэффективность в 50 раз лучше H100 (0.2 Дж/токен против 10 Дж/токен).
@ai_for_dev
Оригинальная FLUX.2-dev была зверской моделью, которая требовала ~90GB видеопамяти. Даже RTX 5090 с трудом справлялась. Теперь всё изменилось — новые кванты NVFP4 сжимают модель до 8GB VRAM.
Что такое NVFP4?
Это формат с 4-битной точностью: 1 бит знака + 2 бита экспоненты + 1 бит мантиссы. Каждые 16 значений получают свой FP8 масштабный коэффициент. Ошибка квантизации: 0.08 против 0.72 у старого E8M0.
Две версии на выбор:
• flux2-dev-nvfp4.safetensors (21GB) — полная квантизация, максимальное сжатие
• flux2-dev-nvfp4-mixed.safetensors (22.8GB) — часть весов в BF16 для лучшего качества
Потянет ли твоя карта?
• RTX 3060 12GB / RTX 4060 Ti → да, но 5-8 минут на картинку 1024x1024
• RTX 4090 / RTX 5080 → комфортная работа
• Для 8GB карт используй group_offloading
Качество почти не пострадало:
Тесты на DeepSeek-R1 показывают минимальную деградацию. На Math-500 вообще без потерь (98%), на AIME 2024 даже +2% к точности.
Бонус: энергоэффективность в 50 раз лучше H100 (0.2 Дж/токен против 10 Дж/токен).
@ai_for_dev
Slackbot научился работать как AI-агент 🤖
Salesforce прокачал встроенного помощника Slack до уровня настоящего AI-агента. Теперь он не просто отвечает на команды, а реально помогает с рутиной.
Что теперь умеет:
• Ищет файлы и информацию по всем вашим корпоративным системам
• Пересказывает суть длинных тредов (наконец-то!)
• Пишет черновики писем и ставит встречи
• Работает с Teams и Google Drive прямо из Slack
• Запускает интеграции и команды по вашему запросу
По словам CTO Salesforce, это полностью новый продукт — от старого Slackbot только имя осталось. Во время внутреннего тестирования коллеги сами начали активно им пользоваться, без всяких обязаловок сверху.
Главная фишка: работаешь в одном окне, не прыгаешь между десятком вкладок.
В планах добавить голосовое управление и возможность серфить интернет вместе с вами.
Доступно для Business+ и Enterprise Grid.
Читать на TechCrunch
@ai_for_dev
Salesforce прокачал встроенного помощника Slack до уровня настоящего AI-агента. Теперь он не просто отвечает на команды, а реально помогает с рутиной.
Что теперь умеет:
• Ищет файлы и информацию по всем вашим корпоративным системам
• Пересказывает суть длинных тредов (наконец-то!)
• Пишет черновики писем и ставит встречи
• Работает с Teams и Google Drive прямо из Slack
• Запускает интеграции и команды по вашему запросу
По словам CTO Salesforce, это полностью новый продукт — от старого Slackbot только имя осталось. Во время внутреннего тестирования коллеги сами начали активно им пользоваться, без всяких обязаловок сверху.
Главная фишка: работаешь в одном окне, не прыгаешь между десятком вкладок.
В планах добавить голосовое управление и возможность серфить интернет вместе с вами.
Доступно для Business+ и Enterprise Grid.
Читать на TechCrunch
@ai_for_dev
CPython научился заимствовать ссылки без лишних операций
В Python 3.15 появилась крутая оптимизация для горячих циклов — теперь интерпретатор умеет брать ссылки на объекты без увеличения счётчика ссылок.
В чём прикол?
Раньше каждый
Простой пример:
На каждой итерации CPython раньше гонял refcount для
Как это работает:
Интерпретатор анализирует код и понимает: объект используется локально, не переопределяется, никуда не утекает — значит, можно взять ссылку временно. Чем-то похоже на borrow checking из Rust, но на уровне байткода.
Что это даёт:
• Меньше операций с памятью
• Меньше нагрузки на CPU cache
• Циклы работают быстрее без изменений в коде
Если интересно, как это выглядит в байткоде и что происходит под капотом — полный разбор тут 🔥
@ai_for_dev
В Python 3.15 появилась крутая оптимизация для горячих циклов — теперь интерпретатор умеет брать ссылки на объекты без увеличения счётчика ссылок.
В чём прикол?
Раньше каждый
LOAD_FAST в цикле увеличивал и уменьшал reference count. Теперь появился LOAD_FAST_BORROW — берёт ссылку временно, не трогая счётчик.Простой пример:
python
def advance(vx, vy, steps):
x, y = 1, 1
for _ in range(steps):
x *= vx
y *= vy
return x, y
На каждой итерации CPython раньше гонял refcount для
vx и vy. Теперь — нет.Как это работает:
Интерпретатор анализирует код и понимает: объект используется локально, не переопределяется, никуда не утекает — значит, можно взять ссылку временно. Чем-то похоже на borrow checking из Rust, но на уровне байткода.
Что это даёт:
• Меньше операций с памятью
• Меньше нагрузки на CPU cache
• Циклы работают быстрее без изменений в коде
Если интересно, как это выглядит в байткоде и что происходит под капотом — полный разбор тут 🔥
@ai_for_dev
Artem Golubin
Recent optimizations in Python's Reference Counting
An overview of recent optimizations in Python's reference counting.
Wine 11.0: нативная синхронизация через ntsync и production-ready WoW64
13 января состоялся релиз Wine 11.0 — открытой реализации Windows Win32 API для Unix-систем.
Ключевые технические изменения:
1. Полная поддержка драйвера ntsync (ядро Linux 6.14+)
• Реализует символьное устройство
• Устраняет накладные расходы на RPC в userspace
• Значительный прирост производительности для Windows-игр
2. Production-ready WoW64
• 32-битные приложения выполняются внутри 64-битных процессов (не требуют 32-битных Unix-процессов)
• Поддержка 16-битных приложений в WoW64-режиме
• Реализованы преобразователи системных вызовов (thunks) для обращения 32-битных PE-модулей к 64-битным Unix-библиотекам
• Унифицированный загрузчик вместо отдельного wine64
• Устаревший режим:
3. Синхронизация потоков
• API Synchronization Barriers в ntdll
• Настройка приоритетов потоков на Linux/macOS
Статистика: 6300 коммитов, 600 закрытых issue, ~50 активных контрибуторов. Поддерживается 5400+ приложений (полная совместимость) + 4400 со стабильной работой.
@ai_for_dev
13 января состоялся релиз Wine 11.0 — открытой реализации Windows Win32 API для Unix-систем.
Ключевые технические изменения:
1. Полная поддержка драйвера ntsync (ядро Linux 6.14+)
• Реализует символьное устройство
/dev/ntsync и примитивы синхронизации NT-ядра• Устраняет накладные расходы на RPC в userspace
• Значительный прирост производительности для Windows-игр
2. Production-ready WoW64
• 32-битные приложения выполняются внутри 64-битных процессов (не требуют 32-битных Unix-процессов)
• Поддержка 16-битных приложений в WoW64-режиме
• Реализованы преобразователи системных вызовов (thunks) для обращения 32-битных PE-модулей к 64-битным Unix-библиотекам
• Унифицированный загрузчик вместо отдельного wine64
• Устаревший режим:
WINEARCH=win323. Синхронизация потоков
• API Synchronization Barriers в ntdll
• Настройка приоритетов потоков на Linux/macOS
Статистика: 6300 коммитов, 600 закрытых issue, ~50 активных контрибуторов. Поддерживается 5400+ приложений (полная совместимость) + 4400 со стабильной работой.
@ai_for_dev