Линус Торвальдс теперь вайб-кодер 😂
Основатель Linux признался, что визуализатор для своего гитарного проекта написал через AI. Причина простая: "В аналоговых фильтрах шарю больше, чем в Python".
Линус называет это "vibe-coding" — раньше гуглил и копировал код как обезьянка, теперь просто вырезал посредника (себя) и доверил работу AI.
Проект AudioNoise — учебный: цифровые эффекты для гитарной педали. Никакой магии FFT или нейросетевых эмуляций усилителей — только базовые IIR-фильтры и delay-петли. Всё работает с субмиллисекундной задержкой sample-in → sample-out.
Главный месседж: даже Линус Торвальдс использует AI для задач вне своей экспертизы. Это нормально. 🎸
@ai_for_dev
Основатель Linux признался, что визуализатор для своего гитарного проекта написал через AI. Причина простая: "В аналоговых фильтрах шарю больше, чем в Python".
Линус называет это "vibe-coding" — раньше гуглил и копировал код как обезьянка, теперь просто вырезал посредника (себя) и доверил работу AI.
Проект AudioNoise — учебный: цифровые эффекты для гитарной педали. Никакой магии FFT или нейросетевых эмуляций усилителей — только базовые IIR-фильтры и delay-петли. Всё работает с субмиллисекундной задержкой sample-in → sample-out.
Главный месседж: даже Линус Торвальдс использует AI для задач вне своей экспертизы. Это нормально. 🎸
@ai_for_dev
❤1😇1
Forwarded from GPT Spark — Prompt Engineering | ChatGPT | AI (Илья Капустин)
Обещал рассказать как устроена моя сеть тг-каналов, построенная целиком на AI — рассказываю.
Вся система сделана на Claude Code "от и до". Я буквально не написал ни одной строчки кода своими руками — только промпты местами корректировал.
Как это работает:
1. Парсер (используя реальный залогиненный тг-аккаунт) собирает посты из 100+ AI-каналов
2. ИИ сначала анализирует и индексирует каждый пост (тематика, тэги, важность, тип)
3. Затем также ИИ отфильтровывает 80% шума — оставляет только релевантное и значимое
4. Система распределяет по 23 нашим каналам
5. По каждому посту система идёт по ссылкам, изучает источники и подгружает информацию
6. Для каждого канала генерируется 3 варианта текста поста (с учетом ЦА канала — под каждую ЦА свои акцента), автоматически помечая какой вариант получился удачнее других
7. Есть отдельный приятный веб-интерфейс для модерации — пока ещё модерирую сам посты (занимает 10-15 минут в день), чтобы видеть все ошибки и "шероховатости", в ближайшем будущем переключу целиком на ИИ модерацию.
Статистика:
- 1,500 постов обработано за 2 недели
- 300 лучших отобрано (20%)
- 530+ публикаций в 23 канала
- 1 хороший пост = 1-4 публикации в разных каналах
Технический стек
Язык: Python 3.10
База данных: MySQL
Telegram API: Telethon (парсинг + публикация)
AI: Claude Code CLI через дочерний инстанс (не API напрямую — так дешевле)
Веб-панель модерации: Flask + vanilla JS
Оркестрация: systemd (таймеры, сервисы)
Сервер: Ubuntu 20
~12,000 строк кода (~500 KB)
0 строк написано руками — всё через Claude Code
Фишка: Используем дочерний инстанс Claude Code в качестве агента — он работает через CLI и стоит сильно дешевле чем API напрямую. Один запрос = один пост проанализирован.
Текущие расходы: примерно 10 тыс руб в месяц (только на AI, по лимитам хватает 1/2 тарифа Max за $200/мес)
Время разработки: Несколько вечеров/ночей. Перед самым НГ начал — за несколько дней в праздники довёл до ума. Причём параллельно с другими проектами, просто в отдельном окне Claude Code.
Раньше такое делала команда из нескольких человек и нужны были месяцы работы. Сейчас — один человек с Claude Code за считанные дни.
Если интересны детали по конкретным частям (парсер, AI-анализ, модерация, публикация) — пишите в комментах, расскажу подробнее.
Думаю над тем, чтобы показать этот метод подробнее — как строить такие системы с нуля, не написав ни строчки кода руками. Если интересно — ставьте 🤝, пойму что тема актуальна.
@gpt_spark_ru
Вся система сделана на Claude Code "от и до". Я буквально не написал ни одной строчки кода своими руками — только промпты местами корректировал.
Как это работает:
1. Парсер (используя реальный залогиненный тг-аккаунт) собирает посты из 100+ AI-каналов
2. ИИ сначала анализирует и индексирует каждый пост (тематика, тэги, важность, тип)
3. Затем также ИИ отфильтровывает 80% шума — оставляет только релевантное и значимое
4. Система распределяет по 23 нашим каналам
5. По каждому посту система идёт по ссылкам, изучает источники и подгружает информацию
6. Для каждого канала генерируется 3 варианта текста поста (с учетом ЦА канала — под каждую ЦА свои акцента), автоматически помечая какой вариант получился удачнее других
7. Есть отдельный приятный веб-интерфейс для модерации — пока ещё модерирую сам посты (занимает 10-15 минут в день), чтобы видеть все ошибки и "шероховатости", в ближайшем будущем переключу целиком на ИИ модерацию.
Статистика:
- 1,500 постов обработано за 2 недели
- 300 лучших отобрано (20%)
- 530+ публикаций в 23 канала
- 1 хороший пост = 1-4 публикации в разных каналах
Технический стек
Язык: Python 3.10
База данных: MySQL
Telegram API: Telethon (парсинг + публикация)
AI: Claude Code CLI через дочерний инстанс (не API напрямую — так дешевле)
Веб-панель модерации: Flask + vanilla JS
Оркестрация: systemd (таймеры, сервисы)
Сервер: Ubuntu 20
~12,000 строк кода (~500 KB)
0 строк написано руками — всё через Claude Code
Фишка: Используем дочерний инстанс Claude Code в качестве агента — он работает через CLI и стоит сильно дешевле чем API напрямую. Один запрос = один пост проанализирован.
Текущие расходы: примерно 10 тыс руб в месяц (только на AI, по лимитам хватает 1/2 тарифа Max за $200/мес)
Время разработки: Несколько вечеров/ночей. Перед самым НГ начал — за несколько дней в праздники довёл до ума. Причём параллельно с другими проектами, просто в отдельном окне Claude Code.
Раньше такое делала команда из нескольких человек и нужны были месяцы работы. Сейчас — один человек с Claude Code за считанные дни.
Если интересны детали по конкретным частям (парсер, AI-анализ, модерация, публикация) — пишите в комментах, расскажу подробнее.
Думаю над тем, чтобы показать этот метод подробнее — как строить такие системы с нуля, не написав ни строчки кода руками. Если интересно — ставьте 🤝, пойму что тема актуальна.
@gpt_spark_ru
🤝9❤1👎1😨1
Облачная БД или селф-хостинг? Неожиданный выбор разработчика
Облачные провайдеры годами убеждали нас: хостить свою базу — это страшно, сложно и дорого. А вот управляемые сервисы — удобно, надёжно и безопасно. Но так ли это?
Разработчик Pierce Freeman поделился двухлетним опытом селф-хостинга PostgreSQL:
• Тысячи пользователей, десятки миллионов запросов в день
• На поддержку БД уходит 10 минут в неделю (не опечатка!)
• За два года был всего один инцидент — 30 минут во время миграции
• Всё работает быстро, стабильно и заметно дешевле
О деньгах: Инстанс db.r6g.xlarge на AWS стоит $328/месяц (4 vCPU, 32GB RAM). За эти же деньги можно взять выделенный сервер с 32 ядрами и 256GB оперативки.
Главный инсайт автора: большинство управляемых сервисов просто запускают чуть модифицированный Postgres. Лишний слой абстракции мешает оптимизировать запросы и понимать, что реально происходит с производительностью.
В статье — советы по выбору железа и настройке для продакшена. Возможно, пора пересмотреть стереотипы?
@ai_for_dev
Облачные провайдеры годами убеждали нас: хостить свою базу — это страшно, сложно и дорого. А вот управляемые сервисы — удобно, надёжно и безопасно. Но так ли это?
Разработчик Pierce Freeman поделился двухлетним опытом селф-хостинга PostgreSQL:
• Тысячи пользователей, десятки миллионов запросов в день
• На поддержку БД уходит 10 минут в неделю (не опечатка!)
• За два года был всего один инцидент — 30 минут во время миграции
• Всё работает быстро, стабильно и заметно дешевле
О деньгах: Инстанс db.r6g.xlarge на AWS стоит $328/месяц (4 vCPU, 32GB RAM). За эти же деньги можно взять выделенный сервер с 32 ядрами и 256GB оперативки.
Главный инсайт автора: большинство управляемых сервисов просто запускают чуть модифицированный Postgres. Лишний слой абстракции мешает оптимизировать запросы и понимать, что реально происходит с производительностью.
В статье — советы по выбору железа и настройке для продакшена. Возможно, пора пересмотреть стереотипы?
@ai_for_dev
pierce.dev
Go ahead, self-host Postgres | Pierce Freeman
Self-hosting Postgres is simpler and cheaper than managed services suggest, with comparable reliability and better performance tunability.
Запускаем генеративные AI-модели локально на слабом железе
Biniou — это веб-интерфейс, который превращает ваш компьютер в локальную AI-студию. Генерируйте картинки, звук, видео и общайтесь с чатботами прямо на своей машине.
Что умеет:
• Stable Diffusion и Flux для изображений
• Генерация аудио и коротких видео
• Чатботы на базе LLM (включая специализированные для кода)
• Обработка медиа: сжатие, замена лиц, работа с текстом
Почему интересно:
• Хватает 8 ГБ RAM — GPU не обязателен
• Работает полностью оффлайн после установки
• Ваши данные не уходят в облако
Установка под Linux, Windows, macOS и Docker. Свежее обновление от 10.01 добавило новые модели чатботов и LoRA.
Репозиторий на GitHub
@ai_for_dev
Biniou — это веб-интерфейс, который превращает ваш компьютер в локальную AI-студию. Генерируйте картинки, звук, видео и общайтесь с чатботами прямо на своей машине.
Что умеет:
• Stable Diffusion и Flux для изображений
• Генерация аудио и коротких видео
• Чатботы на базе LLM (включая специализированные для кода)
• Обработка медиа: сжатие, замена лиц, работа с текстом
Почему интересно:
• Хватает 8 ГБ RAM — GPU не обязателен
• Работает полностью оффлайн после установки
• Ваши данные не уходят в облако
Установка под Linux, Windows, macOS и Docker. Свежее обновление от 10.01 добавило новые модели чатботов и LoRA.
Репозиторий на GitHub
@ai_for_dev
❤1
Нейронка откликается на вакансии за вас — готовый проект на GitHub
Кто-то наконец автоматизировал поиск работы на hh.ru 🔥
Проект на Python делает три вещи:
1. Парсит вакансии через Playwright
2. Прогоняет их через n8n workflow
3. Генерирует сопроводительные письма через Google Gemini
В репозитории лежит готовый воркфлоу для n8n, настройка занимает минут 15. Всё на русском языке, с примерами
Работает из коробки: настроил поисковый запрос, указал количество страниц — и система сама откликается на подходящие вакансии. Можно кастомизировать промпты для писем под себя.
@ai_for_dev
Кто-то наконец автоматизировал поиск работы на hh.ru 🔥
Проект на Python делает три вещи:
1. Парсит вакансии через Playwright
2. Прогоняет их через n8n workflow
3. Генерирует сопроводительные письма через Google Gemini
В репозитории лежит готовый воркфлоу для n8n, настройка занимает минут 15. Всё на русском языке, с примерами
.env файла и гайдом по получению API ключа Gemini.Работает из коробки: настроил поисковый запрос, указал количество страниц — и система сама откликается на подходящие вакансии. Можно кастомизировать промпты для писем под себя.
@ai_for_dev
❤1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Поднимаем Python-сервер правильно 🚀
Забудьте про
Один скрипт делает всё:
Ставит зависимости, создаёт отдельного пользователя, настраивает venv, пишет systemd-сервис. На выходе — приложение работает как системный сервис, само стартует после перезагрузки и перезапускается при крашах.
Работает для чего угодно:
FastAPI, Flask, боты, воркеры. Сервис сразу слушает на 8000 порту, логи через
Базовая команда:
Никаких костылей — получаете чистую инфраструктуру с первой минуты. Отдельный пользователь без sudo, виртуальное окружение, автоматический Restart=always.
Идеально для MVP, прототипов и боевых API.
Гайд на YouTube
@ai_for_dev
Забудьте про
nohup python app.py & и tmux-сессии. Вот как развернуть нормальный продакшн за 5 минут.Один скрипт делает всё:
Ставит зависимости, создаёт отдельного пользователя, настраивает venv, пишет systemd-сервис. На выходе — приложение работает как системный сервис, само стартует после перезагрузки и перезапускается при крашах.
Работает для чего угодно:
FastAPI, Flask, боты, воркеры. Сервис сразу слушает на 8000 порту, логи через
journalctl -u app -f.Базовая команда:
bash
sudo systemctl enable --now app
Никаких костылей — получаете чистую инфраструктуру с первой минуты. Отдельный пользователь без sudo, виртуальное окружение, автоматический Restart=always.
Идеально для MVP, прототипов и боевых API.
Гайд на YouTube
@ai_for_dev
❤1
Tailwind CSS чуть не умер, но его спасли в последний момент
8 января Vercel, Google и ещё несколько компаний объявили о спонсорстве Tailwind. И это не благотворительность — проект реально был на грани краха: выручка рухнула на 80%, пришлось уволить 75% команды 😱
В чём проблема? ИИ-ассистенты убивают опенсорс. Разработчики теперь спрашивают у Claude и Copilot, как работает Tailwind, вместо того чтобы заходить в документацию. Трафик упал на 40%, а именно там продавались платные продукты.
Ирония ситуации: создатель Tailwind отклонил PR с добавлением
Гильермо Раух из Vercel написал, что Tailwind — это уже критическая инфраструктура веба, и индустрия должна его поддержать.
История показывает, как ИИ ломает старые бизнес-модели опенсорса. Раньше работало: бесплатный продукт → трафик в доки → конверсия в платные фичи. Теперь этот путь разрушен.
@ai_for_dev
8 января Vercel, Google и ещё несколько компаний объявили о спонсорстве Tailwind. И это не благотворительность — проект реально был на грани краха: выручка рухнула на 80%, пришлось уволить 75% команды 😱
В чём проблема? ИИ-ассистенты убивают опенсорс. Разработчики теперь спрашивают у Claude и Copilot, как работает Tailwind, вместо того чтобы заходить в документацию. Трафик упал на 40%, а именно там продавались платные продукты.
Ирония ситуации: создатель Tailwind отклонил PR с добавлением
llms.txt (файл для удобной работы LLM с доками). Объяснение честное: "Если мы сделаем это, люди вообще перестанут заходить на сайт".Гильермо Раух из Vercel написал, что Tailwind — это уже критическая инфраструктура веба, и индустрия должна его поддержать.
История показывает, как ИИ ломает старые бизнес-модели опенсорса. Раньше работало: бесплатный продукт → трафик в доки → конверсия в платные фичи. Теперь этот путь разрушен.
@ai_for_dev
🤯1
Почему изоляция Python внезапно стала проблемой №1 для AI-агентов
В Python до сих пор нет способа безопасно запустить недоверенный код. И это не потому, что никто не старался — просто язык слишком интроспективный. Через traceback и граф объектов можно добраться до внутренностей интерпретатора, даже если вы «всё закрыли». Песочница внутри Python не работает. Работает только одно — запускать Python внутри песочницы.
Раньше это была почти теоретическая проблема. Теперь — нет.
Python стал языком по умолчанию для AI и агентных систем. Агенты читают файлы, ходят в базы, парсят веб и исполняют код, сгенерированный моделью или пришедший извне. Недоверенный код перестал быть редкостью — он стал частью обычного флоу.
Добавьте к этому prompt injection. LLM не понимают, где системный промпт, а где вредоносная инструкция. И это не лечится «лучшими промптами». Это архитектурная особенность, а значит — вопрос безопасности.
Выход: изоляция и принцип наименьших привилегий. Не давать агенту больше доступа, чем ему действительно нужно, и считать, что однажды он обязательно сделает что-то не так.
Читать дальше — про Firecracker, gVisor, WebAssembly и почему изоляция на уровне задач может оказаться ключевой.
@ai_for_dev
В Python до сих пор нет способа безопасно запустить недоверенный код. И это не потому, что никто не старался — просто язык слишком интроспективный. Через traceback и граф объектов можно добраться до внутренностей интерпретатора, даже если вы «всё закрыли». Песочница внутри Python не работает. Работает только одно — запускать Python внутри песочницы.
Раньше это была почти теоретическая проблема. Теперь — нет.
Python стал языком по умолчанию для AI и агентных систем. Агенты читают файлы, ходят в базы, парсят веб и исполняют код, сгенерированный моделью или пришедший извне. Недоверенный код перестал быть редкостью — он стал частью обычного флоу.
Добавьте к этому prompt injection. LLM не понимают, где системный промпт, а где вредоносная инструкция. И это не лечится «лучшими промптами». Это архитектурная особенность, а значит — вопрос безопасности.
Выход: изоляция и принцип наименьших привилегий. Не давать агенту больше доступа, чем ему действительно нужно, и считать, что однажды он обязательно сделает что-то не так.
Читать дальше — про Firecracker, gVisor, WebAssembly и почему изоляция на уровне задач может оказаться ключевой.
@ai_for_dev
This media is not supported in your browser
VIEW IN TELEGRAM
RL-агенты без GPU-кластера? Теперь реально
Команда проф. Jiaxuan You из UIUC выкатила OpenTinker 🎯
Проблема классического RL: нужны GPU, сложный деплой, куча инженерных костылей. OpenTinker решает это через Reinforcement-Learning-as-a-Service — разбивает пайплайн на микросервисы с простыми API.
Зачем это нужно:
- Обучать агентов можно на обычном железе
- Поддержка и single-turn (решение задач), и multi-turn логики (игры, диалоги)
- Готовые примеры под математику, Gomoku, AlfWorld
- Работает с LLM и VLM моделями
Все эксперименты с метриками — на WandB. Код полностью открытый.
Сайт проекта | GitHub
@ai_for_dev
Команда проф. Jiaxuan You из UIUC выкатила OpenTinker 🎯
Проблема классического RL: нужны GPU, сложный деплой, куча инженерных костылей. OpenTinker решает это через Reinforcement-Learning-as-a-Service — разбивает пайплайн на микросервисы с простыми API.
Зачем это нужно:
- Обучать агентов можно на обычном железе
- Поддержка и single-turn (решение задач), и multi-turn логики (игры, диалоги)
- Готовые примеры под математику, Gomoku, AlfWorld
- Работает с LLM и VLM моделями
Все эксперименты с метриками — на WandB. Код полностью открытый.
Сайт проекта | GitHub
@ai_for_dev