AI для Разработки — Cursor | Copilot | Claude – Telegram
AI для Разработки — Cursor | Copilot | Claude
1.44K subscribers
174 photos
91 videos
260 links
100+ AI-источников → лучшие инструменты для разработчиков.

Cursor, Copilot, Claude API — обзоры, туториалы, новинки.

Вопросы: @aiskladadmin
Download Telegram
Линус Торвальдс теперь вайб-кодер 😂

Основатель Linux признался, что визуализатор для своего гитарного проекта написал через AI. Причина простая: "В аналоговых фильтрах шарю больше, чем в Python".

Линус называет это "vibe-coding" — раньше гуглил и копировал код как обезьянка, теперь просто вырезал посредника (себя) и доверил работу AI.

Проект AudioNoise — учебный: цифровые эффекты для гитарной педали. Никакой магии FFT или нейросетевых эмуляций усилителей — только базовые IIR-фильтры и delay-петли. Всё работает с субмиллисекундной задержкой sample-in → sample-out.

Главный месседж: даже Линус Торвальдс использует AI для задач вне своей экспертизы. Это нормально. 🎸

@ai_for_dev
1😇1
Forwarded from GPT Spark — Prompt Engineering | ChatGPT | AI (Илья Капустин)
Обещал рассказать как устроена моя сеть тг-каналов, построенная целиком на AI — рассказываю.

Вся система сделана на Claude Code "от и до". Я буквально не написал ни одной строчки кода своими руками — только промпты местами корректировал.

Как это работает:
1. Парсер (используя реальный залогиненный тг-аккаунт) собирает посты из 100+ AI-каналов
2. ИИ сначала анализирует и индексирует каждый пост (тематика, тэги, важность, тип)
3. Затем также ИИ отфильтровывает 80% шума — оставляет только релевантное и значимое
4. Система распределяет по 23 нашим каналам
5. По каждому посту система идёт по ссылкам, изучает источники и подгружает информацию
6. Для каждого канала генерируется 3 варианта текста поста (с учетом ЦА канала — под каждую ЦА свои акцента), автоматически помечая какой вариант получился удачнее других
7. Есть отдельный приятный веб-интерфейс для модерации — пока ещё модерирую сам посты (занимает 10-15 минут в день), чтобы видеть все ошибки и "шероховатости", в ближайшем будущем переключу целиком на ИИ модерацию.

Статистика:
- 1,500 постов обработано за 2 недели
- 300 лучших отобрано (20%)
- 530+ публикаций в 23 канала
- 1 хороший пост = 1-4 публикации в разных каналах

Технический стек
Язык: Python 3.10
База данных: MySQL
Telegram API: Telethon (парсинг + публикация)
AI: Claude Code CLI через дочерний инстанс (не API напрямую — так дешевле)
Веб-панель модерации: Flask + vanilla JS
Оркестрация: systemd (таймеры, сервисы)
Сервер: Ubuntu 20
~12,000 строк кода (~500 KB)
0 строк написано руками — всё через Claude Code

Фишка: Используем дочерний инстанс Claude Code в качестве агента — он работает через CLI и стоит сильно дешевле чем API напрямую. Один запрос = один пост проанализирован.

Текущие расходы: примерно 10 тыс руб в месяц (только на AI, по лимитам хватает 1/2 тарифа Max за $200/мес)

Время разработки: Несколько вечеров/ночей. Перед самым НГ начал — за несколько дней в праздники довёл до ума. Причём параллельно с другими проектами, просто в отдельном окне Claude Code.

Раньше такое делала команда из нескольких человек и нужны были месяцы работы. Сейчас — один человек с Claude Code за считанные дни.

Если интересны детали по конкретным частям (парсер, AI-анализ, модерация, публикация) — пишите в комментах, расскажу подробнее.

Думаю над тем, чтобы показать этот метод подробнее — как строить такие системы с нуля, не написав ни строчки кода руками. Если интересно — ставьте 🤝, пойму что тема актуальна.

@gpt_spark_ru
🤝91👎1😨1
Облачная БД или селф-хостинг? Неожиданный выбор разработчика

Облачные провайдеры годами убеждали нас: хостить свою базу — это страшно, сложно и дорого. А вот управляемые сервисы — удобно, надёжно и безопасно. Но так ли это?

Разработчик Pierce Freeman поделился двухлетним опытом селф-хостинга PostgreSQL:

• Тысячи п
ользователей, десятки миллионов запросов в день
• На поддержку БД уходит 10 минут в неделю (не опечатка!)
• За два года был всего один инцидент — 30 минут во время миграции
• Всё работает быстро, стабильно и заметно дешевле

О деньгах: Инстанс db.r6g.xlarge на AWS стоит $328/месяц (4 vCPU, 32GB RAM). За эти же деньги можно взять выделенный сервер с 32 ядрами и 256GB оперативки.

Главный инсайт автора: большинство управляемых сервисов просто запускают чуть модифицированный Postgres. Лишний слой абстракции мешает оптимизировать запросы и понимать, что реально происходит с производительностью.

В статье — советы по выбору железа и настройке для продакшена. Возможно, пора пересмотреть стереотипы?

@ai_for_dev
Запускаем генеративные AI-модели локально на слабом железе

Biniou — это веб-интерфейс, который превращает ваш компьютер в локальную AI-студию. Генерируйте картинки, звук, видео и общайтесь с чатботами прямо на своей машине.

Что умеет:
• Stable Diffusion и Flux для изображений
• Генерация аудио и коротких видео
• Чатботы на базе LLM (включая специализированные для кода)
• Обработка медиа: сжатие, замена лиц, работа с текстом

Почему интересно:
• Хватает 8 ГБ RAM — GPU не обязателен
• Работает полностью оффлайн после установки
• Ваши данные не уходят в облако

Установка под Linux, Windows, macOS и Docker. Свежее обновление от 10.01 добавило новые модели чатботов и LoRA.

Репозиторий на GitHub

@ai_for_dev
1
Нейронка откликается на вакансии за вас — готовый проект на GitHub

Кто-то наконец автоматизировал поиск работы на hh.ru 🔥

Проект на Python делает три вещи:
1. Парсит вакансии через
Playwright
2. Прогоняет их через n8n workflow
3. Генерирует сопроводительные письма через Google Gemini

В репозитории лежит готовый воркфлоу для n8n, настройка занимает минут 15. Всё на русском языке, с примерами .env файла и гайдом по получению API ключа Gemini.

Работает из коробки: настроил поисковый запрос, указал количество страниц — и система сама откликается на подходящие вакансии. Можно кастомизировать промпты для писем под себя.

@ai_for_dev
1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Поднимаем Python-сервер правильно 🚀

Забудьте про nohup python app.py & и tmux-сессии. Вот как развернуть нормальный продакшн за 5 минут.

Один скрипт делает всё:
Ставит зависимости, создаёт отдельного пользователя, настраивает venv, пишет systemd-сервис. На выходе — приложение работает как системный сервис, само стартует после перезагрузки и перезапускается при крашах.

Работает для чего угодно:
FastAPI, Flask, боты, воркеры. Сервис сразу слушает на 8000 порту, логи через journalctl -u app -f.

Базовая команда:
bash
sudo systemctl enable --now app


Никаких костылей — получаете чистую инфраструктуру с первой минуты. Отдельный пользователь без sudo, виртуальное окружение, автоматический Restart=always.

Идеально для MVP, прототипов и боевых API.

Гайд на YouTube

@ai_for_dev
1
Tailwind CSS чуть не умер, но его спасли в последний момент

8 января Vercel, Google и ещё несколько компаний объявили о спонсорстве Tailwind. И это не благотворительность — проект реально был на грани краха: выручка рухнула на 80%, пришлось уволить 75% команды 😱

В чём проблема? ИИ-ассистенты убивают опенсорс. Разработчики теперь спрашивают у Claude и Copilot, как работает Tailwind, вместо того чтобы заходить в документацию. Трафик упал на 40%, а именно там продавались платные продукты.

Ирония ситуации: создатель Tailwind отклонил PR с добавлением llms.txt (файл для удобной работы LLM с доками). Объяснение честное: "Если мы сделаем это, люди вообще перестанут заходить на сайт".

Гильермо Раух из Vercel написал, что Tailwind — это уже критическая инфраструктура веба, и индустрия должна его поддержать.

История показывает, как ИИ ломает старые бизнес-модели опенсорса. Раньше работало: бесплатный продукт → трафик в доки → конверсия в платные фичи. Теперь этот путь разрушен.

@ai_for_dev
🤯1
Почему изоляция Python внезапно стала проблемой №1 для AI-агентов

В Python до сих пор нет способа безопасно запустить недоверенный код. И это не потому, что никто не старался — просто язык слишком интроспективный. Через traceback и граф объектов можно добраться до внутренностей интерпретатора, даже если вы «всё закрыли». Песочница внутри Python не работает. Работает только одно — запускать Python внутри песочницы.

Раньше это была почти теоретическая проблема. Теперь — нет.

Python стал языком по умолчанию для AI и агентных систем. Агенты читают файлы, ходят в базы, парсят веб и исполняют код, сгенерированный моделью или пришедший извне. Недоверенный код перестал быть редкостью — он стал частью обычного флоу.

Добавьте к этому prompt injection. LLM не понимают, где системный промпт, а где вредоносная инструкция. И это не лечится «лучшими промптами». Это архитектурная особенность, а значит — вопрос безопасности.

Выход: изоляция и принцип наименьших привилегий. Не давать агенту больше доступа, чем ему действительно нужно, и считать, что однажды он обязательно сделает что-то не так.

Читать дальше — про Firecracker, gVisor, WebAssembly и почему изоляция на уровне задач может оказаться ключевой.

@ai_for_dev
This media is not supported in your browser
VIEW IN TELEGRAM
RL-агенты без GPU-кластера? Теперь реально

Команда проф. Jiaxuan You из UIUC выкатила OpenTinker 🎯

Проблема классического RL: нужны GPU, сл
ожный деплой, куча инженерных костылей. OpenTinker решает это через Reinforcement-Learning-as-a-Service — разбивает пайплайн на микросервисы с простыми API.

Зачем это нужно:
- Обучать агентов можно на обычном железе
- Поддержка и single-turn (решение задач), и multi-turn логики (игры, диалоги)
- Готовые примеры под математику, Gomoku, AlfWorld
- Работает с LLM и VLM моделями

Все эксперименты с метриками — на WandB. Код полностью открытый.

Сайт проекта | GitHub

@ai_for_dev