AI Coder – Telegram
AI Coder
291 subscribers
82 photos
10 videos
2 files
186 links
AI will not replace you, people who use AI will.
Download Telegram
Вдруг кто не в курсе, что в Cursor модель gpt-4.1 работает БЕСПЛАТНО) Если вы не платите, значит вы и есть оплата
Вдруг вы тоже делаете какой-нибудь MCP и вам сетки делают MCP с SSE и вы пытаетесь подрубить это к Claude Desktop, так вот хозяйке на заметку - Claude Desktop до сих пор не поддерживает MCP с SSE, а только stdio умеет
Добавил в CLAUDE.md и в .cursor/rules/cursor_project_rules.mdc такое

## MCP Integration
- Для выполнения поисковых запросов можно использовать Perplexity MCP
- Интеграция MCP позволяет получать информацию напрямую из сети
- При работе с неизвестными технологиями используйте поиск через MCP


В perplexity задал "PERPLEXITY_MODEL": "sonar-deep-research"

Теперь модель ходит сама собирает доки через deep research, на sonnet-3.7 работает. Профит!
🔥4
Написать заметку про то как быстро делать UI и какие тулы использовать сейчас? Больше лайков - больше вероятность)
👍8🔥2🕊2🌭1🤝1👾1
🧠 Новая методика работы с AI для интеграции фичей в код 💻
Делюсь с вами мощным подходом для работы над новыми фичами в существующей кодовой базе с помощью AI! 🚀
Вот как это работает:
1️⃣ Создаете три основных документа:

Функциональное задание 📋
Техническое задание ⚙️
Дизайн-документация 🎨

2️⃣ Добавляете четвертый ключевой документ: план интеграции в кодовую базу 🗺️

Разбиваете на фазы (например, 3 фазы по 10 шагов)
AI прорабатывает каждую фазу пошагово

3️⃣ Когда возникают ошибки:

Фиксируете их в документации 🐛
AI документирует статус каждой фазы
Все проблемы и их решения остаются в истории

4️⃣ При возвращении к работе:

AI читает все документы и имеет полный контекст
Ничего не теряется, все записано в Markdown ✍️

Это “революционный” подход к отладке - всё документируется, ничего не теряется и вся документация у вас в репозитории, а AI всегда в курсе текущего статуса! 💯
А вы уже пробовали такой подход? Делитесь опытом в комментариях! 👇

Видео пример нужно записать? Ставьте эмодзи)
👍6💯31
🚨 Anthropic запускает Development Partner Program!

🤖 Что случилось?
Anthropic рассылает приглашения в новый Development Partner Program. Участники получают -30 % на input-токены для Claude Code (версии Claude 3.5 Sonnet и Claude 3.7 Sonnet). Это заметно снижает стоимость долгих сессий с автодополнением кода, анализа репозиториев и «agentic coding».

💡 Почему это интересно разработчикам?

До После подключения к программе
$3 / 1 M input-токенов (Sonnet) $2,1 / 1 M
$15 / 1 M output-токенов (без изменений) $15 (💸 экономия только на input)

✏️ Факты, которые важно знать
Делиться нужно код-сессиями. Все запросы из Claude Code вашего орг-аккаунта будут отправляться Anthropic для дообучения и улучшения моделей.
Хранение до 2 лет, данные анонимизируются и не связываются с другими заказчиками.
Настройка действует на всю организацию: как только вы включили опцию, она охватывает всех участников.
Можно выйти в любой момент, но уже переданные логи удалить нельзя.

🔧 Кому это выгодно?
• Командам, которые крутят CI/CD-ботов на Claude Code и тратят миллионы токенов на статический анализ, автогенерацию тестов или миграцию кода.
• Стартапам с ограниченным бюджетом, которые пишут/рефакторят код большими партиями (batch-mode).
• Исследователям, у которых все репы публичные — risk-free с точки зрения приватности.

⚠️ Кому стоит подумать дважды?
• Энтерпрайзам с закрытым исходным кодом и жёсткими NDA.
• Тем, кто обрабатывает чувствительные данные (финтех, мед-тех): 30 % экономии могут не перекрыть требования комплаенса.

📌 Как подключиться?
1. В админ-консоли Anthropic откройте Settings → Claude Code → Development Partner Program.
2. Активируйте toggle, согласившись с условиями.
3. Уведомите коллег — скидка начнёт применяться ко всем их сессиям.
Anthropic официально включила Claude Code в подписку Max! Теперь пользователи Max могут работать с кодом прямо из терминала - писать, анализировать, рефакторить и автоматизировать проекты с помощью Claude, не переплачивая за отдельные сервисы. Это особенно выгодно для тех, кто активно использует ИИ для разработки и автоматизации. 💻⚡️

Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.

Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀

#Claude #CloudCode #Anthropic #AI #Новости
🚀 Новое в Claude Max — Web MCP (Integrations)

Anthropic запустила Integrations: теперь Claude в браузере или десктоп-приложении можно напрямую подключить к удалённым MCP-серверам. Это тот самый «USB-C для ИИ», только в облаке — один раз хостите сервер, и модель видит ваши базы, CI/CD, CRM и любые API.



🔧 Что даст вашему AI-Coding-стеку
Единое окно: логи из ClickHouse, задачки из Jira и Pull Request’ы из GitHub доступны в одном чате.
Автоматизация: Claude может не только читать, но и действовать — деплоить, мерджить, начислять кредиты.
Глубокий Research: новый режим ищет по Web + Integrations до 45 минут и возвращает оформленный отчёт с цитатами.



⚡️ Как подключить свой сервер за 1 минуту
1. Settings → Profile → Integrations → Add more.
2. Вставьте URL вида https://mcp.mycompany.com.
3. Пройдите OAuth и выберите инструменты, которые хотите открыть Claude.
4. В чате включите интеграцию через меню Search & Tools. Готово!

💡 Лайфхак: держите «пишущие» инструменты выключенными по умолчанию, чтобы модель случайно не запушила в прод.



🏁 Кому стоит попробовать сразу
DevOps & SRE: быстрый доступ к метрикам и скриптам без Alt-Tab.
Data/ML-инженерам: анализ датасетов в ClickHouse или BigQuery из чата.
Продактовым командам: моментальные сводки задач, таймлайнов и KPI.



✍️ Итог: Web MCP превращает Claude Max в полноценный control-центр для ваших сервисов. Поднимайте собственный сервер или подключайте готовые (Zapier, Atlassian, Cloudflare) — и пусть ИИ сам пишет код, тягает данные и делает рутинную работу за вас.
1👍1👀1
💎🐙 Gemini подключает GitHub-репозитории — апдейт для разработчиков!

Google запускает GitHub-App в списке расширений Gemini (после Spotify и WhatsApp). Теперь можно «пришить» репозиторий прямо к чату и общаться с ИИ на языке вашего кода.

Что теперь умеет 🤖
🔍 Разбираться в проекте — задавайте общие вопросы по архитектуре.
🔎 Объяснять функции — попросите расшифровать сложный метод.
Советовать улучшения — спросите, как оптимизировать алгоритм.
🐞 Помогать дебажить — укажите, где «падает», и получите подсказку.

Как подключить ⚙️
1. Нажмите Import code в чате Gemini.
2. Вставьте URL репозитория или ветки (до 1 репо / 5 000 файлов / 100 MB).
3. Для приватных репо привяжите GitHub-аккаунт к Google-аккаунту.

Ограничения 🚧
🔸 Не читает историю коммитов и PR-ы.
🔸 Не пишет обратно в репозиторий.
🔸 Импорт работает только на gemini.google.com, продолжить чат можно в мобильном приложении.

Когда ждать

Интеграция уже появилась на странице Gemini Apps, но раскатывается волнами — у некоторых ещё не активна. Следите за переключателем GitHub в настройках расширений.



👩‍💻 Зачем это вам?
⚡️ Быстрый онбординг в чужой проект, 📈 точечный код-ревью от ИИ, и 🍰 бонус к Copilot — Gemini понимает контекст всей кодовой базы.

Как будете тестировать новинку сначала — рефакторинг или охота на баги? Делитесь в комментариях!

#AICoding #Gemini #GitHub #Google
🔥1
Опана! Ждём бенчи и го тестить
Forwarded from эйай ньюз
Google обновили Gemini 2.5 Pro

Новая версия Gemini 2.5 Pro Preview 05-06 гораздо лучше кодит, особенно это проявляется в фронтенде — модель заняла первое место на вебдев арене, обогнав Claude 3.7 Sonnet. Модель уже доступна в Vertex и AI Studio.

@ai_newz
😁1
Теперь Claude Code может как и его десктопный побратим ходить в поисковый индекс Anthropic и делать поиск, актуализировать инфу если его попросить. Это помимо perplexity-mcp. Оч мощная штука получается
3
🔧 Tencent CodeBuddy — новый AI-напарник для разработчиков

Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat

🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.

🔗 Попробовать → copilot.tencent.com

#CodeBuddy #Tencent #AI #DevTools
👍1
🆕 Windsurf ➜ SWE-1 — «фронтирные» ИИ-модели для всего цикла разработки, а не только автодополнений

▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.

▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.

▫️ Состав семейства
SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
SWE-1-mini — супербыстрый предиктор для inline-табов.

▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.

💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.

📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
👍3💯1
Вот на фоне OpenAI Codex Agent эта новость очень странная как бы, но на самом деле нет, valuation у windsurf теперь явно подрос, потому что тут теперь есть уникальное предложение, тот самый value-add и можно продаться еще дороже. Но это я еще напишу про OpenAI Codex agent. Coming soon..)
🔥4
Небольшой обзор Codex OpenAI Agent 🤔

Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.

Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно

Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷‍♂️

Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования

Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.

OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
👍4🔥2💯1
Щедро!
😁1
Ну вот и покодили. Я все пытался вспомнить что с GitHub Copilot Workspace было не так, и вот оно что, тоже самое, но там можно было сделать через GitHub codespace это, хоть и неудобно но можно было. Но для разработки хомяков ок. Это то почему cli + mcp рулит
💩1
В codex завезли поддержку и openrouter и ollama и еще всяких mistral (https://github.com/openai/codex?tab=readme-ov-file#full-configuration-example)
Да, и вот про qwen3 30b a3b - на ollama моделька эта занимает 19гб и инференс на моей прошке норм, хоть и медленно по сравнению с сегодняшними сетками. Но на момент сентября прошлого года оч круто