AI Coder – Telegram
AI Coder
290 subscribers
82 photos
10 videos
2 files
186 links
AI will not replace you, people who use AI will.
Download Telegram
🚀 Новое в Claude Max — Web MCP (Integrations)

Anthropic запустила Integrations: теперь Claude в браузере или десктоп-приложении можно напрямую подключить к удалённым MCP-серверам. Это тот самый «USB-C для ИИ», только в облаке — один раз хостите сервер, и модель видит ваши базы, CI/CD, CRM и любые API.



🔧 Что даст вашему AI-Coding-стеку
Единое окно: логи из ClickHouse, задачки из Jira и Pull Request’ы из GitHub доступны в одном чате.
Автоматизация: Claude может не только читать, но и действовать — деплоить, мерджить, начислять кредиты.
Глубокий Research: новый режим ищет по Web + Integrations до 45 минут и возвращает оформленный отчёт с цитатами.



⚡️ Как подключить свой сервер за 1 минуту
1. Settings → Profile → Integrations → Add more.
2. Вставьте URL вида https://mcp.mycompany.com.
3. Пройдите OAuth и выберите инструменты, которые хотите открыть Claude.
4. В чате включите интеграцию через меню Search & Tools. Готово!

💡 Лайфхак: держите «пишущие» инструменты выключенными по умолчанию, чтобы модель случайно не запушила в прод.



🏁 Кому стоит попробовать сразу
DevOps & SRE: быстрый доступ к метрикам и скриптам без Alt-Tab.
Data/ML-инженерам: анализ датасетов в ClickHouse или BigQuery из чата.
Продактовым командам: моментальные сводки задач, таймлайнов и KPI.



✍️ Итог: Web MCP превращает Claude Max в полноценный control-центр для ваших сервисов. Поднимайте собственный сервер или подключайте готовые (Zapier, Atlassian, Cloudflare) — и пусть ИИ сам пишет код, тягает данные и делает рутинную работу за вас.
1👍1👀1
💎🐙 Gemini подключает GitHub-репозитории — апдейт для разработчиков!

Google запускает GitHub-App в списке расширений Gemini (после Spotify и WhatsApp). Теперь можно «пришить» репозиторий прямо к чату и общаться с ИИ на языке вашего кода.

Что теперь умеет 🤖
🔍 Разбираться в проекте — задавайте общие вопросы по архитектуре.
🔎 Объяснять функции — попросите расшифровать сложный метод.
Советовать улучшения — спросите, как оптимизировать алгоритм.
🐞 Помогать дебажить — укажите, где «падает», и получите подсказку.

Как подключить ⚙️
1. Нажмите Import code в чате Gemini.
2. Вставьте URL репозитория или ветки (до 1 репо / 5 000 файлов / 100 MB).
3. Для приватных репо привяжите GitHub-аккаунт к Google-аккаунту.

Ограничения 🚧
🔸 Не читает историю коммитов и PR-ы.
🔸 Не пишет обратно в репозиторий.
🔸 Импорт работает только на gemini.google.com, продолжить чат можно в мобильном приложении.

Когда ждать

Интеграция уже появилась на странице Gemini Apps, но раскатывается волнами — у некоторых ещё не активна. Следите за переключателем GitHub в настройках расширений.



👩‍💻 Зачем это вам?
⚡️ Быстрый онбординг в чужой проект, 📈 точечный код-ревью от ИИ, и 🍰 бонус к Copilot — Gemini понимает контекст всей кодовой базы.

Как будете тестировать новинку сначала — рефакторинг или охота на баги? Делитесь в комментариях!

#AICoding #Gemini #GitHub #Google
🔥1
Опана! Ждём бенчи и го тестить
Forwarded from эйай ньюз
Google обновили Gemini 2.5 Pro

Новая версия Gemini 2.5 Pro Preview 05-06 гораздо лучше кодит, особенно это проявляется в фронтенде — модель заняла первое место на вебдев арене, обогнав Claude 3.7 Sonnet. Модель уже доступна в Vertex и AI Studio.

@ai_newz
😁1
Теперь Claude Code может как и его десктопный побратим ходить в поисковый индекс Anthropic и делать поиск, актуализировать инфу если его попросить. Это помимо perplexity-mcp. Оч мощная штука получается
3
🔧 Tencent CodeBuddy — новый AI-напарник для разработчиков

Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat

🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.

🔗 Попробовать → copilot.tencent.com

#CodeBuddy #Tencent #AI #DevTools
👍1
🆕 Windsurf ➜ SWE-1 — «фронтирные» ИИ-модели для всего цикла разработки, а не только автодополнений

▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.

▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.

▫️ Состав семейства
SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
SWE-1-mini — супербыстрый предиктор для inline-табов.

▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.

💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.

📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
👍3💯1
Вот на фоне OpenAI Codex Agent эта новость очень странная как бы, но на самом деле нет, valuation у windsurf теперь явно подрос, потому что тут теперь есть уникальное предложение, тот самый value-add и можно продаться еще дороже. Но это я еще напишу про OpenAI Codex agent. Coming soon..)
🔥4
Небольшой обзор Codex OpenAI Agent 🤔

Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.

Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно

Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷‍♂️

Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования

Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.

OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
👍4🔥2💯1
Щедро!
😁1
Ну вот и покодили. Я все пытался вспомнить что с GitHub Copilot Workspace было не так, и вот оно что, тоже самое, но там можно было сделать через GitHub codespace это, хоть и неудобно но можно было. Но для разработки хомяков ок. Это то почему cli + mcp рулит
💩1
В codex завезли поддержку и openrouter и ollama и еще всяких mistral (https://github.com/openai/codex?tab=readme-ov-file#full-configuration-example)
Да, и вот про qwen3 30b a3b - на ollama моделька эта занимает 19гб и инференс на моей прошке норм, хоть и медленно по сравнению с сегодняшними сетками. Но на момент сентября прошлого года оч круто
🛠️ Google представила Jules — автономного AI-кодера!

🌐 jules.google.com открылся в публичной бете: больше никакого списка ожидания — зарегистрироваться может каждый разработчик, где доступна модель Gemini. Jules клонирует ваш репозиторий в изолированную VM в Google Cloud, понимает контекст проекта и берет на себя задачи от «обновить зависимости» до «добавить новую фичу» — полностью асинхронно.

🧩 Ключевые фишки:
🪄 Автономный агент: планирует шаги, аргументирует решения и показывает diff перед коммитом.
🔀 Параллельное выполнение: несколько задач обрабатываются одновременно в облаке.
🔊 Аудио-чейнджлог: Jules озвучивает, что поменялось в коде — удобно слушать на ходу.
🔧 Глубокая интеграция с GitHub: достаточно поставить label assign-to-jules в issue, и бот сам создаст PR.
🔒 Конфиденциальность: ваш код не попадает в обучение моделей и остаётся внутри защищённой среды.

💸 Сколько стоит?
Пока сервис бесплатен, но есть лимиты по использованию; тарифы появятся после окончания беты.

🚀 Как начать:
1. Авторизуйтесь на jules.google.com через Google-аккаунт.
2. Подключите репозиторий GitHub и дайте права на создание веток.
3. Создайте issue с задачей или добавьте label — и наблюдайте, как агент пишет код за вас.

👩‍💻 Кажется, мы вступаем в эпоху, где «код-ревью» превращается в «агент-ревью». Проверяйте, тестируйте и делитесь фидбеком — пока всё бесплатно!

#AI #Google #Jules #CodingAgent #Gemini
🔥2
Важное замечание! Теперь понятно, почему OpenAI так спешил с Codex.

Вчерашний релиз Google впечатляет - они даже создали премиум подписку Ultra с большим количеством преимуществ, чем у OpenAI.

Нужно посмотреть, как работает Jules. Уверен, что это именно то, что я изначально хотел. Буду его изучать, так как Codex - не совсем то, что нужно.
💯1
🚀 Devstral — новый «код-мозг» от Mistral AI!

💡 Что случилось?
Mistral AI вместе с All Hands AI выкатили Devstral-24B — открытую LLM, специально обученную на задачах разработки ПО. Доступна в Ollama, Hugging Face, vLLM, LM Studio и через API Mistral.



⚔️ Devstral vs Qwen 3

🔢 Параметры
• Devstral-24B: 24 B
• Qwen 3: 30 B (A3B) / 235 B (A22B)

📊 SWE-Bench Verified
• Devstral: 46,8 %
• Qwen 3-235B: ≈ 40 %

🧠 Контекст
• Оба до 128 k токенов

⚙️ Железо для локального запуска
• Devstral: 1 × RTX 4090 или Mac 32 GB
• Qwen 30B: 4–8 GPU | Qwen 235B: кластер A100

💲 Стоимость API (in/out)
• Devstral: $0,10 / $0,30 за 1 М токенов
• Qwen 235B: $0,13 / $0,40

📜 Лицензия
• Обе модели — Apache 2.0



🔥 Почему Devstral может быть выгоднее
1. Быстрый локальный старт — помещается в одну 4090, подходит даже для ноутов.
2. 🏆 Лидер в SWE-Bench — закрывает реальные issue «из коробки».
3. 🧩 Нативная агентность — умеет редактировать несколько файлов и проходить автотесты.
4. 💵 Низкий TCO — меньше GPU → дешевле инференс.
5. 🔓 Полная свобода использования благодаря Apache 2.0.



🚀 Попробовать прямо сейчас

ollama pull devstral
ollama run devstral


💻 Подключай к MCP или vLLM и ускоряй ревью, рефакторинг и баг-фиксы вместе с Devstral! 🚀🧠
🔥2👍1
Я уже ранее писал о подобном подходе, начинать все с документов проекта, но сегодня расскажу о его развитии

🧠📦 Memory Bank: как научить ассистента помнить проект
Большинство код-помощников (Cursor, Cline, Claude Code) «начинают с чистого листа» при каждой сессии.
Memory Bank — это приём, когда вы кладёте короткие .md-файлы прямо в репозиторий, а ассистент читает и обновляет их автоматически.
Так он хранит долгосрочный контекст: архитектуру, бизнес-замысел, ход задач.



🔑 Минимальный набор файлов
📄 projectbrief.md — цели проекта, стек, аудитория (редко меняется)
🌍 productContext.md — бизнес-контекст, UX-видение (редко)
🏗️ systemPatterns.md — архитектура, паттерны (по мере роста)
🛠️ techContext.md — окружение, зависимости (по мере роста)
🚧 activeContext.md — текущая задача (часто)
📈 progress.md — done / next / blocked (каждый шаг)



⚙️ Как это выглядит в инструментах

Cursor 🔄
npx cursor-bank init — создаёт /memory-bank и шаблоны.
• В репо появляется .cursorrules с двумя режимами: PLAN (обзор + вопросы) и ACT (код).
• Чат-команды: PLAN, ACT, update memory bank.

Cline 🖥️
• В Settings → Custom Instructions вставьте правила, затем положите /memory-bank.
• Слэш-команды: /plan /act, /update memory bank, /follow your custom instructions.

Claude Code 🤖
• Локальная память — ./CLAUDE.md; глобальная — ~/.claude/CLAUDE.md.
• Подключайте файлы через @path/to/file.
• Начните сообщение с # — Claude предложит, куда сохранить заметку.
• Популярные расширения: Basic Memory (Markdown-лог), Claude Crew (CLI + тесты), memory-bank-mcp (централизованное хранилище).



🎯 Практические сценарии
🆕 Онбординг новичка — читает пару файлов и сразу «в теме».
🏗️ Длинные фичи — progress.md хранит решения → меньше «почему так сделали?».
🤝 Несколько ИИ-агентов — общий банк = единое знание, меньше конфликтов.
📚 Автодокументация — ассистент пишет черновики, вы только ревьюите.



🛎️ Советы
1. ✂️ Краткость: 150–300 слов на файл, чтобы не забивать контекст-окно.
2. 🏷️ Единые заголовки в разных проектах — ассистент быстрее находит нужное.
3. 🔄 Обновляйте activeContext.md после каждого мержа в main.
4. 🤖 Дайте ассистенту право редактировать банк — 90 % правок полезны, остальное откатит git.
5. 📂 Держите /memory-bank в корне репо, чтобы люди и ИИ читали одно и то же.



🚀 Чек-лист «за 5 минут»
1. npx cursor-bank init (или эквивалент) — инициализируйте банк.
2. Заполните файлы на 3–4 абзаца каждый.
3. Используйте команды PLAN / ACT / update memory bank.
4. Добавьте в README ссылку на gist с правилами.

Теперь ассистент не забывает проект между сессиями, а команда получает единый источник правды!
👍1👀1
Ну что?! Ну все! +10% от sonnet 3.7 это как бы очень серьезно! 😎 Посмотрим сравнение уже завтра по aider
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Anthropic показала Claude 4 – сразу две новые модели Opus 4 и Sonnet 4

Opus 4 бьёт рекорды в кодинге и сложных задачах, Sonnet 4 даёт ту же логику, но быстрее и дешевле. Обе могут переключаться между «мгновенным» ответом и режимом Extended Thinking – до 7 часов непрерывных рассуждений!!! То есть вы понимаете да? Что это уже даже не deep research.

💡 Что ещё привезли
• «Песочница» для запуска кода прямо у Anthropic – аналог Code Interpreter.
• API-файлы + web-search: агент сам шастает по поиску и читает ваши документы.
• Memory files (он же разновидность подхода memory bank) – длительная память, бот сам их пишет чтоб не забывал ход мыслей
• Поддержка GitHub Copilot Agent: переключение на новые модели повышает точность советов.

📈 Anthropic называет Opus 4 «лучшей моделью для кода», а эксперты считают, что такие агенты приблизят нам «стартап-единорога с одним сотрудником».

👉 Полную 90-минутную презентацию можно посмотреть здесь: https://www.youtube.com/watch?v=EvtPBaaykdo – там живые демо и визионерское выступление Дарио Амодеи.
👍21