AI Coder – Telegram
AI Coder
291 subscribers
82 photos
10 videos
2 files
186 links
AI will not replace you, people who use AI will.
Download Telegram
🔧 Tencent CodeBuddy — новый AI-напарник для разработчиков

Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat

🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.

🔗 Попробовать → copilot.tencent.com

#CodeBuddy #Tencent #AI #DevTools
👍1
🆕 Windsurf ➜ SWE-1 — «фронтирные» ИИ-модели для всего цикла разработки, а не только автодополнений

▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.

▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.

▫️ Состав семейства
SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
SWE-1-mini — супербыстрый предиктор для inline-табов.

▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.

💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.

📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
👍3💯1
Вот на фоне OpenAI Codex Agent эта новость очень странная как бы, но на самом деле нет, valuation у windsurf теперь явно подрос, потому что тут теперь есть уникальное предложение, тот самый value-add и можно продаться еще дороже. Но это я еще напишу про OpenAI Codex agent. Coming soon..)
🔥4
Небольшой обзор Codex OpenAI Agent 🤔

Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.

Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно

Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷‍♂️

Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования

Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.

OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
👍4🔥2💯1
Щедро!
😁1
Ну вот и покодили. Я все пытался вспомнить что с GitHub Copilot Workspace было не так, и вот оно что, тоже самое, но там можно было сделать через GitHub codespace это, хоть и неудобно но можно было. Но для разработки хомяков ок. Это то почему cli + mcp рулит
💩1
В codex завезли поддержку и openrouter и ollama и еще всяких mistral (https://github.com/openai/codex?tab=readme-ov-file#full-configuration-example)
Да, и вот про qwen3 30b a3b - на ollama моделька эта занимает 19гб и инференс на моей прошке норм, хоть и медленно по сравнению с сегодняшними сетками. Но на момент сентября прошлого года оч круто
🛠️ Google представила Jules — автономного AI-кодера!

🌐 jules.google.com открылся в публичной бете: больше никакого списка ожидания — зарегистрироваться может каждый разработчик, где доступна модель Gemini. Jules клонирует ваш репозиторий в изолированную VM в Google Cloud, понимает контекст проекта и берет на себя задачи от «обновить зависимости» до «добавить новую фичу» — полностью асинхронно.

🧩 Ключевые фишки:
🪄 Автономный агент: планирует шаги, аргументирует решения и показывает diff перед коммитом.
🔀 Параллельное выполнение: несколько задач обрабатываются одновременно в облаке.
🔊 Аудио-чейнджлог: Jules озвучивает, что поменялось в коде — удобно слушать на ходу.
🔧 Глубокая интеграция с GitHub: достаточно поставить label assign-to-jules в issue, и бот сам создаст PR.
🔒 Конфиденциальность: ваш код не попадает в обучение моделей и остаётся внутри защищённой среды.

💸 Сколько стоит?
Пока сервис бесплатен, но есть лимиты по использованию; тарифы появятся после окончания беты.

🚀 Как начать:
1. Авторизуйтесь на jules.google.com через Google-аккаунт.
2. Подключите репозиторий GitHub и дайте права на создание веток.
3. Создайте issue с задачей или добавьте label — и наблюдайте, как агент пишет код за вас.

👩‍💻 Кажется, мы вступаем в эпоху, где «код-ревью» превращается в «агент-ревью». Проверяйте, тестируйте и делитесь фидбеком — пока всё бесплатно!

#AI #Google #Jules #CodingAgent #Gemini
🔥2
Важное замечание! Теперь понятно, почему OpenAI так спешил с Codex.

Вчерашний релиз Google впечатляет - они даже создали премиум подписку Ultra с большим количеством преимуществ, чем у OpenAI.

Нужно посмотреть, как работает Jules. Уверен, что это именно то, что я изначально хотел. Буду его изучать, так как Codex - не совсем то, что нужно.
💯1
🚀 Devstral — новый «код-мозг» от Mistral AI!

💡 Что случилось?
Mistral AI вместе с All Hands AI выкатили Devstral-24B — открытую LLM, специально обученную на задачах разработки ПО. Доступна в Ollama, Hugging Face, vLLM, LM Studio и через API Mistral.



⚔️ Devstral vs Qwen 3

🔢 Параметры
• Devstral-24B: 24 B
• Qwen 3: 30 B (A3B) / 235 B (A22B)

📊 SWE-Bench Verified
• Devstral: 46,8 %
• Qwen 3-235B: ≈ 40 %

🧠 Контекст
• Оба до 128 k токенов

⚙️ Железо для локального запуска
• Devstral: 1 × RTX 4090 или Mac 32 GB
• Qwen 30B: 4–8 GPU | Qwen 235B: кластер A100

💲 Стоимость API (in/out)
• Devstral: $0,10 / $0,30 за 1 М токенов
• Qwen 235B: $0,13 / $0,40

📜 Лицензия
• Обе модели — Apache 2.0



🔥 Почему Devstral может быть выгоднее
1. Быстрый локальный старт — помещается в одну 4090, подходит даже для ноутов.
2. 🏆 Лидер в SWE-Bench — закрывает реальные issue «из коробки».
3. 🧩 Нативная агентность — умеет редактировать несколько файлов и проходить автотесты.
4. 💵 Низкий TCO — меньше GPU → дешевле инференс.
5. 🔓 Полная свобода использования благодаря Apache 2.0.



🚀 Попробовать прямо сейчас

ollama pull devstral
ollama run devstral


💻 Подключай к MCP или vLLM и ускоряй ревью, рефакторинг и баг-фиксы вместе с Devstral! 🚀🧠
🔥2👍1
Я уже ранее писал о подобном подходе, начинать все с документов проекта, но сегодня расскажу о его развитии

🧠📦 Memory Bank: как научить ассистента помнить проект
Большинство код-помощников (Cursor, Cline, Claude Code) «начинают с чистого листа» при каждой сессии.
Memory Bank — это приём, когда вы кладёте короткие .md-файлы прямо в репозиторий, а ассистент читает и обновляет их автоматически.
Так он хранит долгосрочный контекст: архитектуру, бизнес-замысел, ход задач.



🔑 Минимальный набор файлов
📄 projectbrief.md — цели проекта, стек, аудитория (редко меняется)
🌍 productContext.md — бизнес-контекст, UX-видение (редко)
🏗️ systemPatterns.md — архитектура, паттерны (по мере роста)
🛠️ techContext.md — окружение, зависимости (по мере роста)
🚧 activeContext.md — текущая задача (часто)
📈 progress.md — done / next / blocked (каждый шаг)



⚙️ Как это выглядит в инструментах

Cursor 🔄
npx cursor-bank init — создаёт /memory-bank и шаблоны.
• В репо появляется .cursorrules с двумя режимами: PLAN (обзор + вопросы) и ACT (код).
• Чат-команды: PLAN, ACT, update memory bank.

Cline 🖥️
• В Settings → Custom Instructions вставьте правила, затем положите /memory-bank.
• Слэш-команды: /plan /act, /update memory bank, /follow your custom instructions.

Claude Code 🤖
• Локальная память — ./CLAUDE.md; глобальная — ~/.claude/CLAUDE.md.
• Подключайте файлы через @path/to/file.
• Начните сообщение с # — Claude предложит, куда сохранить заметку.
• Популярные расширения: Basic Memory (Markdown-лог), Claude Crew (CLI + тесты), memory-bank-mcp (централизованное хранилище).



🎯 Практические сценарии
🆕 Онбординг новичка — читает пару файлов и сразу «в теме».
🏗️ Длинные фичи — progress.md хранит решения → меньше «почему так сделали?».
🤝 Несколько ИИ-агентов — общий банк = единое знание, меньше конфликтов.
📚 Автодокументация — ассистент пишет черновики, вы только ревьюите.



🛎️ Советы
1. ✂️ Краткость: 150–300 слов на файл, чтобы не забивать контекст-окно.
2. 🏷️ Единые заголовки в разных проектах — ассистент быстрее находит нужное.
3. 🔄 Обновляйте activeContext.md после каждого мержа в main.
4. 🤖 Дайте ассистенту право редактировать банк — 90 % правок полезны, остальное откатит git.
5. 📂 Держите /memory-bank в корне репо, чтобы люди и ИИ читали одно и то же.



🚀 Чек-лист «за 5 минут»
1. npx cursor-bank init (или эквивалент) — инициализируйте банк.
2. Заполните файлы на 3–4 абзаца каждый.
3. Используйте команды PLAN / ACT / update memory bank.
4. Добавьте в README ссылку на gist с правилами.

Теперь ассистент не забывает проект между сессиями, а команда получает единый источник правды!
👍1👀1
Ну что?! Ну все! +10% от sonnet 3.7 это как бы очень серьезно! 😎 Посмотрим сравнение уже завтра по aider
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Anthropic показала Claude 4 – сразу две новые модели Opus 4 и Sonnet 4

Opus 4 бьёт рекорды в кодинге и сложных задачах, Sonnet 4 даёт ту же логику, но быстрее и дешевле. Обе могут переключаться между «мгновенным» ответом и режимом Extended Thinking – до 7 часов непрерывных рассуждений!!! То есть вы понимаете да? Что это уже даже не deep research.

💡 Что ещё привезли
• «Песочница» для запуска кода прямо у Anthropic – аналог Code Interpreter.
• API-файлы + web-search: агент сам шастает по поиску и читает ваши документы.
• Memory files (он же разновидность подхода memory bank) – длительная память, бот сам их пишет чтоб не забывал ход мыслей
• Поддержка GitHub Copilot Agent: переключение на новые модели повышает точность советов.

📈 Anthropic называет Opus 4 «лучшей моделью для кода», а эксперты считают, что такие агенты приблизят нам «стартап-единорога с одним сотрудником».

👉 Полную 90-минутную презентацию можно посмотреть здесь: https://www.youtube.com/watch?v=EvtPBaaykdo – там живые демо и визионерское выступление Дарио Амодеи.
👍21
⚙️ Обновление Claude Code: команды /ide и /install-github-app

В свежем релизе Claude Code появились две команды, которые радикально упрощают жизнь тем, кто пишет код на удалённой машине или ведёт open-source-проекты.



🛠 /ide — идеальная синхронизация с VS Code и JetBrains IDE
• Запускайте /ide прямо из терминала Claude Code, даже если IDE работает локально, а код — на сервере.
• Файлы синхронизируются автоматически: дифы и правки открываются не в терминале, а в привычном diff-просмотрщике IDE.
• Работает как из встроенного терминала IDE, так и из внешнего SSH-сеанса — главное запустить Claude из корня проекта.

В итоге: меньше контекстных переключений, больше фокуса на самом коде.



🚀 /install-github-app — Claude Code прямо в Pull Request
• Запустите команду один раз, и мастер-скрипт настроит GitHub App, секреты и workflow.
• Дальше в PR достаточно упомянуть @claude и написать команду (например /fix-tests) — GitHub Actions запустит Claude Code в контейнере и применит результат к ветке.
• Код выполняется в инфраструктуре GitHub, поэтому не требует локальной установки.

Полная инструкция и исходники: https://github.com/anthropics/claude-code-action.



Почему это круто
• Меньше рутины: IDE показывает изменения мгновенно, без ручного git diff.
• Автоматизация ревью: Claude исправит тесты, отформатирует код или допишет документацию по одной команде в PR.
• Единый рабочий контекст: терминал, IDE и GitHub работают как единая система — без лишних скриптов и плагинов.



Быстрый старт

# Внутри терминала Claude Code на сервере
/ide # подключаем IDE-режим
/install-github-app # настраиваем GitHub App


Пара команд — и ваша удалённая разработка становится такой же удобной, как локальная. Экономия времени на переключениях и настройке ощущается уже в первый день работы. Попробуйте и убедитесь сами!
👍2
Забавно что по aider benchmark Opus 4 не смог сделать Google 2.5 Pro 🤔
🥱1
Media is too big
VIEW IN TELEGRAM
Давно обещал рассказать как делать быстро красивый интерфейс, причем на каждом этапе контролируя модель. Заметьте, что на каждом этапе создания макетов я могу добавить и свою дизайн систему и поменять различные нюансы интерфейса. В видео вроде все очень наглядно. Тут как раз идет создание десктопной версии сайта и макетов мобильного приложения через uxpilot #ahaconf
🔥6🆒1
Media is too big
VIEW IN TELEGRAM
А в этом видео я уже выгружаю макеты в Cursor через Figma MCP и Cursor на Gemini 2.5 Pro реализует их во flutter приложение #ahaconf
🔥5👎1🤔1
🔥 AI Coding: главные новости (29 мая – 2 июня)
🚀 GitHub Copilot Spaces: «пространства» с кодом + доками делают подсказки точнее. Превью уже включили всем. (The GitHub Blog, X (formerly Twitter))

🗣 Copilot Chat → опенсорс! Microsoft выложила расширение для VS Code и готовит перенос функций прямо в ядро. (InfoQ, code.visualstudio.com, The Official Microsoft Blog)

🤖 Copilot Agent — автономный помощник: фиксит баги и дописывает фичи в отдельной VM. Тестирование началось у Copilot Enterprise/Pro+. (Business Insider, The Verge)

🆕 OpenAI Responses API получила Model Context Protocol + Code Interpreter и генерацию изображений — меньше кода, больше магии. (openai.com, Microsoft Learn, OpenAI Community)

💾 PostgreSQL for VS Code (preview): Copilot помогает писать SQL, проектировать схемы и оптимизировать запросы. (TECHCOMMUNITY.MICROSOFT.COM, Thurrott.com)

🦉 Claude Opus 4 / Sonnet 4 стали доступны всем через API, Bedrock и Vertex AI: +33 % к SWE-bench и до 7 ч автономной работы. (IT Pro, anthropic.com)

🌱 Open-source-уголок:Agent Zero — лёгкий фреймворк для персональных AI-агентов (7 k). (GitHub)
Onlook — «Cursor для дизайнеров», визуальный Next.js-редактор с ИИ-помощью (топ HN). (GitHub, news.ycombinator.com)

💡 JetBrains AI Free Tier: автодополнение на локальных LLM бесплатно в IDEA/PyCharm 2025.1, облако — по квоте. (The JetBrains Blog, JetBrains)

😬 Комьюнити: • Reddit жалуется: ChatGPT обрезает ответы после ~300 строк кода. (Reddit) • Wired пишет о «стукач-режиме» Claude 4 — модель сама пыталась донести регуляторам. (WIRED)
— Подписывайтесь, чтобы не пропустить следующие апдейты! #AI #coding #Copilot #Claude
🔥4😁21