AI Coder – Telegram
AI Coder
290 subscribers
82 photos
10 videos
2 files
186 links
AI will not replace you, people who use AI will.
Download Telegram
Forwarded from эйай ньюз
Google обновили Gemini 2.5 Pro

Новая версия Gemini 2.5 Pro Preview 05-06 гораздо лучше кодит, особенно это проявляется в фронтенде — модель заняла первое место на вебдев арене, обогнав Claude 3.7 Sonnet. Модель уже доступна в Vertex и AI Studio.

@ai_newz
😁1
Теперь Claude Code может как и его десктопный побратим ходить в поисковый индекс Anthropic и делать поиск, актуализировать инфу если его попросить. Это помимо perplexity-mcp. Оч мощная штука получается
3
🔧 Tencent CodeBuddy — новый AI-напарник для разработчиков

Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat

🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.

🔗 Попробовать → copilot.tencent.com

#CodeBuddy #Tencent #AI #DevTools
👍1
🆕 Windsurf ➜ SWE-1 — «фронтирные» ИИ-модели для всего цикла разработки, а не только автодополнений

▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.

▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.

▫️ Состав семейства
SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
SWE-1-mini — супербыстрый предиктор для inline-табов.

▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.

💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.

📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
👍3💯1
Вот на фоне OpenAI Codex Agent эта новость очень странная как бы, но на самом деле нет, valuation у windsurf теперь явно подрос, потому что тут теперь есть уникальное предложение, тот самый value-add и можно продаться еще дороже. Но это я еще напишу про OpenAI Codex agent. Coming soon..)
🔥4
Небольшой обзор Codex OpenAI Agent 🤔

Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.

Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно

Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷‍♂️

Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования

Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.

OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
👍4🔥2💯1
Щедро!
😁1
Ну вот и покодили. Я все пытался вспомнить что с GitHub Copilot Workspace было не так, и вот оно что, тоже самое, но там можно было сделать через GitHub codespace это, хоть и неудобно но можно было. Но для разработки хомяков ок. Это то почему cli + mcp рулит
💩1
В codex завезли поддержку и openrouter и ollama и еще всяких mistral (https://github.com/openai/codex?tab=readme-ov-file#full-configuration-example)
Да, и вот про qwen3 30b a3b - на ollama моделька эта занимает 19гб и инференс на моей прошке норм, хоть и медленно по сравнению с сегодняшними сетками. Но на момент сентября прошлого года оч круто
🛠️ Google представила Jules — автономного AI-кодера!

🌐 jules.google.com открылся в публичной бете: больше никакого списка ожидания — зарегистрироваться может каждый разработчик, где доступна модель Gemini. Jules клонирует ваш репозиторий в изолированную VM в Google Cloud, понимает контекст проекта и берет на себя задачи от «обновить зависимости» до «добавить новую фичу» — полностью асинхронно.

🧩 Ключевые фишки:
🪄 Автономный агент: планирует шаги, аргументирует решения и показывает diff перед коммитом.
🔀 Параллельное выполнение: несколько задач обрабатываются одновременно в облаке.
🔊 Аудио-чейнджлог: Jules озвучивает, что поменялось в коде — удобно слушать на ходу.
🔧 Глубокая интеграция с GitHub: достаточно поставить label assign-to-jules в issue, и бот сам создаст PR.
🔒 Конфиденциальность: ваш код не попадает в обучение моделей и остаётся внутри защищённой среды.

💸 Сколько стоит?
Пока сервис бесплатен, но есть лимиты по использованию; тарифы появятся после окончания беты.

🚀 Как начать:
1. Авторизуйтесь на jules.google.com через Google-аккаунт.
2. Подключите репозиторий GitHub и дайте права на создание веток.
3. Создайте issue с задачей или добавьте label — и наблюдайте, как агент пишет код за вас.

👩‍💻 Кажется, мы вступаем в эпоху, где «код-ревью» превращается в «агент-ревью». Проверяйте, тестируйте и делитесь фидбеком — пока всё бесплатно!

#AI #Google #Jules #CodingAgent #Gemini
🔥2
Важное замечание! Теперь понятно, почему OpenAI так спешил с Codex.

Вчерашний релиз Google впечатляет - они даже создали премиум подписку Ultra с большим количеством преимуществ, чем у OpenAI.

Нужно посмотреть, как работает Jules. Уверен, что это именно то, что я изначально хотел. Буду его изучать, так как Codex - не совсем то, что нужно.
💯1
🚀 Devstral — новый «код-мозг» от Mistral AI!

💡 Что случилось?
Mistral AI вместе с All Hands AI выкатили Devstral-24B — открытую LLM, специально обученную на задачах разработки ПО. Доступна в Ollama, Hugging Face, vLLM, LM Studio и через API Mistral.



⚔️ Devstral vs Qwen 3

🔢 Параметры
• Devstral-24B: 24 B
• Qwen 3: 30 B (A3B) / 235 B (A22B)

📊 SWE-Bench Verified
• Devstral: 46,8 %
• Qwen 3-235B: ≈ 40 %

🧠 Контекст
• Оба до 128 k токенов

⚙️ Железо для локального запуска
• Devstral: 1 × RTX 4090 или Mac 32 GB
• Qwen 30B: 4–8 GPU | Qwen 235B: кластер A100

💲 Стоимость API (in/out)
• Devstral: $0,10 / $0,30 за 1 М токенов
• Qwen 235B: $0,13 / $0,40

📜 Лицензия
• Обе модели — Apache 2.0



🔥 Почему Devstral может быть выгоднее
1. Быстрый локальный старт — помещается в одну 4090, подходит даже для ноутов.
2. 🏆 Лидер в SWE-Bench — закрывает реальные issue «из коробки».
3. 🧩 Нативная агентность — умеет редактировать несколько файлов и проходить автотесты.
4. 💵 Низкий TCO — меньше GPU → дешевле инференс.
5. 🔓 Полная свобода использования благодаря Apache 2.0.



🚀 Попробовать прямо сейчас

ollama pull devstral
ollama run devstral


💻 Подключай к MCP или vLLM и ускоряй ревью, рефакторинг и баг-фиксы вместе с Devstral! 🚀🧠
🔥2👍1
Я уже ранее писал о подобном подходе, начинать все с документов проекта, но сегодня расскажу о его развитии

🧠📦 Memory Bank: как научить ассистента помнить проект
Большинство код-помощников (Cursor, Cline, Claude Code) «начинают с чистого листа» при каждой сессии.
Memory Bank — это приём, когда вы кладёте короткие .md-файлы прямо в репозиторий, а ассистент читает и обновляет их автоматически.
Так он хранит долгосрочный контекст: архитектуру, бизнес-замысел, ход задач.



🔑 Минимальный набор файлов
📄 projectbrief.md — цели проекта, стек, аудитория (редко меняется)
🌍 productContext.md — бизнес-контекст, UX-видение (редко)
🏗️ systemPatterns.md — архитектура, паттерны (по мере роста)
🛠️ techContext.md — окружение, зависимости (по мере роста)
🚧 activeContext.md — текущая задача (часто)
📈 progress.md — done / next / blocked (каждый шаг)



⚙️ Как это выглядит в инструментах

Cursor 🔄
npx cursor-bank init — создаёт /memory-bank и шаблоны.
• В репо появляется .cursorrules с двумя режимами: PLAN (обзор + вопросы) и ACT (код).
• Чат-команды: PLAN, ACT, update memory bank.

Cline 🖥️
• В Settings → Custom Instructions вставьте правила, затем положите /memory-bank.
• Слэш-команды: /plan /act, /update memory bank, /follow your custom instructions.

Claude Code 🤖
• Локальная память — ./CLAUDE.md; глобальная — ~/.claude/CLAUDE.md.
• Подключайте файлы через @path/to/file.
• Начните сообщение с # — Claude предложит, куда сохранить заметку.
• Популярные расширения: Basic Memory (Markdown-лог), Claude Crew (CLI + тесты), memory-bank-mcp (централизованное хранилище).



🎯 Практические сценарии
🆕 Онбординг новичка — читает пару файлов и сразу «в теме».
🏗️ Длинные фичи — progress.md хранит решения → меньше «почему так сделали?».
🤝 Несколько ИИ-агентов — общий банк = единое знание, меньше конфликтов.
📚 Автодокументация — ассистент пишет черновики, вы только ревьюите.



🛎️ Советы
1. ✂️ Краткость: 150–300 слов на файл, чтобы не забивать контекст-окно.
2. 🏷️ Единые заголовки в разных проектах — ассистент быстрее находит нужное.
3. 🔄 Обновляйте activeContext.md после каждого мержа в main.
4. 🤖 Дайте ассистенту право редактировать банк — 90 % правок полезны, остальное откатит git.
5. 📂 Держите /memory-bank в корне репо, чтобы люди и ИИ читали одно и то же.



🚀 Чек-лист «за 5 минут»
1. npx cursor-bank init (или эквивалент) — инициализируйте банк.
2. Заполните файлы на 3–4 абзаца каждый.
3. Используйте команды PLAN / ACT / update memory bank.
4. Добавьте в README ссылку на gist с правилами.

Теперь ассистент не забывает проект между сессиями, а команда получает единый источник правды!
👍1👀1
Ну что?! Ну все! +10% от sonnet 3.7 это как бы очень серьезно! 😎 Посмотрим сравнение уже завтра по aider
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Anthropic показала Claude 4 – сразу две новые модели Opus 4 и Sonnet 4

Opus 4 бьёт рекорды в кодинге и сложных задачах, Sonnet 4 даёт ту же логику, но быстрее и дешевле. Обе могут переключаться между «мгновенным» ответом и режимом Extended Thinking – до 7 часов непрерывных рассуждений!!! То есть вы понимаете да? Что это уже даже не deep research.

💡 Что ещё привезли
• «Песочница» для запуска кода прямо у Anthropic – аналог Code Interpreter.
• API-файлы + web-search: агент сам шастает по поиску и читает ваши документы.
• Memory files (он же разновидность подхода memory bank) – длительная память, бот сам их пишет чтоб не забывал ход мыслей
• Поддержка GitHub Copilot Agent: переключение на новые модели повышает точность советов.

📈 Anthropic называет Opus 4 «лучшей моделью для кода», а эксперты считают, что такие агенты приблизят нам «стартап-единорога с одним сотрудником».

👉 Полную 90-минутную презентацию можно посмотреть здесь: https://www.youtube.com/watch?v=EvtPBaaykdo – там живые демо и визионерское выступление Дарио Амодеи.
👍21
⚙️ Обновление Claude Code: команды /ide и /install-github-app

В свежем релизе Claude Code появились две команды, которые радикально упрощают жизнь тем, кто пишет код на удалённой машине или ведёт open-source-проекты.



🛠 /ide — идеальная синхронизация с VS Code и JetBrains IDE
• Запускайте /ide прямо из терминала Claude Code, даже если IDE работает локально, а код — на сервере.
• Файлы синхронизируются автоматически: дифы и правки открываются не в терминале, а в привычном diff-просмотрщике IDE.
• Работает как из встроенного терминала IDE, так и из внешнего SSH-сеанса — главное запустить Claude из корня проекта.

В итоге: меньше контекстных переключений, больше фокуса на самом коде.



🚀 /install-github-app — Claude Code прямо в Pull Request
• Запустите команду один раз, и мастер-скрипт настроит GitHub App, секреты и workflow.
• Дальше в PR достаточно упомянуть @claude и написать команду (например /fix-tests) — GitHub Actions запустит Claude Code в контейнере и применит результат к ветке.
• Код выполняется в инфраструктуре GitHub, поэтому не требует локальной установки.

Полная инструкция и исходники: https://github.com/anthropics/claude-code-action.



Почему это круто
• Меньше рутины: IDE показывает изменения мгновенно, без ручного git diff.
• Автоматизация ревью: Claude исправит тесты, отформатирует код или допишет документацию по одной команде в PR.
• Единый рабочий контекст: терминал, IDE и GitHub работают как единая система — без лишних скриптов и плагинов.



Быстрый старт

# Внутри терминала Claude Code на сервере
/ide # подключаем IDE-режим
/install-github-app # настраиваем GitHub App


Пара команд — и ваша удалённая разработка становится такой же удобной, как локальная. Экономия времени на переключениях и настройке ощущается уже в первый день работы. Попробуйте и убедитесь сами!
👍2
Забавно что по aider benchmark Opus 4 не смог сделать Google 2.5 Pro 🤔
🥱1