Anthropic официально включила Claude Code в подписку Max! Теперь пользователи Max могут работать с кодом прямо из терминала - писать, анализировать, рефакторить и автоматизировать проекты с помощью Claude, не переплачивая за отдельные сервисы. Это особенно выгодно для тех, кто активно использует ИИ для разработки и автоматизации. 💻⚡️
Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.
Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀
#Claude #CloudCode #Anthropic #AI #Новости
Варианты подписки Max:
- Max 5x - $100/мес:
5 раз больше лимитов, чем в Pro - примерно 225 сообщений каждые 5 часов. Подходит для частых пользователей, которые регулярно работают с Claude на разных задачах.
- Max 20x - $200/мес:
20 раз больше лимитов, чем в Pro - примерно 900 сообщений каждые 5 часов. Идеально для команд и тех, кто использует Claude ежедневно и в интенсивном режиме.
Обе версии Max дают приоритетный доступ к новым функциям и моделям, а также стабильную работу даже при высокой нагрузке. Теперь весь функционал Claude и Claude Code доступен в одной подписке - это экономия и удобство для профессионалов! 🚀
#Claude #CloudCode #Anthropic #AI #Новости
🚀 Новое в Claude Max — Web MCP (Integrations)
Anthropic запустила Integrations: теперь Claude в браузере или десктоп-приложении можно напрямую подключить к удалённым MCP-серверам. Это тот самый «USB-C для ИИ», только в облаке — один раз хостите сервер, и модель видит ваши базы, CI/CD, CRM и любые API.
⸻
🔧 Что даст вашему AI-Coding-стеку
• Единое окно: логи из ClickHouse, задачки из Jira и Pull Request’ы из GitHub доступны в одном чате.
• Автоматизация: Claude может не только читать, но и действовать — деплоить, мерджить, начислять кредиты.
• Глубокий Research: новый режим ищет по Web + Integrations до 45 минут и возвращает оформленный отчёт с цитатами.
⸻
⚡️ Как подключить свой сервер за 1 минуту
1. Settings → Profile → Integrations → Add more.
2. Вставьте URL вида https://mcp.mycompany.com.
3. Пройдите OAuth и выберите инструменты, которые хотите открыть Claude.
4. В чате включите интеграцию через меню Search & Tools. Готово!
💡 Лайфхак: держите «пишущие» инструменты выключенными по умолчанию, чтобы модель случайно не запушила в прод.
⸻
🏁 Кому стоит попробовать сразу
• DevOps & SRE: быстрый доступ к метрикам и скриптам без Alt-Tab.
• Data/ML-инженерам: анализ датасетов в ClickHouse или BigQuery из чата.
• Продактовым командам: моментальные сводки задач, таймлайнов и KPI.
⸻
✍️ Итог: Web MCP превращает Claude Max в полноценный control-центр для ваших сервисов. Поднимайте собственный сервер или подключайте готовые (Zapier, Atlassian, Cloudflare) — и пусть ИИ сам пишет код, тягает данные и делает рутинную работу за вас.
Anthropic запустила Integrations: теперь Claude в браузере или десктоп-приложении можно напрямую подключить к удалённым MCP-серверам. Это тот самый «USB-C для ИИ», только в облаке — один раз хостите сервер, и модель видит ваши базы, CI/CD, CRM и любые API.
⸻
🔧 Что даст вашему AI-Coding-стеку
• Единое окно: логи из ClickHouse, задачки из Jira и Pull Request’ы из GitHub доступны в одном чате.
• Автоматизация: Claude может не только читать, но и действовать — деплоить, мерджить, начислять кредиты.
• Глубокий Research: новый режим ищет по Web + Integrations до 45 минут и возвращает оформленный отчёт с цитатами.
⸻
⚡️ Как подключить свой сервер за 1 минуту
1. Settings → Profile → Integrations → Add more.
2. Вставьте URL вида https://mcp.mycompany.com.
3. Пройдите OAuth и выберите инструменты, которые хотите открыть Claude.
4. В чате включите интеграцию через меню Search & Tools. Готово!
💡 Лайфхак: держите «пишущие» инструменты выключенными по умолчанию, чтобы модель случайно не запушила в прод.
⸻
🏁 Кому стоит попробовать сразу
• DevOps & SRE: быстрый доступ к метрикам и скриптам без Alt-Tab.
• Data/ML-инженерам: анализ датасетов в ClickHouse или BigQuery из чата.
• Продактовым командам: моментальные сводки задач, таймлайнов и KPI.
⸻
✍️ Итог: Web MCP превращает Claude Max в полноценный control-центр для ваших сервисов. Поднимайте собственный сервер или подключайте готовые (Zapier, Atlassian, Cloudflare) — и пусть ИИ сам пишет код, тягает данные и делает рутинную работу за вас.
❤1👍1👀1
💎🐙 Gemini подключает GitHub-репозитории — апдейт для разработчиков!
Google запускает GitHub-App в списке расширений Gemini (после Spotify и WhatsApp). Теперь можно «пришить» репозиторий прямо к чату и общаться с ИИ на языке вашего кода.
Что теперь умеет 🤖
• 🔍 Разбираться в проекте — задавайте общие вопросы по архитектуре.
• 🔎 Объяснять функции — попросите расшифровать сложный метод.
• ✨ Советовать улучшения — спросите, как оптимизировать алгоритм.
• 🐞 Помогать дебажить — укажите, где «падает», и получите подсказку.
Как подключить ⚙️
1. Нажмите ➕ → Import code в чате Gemini.
2. Вставьте URL репозитория или ветки (до 1 репо / 5 000 файлов / 100 MB).
3. Для приватных репо привяжите GitHub-аккаунт к Google-аккаунту.
Ограничения 🚧
• 🔸 Не читает историю коммитов и PR-ы.
• 🔸 Не пишет обратно в репозиторий.
• 🔸 Импорт работает только на gemini.google.com, продолжить чат можно в мобильном приложении.
Когда ждать ⏰
Интеграция уже появилась на странице Gemini Apps, но раскатывается волнами — у некоторых ещё не активна. Следите за переключателем GitHub в настройках расширений.
⸻
👩💻 Зачем это вам?
⚡️ Быстрый онбординг в чужой проект, 📈 точечный код-ревью от ИИ, и 🍰 бонус к Copilot — Gemini понимает контекст всей кодовой базы.
Как будете тестировать новинку сначала — рефакторинг или охота на баги? Делитесь в комментариях!
#AICoding #Gemini #GitHub #Google
Google запускает GitHub-App в списке расширений Gemini (после Spotify и WhatsApp). Теперь можно «пришить» репозиторий прямо к чату и общаться с ИИ на языке вашего кода.
Что теперь умеет 🤖
• 🔍 Разбираться в проекте — задавайте общие вопросы по архитектуре.
• 🔎 Объяснять функции — попросите расшифровать сложный метод.
• ✨ Советовать улучшения — спросите, как оптимизировать алгоритм.
• 🐞 Помогать дебажить — укажите, где «падает», и получите подсказку.
Как подключить ⚙️
1. Нажмите ➕ → Import code в чате Gemini.
2. Вставьте URL репозитория или ветки (до 1 репо / 5 000 файлов / 100 MB).
3. Для приватных репо привяжите GitHub-аккаунт к Google-аккаунту.
Ограничения 🚧
• 🔸 Не читает историю коммитов и PR-ы.
• 🔸 Не пишет обратно в репозиторий.
• 🔸 Импорт работает только на gemini.google.com, продолжить чат можно в мобильном приложении.
Когда ждать ⏰
Интеграция уже появилась на странице Gemini Apps, но раскатывается волнами — у некоторых ещё не активна. Следите за переключателем GitHub в настройках расширений.
⸻
👩💻 Зачем это вам?
⚡️ Быстрый онбординг в чужой проект, 📈 точечный код-ревью от ИИ, и 🍰 бонус к Copilot — Gemini понимает контекст всей кодовой базы.
Как будете тестировать новинку сначала — рефакторинг или охота на баги? Делитесь в комментариях!
#AICoding #Gemini #GitHub #Google
🔥1
https://github.com/afshinea/stanford-cme-295-transformers-large-language-models
Очень хорошая шпаргалка по LLM от Stanford University
Очень хорошая шпаргалка по LLM от Stanford University
GitHub
GitHub - afshinea/stanford-cme-295-transformers-large-language-models: VIP cheatsheet for Stanford's CME 295 Transformers and Large…
VIP cheatsheet for Stanford's CME 295 Transformers and Large Language Models - afshinea/stanford-cme-295-transformers-large-language-models
🔧 Tencent CodeBuddy — новый AI-напарник для разработчиков
✨ Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat
🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.
🔗 Попробовать → copilot.tencent.com
#CodeBuddy #Tencent #AI #DevTools
✨ Ключевое:
• Автодополнение кода, диагностика ошибок, рефакторинг, генерация тестов и ревью
• Режим Craft — опиши задачу словами, получи готовый мультифайловый проект
• Поддержка MCP-протокола для быстрой интеграции сторонних инструментов
• В основе — модели DeepSeek V3 и HunYuan Turbo S, доступ бесплатный
• Плагины для VS Code, JetBrains IDE и работа в экосистеме WeChat
🆚 Почему важно: CodeBuddy может потеснить Cursor и GitHub Copilot: он уже дружит с китайской экосистемой, да ещё и бесплатен.
🔗 Попробовать → copilot.tencent.com
#CodeBuddy #Tencent #AI #DevTools
👍1
🆕 Windsurf ➜ SWE-1 — «фронтирные» ИИ-модели для всего цикла разработки, а не только автодополнений
▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.
▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.
▫️ Состав семейства
• SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
• SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
• SWE-1-mini — супербыстрый предиктор для inline-табов.
▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.
💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.
📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
▫️ Что случилось ?
15 мая Windsurf (эк-Codeium) представила линейку своих первых собственных LLM-ов — SWE-1, SWE-1-lite и SWE-1-mini. Это шаг от зависимости от OpenAI/Anthropic к полноценной собственной платформе, притом прямо на фоне слухов о выкупе Windsurf компанией OpenAI за $3 млрд.
▫️ Главная фишка — “flow awareness”
SWE-1 работает по «общему таймлайну» разработчика: редактор → терминал → браузер → тесты. Модель видит незавершённые состояния, долгие задачи и несколько интерфейсов одновременно, поэтому не «теряет контекст» и предлагает точечные действия по мере работы.
▫️ Состав семейства
• SWE-1 — флагман (≈ Claude 3.5 Sonnet / GPT-4.1), сейчас промо-бесплатен для Pro-плана.
• SWE-1-lite — лёгкая версия, заменит Cascade Base, доступна всем.
• SWE-1-mini — супербыстрый предиктор для inline-табов.
▫️ Почему важно
• Internal-бенчмарки: SWE-1 почти догоняет Claude 3.5 Sonnet и обгоняет большинство mid-size open-source LLM по принятию/удержанию сгенерированного кода.
• Стоимость инференса ниже Sonnet — шанс получить frontier-уровень дешевле.
• Переход от «AI-плагин = обёртка над GPT» к «IDE с собственным мозгом» задаёт новую планку для Cursor, Copilot, Gemini Code Assist и т.д.
💡 Что попробовать прямо сейчас
1. Обновите расширение Windsurf в VS Code/JetBrains и включите SWE-1-lite — бесплатно.
2. Сравните latency и качество ревью кода с GPT-4.1 / Claude 3.5 на задаче «мультифайл-рефакторинг».
3. Проверьте, как “shared timeline” ведёт себя в длинных DevOps-скриптах: терминал-команды + git diff + юнит-тесты.
📌 TL;DR: Windsurf перестаёт быть просто «виб-кодинг IDE» и становится полноценным вендором frontier-LLM для инженеров. Следим: если сделка с OpenAI закроется, SWE-1 может превратиться в тестовый полигон для будущих GPT-SWE-моделей.
👍3💯1
Вот на фоне OpenAI Codex Agent эта новость очень странная как бы, но на самом деле нет, valuation у windsurf теперь явно подрос, потому что тут теперь есть уникальное предложение, тот самый value-add и можно продаться еще дороже. Но это я еще напишу про OpenAI Codex agent. Coming soon..)
🔥4
Небольшой обзор Codex OpenAI Agent 🤔
Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.
Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно
Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷♂️
Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования
Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.
OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
Испытываю дежавю, т.к. видел это еще в ноябре 2024 в превью GitHub Copilot Workspace, где можно было кодить и делать пул-реквесты. Пользовался этим какое-то время, но оказалось неудобно.
Проблемы:
- Слишком много работы над сетапом и тестами
- Нужно создавать сложный environment
- Много времени уходит на настройку тулинга вместо работы над продуктом
- Приходится возиться с их контейнером и проверками, что конечному пользователю не нужно
Что спасает OpenAI Agent - мощная языковая модель codex, которая по их бенчмаркам выше o3-high. Но я пока не вижу существенного преимущества 🤷♂️
Думаю, эффективная разработка будет в терминале, в Codex cli и Claude code. Если сравнить с Anthropic - они сильно продвинулись в плане UX, они прям как Apple. Учтены все мелкие детали:
- Автоматическое построение todo
- Интерактивное общение
- Простота использования
Claude 3.7 sonnet может быть слабее сейчас, но то что они затюнили Claude code под соннет и оно работает чотко, а еще perplexity mcp, web search и вся поддержка mcp. Все очень интуитивно понятно.
OpenAI стоит сфокусироваться на Codex CLI и перенять лучшие практики у Anthropic 💡
👍4🔥2💯1
В codex завезли поддержку и openrouter и ollama и еще всяких mistral (https://github.com/openai/codex?tab=readme-ov-file#full-configuration-example)
Да, и вот про qwen3 30b a3b - на ollama моделька эта занимает 19гб и инференс на моей прошке норм, хоть и медленно по сравнению с сегодняшними сетками. Но на момент сентября прошлого года оч круто
🛠️ Google представила Jules — автономного AI-кодера!
🌐 jules.google.com открылся в публичной бете: больше никакого списка ожидания — зарегистрироваться может каждый разработчик, где доступна модель Gemini. Jules клонирует ваш репозиторий в изолированную VM в Google Cloud, понимает контекст проекта и берет на себя задачи от «обновить зависимости» до «добавить новую фичу» — полностью асинхронно.
🧩 Ключевые фишки:
• 🪄 Автономный агент: планирует шаги, аргументирует решения и показывает diff перед коммитом.
• 🔀 Параллельное выполнение: несколько задач обрабатываются одновременно в облаке.
• 🔊 Аудио-чейнджлог: Jules озвучивает, что поменялось в коде — удобно слушать на ходу.
• 🔧 Глубокая интеграция с GitHub: достаточно поставить label assign-to-jules в issue, и бот сам создаст PR.
• 🔒 Конфиденциальность: ваш код не попадает в обучение моделей и остаётся внутри защищённой среды.
💸 Сколько стоит?
Пока сервис бесплатен, но есть лимиты по использованию; тарифы появятся после окончания беты.
🚀 Как начать:
1. Авторизуйтесь на jules.google.com через Google-аккаунт.
2. Подключите репозиторий GitHub и дайте права на создание веток.
3. Создайте issue с задачей или добавьте label — и наблюдайте, как агент пишет код за вас.
👩💻 Кажется, мы вступаем в эпоху, где «код-ревью» превращается в «агент-ревью». Проверяйте, тестируйте и делитесь фидбеком — пока всё бесплатно!
#AI #Google #Jules #CodingAgent #Gemini
🌐 jules.google.com открылся в публичной бете: больше никакого списка ожидания — зарегистрироваться может каждый разработчик, где доступна модель Gemini. Jules клонирует ваш репозиторий в изолированную VM в Google Cloud, понимает контекст проекта и берет на себя задачи от «обновить зависимости» до «добавить новую фичу» — полностью асинхронно.
🧩 Ключевые фишки:
• 🪄 Автономный агент: планирует шаги, аргументирует решения и показывает diff перед коммитом.
• 🔀 Параллельное выполнение: несколько задач обрабатываются одновременно в облаке.
• 🔊 Аудио-чейнджлог: Jules озвучивает, что поменялось в коде — удобно слушать на ходу.
• 🔧 Глубокая интеграция с GitHub: достаточно поставить label assign-to-jules в issue, и бот сам создаст PR.
• 🔒 Конфиденциальность: ваш код не попадает в обучение моделей и остаётся внутри защищённой среды.
💸 Сколько стоит?
Пока сервис бесплатен, но есть лимиты по использованию; тарифы появятся после окончания беты.
🚀 Как начать:
1. Авторизуйтесь на jules.google.com через Google-аккаунт.
2. Подключите репозиторий GitHub и дайте права на создание веток.
3. Создайте issue с задачей или добавьте label — и наблюдайте, как агент пишет код за вас.
👩💻 Кажется, мы вступаем в эпоху, где «код-ревью» превращается в «агент-ревью». Проверяйте, тестируйте и делитесь фидбеком — пока всё бесплатно!
#AI #Google #Jules #CodingAgent #Gemini
🔥2
Важное замечание! Теперь понятно, почему OpenAI так спешил с Codex.
Вчерашний релиз Google впечатляет - они даже создали премиум подписку Ultra с большим количеством преимуществ, чем у OpenAI.
Нужно посмотреть, как работает Jules. Уверен, что это именно то, что я изначально хотел. Буду его изучать, так как Codex - не совсем то, что нужно.
Вчерашний релиз Google впечатляет - они даже создали премиум подписку Ultra с большим количеством преимуществ, чем у OpenAI.
Нужно посмотреть, как работает Jules. Уверен, что это именно то, что я изначально хотел. Буду его изучать, так как Codex - не совсем то, что нужно.
💯1
🚀 Devstral — новый «код-мозг» от Mistral AI!
💡 Что случилось?
Mistral AI вместе с All Hands AI выкатили Devstral-24B — открытую LLM, специально обученную на задачах разработки ПО. Доступна в Ollama, Hugging Face, vLLM, LM Studio и через API Mistral.
⸻
⚔️ Devstral vs Qwen 3
• 🔢 Параметры
• Devstral-24B: 24 B
• Qwen 3: 30 B (A3B) / 235 B (A22B)
• 📊 SWE-Bench Verified
• Devstral: 46,8 %
• Qwen 3-235B: ≈ 40 %
• 🧠 Контекст
• Оба до 128 k токенов
• ⚙️ Железо для локального запуска
• Devstral: 1 × RTX 4090 или Mac 32 GB
• Qwen 30B: 4–8 GPU | Qwen 235B: кластер A100
• 💲 Стоимость API (in/out)
• Devstral: $0,10 / $0,30 за 1 М токенов
• Qwen 235B: $0,13 / $0,40
• 📜 Лицензия
• Обе модели — Apache 2.0
⸻
🔥 Почему Devstral может быть выгоднее
1. ⚡ Быстрый локальный старт — помещается в одну 4090, подходит даже для ноутов.
2. 🏆 Лидер в SWE-Bench — закрывает реальные issue «из коробки».
3. 🧩 Нативная агентность — умеет редактировать несколько файлов и проходить автотесты.
4. 💵 Низкий TCO — меньше GPU → дешевле инференс.
5. 🔓 Полная свобода использования благодаря Apache 2.0.
⸻
🚀 Попробовать прямо сейчас
💻 Подключай к MCP или vLLM и ускоряй ревью, рефакторинг и баг-фиксы вместе с Devstral! 🚀🧠
💡 Что случилось?
Mistral AI вместе с All Hands AI выкатили Devstral-24B — открытую LLM, специально обученную на задачах разработки ПО. Доступна в Ollama, Hugging Face, vLLM, LM Studio и через API Mistral.
⸻
⚔️ Devstral vs Qwen 3
• 🔢 Параметры
• Devstral-24B: 24 B
• Qwen 3: 30 B (A3B) / 235 B (A22B)
• 📊 SWE-Bench Verified
• Devstral: 46,8 %
• Qwen 3-235B: ≈ 40 %
• 🧠 Контекст
• Оба до 128 k токенов
• ⚙️ Железо для локального запуска
• Devstral: 1 × RTX 4090 или Mac 32 GB
• Qwen 30B: 4–8 GPU | Qwen 235B: кластер A100
• 💲 Стоимость API (in/out)
• Devstral: $0,10 / $0,30 за 1 М токенов
• Qwen 235B: $0,13 / $0,40
• 📜 Лицензия
• Обе модели — Apache 2.0
⸻
🔥 Почему Devstral может быть выгоднее
1. ⚡ Быстрый локальный старт — помещается в одну 4090, подходит даже для ноутов.
2. 🏆 Лидер в SWE-Bench — закрывает реальные issue «из коробки».
3. 🧩 Нативная агентность — умеет редактировать несколько файлов и проходить автотесты.
4. 💵 Низкий TCO — меньше GPU → дешевле инференс.
5. 🔓 Полная свобода использования благодаря Apache 2.0.
⸻
🚀 Попробовать прямо сейчас
ollama pull devstral
ollama run devstral💻 Подключай к MCP или vLLM и ускоряй ревью, рефакторинг и баг-фиксы вместе с Devstral! 🚀🧠
🔥2👍1
Я уже ранее писал о подобном подходе, начинать все с документов проекта, но сегодня расскажу о его развитии
🧠📦 Memory Bank: как научить ассистента помнить проект
Большинство код-помощников (Cursor, Cline, Claude Code) «начинают с чистого листа» при каждой сессии.
Memory Bank — это приём, когда вы кладёте короткие .md-файлы прямо в репозиторий, а ассистент читает и обновляет их автоматически.
Так он хранит долгосрочный контекст: архитектуру, бизнес-замысел, ход задач.
⸻
🔑 Минимальный набор файлов
• 📄 projectbrief.md — цели проекта, стек, аудитория (редко меняется)
• 🌍 productContext.md — бизнес-контекст, UX-видение (редко)
• 🏗️ systemPatterns.md — архитектура, паттерны (по мере роста)
• 🛠️ techContext.md — окружение, зависимости (по мере роста)
• 🚧 activeContext.md — текущая задача (часто)
• 📈 progress.md — done / next / blocked (каждый шаг)
⸻
⚙️ Как это выглядит в инструментах
Cursor 🔄
•
• В репо появляется .cursorrules с двумя режимами: PLAN (обзор + вопросы) и ACT (код).
• Чат-команды: PLAN, ACT, update memory bank.
Cline 🖥️
• В Settings → Custom Instructions вставьте правила, затем положите /memory-bank.
• Слэш-команды: /plan ↔ /act, /update memory bank, /follow your custom instructions.
Claude Code 🤖
• Локальная память — ./CLAUDE.md; глобальная — ~/.claude/CLAUDE.md.
• Подключайте файлы через @path/to/file.
• Начните сообщение с # — Claude предложит, куда сохранить заметку.
• Популярные расширения: Basic Memory (Markdown-лог), Claude Crew (CLI + тесты), memory-bank-mcp (централизованное хранилище).
⸻
🎯 Практические сценарии
• 🆕 Онбординг новичка — читает пару файлов и сразу «в теме».
• 🏗️ Длинные фичи — progress.md хранит решения → меньше «почему так сделали?».
• 🤝 Несколько ИИ-агентов — общий банк = единое знание, меньше конфликтов.
• 📚 Автодокументация — ассистент пишет черновики, вы только ревьюите.
⸻
🛎️ Советы
1. ✂️ Краткость: 150–300 слов на файл, чтобы не забивать контекст-окно.
2. 🏷️ Единые заголовки в разных проектах — ассистент быстрее находит нужное.
3. 🔄 Обновляйте activeContext.md после каждого мержа в main.
4. 🤖 Дайте ассистенту право редактировать банк — 90 % правок полезны, остальное откатит git.
5. 📂 Держите /memory-bank в корне репо, чтобы люди и ИИ читали одно и то же.
⸻
🚀 Чек-лист «за 5 минут»
1.
2. Заполните файлы на 3–4 абзаца каждый.
3. Используйте команды PLAN / ACT / update memory bank.
4. Добавьте в README ссылку на gist с правилами.
Теперь ассистент не забывает проект между сессиями, а команда получает единый источник правды!
🧠📦 Memory Bank: как научить ассистента помнить проект
Большинство код-помощников (Cursor, Cline, Claude Code) «начинают с чистого листа» при каждой сессии.
Memory Bank — это приём, когда вы кладёте короткие .md-файлы прямо в репозиторий, а ассистент читает и обновляет их автоматически.
Так он хранит долгосрочный контекст: архитектуру, бизнес-замысел, ход задач.
⸻
🔑 Минимальный набор файлов
• 📄 projectbrief.md — цели проекта, стек, аудитория (редко меняется)
• 🌍 productContext.md — бизнес-контекст, UX-видение (редко)
• 🏗️ systemPatterns.md — архитектура, паттерны (по мере роста)
• 🛠️ techContext.md — окружение, зависимости (по мере роста)
• 🚧 activeContext.md — текущая задача (часто)
• 📈 progress.md — done / next / blocked (каждый шаг)
⸻
⚙️ Как это выглядит в инструментах
Cursor 🔄
•
npx cursor-bank init — создаёт /memory-bank и шаблоны.• В репо появляется .cursorrules с двумя режимами: PLAN (обзор + вопросы) и ACT (код).
• Чат-команды: PLAN, ACT, update memory bank.
Cline 🖥️
• В Settings → Custom Instructions вставьте правила, затем положите /memory-bank.
• Слэш-команды: /plan ↔ /act, /update memory bank, /follow your custom instructions.
Claude Code 🤖
• Локальная память — ./CLAUDE.md; глобальная — ~/.claude/CLAUDE.md.
• Подключайте файлы через @path/to/file.
• Начните сообщение с # — Claude предложит, куда сохранить заметку.
• Популярные расширения: Basic Memory (Markdown-лог), Claude Crew (CLI + тесты), memory-bank-mcp (централизованное хранилище).
⸻
🎯 Практические сценарии
• 🆕 Онбординг новичка — читает пару файлов и сразу «в теме».
• 🏗️ Длинные фичи — progress.md хранит решения → меньше «почему так сделали?».
• 🤝 Несколько ИИ-агентов — общий банк = единое знание, меньше конфликтов.
• 📚 Автодокументация — ассистент пишет черновики, вы только ревьюите.
⸻
🛎️ Советы
1. ✂️ Краткость: 150–300 слов на файл, чтобы не забивать контекст-окно.
2. 🏷️ Единые заголовки в разных проектах — ассистент быстрее находит нужное.
3. 🔄 Обновляйте activeContext.md после каждого мержа в main.
4. 🤖 Дайте ассистенту право редактировать банк — 90 % правок полезны, остальное откатит git.
5. 📂 Держите /memory-bank в корне репо, чтобы люди и ИИ читали одно и то же.
⸻
🚀 Чек-лист «за 5 минут»
1.
npx cursor-bank init (или эквивалент) — инициализируйте банк.2. Заполните файлы на 3–4 абзаца каждый.
3. Используйте команды PLAN / ACT / update memory bank.
4. Добавьте в README ссылку на gist с правилами.
Теперь ассистент не забывает проект между сессиями, а команда получает единый источник правды!
👍1👀1
Ну что?! Ну все! +10% от sonnet 3.7 это как бы очень серьезно! 😎 Посмотрим сравнение уже завтра по aider
Please open Telegram to view this post
VIEW IN TELEGRAM