This media is not supported in your browser
VIEW IN TELEGRAM
💥 Как перестать страдать с текстами коммитов
Каждый разработчик знает это чувство: написал кучу кода, всё работает — и тут замираешь над
Плохие коммиты – это боль. Через месяц вы не поймёте, что вообще меняли, а тимлид на код-ревью не обрадуется коммиту
Решение простое: автоматизация. Используйте действие "Сгенерировать текст коммита" от Koda — и получайте нормальный осмысленный месседж.
Больше никаких «asdf» или «final fix» 😉
Каждый разработчик знает это чувство: написал кучу кода, всё работает — и тут замираешь над
git commit -m "".Плохие коммиты – это боль. Через месяц вы не поймёте, что вообще меняли, а тимлид на код-ревью не обрадуется коммиту
"fix again".Решение простое: автоматизация. Используйте действие "Сгенерировать текст коммита" от Koda — и получайте нормальный осмысленный месседж.
Больше никаких «asdf» или «final fix» 😉
🔥9👍6❤3
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 Koda в агентном режиме: запросы в интернет
Иногда для решения задачи не хватает локального контекста: в коде и документации нет ответа.
В агентном режиме Koda может выполнить поиск в интернете и вернуть результат прямо в IDE. Эта фича может быть полезна для проверки актуальных версий библиотек, поиска примеров или уточнения деталей спецификаций.
#agent_mode
Иногда для решения задачи не хватает локального контекста: в коде и документации нет ответа.
В агентном режиме Koda может выполнить поиск в интернете и вернуть результат прямо в IDE. Эта фича может быть полезна для проверки актуальных версий библиотек, поиска примеров или уточнения деталей спецификаций.
#agent_mode
❤8🔥7👍3🐳1
🚀 Добавили новую модель: DeepSeek-V3.1-Terminus
Стараемся держать темп: модель вышла на днях — и уже доступна у нас.
Что изменилось в новой версии DeepSeek:
* Языковая консистентность. Меньше смешения CN/EN и «случайных символов».
* Агенты стали умнее. Подтянули Code Agent и Search Agent
Теперь будем ждать DeepSeek-V4 😇
Release Notes DeepSeek-V3.1-Terminus
Модель на Hugging Face
Стараемся держать темп: модель вышла на днях — и уже доступна у нас.
Что изменилось в новой версии DeepSeek:
* Языковая консистентность. Меньше смешения CN/EN и «случайных символов».
* Агенты стали умнее. Подтянули Code Agent и Search Agent
Теперь будем ждать DeepSeek-V4 😇
Release Notes DeepSeek-V3.1-Terminus
Модель на Hugging Face
👍11🔥10❤5
Что завезли:
• Контекстное окно выросло до 200k токенов.
• Обещают, что кодинг стал быстрее и точнее. По крайней мере в бенчмарках.
• Больше «агентности» — модель умнее пользуется инструментами, анализирует и выводы делает без растраты лишних токенов.
• GLM-4.6 бьет по метрикам DeepSeek-V3.1-Terminus и даже Claude Sonnet 4.
С Koda испытать модельку на прочность можно абсолютно бесплатно уже сейчас!
Koda в VS Code
GLM 4.6 на Hugging Face
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11🤩5❤4👍3
Media is too big
VIEW IN TELEGRAM
⚡️ MCP-сервер: как научить ИИ ходить в твои внутренние API
Генеративные модели круто помогают писать код — пока не натыкаются на твои приватные сервисы. Они не видят внутренние API, не знают свежих схем БД и начинают гадать.
Агентный режим частично решает проблему: например, в Koda агент может выйти в интернет и найти нужную инфу. Хочешь, чтобы ИИ реально работал с твоей системой — нужно дать ему мостик. И вот тут появляется MCP-сервер.
Это простой сервер, который ты поднимаешь сам и описываешь в нём, к чему можно ходить. Например, на Java + Spring это выглядело бы следующим образом:
Дальше регистрируешь этот MCP-сервер в Koda, и когда ты спросишь у LLM про клиентов, которые принесли тебе больше всего выручки — Koda запросит данные из твоей базы, используя тул, который ты ей предоставил (см. видео).
Кстати, не обзяательно создавать MCP-сервер самому. Если нужны данные из какого-то популярного сервиса, то почти наверняка у него уже есть MCP-сервер, и надо им только воспользоваться. Вот пример для GitHub:
И да, шутят, что MCP-серверов сейчас делают больше, чем ими пользуются 😄
Подробнее про MCP | Koda в VS Code | Koda на YouTube
@kodacoderu
Генеративные модели круто помогают писать код — пока не натыкаются на твои приватные сервисы. Они не видят внутренние API, не знают свежих схем БД и начинают гадать.
Агентный режим частично решает проблему: например, в Koda агент может выйти в интернет и найти нужную инфу. Хочешь, чтобы ИИ реально работал с твоей системой — нужно дать ему мостик. И вот тут появляется MCP-сервер.
Это простой сервер, который ты поднимаешь сам и описываешь в нём, к чему можно ходить. Например, на Java + Spring это выглядело бы следующим образом:
@Service
public class DbTools {
@Tool(
name = "db.kpis.topCustomers",
denoscription = "Топ‑N клиентов по выручке"
)
public Map<String, Object> topCustomers() {
//Получаем актуальную информацию из БД
}
}
Дальше регистрируешь этот MCP-сервер в Koda, и когда ты спросишь у LLM про клиентов, которые принесли тебе больше всего выручки — Koda запросит данные из твоей базы, используя тул, который ты ей предоставил (см. видео).
Кстати, не обзяательно создавать MCP-сервер самому. Если нужны данные из какого-то популярного сервиса, то почти наверняка у него уже есть MCP-сервер, и надо им только воспользоваться. Вот пример для GitHub:
mcpServers:
- name: GitHub
command: docker
args:
- "run"
- "-i"
- "--rm"
- "-e"
- "GITHUB_PERSONAL_ACCESS_TOKEN=token"
- "ghcr.io/github/github-mcp-server"
И да, шутят, что MCP-серверов сейчас делают больше, чем ими пользуются 😄
Подробнее про MCP | Koda в VS Code | Koda на YouTube
@kodacoderu
🔥12❤7👍6🙈2
Друзья, мы сейчас активно допиливаем Koda. Чтобы понять, движемся ли мы в нужную сторону — нужен ваш фидбек!
Вы уже не раз помогали нам баг-репортами и идеями в чате (@kodacommunity). Теперь хотим собрать побольше фидбека централизовано.
Пройти опрос — 2 минуты, не больше: ссылка
Будем всем крайне благодарны ❤️
Вы уже не раз помогали нам баг-репортами и идеями в чате (@kodacommunity). Теперь хотим собрать побольше фидбека централизовано.
Пройти опрос — 2 минуты, не больше: ссылка
Будем всем крайне благодарны ❤️
🔥9🫡5❤4👍3
Пожалуй самое приятное – модели KodaAgent и KodaChat стали работать заметно быстрее. Советуем попробовать их в деле!
Помимо этого:
⚠️ Но будьте осторожны! Рекомендуем использовать этот режим в связке с Git'ом. Так вы всегда сможете восстановить предыдущее решение, если агент сделает не то, что вы ожидали.
modify_existing_file с длинными файлами.Если заметите баги или захотите предложить новые фичи — пишите в чат (@kodacommunity), мы всегда на связи 🙏
Koda в VS Code
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤7👍5🙏2👨💻1
Koda CLI превращает терминал в умную рабочую среду. Он помогает писать и понимать код, редактировать файлы, выполнять команды, находить и устранять ошибки, общаясь с моделью на естественном языке.
Основные возможности:
Как и в расширении для VS Code, доступ ко множеству топовых моделей открыт бесплатно на первые 1 000 запросов.
Авторизация — через GitHub. А наша собственная модель KodaAgent доступна без ограничений на количество запросов.
Так же мы выпустили расширения для VS Code и JetBrains IDE для отображения диффов при редактировании агентом файлов в Koda CLI. Удобно просматривать и принимать изменения, которые предлагает агент.
Установка и запуск
Начать работу с Koda CLI очень легко:
🔹 npm install -g @kodadev/koda-cli
🔹Или скачать файл .tgz и установить
Документации пока нету, скоро будет.
Koda CLI сейчас в режиме бета-тестирования.
Ваши вопросы и баги пишите в @kodacommunity.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍5❤4👎1🕊1
Если заметите баги или захотите предложить новые фичи — пишите в чат (@kodacommunity), мы всегда на связи 🙏
Koda в VS Code
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍7🥰3👏1🕊1
MiniMax M2 — обновленная флагманская языковая модель от компании MiniMax, ориентированная на использование в «агентах» и для программирования.
Акцентируют внимание на трёх ключевых способностях:
Бьет по метрикам в коддинг предыдущего лидера из опенсорc - GLM 4.6. Так же уверенно опережает DeepSeek.
Попробовать саму модель можно абсолютно бесплатно уже сейчас в VS Code и терминале через утилиту Koda CLI.
Поделитесь впечатлением в нашем сообществе, насколько эта обновленная модель отрабатывает на ваших задачах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍7❤6🕊1
⚡️ Добавили топовую китайскую модель для агентных задач Kimi K2–Thinking
Буквально несколько дней назад китайский стартап Moonshot AI выпустил "думающую" версию своей модели K2 – K2-Thinking.
Kimi K2 Thinking устанавливает новые рекорды на бенчмарках (на некоторых даже опережает GPT-5!), оценивающих логическое мышление, кодинг и агентные способности.
Let's go тестить!
Установить Koda | Чат поддержки
@kodacoderu
Буквально несколько дней назад китайский стартап Moonshot AI выпустил "думающую" версию своей модели K2 – K2-Thinking.
Kimi K2 Thinking устанавливает новые рекорды на бенчмарках (на некоторых даже опережает GPT-5!), оценивающих логическое мышление, кодинг и агентные способности.
Let's go тестить!
Установить Koda | Чат поддержки
@kodacoderu
🔥13👍5👏4
Друзья, у нас сейчас на финальной прямой плагин для JB, личный кабинет и несколько востребованных фич. Хочется поскорее их выкатить из-под папки dev/ в production.
Надеемся собрать небольшую группу энтузиастов, которым интересно не просто пользоваться, а влиять на развитие продукта и потестировать новинки.
Что нужно: немного времени и честный фидбек.
Работа будет вестись в закрытой ТГ-группе, где нужно отправлять баг-репорты и взаимодействовать с командой Koda.
Желательно, чтобы в группе были владельцы и пользователи разных платформ и устройств.
Хочешь в команду энтузиастов? Пишите #готов, и мы добавим тебя в тест-группу. Количество мест в группе ограничено.
🎁 В знак благодарности тестеры получат расширенный пакет запросов к моделям, а самым активным еще и наш мерч (куда ж без него).
Надеемся собрать небольшую группу энтузиастов, которым интересно не просто пользоваться, а влиять на развитие продукта и потестировать новинки.
Что нужно: немного времени и честный фидбек.
Работа будет вестись в закрытой ТГ-группе, где нужно отправлять баг-репорты и взаимодействовать с командой Koda.
Желательно, чтобы в группе были владельцы и пользователи разных платформ и устройств.
Хочешь в команду энтузиастов? Пишите #готов, и мы добавим тебя в тест-группу. Количество мест в группе ограничено.
🎁 В знак благодарности тестеры получат расширенный пакет запросов к моделям, а самым активным еще и наш мерч (куда ж без него).
🔥12👍9❤3
This media is not supported in your browser
VIEW IN TELEGRAM
😎 Koda CLI: AI-помощник прямо в терминале
Мы уже рассказывали про Koda CLI… но, похоже, не все успели понять, какой это кайф и для фанатов IDE, и для тех, кто обожает терминал.
Koda CLI это не просто чат в консоли, а полноценный помощник разработчика. Он уже умеет работать вместе с JetBrains IDE через компаньона: CLI получает контекст последних файлов, позицию курсора и выделенный код, а правки показываются прямо в стандартном диффе IDE.
Также как и плагин для VS Code, Koda CLI бесплатен и доступен всем! Если пропустили релиз или откладывали попробовать, сейчас отличный момент!
Более подробная статья про Koda CLI на Хабр
Скачать Koda CLI
Документация
@kodacoderu
Мы уже рассказывали про Koda CLI… но, похоже, не все успели понять, какой это кайф и для фанатов IDE, и для тех, кто обожает терминал.
Koda CLI это не просто чат в консоли, а полноценный помощник разработчика. Он уже умеет работать вместе с JetBrains IDE через компаньона: CLI получает контекст последних файлов, позицию курсора и выделенный код, а правки показываются прямо в стандартном диффе IDE.
Также как и плагин для VS Code, Koda CLI бесплатен и доступен всем! Если пропустили релиз или откладывали попробовать, сейчас отличный момент!
Более подробная статья про Koda CLI на Хабр
Скачать Koda CLI
Документация
@kodacoderu
🔥10👍7❤4
Koda
Друзья, у нас сейчас на финальной прямой плагин для JB, личный кабинет и несколько востребованных фич. Хочется поскорее их выкатить из-под папки dev/ в production. Надеемся собрать небольшую группу энтузиастов, которым интересно не просто пользоваться, а…
Друзья, по тест-группе — всё, мы укомплектованы!
Отклик с хештегом #готов был просто огонь! Вы нас искренне порадовали (и даже немного удивили!) таким количеством желающих помочь. Видеть, как наше сообщество готово участвовать в развитии Koda — самая сильная мотивация для нас. Спасибо, что вы с нами!
Группа собрана, работа уже закипела.
Это точно не последний такой набор: как только будут новые фичи для теста, мы снова позовём самых активных. Следите за анонсами!
Всем спасибо! Вы лучшие 💜
Отклик с хештегом #готов был просто огонь! Вы нас искренне порадовали (и даже немного удивили!) таким количеством желающих помочь. Видеть, как наше сообщество готово участвовать в развитии Koda — самая сильная мотивация для нас. Спасибо, что вы с нами!
Группа собрана, работа уже закипела.
Это точно не последний такой набор: как только будут новые фичи для теста, мы снова позовём самых активных. Следите за анонсами!
Всем спасибо! Вы лучшие 💜
🔥11👍7❤5❤🔥1🤯1
😎 Друзья, мы расширяемся!
Если вы подумывали о том, чтобы сменить работу, то это прекрасная возможность 😊
Мы ищем Middle/Senior Fullstack Developer (AI Tools & CLI)
📍 Работа удалённо
💰 Уровень компенсации обсуждается индивидуально + возможен опцион
Почта для связи: job@kodacode.ru
Если вы подумывали о том, чтобы сменить работу, то это прекрасная возможность 😊
Мы ищем Middle/Senior Fullstack Developer (AI Tools & CLI)
📍 Работа удалённо
💰 Уровень компенсации обсуждается индивидуально + возможен опцион
О компании
Koda (kodacode.ru) — инструмент для разработчиков, который интегрирует мощные AI-модели прямо в рабочий процесс: в редактор, CLI и внутренние инструменты команды.
Мы делаем AI-ассистента, который помогает писать, рефакторить и анализировать код, работает локально или через подключённые LLM-бэкенды и легко встраивается в существующую инфраструктуру разработчика.
Наша цель — упростить рутину инженеров и сделать работу с кодом быстрее и точнее.
Кого мы ищем
Нам нужен Middle/Senior Fullstack Engineer, который хочет работать на стыке инструментов разработки, плагинов IDE и AI-интеграций. Мы ищем не “идеальный резюме-стек”, а человека, который понимает разработчиков и хочет создавать для них удобные инструменты.
Ты будешь работать над ядром Koda, VSCode-плагином, CLI и интеграциями с LLM.
Задачи
1. Разработка Core-компонентов
Поддержка и развитие внутреннего ядра (контекст, маршрутизация запросов, обработчики). Работа над архитектурой, влияющей на весь стек продуктов Koda.
2. Разработка расширений
Развитие плагина Koda для VS Code. Улучшение UX внутри IDE: панель, подсказки, команды, взаимодействие с редактором.
3. CLI и утилиты
Разработка и оптимизация CLI-инструментов. Повышение стабильности, скорости работы и качества DX.
4. Интеграции с LLM
Работа с API ИИ-моделей (OpenAI, Anthropic, местные backend-инференсы). Настройка промптов, передача контекста, обработка ответов.
5. Исследовательские задачи
В случае необходимости — разбор JetBrains-плагина:
- чтение и исправление Kotlin/Java-кода;
- улучшение интеграции.
Требования
Уверенный TypeScript.
Опыт разработки на Node.js (CLI, сервисы, инструменты разработки).
Понимание принципов работы LLM: контекст, промптинг, запросы к API.
Готовность разбираться в чужом коде и нетривиальных архитектурах.
Плюсом будет
Базовые знания Kotlin/Java — достаточно умения ориентироваться в коде.
Опыт разработки расширений для VS Code или других IDE.
Опыт работы с LLM-библиотеками, локальными inference-серверами, RAG.
Что предлагаем
- Работа над инструментом для разработчиков — твоя работа сразу будет видна реальным программистам.
- Постоянный контакт с AI-технологиями: модели, промпты, inference-серверы, интеграции.
- Минимум процессной бюрократии.
- Команда, в которой можно быстро расти технически: инженеры, участвующие в проектах уровня GigaCode/AI-инструментов.
- Удалённый формат и гибкость.
– Оформление по ТК РФ.
Почта для связи: job@kodacode.ru
🔥13👍8🤩3
Мы движемся быстро. Ещё совсем недавно у нас был только плагин для VS Code.
Теперь к нему добавился Koda CLI, а очень скоро появится и плагин для JetBrains IDE, он уже почти на подходе :)
Материалы на канале тоже будут нагонять темп развития продукта – разборы, гайды, примеры: всё, что поможет вам выжать максимум из Koda.
И сегодня у нас первое полноценное видео (
P.S. Пересылайте это видео друзьям и коллегам — особенно тем, кто пока не пользуется Koda)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍16❤6👎1
⚡️ Добавили новую модель DeepSeek V3.2 — топ по reasoning и агентным задачам
Китайский стартап DeepSeek выпустил обновлённую модель V3.2 — первое поколение, которое умеет «думать» при работе с инструментами.
По заявлениям разработчиков, DeepSeek V3.2 показывает качество уровня GPT-5, при этом работает быстрее и дешевле. Модель обучена на 1800+ интерактивных средах и 85k сложных задачах для планирования и многошагового reasoning.
Моделька уже доступна в Koda для VS Code!
В Koda CLI модель отображается в списке, но работает не полностью корректно. Проблема на стороне провайдеров — пока не поддерживается нужный для CLI формат. Ждём их исправлений и сообщим, как только всё заработает стабильно.
Установить Koda | Чат поддержки
@kodacoderu
Китайский стартап DeepSeek выпустил обновлённую модель V3.2 — первое поколение, которое умеет «думать» при работе с инструментами.
По заявлениям разработчиков, DeepSeek V3.2 показывает качество уровня GPT-5, при этом работает быстрее и дешевле. Модель обучена на 1800+ интерактивных средах и 85k сложных задачах для планирования и многошагового reasoning.
Моделька уже доступна в Koda для VS Code!
В Koda CLI модель отображается в списке, но работает не полностью корректно. Проблема на стороне провайдеров — пока не поддерживается нужный для CLI формат. Ждём их исправлений и сообщим, как только всё заработает стабильно.
Установить Koda | Чат поддержки
@kodacoderu
👍19❤7🔥7🙏1
За последние месяцы продукт заметно подрос, и мы собрали несколько метрик, которые показывают, как им пользуются.
1. Больше 3 000 человек активно пользуются Koda каждый месяц. Это та аудитория, которая регулярно возвращается и работает с инструментом. А плагин для VS Code уже скачали больше 5 000 раз.
2. Около 1 млрд токенов трафика в день. Для сравнения: это сопоставимо с обработкой десятков тысяч страниц текста или большого количества файлов кода среднего размера.
3. Самой популярной моделью у пользователей стала Koda. На втором месте — Gemini Flash, замыкает тройку MiniMax M2. В среднем KodaAgent помогает писать 30–40 тысяч строк кода в день, а KodaComplete — ещё примерно 5 000 строк.
4. Топ-3 языков программирования, с которыми Koda помогала чаще всего: Python, TypeScript и Go.
Мы параллельно развиваем и медиа:
5. На YouTube — уже больше 85 000 просмотров. Если ещё не подписались — будем рады!
6. Релизные статьи на Хабре собирают по ~20 000 просмотров. Это материалы про Koda для VS Code и про Koda CLI — на случай, если пропустили.
7. И, конечно, наше комьюнити. В чате (@kodacommunity) уже больше 300 человек, и не было ни одного дня тишины) Спасибо за баги, предложения, вопросы и просто интересные разговоры 💜
@kodacoderu
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👍12❤8🤩1