Koda – Telegram
639 subscribers
27 photos
9 videos
27 links
Koda — AI-помощник для разработчика, который работает без VPN, отлично понимает русский язык и предоставляет доступ к современным моделям прямо из вашей IDE.

Сайт: kodacode.ru
Чат: @kodacommunity
Документация: docs.kodacode.ru
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
💬 Чат в Koda: быстрые ответы прямо в IDE

Приятно, когда не нужно покидать любимую IDE, чтобы что-то уточнить, найти или попросить кусок кода. Режим чата в Koda именно для этого — быстрые вопросы и ответы без переключения в браузер.

Нужно объяснить фрагмент кода? Сгенерировать тест? Найти объяснение ошибки? Всё это можно сделать прямо в диалоге, пока вы остаетесь в IDE.

А для тех, кто только начинает пользоваться инструментом, вот несколько советов и приёмов помимо обычного общения:

1. Начинайте новые сессии для отдельных задач, чтобы не мешался старый контекст (cmd/ctrl + L)
2. Ссылайтесь на документацию или фрагменты проекта через @
3. Переключайтесь между моделями через выпадающий список или cmd/ctrl + '

Подробнее про режим читайте в документации.

#chat_mode
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥75👌1🐳1🏆1😎1
This media is not supported in your browser
VIEW IN TELEGRAM
🔎 Retrieval режим в Koda

Знания в команде расползаются: часть уходит в код, часть оседает в документации, а часть живёт только в головах разработчиков.

И когда тебе надо в чём то разобраться, то обычно путь такой: начинаешь искать в кодовой базе, тратишь время на десятки файлов, а в итоге понимаешь — ответа там нет. Приходится спрашивать товарищей по команде.

Retrieval режим в Koda избавляет вас от бесполезной работы. Он сразу показывает, есть ли нужная информация в кодовой базе.

✔️ Если есть — вы получаете ответ и переходите к коду
Если нет — можно не тратить силы и сразу спросить сокомандника
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍53🕊1🏆1😎1
🆕 Вышел релиз Koda 0.3.2! Что нового?

🔴 Поддержка Deepseek-v3.1 — свежая модель уже доступна для использования.

Также мы поработали над стабильностью и исправили:

🟣 Поведение инструментов в режиме Agent, чтобы взаимодействие стало более надёжным.
🟣 Конфликты AutoComplete с настройкой autoClosingBracket.

Спасибо всем, кто писал нам про ошибки 🙏 Благодаря вашему фидбеку мы можем быстрее находить и устранять баги.

Обновляйтесь и пишите нам если заметите что-то странное, мы всегда на связи 🤝

#release #minor
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍9🎉4👻2👨‍💻2👾21👎1
😍 Koda в CLI #coming_soon

IDE — это удобно и мощно. Но как ни крути, разработчики всё равно регулярно используют терминал.

Скоро Koda станет доступен и там — в виде CLI-утилиты!

Ставь 🔥 если ждёшь
🔥24👍4👏2
⭐️ Koda для вайбкодинга

Самое классное для разработчиков — видеть, как их инструмент оживает в чужих руках. А когда о нём ещё и пишут — это вдвойне приятно!

Мы наткнулись на Хабре на статью от пользователя Koda, который пробует себя во фронтенде. Баги упомянутые в статье уже пофиксиили, так что можно читать спокойно 😎

Заодно накиньте плюсов автору — пусть Хабр будет чуть дружелюбнее к новичкам 🤞

📚 https://habr.com/ru/articles/944734/
👍10😎32👏1
Под «вайбкодингом» обычно понимают ситуацию, когда человек пишет код, не зная технологий: просто берёт язык/фреймворк, гуглит, пробует и что-то в итоге получает. Иногда это путь к новым знаниям, иногда к горе костылей.

А вы как относитесь к вайбкодингу?
Anonymous Poll
52%
Отличный способ быстро вкатиться в новый стек
14%
Вредная практика, лучше избегать
34%
Нет чёткой позиции касаемо вайбкодинга
👍4😈2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Почему новый чат с ИИ — не просто удобство, а необходимость

Может показаться, что нет смысла плодить чаты: зачем, если можно вести всю историю с моделью в одном месте? Но вот в чём нюанс: у каждой LLM есть ограничение на «контекстное окно» — то есть сколько текста она реально может удерживать в голове. У GPT-5 это сотни тысяч токенов, у Gemini и Sonnet вообще миллионы. Звучит круто, но на деле есть нюансы.

Чем длиннее контекст, тем хуже модель рассуждает. Исследования показывают, что при росте истории ответы становятся менее предсказуемыми. В тесте «Find the Origin» модели начинали путаться, когда нужный элемент находился на расстоянии всего в 15 шагов от начала общения. То есть модель видела все данные, но не могла правильно связать их в логическую цепочку.

Именно поэтому длинный чат — это риск получить неправильный ответ. Когда вы держите все задачи в одном диалоге, модель вынуждена пробираться сквозь тонны старых сообщений. Она может «зациклиться» на ненужных деталях, перепутать связи или упустить важное.

Решение простое: создавайте новый чат для новой задачи. Даже если вы продолжаете работать над той же темой, но обсуждение разрослось — проще начать заново и дать модели только актуальные вводные.

Существует еще более продвинутый вариант — prompt-chaining. Берёте результат старого чата, упаковываете его в новый промпт и продолжаете в новом диалоге.

Относитесь к чатам как к Git-веткам. Новая задача = новая ветка. Такой подход может сэкономить время и нервы, и, что важнее, даст модели шанс показать максимум её возможностей.
👍138🔥8
🆕 Вышел релиз Koda 0.4.0! Что нового?

🟣 Поддержка MCP — теперь можно подключать дополнительные возможности напрямую.
🟣 Переключение интерфейса на русский/английский язык.
🟣 Новый инструмент multi_edit_existing_file для редактирования файлов без apply model.

Если заметите баги или захотите предложить новые фичи — пишите, мы всегда на связи 🙏

#release #minor
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍7👏5❤‍🔥1🕊1
This media is not supported in your browser
VIEW IN TELEGRAM
💥 Как перестать страдать с текстами коммитов

Каждый разработчик знает это чувство: написал кучу кода, всё работает — и тут замираешь над git commit -m "".

Плохие коммиты – это боль. Через месяц вы не поймёте, что вообще меняли, а тимлид на код-ревью не обрадуется коммиту "fix again".

Решение простое: автоматизация. Используйте действие "Сгенерировать текст коммита" от Koda — и получайте нормальный осмысленный месседж.

Больше никаких «asdf» или «final fix» 😉
🔥9👍63
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 Koda в агентном режиме: запросы в интернет

Иногда для решения задачи не хватает локального контекста: в коде и документации нет ответа.

В агентном режиме Koda может выполнить поиск в интернете и вернуть результат прямо в IDE. Эта фича может быть полезна для проверки актуальных версий библиотек, поиска примеров или уточнения деталей спецификаций.

#agent_mode
8🔥7👍3🐳1
🚀 Добавили новую модель: DeepSeek-V3.1-Terminus

Стараемся держать темп: модель вышла на днях — и уже доступна у нас.

Что изменилось в новой версии DeepSeek:
* Языковая консистентность. Меньше смешения CN/EN и «случайных символов».
* Агенты стали умнее. Подтянули Code Agent и Search Agent

Теперь будем ждать DeepSeek-V4 😇

Release Notes DeepSeek-V3.1-Terminus
Модель на Hugging Face
👍11🔥105
🆕 Обновочка: GLM-4.6 от Z.ai

Что завезли:
• Контекстное окно выросло до 200k токенов.
• Обещают, что кодинг стал быстрее и точнее. По крайней мере в бенчмарках.
• Больше «агентности» — модель умнее пользуется инструментами, анализирует и выводы делает без растраты лишних токенов.
• GLM-4.6 бьет по метрикам DeepSeek-V3.1-Terminus и даже Claude Sonnet 4.

С Koda испытать модельку на прочность можно абсолютно бесплатно уже сейчас!

Koda в VS Code
GLM 4.6 на Hugging Face
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11🤩54👍3
Media is too big
VIEW IN TELEGRAM
⚡️ MCP-сервер: как научить ИИ ходить в твои внутренние API

Генеративные модели круто помогают писать код — пока не натыкаются на твои приватные сервисы. Они не видят внутренние API, не знают свежих схем БД и начинают гадать.

Агентный режим частично решает проблему: например, в Koda агент может выйти в интернет и найти нужную инфу. Хочешь, чтобы ИИ реально работал с твоей системой — нужно дать ему мостик. И вот тут появляется MCP-сервер.

Это простой сервер, который ты поднимаешь сам и описываешь в нём, к чему можно ходить. Например, на Java + Spring это выглядело бы следующим образом:


@Service
public class DbTools {
@Tool(
name = "db.kpis.topCustomers",
denoscription = "Топ‑N клиентов по выручке"
)
public Map<String, Object> topCustomers() {
//Получаем актуальную информацию из БД
}
}


Дальше регистрируешь этот MCP-сервер в Koda, и когда ты спросишь у LLM про клиентов, которые принесли тебе больше всего выручки — Koda запросит данные из твоей базы, используя тул, который ты ей предоставил (см. видео).

Кстати, не обзяательно создавать MCP-сервер самому. Если нужны данные из какого-то популярного сервиса, то почти наверняка у него уже есть MCP-сервер, и надо им только воспользоваться. Вот пример для GitHub:


mcpServers:
- name: GitHub
command: docker
args:
- "run"
- "-i"
- "--rm"
- "-e"
- "GITHUB_PERSONAL_ACCESS_TOKEN=token"
- "ghcr.io/github/github-mcp-server"


И да, шутят, что MCP-серверов сейчас делают больше, чем ими пользуются 😄

Подробнее про MCP | Koda в VS Code | Koda на YouTube

@kodacoderu
🔥127👍6🙈2
Друзья, мы сейчас активно допиливаем Koda. Чтобы понять, движемся ли мы в нужную сторону — нужен ваш фидбек!

Вы уже не раз помогали нам баг-репортами и идеями в чате (@kodacommunity). Теперь хотим собрать побольше фидбека централизовано.

Пройти опрос — 2 минуты, не больше: ссылка

Будем всем крайне благодарны ❤️
🔥9🫡54👍3
🆕 Вышел релиз Koda 0.4.5! Что нового?

Пожалуй самое приятное – модели KodaAgent и KodaChat стали работать заметно быстрее. Советуем попробовать их в деле!

Помимо этого:
🟣 Добавили режим автопринятия изменений в агентном режиме — включайте в настройках и оставляйте агента решать комплексные задачи самостоятельно, без множества апрувов.

⚠️ Но будьте осторожны! Рекомендуем использовать этот режим в связке с Git'ом. Так вы всегда сможете восстановить предыдущее решение, если агент сделает не то, что вы ожидали.


🟣 Исправлена работа инструмента modify_existing_file с длинными файлами.
🟣 Улучшена обратная связь от инструментов — модель теперь точнее понимает, что произошло после вызова.
🟣 Починили форматирование вызовов инструментов внутри «размышлений» модели.
🟣 Если соединение с сервером прервалось во время вызова инструмента — задача автоматически продолжится после восстановления.

Если заметите баги или захотите предложить новые фичи — пишите в чат (@kodacommunity), мы всегда на связи 🙏

Koda в VS Code
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥217👍5🙏2👨‍💻1
🆕 Koda CLI -- ваш новый бесплатный AI-помощник прямо в командной строке.

Koda CLI превращает терминал в умную рабочую среду. Он помогает писать и понимать код, редактировать файлы, выполнять команды, находить и устранять ошибки, общаясь с моделью на естественном языке.

Основные возможности:
🟣 Расширяемость через Model Context Protocol (MCP) и встроенные плагины
🟣 Настройка подсказок и системных инструкций через KODA.md
🟣 Автоматизация задач и интеграция со скриптами
🟣 Персональные и командные конфигурации

Как и в расширении для VS Code, доступ ко множеству топовых моделей открыт бесплатно на первые 1 000 запросов.
Авторизация — через GitHub. А наша собственная модель KodaAgent доступна без ограничений на количество запросов.

Так же мы выпустили расширения для VS Code и JetBrains IDE для отображения диффов при редактировании агентом файлов в Koda CLI. Удобно просматривать и принимать изменения, которые предлагает агент.

Установка и запуск
Начать работу с Koda CLI очень легко:

🔹 npm install -g @kodadev/koda-cli

🔹Или скачать файл .tgz и установить

Документации пока нету, скоро будет.

Koda CLI сейчас в режиме бета-тестирования.
Ваши вопросы и баги пишите в @kodacommunity.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍54👎1🕊1
🆕 Обновили Koda в VsCode до v0.4.7!

🟣 Полностью переработали инструменты редактирования файлов в режиме агентности. Теперь LLM редактирует файлы более точечно. Появились две тулы редактирования. По умолчанию включена edit_file. Edit_file — наиболее надежный инструмент, редактирует файлы шаг за шагом заменяя старые куски кода на новые. edit_file_LLM — это несколько измененная старая тула с применением apply модели.

🟣 Добавили кнопки для отката и повторения редактирования файла в режиме агентности.
🟣 Исправили ошибку UI при добавлении модели OpenAI/Anthropic/Openrouter. Также актуализировали список моделей

Если заметите баги или захотите предложить новые фичи — пишите в чат (@kodacommunity), мы всегда на связи 🙏

Koda в VS Code
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍7🥰3👏1🕊1
🆕 Добавили в Koda обновленную флагманскую модель MiniMax-M2. Можно попробовать бесплатно!

MiniMax M2 — обновленная флагманская языковая модель от компании MiniMax, ориентированная на использование в «агентах» и для программирования.

Акцентируют внимание на трёх ключевых способностях:
🔴программирование
🔴использование инструментов (toolcalling)
🔴 глубокий поиск/поиск через данные

Бьет по метрикам в коддинг предыдущего лидера из опенсорc - GLM 4.6. Так же уверенно опережает DeepSeek.

Попробовать саму модель можно абсолютно бесплатно уже сейчас в VS Code и терминале через утилиту Koda CLI.

Поделитесь впечатлением в нашем сообществе, насколько эта обновленная модель отрабатывает на ваших задачах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍76🕊1