Koda – Telegram
633 subscribers
27 photos
9 videos
27 links
Koda — AI-помощник для разработчика, который работает без VPN, отлично понимает русский язык и предоставляет доступ к современным моделям прямо из вашей IDE.

Сайт: kodacode.ru
Чат: @kodacommunity
Документация: docs.kodacode.ru
Download Telegram
💡 Если ты здесь впервые, вот что нужно знать!

Koda — AI-помощник для разработчика, который работает без VPN, отлично понимает русский язык и предоставляет доступ к современным моделям прямо из вашей IDE.

🌐 Сайт
👩‍💻 Koda в VS Code Marketplace
📚 Документация
🗯 Чат (вопросы, обсуждения, идеи)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5👏3
AI-помощник разработчика – бесплатно, без VPN, с поддержкой русского языка

Cursor, Windsurf, Junie и другие громкие ИИ-инструменты — крутые, но в России они упираются в VPN, блокировки и подписки которые сложно оплатить. А российскому разработчику нужен инструмент, который просто берёшь и используешь.

Встречайте, Koda — полноценная альтернатива западным AI-ассистентам:
🛑 Работает без VPN и прокси
🛑 Отлично понимает русский язык
🛑 Бесплатен для индивидуальных разработчиков
🛑 Поддерживает автодополнение, чат, поиск по документации и агентный режим

📚 Почему мы взялись за этот проект, что доступно уже сейчас и что будет дальше — читайте на Хабре: https://habr.com/ru/companies/koda/articles/936906/

🗯 Чат (вопросы, обсуждения, идеи)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍54
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Агентный режим в Koda

Обычный чат с ИИ — уже привычная история. Задаёшь вопрос — получаешь ответ. Для простых задач этого достаточно.

Но если задача сложнее, не хочется тратить время на длинный диалог. Гораздо удобнее один раз описать цель и дать инструменту самому пройти все шаги. Именно так работает агентный режим.

Например: «Найди и отредактируй модель продукта и все связанные с ней DTO. Нужно добавить поле для даты истечения срока годности продукта».

В таком случае Koda в агентском режиме сам найдёт нужные файлы и внесёт изменения.

Сейчас у Koda доступен следующий набор инструментов:

🟠 Чтение и редактирование файлов
🔵 Создание новых файлов
🟣 Выполнение команд в терминале
🟠 Простой поиск grep, glob и более сложный семантический поиск
🔵 Просмотр директорий
🟣 Работа с диффами
🟠 Доступ к веб-поиску и загрузке контента по URL

#agent_mode
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥84🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
💬 Чат в Koda: быстрые ответы прямо в IDE

Приятно, когда не нужно покидать любимую IDE, чтобы что-то уточнить, найти или попросить кусок кода. Режим чата в Koda именно для этого — быстрые вопросы и ответы без переключения в браузер.

Нужно объяснить фрагмент кода? Сгенерировать тест? Найти объяснение ошибки? Всё это можно сделать прямо в диалоге, пока вы остаетесь в IDE.

А для тех, кто только начинает пользоваться инструментом, вот несколько советов и приёмов помимо обычного общения:

1. Начинайте новые сессии для отдельных задач, чтобы не мешался старый контекст (cmd/ctrl + L)
2. Ссылайтесь на документацию или фрагменты проекта через @
3. Переключайтесь между моделями через выпадающий список или cmd/ctrl + '

Подробнее про режим читайте в документации.

#chat_mode
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥75👌1🐳1🏆1😎1
This media is not supported in your browser
VIEW IN TELEGRAM
🔎 Retrieval режим в Koda

Знания в команде расползаются: часть уходит в код, часть оседает в документации, а часть живёт только в головах разработчиков.

И когда тебе надо в чём то разобраться, то обычно путь такой: начинаешь искать в кодовой базе, тратишь время на десятки файлов, а в итоге понимаешь — ответа там нет. Приходится спрашивать товарищей по команде.

Retrieval режим в Koda избавляет вас от бесполезной работы. Он сразу показывает, есть ли нужная информация в кодовой базе.

✔️ Если есть — вы получаете ответ и переходите к коду
Если нет — можно не тратить силы и сразу спросить сокомандника
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍53🕊1🏆1😎1
🆕 Вышел релиз Koda 0.3.2! Что нового?

🔴 Поддержка Deepseek-v3.1 — свежая модель уже доступна для использования.

Также мы поработали над стабильностью и исправили:

🟣 Поведение инструментов в режиме Agent, чтобы взаимодействие стало более надёжным.
🟣 Конфликты AutoComplete с настройкой autoClosingBracket.

Спасибо всем, кто писал нам про ошибки 🙏 Благодаря вашему фидбеку мы можем быстрее находить и устранять баги.

Обновляйтесь и пишите нам если заметите что-то странное, мы всегда на связи 🤝

#release #minor
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍9🎉4👻2👨‍💻2👾21👎1
😍 Koda в CLI #coming_soon

IDE — это удобно и мощно. Но как ни крути, разработчики всё равно регулярно используют терминал.

Скоро Koda станет доступен и там — в виде CLI-утилиты!

Ставь 🔥 если ждёшь
🔥24👍4👏2
⭐️ Koda для вайбкодинга

Самое классное для разработчиков — видеть, как их инструмент оживает в чужих руках. А когда о нём ещё и пишут — это вдвойне приятно!

Мы наткнулись на Хабре на статью от пользователя Koda, который пробует себя во фронтенде. Баги упомянутые в статье уже пофиксиили, так что можно читать спокойно 😎

Заодно накиньте плюсов автору — пусть Хабр будет чуть дружелюбнее к новичкам 🤞

📚 https://habr.com/ru/articles/944734/
👍10😎32👏1
Под «вайбкодингом» обычно понимают ситуацию, когда человек пишет код, не зная технологий: просто берёт язык/фреймворк, гуглит, пробует и что-то в итоге получает. Иногда это путь к новым знаниям, иногда к горе костылей.

А вы как относитесь к вайбкодингу?
Anonymous Poll
52%
Отличный способ быстро вкатиться в новый стек
14%
Вредная практика, лучше избегать
34%
Нет чёткой позиции касаемо вайбкодинга
👍4😈2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Почему новый чат с ИИ — не просто удобство, а необходимость

Может показаться, что нет смысла плодить чаты: зачем, если можно вести всю историю с моделью в одном месте? Но вот в чём нюанс: у каждой LLM есть ограничение на «контекстное окно» — то есть сколько текста она реально может удерживать в голове. У GPT-5 это сотни тысяч токенов, у Gemini и Sonnet вообще миллионы. Звучит круто, но на деле есть нюансы.

Чем длиннее контекст, тем хуже модель рассуждает. Исследования показывают, что при росте истории ответы становятся менее предсказуемыми. В тесте «Find the Origin» модели начинали путаться, когда нужный элемент находился на расстоянии всего в 15 шагов от начала общения. То есть модель видела все данные, но не могла правильно связать их в логическую цепочку.

Именно поэтому длинный чат — это риск получить неправильный ответ. Когда вы держите все задачи в одном диалоге, модель вынуждена пробираться сквозь тонны старых сообщений. Она может «зациклиться» на ненужных деталях, перепутать связи или упустить важное.

Решение простое: создавайте новый чат для новой задачи. Даже если вы продолжаете работать над той же темой, но обсуждение разрослось — проще начать заново и дать модели только актуальные вводные.

Существует еще более продвинутый вариант — prompt-chaining. Берёте результат старого чата, упаковываете его в новый промпт и продолжаете в новом диалоге.

Относитесь к чатам как к Git-веткам. Новая задача = новая ветка. Такой подход может сэкономить время и нервы, и, что важнее, даст модели шанс показать максимум её возможностей.
👍138🔥8
🆕 Вышел релиз Koda 0.4.0! Что нового?

🟣 Поддержка MCP — теперь можно подключать дополнительные возможности напрямую.
🟣 Переключение интерфейса на русский/английский язык.
🟣 Новый инструмент multi_edit_existing_file для редактирования файлов без apply model.

Если заметите баги или захотите предложить новые фичи — пишите, мы всегда на связи 🙏

#release #minor
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍7👏5❤‍🔥1🕊1
This media is not supported in your browser
VIEW IN TELEGRAM
💥 Как перестать страдать с текстами коммитов

Каждый разработчик знает это чувство: написал кучу кода, всё работает — и тут замираешь над git commit -m "".

Плохие коммиты – это боль. Через месяц вы не поймёте, что вообще меняли, а тимлид на код-ревью не обрадуется коммиту "fix again".

Решение простое: автоматизация. Используйте действие "Сгенерировать текст коммита" от Koda — и получайте нормальный осмысленный месседж.

Больше никаких «asdf» или «final fix» 😉
🔥9👍63
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 Koda в агентном режиме: запросы в интернет

Иногда для решения задачи не хватает локального контекста: в коде и документации нет ответа.

В агентном режиме Koda может выполнить поиск в интернете и вернуть результат прямо в IDE. Эта фича может быть полезна для проверки актуальных версий библиотек, поиска примеров или уточнения деталей спецификаций.

#agent_mode
8🔥7👍3🐳1
🚀 Добавили новую модель: DeepSeek-V3.1-Terminus

Стараемся держать темп: модель вышла на днях — и уже доступна у нас.

Что изменилось в новой версии DeepSeek:
* Языковая консистентность. Меньше смешения CN/EN и «случайных символов».
* Агенты стали умнее. Подтянули Code Agent и Search Agent

Теперь будем ждать DeepSeek-V4 😇

Release Notes DeepSeek-V3.1-Terminus
Модель на Hugging Face
👍11🔥105
🆕 Обновочка: GLM-4.6 от Z.ai

Что завезли:
• Контекстное окно выросло до 200k токенов.
• Обещают, что кодинг стал быстрее и точнее. По крайней мере в бенчмарках.
• Больше «агентности» — модель умнее пользуется инструментами, анализирует и выводы делает без растраты лишних токенов.
• GLM-4.6 бьет по метрикам DeepSeek-V3.1-Terminus и даже Claude Sonnet 4.

С Koda испытать модельку на прочность можно абсолютно бесплатно уже сейчас!

Koda в VS Code
GLM 4.6 на Hugging Face
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11🤩54👍3
Media is too big
VIEW IN TELEGRAM
⚡️ MCP-сервер: как научить ИИ ходить в твои внутренние API

Генеративные модели круто помогают писать код — пока не натыкаются на твои приватные сервисы. Они не видят внутренние API, не знают свежих схем БД и начинают гадать.

Агентный режим частично решает проблему: например, в Koda агент может выйти в интернет и найти нужную инфу. Хочешь, чтобы ИИ реально работал с твоей системой — нужно дать ему мостик. И вот тут появляется MCP-сервер.

Это простой сервер, который ты поднимаешь сам и описываешь в нём, к чему можно ходить. Например, на Java + Spring это выглядело бы следующим образом:


@Service
public class DbTools {
@Tool(
name = "db.kpis.topCustomers",
denoscription = "Топ‑N клиентов по выручке"
)
public Map<String, Object> topCustomers() {
//Получаем актуальную информацию из БД
}
}


Дальше регистрируешь этот MCP-сервер в Koda, и когда ты спросишь у LLM про клиентов, которые принесли тебе больше всего выручки — Koda запросит данные из твоей базы, используя тул, который ты ей предоставил (см. видео).

Кстати, не обзяательно создавать MCP-сервер самому. Если нужны данные из какого-то популярного сервиса, то почти наверняка у него уже есть MCP-сервер, и надо им только воспользоваться. Вот пример для GitHub:


mcpServers:
- name: GitHub
command: docker
args:
- "run"
- "-i"
- "--rm"
- "-e"
- "GITHUB_PERSONAL_ACCESS_TOKEN=token"
- "ghcr.io/github/github-mcp-server"


И да, шутят, что MCP-серверов сейчас делают больше, чем ими пользуются 😄

Подробнее про MCP | Koda в VS Code | Koda на YouTube

@kodacoderu
🔥127👍6🙈2
Друзья, мы сейчас активно допиливаем Koda. Чтобы понять, движемся ли мы в нужную сторону — нужен ваш фидбек!

Вы уже не раз помогали нам баг-репортами и идеями в чате (@kodacommunity). Теперь хотим собрать побольше фидбека централизовано.

Пройти опрос — 2 минуты, не больше: ссылка

Будем всем крайне благодарны ❤️
🔥9🫡54👍3
🆕 Вышел релиз Koda 0.4.5! Что нового?

Пожалуй самое приятное – модели KodaAgent и KodaChat стали работать заметно быстрее. Советуем попробовать их в деле!

Помимо этого:
🟣 Добавили режим автопринятия изменений в агентном режиме — включайте в настройках и оставляйте агента решать комплексные задачи самостоятельно, без множества апрувов.

⚠️ Но будьте осторожны! Рекомендуем использовать этот режим в связке с Git'ом. Так вы всегда сможете восстановить предыдущее решение, если агент сделает не то, что вы ожидали.


🟣 Исправлена работа инструмента modify_existing_file с длинными файлами.
🟣 Улучшена обратная связь от инструментов — модель теперь точнее понимает, что произошло после вызова.
🟣 Починили форматирование вызовов инструментов внутри «размышлений» модели.
🟣 Если соединение с сервером прервалось во время вызова инструмента — задача автоматически продолжится после восстановления.

Если заметите баги или захотите предложить новые фичи — пишите в чат (@kodacommunity), мы всегда на связи 🙏

Koda в VS Code
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥217👍5🙏2👨‍💻1