Koda — AI-помощник для разработчика, который работает без VPN, отлично понимает русский язык и предоставляет доступ к современным моделям прямо из вашей IDE.
🌐 Сайт
📚 Документация
🗯 Чат (вопросы, обсуждения, идеи)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5👏3
Cursor, Windsurf, Junie и другие громкие ИИ-инструменты — крутые, но в России они упираются в VPN, блокировки и подписки которые сложно оплатить. А российскому разработчику нужен инструмент, который просто берёшь и используешь.
Встречайте, Koda — полноценная альтернатива западным AI-ассистентам:
📚 Почему мы взялись за этот проект, что доступно уже сейчас и что будет дальше — читайте на Хабре: https://habr.com/ru/companies/koda/articles/936906/
🗯 Чат (вопросы, обсуждения, идеи)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Обычный чат с ИИ — уже привычная история. Задаёшь вопрос — получаешь ответ. Для простых задач этого достаточно.
Но если задача сложнее, не хочется тратить время на длинный диалог. Гораздо удобнее один раз описать цель и дать инструменту самому пройти все шаги. Именно так работает агентный режим.
Например:
«Найди и отредактируй модель продукта и все связанные с ней DTO. Нужно добавить поле для даты истечения срока годности продукта».В таком случае Koda в агентском режиме сам найдёт нужные файлы и внесёт изменения.
Сейчас у Koda доступен следующий набор инструментов:🟠 Чтение и редактирование файлов🔵 Создание новых файлов🟣 Выполнение команд в терминале🟠 Простой поиск grep, glob и более сложный семантический поиск🔵 Просмотр директорий🟣 Работа с диффами🟠 Доступ к веб-поиску и загрузке контента по URL
#agent_mode
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥8❤4🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Приятно, когда не нужно покидать любимую IDE, чтобы что-то уточнить, найти или попросить кусок кода. Режим чата в Koda именно для этого — быстрые вопросы и ответы без переключения в браузер.
Нужно объяснить фрагмент кода? Сгенерировать тест? Найти объяснение ошибки? Всё это можно сделать прямо в диалоге, пока вы остаетесь в IDE.
А для тех, кто только начинает пользоваться инструментом, вот несколько советов и приёмов помимо обычного общения:
1. Начинайте новые сессии для отдельных задач, чтобы не мешался старый контекст (
cmd/ctrl + L)2. Ссылайтесь на документацию или фрагменты проекта через
@3. Переключайтесь между моделями через выпадающий список или
cmd/ctrl + 'Подробнее про режим читайте в документации.
#chat_mode
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥7❤5👌1🐳1🏆1😎1
This media is not supported in your browser
VIEW IN TELEGRAM
Знания в команде расползаются: часть уходит в код, часть оседает в документации, а часть живёт только в головах разработчиков.
И когда тебе надо в чём то разобраться, то обычно путь такой: начинаешь искать в кодовой базе, тратишь время на десятки файлов, а в итоге понимаешь — ответа там нет. Приходится спрашивать товарищей по команде.
Retrieval режим в Koda избавляет вас от бесполезной работы. Он сразу показывает, есть ли нужная информация в кодовой базе.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍5❤3🕊1🏆1😎1
Также мы поработали над стабильностью и исправили:
autoClosingBracket.Спасибо всем, кто писал нам про ошибки 🙏 Благодаря вашему фидбеку мы можем быстрее находить и устранять баги.
Обновляйтесь и пишите нам если заметите что-то странное, мы всегда на связи 🤝
#release #minor
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍9🎉4👻2👨💻2👾2❤1👎1
😍 Koda в CLI #coming_soon
IDE — это удобно и мощно. Но как ни крути, разработчики всё равно регулярно используют терминал.
Скоро Koda станет доступен и там — в виде CLI-утилиты!
Ставь 🔥 если ждёшь
IDE — это удобно и мощно. Но как ни крути, разработчики всё равно регулярно используют терминал.
Скоро Koda станет доступен и там — в виде CLI-утилиты!
Ставь 🔥 если ждёшь
🔥24👍4👏2
⭐️ Koda для вайбкодинга
Самое классное для разработчиков — видеть, как их инструмент оживает в чужих руках. А когда о нём ещё и пишут — это вдвойне приятно!
Мы наткнулись на Хабре на статью от пользователя Koda, который пробует себя во фронтенде. Баги упомянутые в статье уже пофиксиили, так что можно читать спокойно 😎
Заодно накиньте плюсов автору — пусть Хабр будет чуть дружелюбнее к новичкам 🤞
📚 https://habr.com/ru/articles/944734/
Самое классное для разработчиков — видеть, как их инструмент оживает в чужих руках. А когда о нём ещё и пишут — это вдвойне приятно!
Мы наткнулись на Хабре на статью от пользователя Koda, который пробует себя во фронтенде. Баги упомянутые в статье уже пофиксиили, так что можно читать спокойно 😎
Заодно накиньте плюсов автору — пусть Хабр будет чуть дружелюбнее к новичкам 🤞
📚 https://habr.com/ru/articles/944734/
Хабр
Пет-проект с AI-помощником: мой первый опыт вайбкодинга
Как и многие начинающие разработчики, я давно мечтал сделать свой первый pet‑проект — чтобы почувствовать себя «настоящим программистом» и перестать бояться собеседований. В итоге решился:...
👍10😎3❤2👏1
Под «вайбкодингом» обычно понимают ситуацию, когда человек пишет код, не зная технологий: просто берёт язык/фреймворк, гуглит, пробует и что-то в итоге получает. Иногда это путь к новым знаниям, иногда к горе костылей.
А вы как относитесь к вайбкодингу?
А вы как относитесь к вайбкодингу?
Anonymous Poll
52%
Отличный способ быстро вкатиться в новый стек
14%
Вредная практика, лучше избегать
34%
Нет чёткой позиции касаемо вайбкодинга
👍4😈2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Почему новый чат с ИИ — не просто удобство, а необходимость
Может показаться, что нет смысла плодить чаты: зачем, если можно вести всю историю с моделью в одном месте? Но вот в чём нюанс: у каждой LLM есть ограничение на «контекстное окно» — то есть сколько текста она реально может удерживать в голове. У GPT-5 это сотни тысяч токенов, у Gemini и Sonnet вообще миллионы. Звучит круто, но на деле есть нюансы.
Чем длиннее контекст, тем хуже модель рассуждает. Исследования показывают, что при росте истории ответы становятся менее предсказуемыми. В тесте «Find the Origin» модели начинали путаться, когда нужный элемент находился на расстоянии всего в 15 шагов от начала общения. То есть модель видела все данные, но не могла правильно связать их в логическую цепочку.
Именно поэтому длинный чат — это риск получить неправильный ответ. Когда вы держите все задачи в одном диалоге, модель вынуждена пробираться сквозь тонны старых сообщений. Она может «зациклиться» на ненужных деталях, перепутать связи или упустить важное.
Решение простое: создавайте новый чат для новой задачи. Даже если вы продолжаете работать над той же темой, но обсуждение разрослось — проще начать заново и дать модели только актуальные вводные.
Существует еще более продвинутый вариант — prompt-chaining. Берёте результат старого чата, упаковываете его в новый промпт и продолжаете в новом диалоге.
Относитесь к чатам как к Git-веткам. Новая задача = новая ветка. Такой подход может сэкономить время и нервы, и, что важнее, даст модели шанс показать максимум её возможностей.
Может показаться, что нет смысла плодить чаты: зачем, если можно вести всю историю с моделью в одном месте? Но вот в чём нюанс: у каждой LLM есть ограничение на «контекстное окно» — то есть сколько текста она реально может удерживать в голове. У GPT-5 это сотни тысяч токенов, у Gemini и Sonnet вообще миллионы. Звучит круто, но на деле есть нюансы.
Чем длиннее контекст, тем хуже модель рассуждает. Исследования показывают, что при росте истории ответы становятся менее предсказуемыми. В тесте «Find the Origin» модели начинали путаться, когда нужный элемент находился на расстоянии всего в 15 шагов от начала общения. То есть модель видела все данные, но не могла правильно связать их в логическую цепочку.
Именно поэтому длинный чат — это риск получить неправильный ответ. Когда вы держите все задачи в одном диалоге, модель вынуждена пробираться сквозь тонны старых сообщений. Она может «зациклиться» на ненужных деталях, перепутать связи или упустить важное.
Решение простое: создавайте новый чат для новой задачи. Даже если вы продолжаете работать над той же темой, но обсуждение разрослось — проще начать заново и дать модели только актуальные вводные.
Существует еще более продвинутый вариант — prompt-chaining. Берёте результат старого чата, упаковываете его в новый промпт и продолжаете в новом диалоге.
Относитесь к чатам как к Git-веткам. Новая задача = новая ветка. Такой подход может сэкономить время и нервы, и, что важнее, даст модели шанс показать максимум её возможностей.
👍13❤8🔥8
multi_edit_existing_file для редактирования файлов без apply model.Если заметите баги или захотите предложить новые фичи — пишите, мы всегда на связи 🙏
#release #minor
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍7👏5❤🔥1🕊1
This media is not supported in your browser
VIEW IN TELEGRAM
💥 Как перестать страдать с текстами коммитов
Каждый разработчик знает это чувство: написал кучу кода, всё работает — и тут замираешь над
Плохие коммиты – это боль. Через месяц вы не поймёте, что вообще меняли, а тимлид на код-ревью не обрадуется коммиту
Решение простое: автоматизация. Используйте действие "Сгенерировать текст коммита" от Koda — и получайте нормальный осмысленный месседж.
Больше никаких «asdf» или «final fix» 😉
Каждый разработчик знает это чувство: написал кучу кода, всё работает — и тут замираешь над
git commit -m "".Плохие коммиты – это боль. Через месяц вы не поймёте, что вообще меняли, а тимлид на код-ревью не обрадуется коммиту
"fix again".Решение простое: автоматизация. Используйте действие "Сгенерировать текст коммита" от Koda — и получайте нормальный осмысленный месседж.
Больше никаких «asdf» или «final fix» 😉
🔥9👍6❤3
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 Koda в агентном режиме: запросы в интернет
Иногда для решения задачи не хватает локального контекста: в коде и документации нет ответа.
В агентном режиме Koda может выполнить поиск в интернете и вернуть результат прямо в IDE. Эта фича может быть полезна для проверки актуальных версий библиотек, поиска примеров или уточнения деталей спецификаций.
#agent_mode
Иногда для решения задачи не хватает локального контекста: в коде и документации нет ответа.
В агентном режиме Koda может выполнить поиск в интернете и вернуть результат прямо в IDE. Эта фича может быть полезна для проверки актуальных версий библиотек, поиска примеров или уточнения деталей спецификаций.
#agent_mode
❤8🔥7👍3🐳1
🚀 Добавили новую модель: DeepSeek-V3.1-Terminus
Стараемся держать темп: модель вышла на днях — и уже доступна у нас.
Что изменилось в новой версии DeepSeek:
* Языковая консистентность. Меньше смешения CN/EN и «случайных символов».
* Агенты стали умнее. Подтянули Code Agent и Search Agent
Теперь будем ждать DeepSeek-V4 😇
Release Notes DeepSeek-V3.1-Terminus
Модель на Hugging Face
Стараемся держать темп: модель вышла на днях — и уже доступна у нас.
Что изменилось в новой версии DeepSeek:
* Языковая консистентность. Меньше смешения CN/EN и «случайных символов».
* Агенты стали умнее. Подтянули Code Agent и Search Agent
Теперь будем ждать DeepSeek-V4 😇
Release Notes DeepSeek-V3.1-Terminus
Модель на Hugging Face
👍11🔥10❤5
Что завезли:
• Контекстное окно выросло до 200k токенов.
• Обещают, что кодинг стал быстрее и точнее. По крайней мере в бенчмарках.
• Больше «агентности» — модель умнее пользуется инструментами, анализирует и выводы делает без растраты лишних токенов.
• GLM-4.6 бьет по метрикам DeepSeek-V3.1-Terminus и даже Claude Sonnet 4.
С Koda испытать модельку на прочность можно абсолютно бесплатно уже сейчас!
Koda в VS Code
GLM 4.6 на Hugging Face
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11🤩5❤4👍3
Media is too big
VIEW IN TELEGRAM
⚡️ MCP-сервер: как научить ИИ ходить в твои внутренние API
Генеративные модели круто помогают писать код — пока не натыкаются на твои приватные сервисы. Они не видят внутренние API, не знают свежих схем БД и начинают гадать.
Агентный режим частично решает проблему: например, в Koda агент может выйти в интернет и найти нужную инфу. Хочешь, чтобы ИИ реально работал с твоей системой — нужно дать ему мостик. И вот тут появляется MCP-сервер.
Это простой сервер, который ты поднимаешь сам и описываешь в нём, к чему можно ходить. Например, на Java + Spring это выглядело бы следующим образом:
Дальше регистрируешь этот MCP-сервер в Koda, и когда ты спросишь у LLM про клиентов, которые принесли тебе больше всего выручки — Koda запросит данные из твоей базы, используя тул, который ты ей предоставил (см. видео).
Кстати, не обзяательно создавать MCP-сервер самому. Если нужны данные из какого-то популярного сервиса, то почти наверняка у него уже есть MCP-сервер, и надо им только воспользоваться. Вот пример для GitHub:
И да, шутят, что MCP-серверов сейчас делают больше, чем ими пользуются 😄
Подробнее про MCP | Koda в VS Code | Koda на YouTube
@kodacoderu
Генеративные модели круто помогают писать код — пока не натыкаются на твои приватные сервисы. Они не видят внутренние API, не знают свежих схем БД и начинают гадать.
Агентный режим частично решает проблему: например, в Koda агент может выйти в интернет и найти нужную инфу. Хочешь, чтобы ИИ реально работал с твоей системой — нужно дать ему мостик. И вот тут появляется MCP-сервер.
Это простой сервер, который ты поднимаешь сам и описываешь в нём, к чему можно ходить. Например, на Java + Spring это выглядело бы следующим образом:
@Service
public class DbTools {
@Tool(
name = "db.kpis.topCustomers",
denoscription = "Топ‑N клиентов по выручке"
)
public Map<String, Object> topCustomers() {
//Получаем актуальную информацию из БД
}
}
Дальше регистрируешь этот MCP-сервер в Koda, и когда ты спросишь у LLM про клиентов, которые принесли тебе больше всего выручки — Koda запросит данные из твоей базы, используя тул, который ты ей предоставил (см. видео).
Кстати, не обзяательно создавать MCP-сервер самому. Если нужны данные из какого-то популярного сервиса, то почти наверняка у него уже есть MCP-сервер, и надо им только воспользоваться. Вот пример для GitHub:
mcpServers:
- name: GitHub
command: docker
args:
- "run"
- "-i"
- "--rm"
- "-e"
- "GITHUB_PERSONAL_ACCESS_TOKEN=token"
- "ghcr.io/github/github-mcp-server"
И да, шутят, что MCP-серверов сейчас делают больше, чем ими пользуются 😄
Подробнее про MCP | Koda в VS Code | Koda на YouTube
@kodacoderu
🔥12❤7👍6🙈2
Друзья, мы сейчас активно допиливаем Koda. Чтобы понять, движемся ли мы в нужную сторону — нужен ваш фидбек!
Вы уже не раз помогали нам баг-репортами и идеями в чате (@kodacommunity). Теперь хотим собрать побольше фидбека централизовано.
Пройти опрос — 2 минуты, не больше: ссылка
Будем всем крайне благодарны ❤️
Вы уже не раз помогали нам баг-репортами и идеями в чате (@kodacommunity). Теперь хотим собрать побольше фидбека централизовано.
Пройти опрос — 2 минуты, не больше: ссылка
Будем всем крайне благодарны ❤️
🔥9🫡5❤4👍3
Пожалуй самое приятное – модели KodaAgent и KodaChat стали работать заметно быстрее. Советуем попробовать их в деле!
Помимо этого:
⚠️ Но будьте осторожны! Рекомендуем использовать этот режим в связке с Git'ом. Так вы всегда сможете восстановить предыдущее решение, если агент сделает не то, что вы ожидали.
modify_existing_file с длинными файлами.Если заметите баги или захотите предложить новые фичи — пишите в чат (@kodacommunity), мы всегда на связи 🙏
Koda в VS Code
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤7👍5🙏2👨💻1