This media is not supported in your browser
VIEW IN TELEGRAM
Приятно, когда не нужно покидать любимую IDE, чтобы что-то уточнить, найти или попросить кусок кода. Режим чата в Koda именно для этого — быстрые вопросы и ответы без переключения в браузер.
Нужно объяснить фрагмент кода? Сгенерировать тест? Найти объяснение ошибки? Всё это можно сделать прямо в диалоге, пока вы остаетесь в IDE.
А для тех, кто только начинает пользоваться инструментом, вот несколько советов и приёмов помимо обычного общения:
1. Начинайте новые сессии для отдельных задач, чтобы не мешался старый контекст (
cmd/ctrl + L)2. Ссылайтесь на документацию или фрагменты проекта через
@3. Переключайтесь между моделями через выпадающий список или
cmd/ctrl + 'Подробнее про режим читайте в документации.
#chat_mode
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥7❤5👌1🐳1🏆1😎1
This media is not supported in your browser
VIEW IN TELEGRAM
Знания в команде расползаются: часть уходит в код, часть оседает в документации, а часть живёт только в головах разработчиков.
И когда тебе надо в чём то разобраться, то обычно путь такой: начинаешь искать в кодовой базе, тратишь время на десятки файлов, а в итоге понимаешь — ответа там нет. Приходится спрашивать товарищей по команде.
Retrieval режим в Koda избавляет вас от бесполезной работы. Он сразу показывает, есть ли нужная информация в кодовой базе.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍5❤3🕊1🏆1😎1
Также мы поработали над стабильностью и исправили:
autoClosingBracket.Спасибо всем, кто писал нам про ошибки 🙏 Благодаря вашему фидбеку мы можем быстрее находить и устранять баги.
Обновляйтесь и пишите нам если заметите что-то странное, мы всегда на связи 🤝
#release #minor
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍9🎉4👻2👨💻2👾2❤1👎1
😍 Koda в CLI #coming_soon
IDE — это удобно и мощно. Но как ни крути, разработчики всё равно регулярно используют терминал.
Скоро Koda станет доступен и там — в виде CLI-утилиты!
Ставь 🔥 если ждёшь
IDE — это удобно и мощно. Но как ни крути, разработчики всё равно регулярно используют терминал.
Скоро Koda станет доступен и там — в виде CLI-утилиты!
Ставь 🔥 если ждёшь
🔥24👍4👏2
⭐️ Koda для вайбкодинга
Самое классное для разработчиков — видеть, как их инструмент оживает в чужих руках. А когда о нём ещё и пишут — это вдвойне приятно!
Мы наткнулись на Хабре на статью от пользователя Koda, который пробует себя во фронтенде. Баги упомянутые в статье уже пофиксиили, так что можно читать спокойно 😎
Заодно накиньте плюсов автору — пусть Хабр будет чуть дружелюбнее к новичкам 🤞
📚 https://habr.com/ru/articles/944734/
Самое классное для разработчиков — видеть, как их инструмент оживает в чужих руках. А когда о нём ещё и пишут — это вдвойне приятно!
Мы наткнулись на Хабре на статью от пользователя Koda, который пробует себя во фронтенде. Баги упомянутые в статье уже пофиксиили, так что можно читать спокойно 😎
Заодно накиньте плюсов автору — пусть Хабр будет чуть дружелюбнее к новичкам 🤞
📚 https://habr.com/ru/articles/944734/
Хабр
Пет-проект с AI-помощником: мой первый опыт вайбкодинга
Как и многие начинающие разработчики, я давно мечтал сделать свой первый pet‑проект — чтобы почувствовать себя «настоящим программистом» и перестать бояться собеседований. В итоге решился:...
👍10😎3❤2👏1
Под «вайбкодингом» обычно понимают ситуацию, когда человек пишет код, не зная технологий: просто берёт язык/фреймворк, гуглит, пробует и что-то в итоге получает. Иногда это путь к новым знаниям, иногда к горе костылей.
А вы как относитесь к вайбкодингу?
А вы как относитесь к вайбкодингу?
Anonymous Poll
52%
Отличный способ быстро вкатиться в новый стек
14%
Вредная практика, лучше избегать
34%
Нет чёткой позиции касаемо вайбкодинга
👍4😈2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Почему новый чат с ИИ — не просто удобство, а необходимость
Может показаться, что нет смысла плодить чаты: зачем, если можно вести всю историю с моделью в одном месте? Но вот в чём нюанс: у каждой LLM есть ограничение на «контекстное окно» — то есть сколько текста она реально может удерживать в голове. У GPT-5 это сотни тысяч токенов, у Gemini и Sonnet вообще миллионы. Звучит круто, но на деле есть нюансы.
Чем длиннее контекст, тем хуже модель рассуждает. Исследования показывают, что при росте истории ответы становятся менее предсказуемыми. В тесте «Find the Origin» модели начинали путаться, когда нужный элемент находился на расстоянии всего в 15 шагов от начала общения. То есть модель видела все данные, но не могла правильно связать их в логическую цепочку.
Именно поэтому длинный чат — это риск получить неправильный ответ. Когда вы держите все задачи в одном диалоге, модель вынуждена пробираться сквозь тонны старых сообщений. Она может «зациклиться» на ненужных деталях, перепутать связи или упустить важное.
Решение простое: создавайте новый чат для новой задачи. Даже если вы продолжаете работать над той же темой, но обсуждение разрослось — проще начать заново и дать модели только актуальные вводные.
Существует еще более продвинутый вариант — prompt-chaining. Берёте результат старого чата, упаковываете его в новый промпт и продолжаете в новом диалоге.
Относитесь к чатам как к Git-веткам. Новая задача = новая ветка. Такой подход может сэкономить время и нервы, и, что важнее, даст модели шанс показать максимум её возможностей.
Может показаться, что нет смысла плодить чаты: зачем, если можно вести всю историю с моделью в одном месте? Но вот в чём нюанс: у каждой LLM есть ограничение на «контекстное окно» — то есть сколько текста она реально может удерживать в голове. У GPT-5 это сотни тысяч токенов, у Gemini и Sonnet вообще миллионы. Звучит круто, но на деле есть нюансы.
Чем длиннее контекст, тем хуже модель рассуждает. Исследования показывают, что при росте истории ответы становятся менее предсказуемыми. В тесте «Find the Origin» модели начинали путаться, когда нужный элемент находился на расстоянии всего в 15 шагов от начала общения. То есть модель видела все данные, но не могла правильно связать их в логическую цепочку.
Именно поэтому длинный чат — это риск получить неправильный ответ. Когда вы держите все задачи в одном диалоге, модель вынуждена пробираться сквозь тонны старых сообщений. Она может «зациклиться» на ненужных деталях, перепутать связи или упустить важное.
Решение простое: создавайте новый чат для новой задачи. Даже если вы продолжаете работать над той же темой, но обсуждение разрослось — проще начать заново и дать модели только актуальные вводные.
Существует еще более продвинутый вариант — prompt-chaining. Берёте результат старого чата, упаковываете его в новый промпт и продолжаете в новом диалоге.
Относитесь к чатам как к Git-веткам. Новая задача = новая ветка. Такой подход может сэкономить время и нервы, и, что важнее, даст модели шанс показать максимум её возможностей.
👍13❤8🔥8
multi_edit_existing_file для редактирования файлов без apply model.Если заметите баги или захотите предложить новые фичи — пишите, мы всегда на связи 🙏
#release #minor
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍7👏5❤🔥1🕊1
This media is not supported in your browser
VIEW IN TELEGRAM
💥 Как перестать страдать с текстами коммитов
Каждый разработчик знает это чувство: написал кучу кода, всё работает — и тут замираешь над
Плохие коммиты – это боль. Через месяц вы не поймёте, что вообще меняли, а тимлид на код-ревью не обрадуется коммиту
Решение простое: автоматизация. Используйте действие "Сгенерировать текст коммита" от Koda — и получайте нормальный осмысленный месседж.
Больше никаких «asdf» или «final fix» 😉
Каждый разработчик знает это чувство: написал кучу кода, всё работает — и тут замираешь над
git commit -m "".Плохие коммиты – это боль. Через месяц вы не поймёте, что вообще меняли, а тимлид на код-ревью не обрадуется коммиту
"fix again".Решение простое: автоматизация. Используйте действие "Сгенерировать текст коммита" от Koda — и получайте нормальный осмысленный месседж.
Больше никаких «asdf» или «final fix» 😉
🔥9👍6❤3
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 Koda в агентном режиме: запросы в интернет
Иногда для решения задачи не хватает локального контекста: в коде и документации нет ответа.
В агентном режиме Koda может выполнить поиск в интернете и вернуть результат прямо в IDE. Эта фича может быть полезна для проверки актуальных версий библиотек, поиска примеров или уточнения деталей спецификаций.
#agent_mode
Иногда для решения задачи не хватает локального контекста: в коде и документации нет ответа.
В агентном режиме Koda может выполнить поиск в интернете и вернуть результат прямо в IDE. Эта фича может быть полезна для проверки актуальных версий библиотек, поиска примеров или уточнения деталей спецификаций.
#agent_mode
❤8🔥7👍3🐳1
🚀 Добавили новую модель: DeepSeek-V3.1-Terminus
Стараемся держать темп: модель вышла на днях — и уже доступна у нас.
Что изменилось в новой версии DeepSeek:
* Языковая консистентность. Меньше смешения CN/EN и «случайных символов».
* Агенты стали умнее. Подтянули Code Agent и Search Agent
Теперь будем ждать DeepSeek-V4 😇
Release Notes DeepSeek-V3.1-Terminus
Модель на Hugging Face
Стараемся держать темп: модель вышла на днях — и уже доступна у нас.
Что изменилось в новой версии DeepSeek:
* Языковая консистентность. Меньше смешения CN/EN и «случайных символов».
* Агенты стали умнее. Подтянули Code Agent и Search Agent
Теперь будем ждать DeepSeek-V4 😇
Release Notes DeepSeek-V3.1-Terminus
Модель на Hugging Face
👍11🔥10❤5
Что завезли:
• Контекстное окно выросло до 200k токенов.
• Обещают, что кодинг стал быстрее и точнее. По крайней мере в бенчмарках.
• Больше «агентности» — модель умнее пользуется инструментами, анализирует и выводы делает без растраты лишних токенов.
• GLM-4.6 бьет по метрикам DeepSeek-V3.1-Terminus и даже Claude Sonnet 4.
С Koda испытать модельку на прочность можно абсолютно бесплатно уже сейчас!
Koda в VS Code
GLM 4.6 на Hugging Face
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11🤩5❤4👍3
Media is too big
VIEW IN TELEGRAM
⚡️ MCP-сервер: как научить ИИ ходить в твои внутренние API
Генеративные модели круто помогают писать код — пока не натыкаются на твои приватные сервисы. Они не видят внутренние API, не знают свежих схем БД и начинают гадать.
Агентный режим частично решает проблему: например, в Koda агент может выйти в интернет и найти нужную инфу. Хочешь, чтобы ИИ реально работал с твоей системой — нужно дать ему мостик. И вот тут появляется MCP-сервер.
Это простой сервер, который ты поднимаешь сам и описываешь в нём, к чему можно ходить. Например, на Java + Spring это выглядело бы следующим образом:
Дальше регистрируешь этот MCP-сервер в Koda, и когда ты спросишь у LLM про клиентов, которые принесли тебе больше всего выручки — Koda запросит данные из твоей базы, используя тул, который ты ей предоставил (см. видео).
Кстати, не обзяательно создавать MCP-сервер самому. Если нужны данные из какого-то популярного сервиса, то почти наверняка у него уже есть MCP-сервер, и надо им только воспользоваться. Вот пример для GitHub:
И да, шутят, что MCP-серверов сейчас делают больше, чем ими пользуются 😄
Подробнее про MCP | Koda в VS Code | Koda на YouTube
@kodacoderu
Генеративные модели круто помогают писать код — пока не натыкаются на твои приватные сервисы. Они не видят внутренние API, не знают свежих схем БД и начинают гадать.
Агентный режим частично решает проблему: например, в Koda агент может выйти в интернет и найти нужную инфу. Хочешь, чтобы ИИ реально работал с твоей системой — нужно дать ему мостик. И вот тут появляется MCP-сервер.
Это простой сервер, который ты поднимаешь сам и описываешь в нём, к чему можно ходить. Например, на Java + Spring это выглядело бы следующим образом:
@Service
public class DbTools {
@Tool(
name = "db.kpis.topCustomers",
denoscription = "Топ‑N клиентов по выручке"
)
public Map<String, Object> topCustomers() {
//Получаем актуальную информацию из БД
}
}
Дальше регистрируешь этот MCP-сервер в Koda, и когда ты спросишь у LLM про клиентов, которые принесли тебе больше всего выручки — Koda запросит данные из твоей базы, используя тул, который ты ей предоставил (см. видео).
Кстати, не обзяательно создавать MCP-сервер самому. Если нужны данные из какого-то популярного сервиса, то почти наверняка у него уже есть MCP-сервер, и надо им только воспользоваться. Вот пример для GitHub:
mcpServers:
- name: GitHub
command: docker
args:
- "run"
- "-i"
- "--rm"
- "-e"
- "GITHUB_PERSONAL_ACCESS_TOKEN=token"
- "ghcr.io/github/github-mcp-server"
И да, шутят, что MCP-серверов сейчас делают больше, чем ими пользуются 😄
Подробнее про MCP | Koda в VS Code | Koda на YouTube
@kodacoderu
🔥12❤7👍6🙈2
Друзья, мы сейчас активно допиливаем Koda. Чтобы понять, движемся ли мы в нужную сторону — нужен ваш фидбек!
Вы уже не раз помогали нам баг-репортами и идеями в чате (@kodacommunity). Теперь хотим собрать побольше фидбека централизовано.
Пройти опрос — 2 минуты, не больше: ссылка
Будем всем крайне благодарны ❤️
Вы уже не раз помогали нам баг-репортами и идеями в чате (@kodacommunity). Теперь хотим собрать побольше фидбека централизовано.
Пройти опрос — 2 минуты, не больше: ссылка
Будем всем крайне благодарны ❤️
🔥9🫡5❤4👍3
Пожалуй самое приятное – модели KodaAgent и KodaChat стали работать заметно быстрее. Советуем попробовать их в деле!
Помимо этого:
⚠️ Но будьте осторожны! Рекомендуем использовать этот режим в связке с Git'ом. Так вы всегда сможете восстановить предыдущее решение, если агент сделает не то, что вы ожидали.
modify_existing_file с длинными файлами.Если заметите баги или захотите предложить новые фичи — пишите в чат (@kodacommunity), мы всегда на связи 🙏
Koda в VS Code
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤7👍5🙏2👨💻1
Koda CLI превращает терминал в умную рабочую среду. Он помогает писать и понимать код, редактировать файлы, выполнять команды, находить и устранять ошибки, общаясь с моделью на естественном языке.
Основные возможности:
Как и в расширении для VS Code, доступ ко множеству топовых моделей открыт бесплатно на первые 1 000 запросов.
Авторизация — через GitHub. А наша собственная модель KodaAgent доступна без ограничений на количество запросов.
Так же мы выпустили расширения для VS Code и JetBrains IDE для отображения диффов при редактировании агентом файлов в Koda CLI. Удобно просматривать и принимать изменения, которые предлагает агент.
Установка и запуск
Начать работу с Koda CLI очень легко:
🔹 npm install -g @kodadev/koda-cli
🔹Или скачать файл .tgz и установить
Документации пока нету, скоро будет.
Koda CLI сейчас в режиме бета-тестирования.
Ваши вопросы и баги пишите в @kodacommunity.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍5❤4👎1🕊1
Если заметите баги или захотите предложить новые фичи — пишите в чат (@kodacommunity), мы всегда на связи 🙏
Koda в VS Code
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍7🥰3👏1🕊1
MiniMax M2 — обновленная флагманская языковая модель от компании MiniMax, ориентированная на использование в «агентах» и для программирования.
Акцентируют внимание на трёх ключевых способностях:
Бьет по метрикам в коддинг предыдущего лидера из опенсорc - GLM 4.6. Так же уверенно опережает DeepSeek.
Попробовать саму модель можно абсолютно бесплатно уже сейчас в VS Code и терминале через утилиту Koda CLI.
Поделитесь впечатлением в нашем сообществе, насколько эта обновленная модель отрабатывает на ваших задачах.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍7❤6🕊1