Меня зовут Владислав Шевченко, и я технический руководитель по направлением AI в red_mad_robot, а так же житель молодого города Иннополис.
До IT успел побывать руководителем конструкторского отдела в НИИ и поучаствовать в запуске ракет шахтного базирования на Байконуре. После осваивал Python и Go, наставлял студентов в Яндекс.Практикум и руководил backend практикой. Сейчас активно выстраиваю процессы в AI направлении и вместе с остальными готовлюсь к новым открытиям современных технологий.
Подробнее обо мне можно посмотреть в подкасте "Слово Техлида"
До IT успел побывать руководителем конструкторского отдела в НИИ и поучаствовать в запуске ракет шахтного базирования на Байконуре. После осваивал Python и Go, наставлял студентов в Яндекс.Практикум и руководил backend практикой. Сейчас активно выстраиваю процессы в AI направлении и вместе с остальными готовлюсь к новым открытиям современных технологий.
Подробнее обо мне можно посмотреть в подкасте "Слово Техлида"
👍1
Workflow-агенты с n8n
2 августа 2025 на iSpring Tech Event 2025 в Йошкар-Оле я рассказал о своём текущем видении Workflow-агентов и том, как их можно собрать на платформе n8n. Немного пофилософствовал на тему того, какими должны быть агенты сегодня, какие вызовы стоят перед разработчиками и пользователями, а также что значит быть AI Fluency.
Мы сейчас находимся во временном промежутке, когда workflow-агенты уже осваиваются повсеместно, а no-code платформы ускоряют этот процесс. Так, Яндекс в одном из своих докладов на AI Dev Day рассказал о внедрении n8n в свои внутренние процессы. Сегодня создание собственного TG-бота с AI под капотом без программирования — уже простейшая задача.
Но несмотря на внешнюю простоту, внутри AI-сервисов лежат абсолютно новые подходы, процессы и понятия: программирование на естественном языке, подготовка контекста для LLM и оценка качества системы с помощью метрик, а не unit тестов.
- - -
Материалы по теме доклада:
• презентация.pdf
• workflow-search.json
• workflow-rag.json
• инструкция по n8n.pdf
• как устроены Foundation Agents нового поколения
• digital twin на n8n от Валеры Кавальских
2 августа 2025 на iSpring Tech Event 2025 в Йошкар-Оле я рассказал о своём текущем видении Workflow-агентов и том, как их можно собрать на платформе n8n. Немного пофилософствовал на тему того, какими должны быть агенты сегодня, какие вызовы стоят перед разработчиками и пользователями, а также что значит быть AI Fluency.
Мы сейчас находимся во временном промежутке, когда workflow-агенты уже осваиваются повсеместно, а no-code платформы ускоряют этот процесс. Так, Яндекс в одном из своих докладов на AI Dev Day рассказал о внедрении n8n в свои внутренние процессы. Сегодня создание собственного TG-бота с AI под капотом без программирования — уже простейшая задача.
Но несмотря на внешнюю простоту, внутри AI-сервисов лежат абсолютно новые подходы, процессы и понятия: программирование на естественном языке, подготовка контекста для LLM и оценка качества системы с помощью метрик, а не unit тестов.
- - -
Материалы по теме доклада:
• презентация.pdf
• workflow-search.json
• workflow-rag.json
• инструкция по n8n.pdf
• как устроены Foundation Agents нового поколения
• digital twin на n8n от Валеры Кавальских
ispring-tech-event.timepad.ru
iSpring AI meetup / События на TimePad.ru
2 августа приглашаем на AI-митап!
Погрузимся в практическое применение искусственного интеллекта в корпоративной среде. Три экспертных доклада и живое общение. Вы узнаете, как локальные нейросети, графы знаний и AI-агенты решают реальные бизнес-задачи уже…
Погрузимся в практическое применение искусственного интеллекта в корпоративной среде. Три экспертных доклада и живое общение. Вы узнаете, как локальные нейросети, графы знаний и AI-агенты решают реальные бизнес-задачи уже…
🔥1
Потеря ответственности
Наткнулся на хорошую статью-предупреждение: «Карьера вайб-кодера — это тупик». Она ярко описывает риски слепого использования новых инструментов:
• Иллюзия скорости на старте, но падение эффективности с ростом сложности.
• Увеличение трудозатрат на тестирование и написание инструкций как новой парадигмы работы с AI-агентами.
• Потеря понимания кодовой базы и, как следствие, низкое качество продукта.
Очень живо все эти сложности показал Артем в серии постов о сервисе транскрибации: из нагенерированного кода собрать проект по классическим best practices — это настоящая боль.
Но тут есть и менее очевидный слой — нейрофизиологическое влияние LLM 🧠:
• Дефицит дофамина: обычные достижения радуют меньше, ведь «за тебя все сделал AI».
• Снижение способности к глубокому анализу.
• Формирование зависимости от LLM.
Сергей Булаев подробно разбирает исследования на эту тему и дает простые рекомендации.
Почему таких статей сейчас становится больше? На мой взгляд — потому что мы все чаще видим, как люди перекладывают ответственность на AI.
Если раньше у разработчика была отговорка «У меня все работает», то теперь звучит новая: «Это не я, это LLM накодила».
Недавно мне попалась «аналитическая записка» по архитектуре AI-сервиса, целиком сгенерированная моделью. Первое впечатление — ВАУ, все выглядит стройно и убедительно. Но стоит погрузиться в детали, и задача из серии «подправлю за час» превращается в «прошло пять часов, а документ все еще вызывает сомнения».
Вот это и есть потеря ответственности: мы легко передаем ИИ право писать код, тексты, документы. Так быстрее, так мы «повышаем эффективность», так можно закрыть больше задач параллельно… Но времени на настоящую ответственность не остается. Не позволяет и темп — быстрый ритм жизни и развитие технологий подталкивают нас к ускорению любой ценой.
---
Что делать? 📌
Сместить фокус: ответственность не за результат (код), а за процесс (как мы кодим)
Anthropic в статье Vibe coding in prod дает хороший ориентир, краткий разбор — у Этихлида:
• Будьте PM’ом для AI.
• Будьте Архитектором для AI.
• Будьте Техлидом для AI.
---
AI не освободит нас от ответственности — он только смещает ее в новое поле.
Либо мы берем эту роль осознанно, либо нас поглотит иллюзия скорости.
Наткнулся на хорошую статью-предупреждение: «Карьера вайб-кодера — это тупик». Она ярко описывает риски слепого использования новых инструментов:
• Иллюзия скорости на старте, но падение эффективности с ростом сложности.
• Увеличение трудозатрат на тестирование и написание инструкций как новой парадигмы работы с AI-агентами.
• Потеря понимания кодовой базы и, как следствие, низкое качество продукта.
Очень живо все эти сложности показал Артем в серии постов о сервисе транскрибации: из нагенерированного кода собрать проект по классическим best practices — это настоящая боль.
Но тут есть и менее очевидный слой — нейрофизиологическое влияние LLM 🧠:
• Дефицит дофамина: обычные достижения радуют меньше, ведь «за тебя все сделал AI».
• Снижение способности к глубокому анализу.
• Формирование зависимости от LLM.
Сергей Булаев подробно разбирает исследования на эту тему и дает простые рекомендации.
Почему таких статей сейчас становится больше? На мой взгляд — потому что мы все чаще видим, как люди перекладывают ответственность на AI.
Если раньше у разработчика была отговорка «У меня все работает», то теперь звучит новая: «Это не я, это LLM накодила».
Недавно мне попалась «аналитическая записка» по архитектуре AI-сервиса, целиком сгенерированная моделью. Первое впечатление — ВАУ, все выглядит стройно и убедительно. Но стоит погрузиться в детали, и задача из серии «подправлю за час» превращается в «прошло пять часов, а документ все еще вызывает сомнения».
Вот это и есть потеря ответственности: мы легко передаем ИИ право писать код, тексты, документы. Так быстрее, так мы «повышаем эффективность», так можно закрыть больше задач параллельно… Но времени на настоящую ответственность не остается. Не позволяет и темп — быстрый ритм жизни и развитие технологий подталкивают нас к ускорению любой ценой.
---
Что делать? 📌
Сместить фокус: ответственность не за результат (код), а за процесс (как мы кодим)
Anthropic в статье Vibe coding in prod дает хороший ориентир, краткий разбор — у Этихлида:
• Будьте PM’ом для AI.
• Будьте Архитектором для AI.
• Будьте Техлидом для AI.
---
AI не освободит нас от ответственности — он только смещает ее в новое поле.
Либо мы берем эту роль осознанно, либо нас поглотит иллюзия скорости.
❤2👍1🔥1
Media is too big
VIEW IN TELEGRAM
Архив Отзывчивых Знаний
Иногда простые вещи попадают прямо в сердце.
Вместе с Gemini Storybook от Google за минуту собрал красивую мини-книжку — с картинками и озвучкой. По сути это «сказки на заказ»: задаёшь тему — получаешь 10-страничную историю, которую можно читать и слушать вместе с ребёнком. Хочу поэкспериментировать: как такой формат помогает детям, когда они сталкиваются с непониманием тех или иных тем в школе.
Как думаете, о чем говорится в книжке с видео, что такое - "Архив Отзывчивых Знаний"?
Иногда простые вещи попадают прямо в сердце.
Вместе с Gemini Storybook от Google за минуту собрал красивую мини-книжку — с картинками и озвучкой. По сути это «сказки на заказ»: задаёшь тему — получаешь 10-страничную историю, которую можно читать и слушать вместе с ребёнком. Хочу поэкспериментировать: как такой формат помогает детям, когда они сталкиваются с непониманием тех или иных тем в школе.
Как думаете, о чем говорится в книжке с видео, что такое - "Архив Отзывчивых Знаний"?
🔥2❤1👍1
Безопасность с LLM
Собрали базовую подборку фреймворков и моделей угроз по AI Security:
• CIA Triad — классика ИБ (Конфиденциальность, Целостность, Доступность). Ссылка
• GenAI OWASP Top 10 — главные 10 рисков для LLM-приложений и способы их снижения. Ссылка
• AI Security Solution Landscape — карта традиционных и новых средств защиты от GenAI-рисков. Ссылка
• Модели угроз от Сбера — российский взгляд на кибербез AI, включая схемы объектов защиты. Ссылка 1 и Ссылка 2
Собрали базовую подборку фреймворков и моделей угроз по AI Security:
• CIA Triad — классика ИБ (Конфиденциальность, Целостность, Доступность). Ссылка
• GenAI OWASP Top 10 — главные 10 рисков для LLM-приложений и способы их снижения. Ссылка
• AI Security Solution Landscape — карта традиционных и новых средств защиты от GenAI-рисков. Ссылка
• Модели угроз от Сбера — российский взгляд на кибербез AI, включая схемы объектов защиты. Ссылка 1 и Ссылка 2
❤1👍1
Конструктор промптов от Anthropic
В console.anthropic.com появился удобный инструмент: описываете задачу — получаете готовый шаблон промпта с переменными, тестами и кнопкой «Get code» (Python/TS). Можно улучшать существующие промпты, делиться с командой и сразу проверять в Workbench.
В console.anthropic.com появился удобный инструмент: описываете задачу — получаете готовый шаблон промпта с переменными, тестами и кнопкой «Get code» (Python/TS). Можно улучшать существующие промпты, делиться с командой и сразу проверять в Workbench.
👍2
AI-грамотность
Выступал на внутренней конференции и рассказал, что в AI появилось нового: философия, инструменты, риски.
Если коротко: нынешние интерфейсы ChatGPT и его «родственников» похожи на старый добрый поиск, но под капотом — совсем другой подход. В «цифровой грамотности» мы учились писать короткий запрос и сверять источники; в «AI-грамотности» — формулируем промпт и критично проверяем сгенерированный «здесь и сейчас» материал. Это меняет повседневную работу и нашу ответственность за результат.
О чём говорил:
• Три базовых навыка: промпт-инженерия (как задать роль и формат), контекст-инженерия (как собрать/сжать/защитить данные) и «AI-грамотность 4D» от Anthropic: делегирование, описание, разборчивость, тщательность.
• «Ассистенты» уже закрывают рутину: поиск с цитатами (Perplexity), анализ собственных материалов (NotebookLM), глубокие веб-исследования (platform.parallel.ai). Это не демонстрация — этим удобно пользоваться уже сегодня.
• Безопасность — не «где-то в платформе», а в наших руках: LLM-инъекции, утечки из облачных документов, скрытые инструкции. Держим в голове базовую триаду: конфиденциальность, целостность, доступность.
• Агентные паттерны: для исследовательских задач — ReAct («думай → действуй → наблюдай»); для контролируемых процессов — Plan-then-Execute и граф-подход: больше предсказуемости и проще трассировать ошибки.
Мои рекомендации: познакомьтесь со зрелыми AI-сервисами — они дают новый опыт и экономят время.
Материалы по теме:
Perplexity — поиск с цитатами
Google NotebookLM — анализ ваших материалов
Parallel Deep Research — автономные исследования
Anthropic Prompt Builder
OpenWebUI — локальные ассистенты
LangGraph — граф-агенты
Запись доклада и презентацию прикреплю в первом сообщении.
Выступал на внутренней конференции и рассказал, что в AI появилось нового: философия, инструменты, риски.
Если коротко: нынешние интерфейсы ChatGPT и его «родственников» похожи на старый добрый поиск, но под капотом — совсем другой подход. В «цифровой грамотности» мы учились писать короткий запрос и сверять источники; в «AI-грамотности» — формулируем промпт и критично проверяем сгенерированный «здесь и сейчас» материал. Это меняет повседневную работу и нашу ответственность за результат.
О чём говорил:
• Три базовых навыка: промпт-инженерия (как задать роль и формат), контекст-инженерия (как собрать/сжать/защитить данные) и «AI-грамотность 4D» от Anthropic: делегирование, описание, разборчивость, тщательность.
• «Ассистенты» уже закрывают рутину: поиск с цитатами (Perplexity), анализ собственных материалов (NotebookLM), глубокие веб-исследования (platform.parallel.ai). Это не демонстрация — этим удобно пользоваться уже сегодня.
• Безопасность — не «где-то в платформе», а в наших руках: LLM-инъекции, утечки из облачных документов, скрытые инструкции. Держим в голове базовую триаду: конфиденциальность, целостность, доступность.
• Агентные паттерны: для исследовательских задач — ReAct («думай → действуй → наблюдай»); для контролируемых процессов — Plan-then-Execute и граф-подход: больше предсказуемости и проще трассировать ошибки.
Мои рекомендации: познакомьтесь со зрелыми AI-сервисами — они дают новый опыт и экономят время.
Материалы по теме:
Perplexity — поиск с цитатами
Google NotebookLM — анализ ваших материалов
Parallel Deep Research — автономные исследования
Anthropic Prompt Builder
OpenWebUI — локальные ассистенты
LangGraph — граф-агенты
Запись доклада и презентацию прикреплю в первом сообщении.
❤3👍3🔥1
После освоения AI-инструментов
Послушал лекцию Александра Крайнова (директор по развитию ИИ в «Яндексе») для студентов Иннополиса — зацепила простая мысль: выбор конкретной LLM уходит в прошлое. Как когда-то мы перестали переживать, каким компилятором собирать код, так и здесь — решать будет сервис.
В нашем business-аккаунте Cursor режим Auto уже стал дефолтом. Команда почти не переключается на конкретные модели — ручной выбор остаётся у энтузиастов (см. скрин).
И это не случайность. OpenAI все понимает и то же движется в эту сторону: летом компания уже пробовала с релизом GPT-5 «спрятать» ручной выбор и оставить автоподбор. Комьюнити отстояло переключатель — но, уверен, это временно.
Что меняется на практике? Смещается точка ответственности. Важно уметь чётко описать задачу (промпт), дать релевантный контекст и проверить качество ответа. Экспертиза — в дизайне запроса и оценке результата, а не в переборе моделей. Похоже, индустрия в целом идёт к меньшему ручному выбору — курс на «задача → результат» без микроменеджмента моделей.
Материалы по теме:
Пост-GPT. Что глобально ждёт индустрию после бума генеративных ИИ — лекция Александра Крайнова
Послушал лекцию Александра Крайнова (директор по развитию ИИ в «Яндексе») для студентов Иннополиса — зацепила простая мысль: выбор конкретной LLM уходит в прошлое. Как когда-то мы перестали переживать, каким компилятором собирать код, так и здесь — решать будет сервис.
В нашем business-аккаунте Cursor режим Auto уже стал дефолтом. Команда почти не переключается на конкретные модели — ручной выбор остаётся у энтузиастов (см. скрин).
И это не случайность. OpenAI все понимает и то же движется в эту сторону: летом компания уже пробовала с релизом GPT-5 «спрятать» ручной выбор и оставить автоподбор. Комьюнити отстояло переключатель — но, уверен, это временно.
Что меняется на практике? Смещается точка ответственности. Важно уметь чётко описать задачу (промпт), дать релевантный контекст и проверить качество ответа. Экспертиза — в дизайне запроса и оценке результата, а не в переборе моделей. Похоже, индустрия в целом идёт к меньшему ручному выбору — курс на «задача → результат» без микроменеджмента моделей.
Материалы по теме:
Пост-GPT. Что глобально ждёт индустрию после бума генеративных ИИ — лекция Александра Крайнова
👍6
Паттерны GenAI для онбординга
Перечитал статью Мартина Фаулера про паттерны в GenAI. Он называет их «новыми», но по сути сообщество обсуждает эти подходы уже больше года — ценность здесь в аккуратной систематизации. Как когда-то «Банда четырёх» разложила ООП по полочкам, так теперь Фаулер с коллегами собирает практики GenAI.
От себя добавлю: Фаулер — автор многих книг, и его работы сильно повлияли на культуру разработки. Поэтому рекомендую этот материал всем, кто только заходит в тему ИИ-продуктов.
Материалы по теме:
Паттерны для GenAI-продуктов у Мартина Фаулера
Перечитал статью Мартина Фаулера про паттерны в GenAI. Он называет их «новыми», но по сути сообщество обсуждает эти подходы уже больше года — ценность здесь в аккуратной систематизации. Как когда-то «Банда четырёх» разложила ООП по полочкам, так теперь Фаулер с коллегами собирает практики GenAI.
От себя добавлю: Фаулер — автор многих книг, и его работы сильно повлияли на культуру разработки. Поэтому рекомендую этот материал всем, кто только заходит в тему ИИ-продуктов.
Материалы по теме:
Паттерны для GenAI-продуктов у Мартина Фаулера
1🔥6
Осознанный Vibe Code
Случилось любопытное: я смог найти время на целую неделю, стряхнуть пыль с IDE и реализовать небольшой сервис, чтобы проверить свою идею. В голове всё выглядит идеально, а в жизни, как обычно, не так радужно.
Делюсь своим процессом и выводами, вот мой пайплайн работы с LLM
1. Идея и прототип. Начал с проработки образа результата с помощью DeepResearch в ChatGPT. Затем переключился на Gemini 2.5 Pro — он здорово создает в canvas живые HTML-шаблоны приложений с анимацией и работающими кнопками.
2. Архитектура и стек. Когда идея была отработана, перешел к архитектуре. LLM готова работать с любым стеком, но личный опыт помог выбрать то, с чем проще и быстрее: Strapi + PostgreSQL для бэкенда и React + Next.js для фронта.
3. Декомпозиция задач. Ключевой этап — максимальная декомпозиция. Просил LLM разбивать задачи до уровня «1 задача — 1 функция», что вылилось примерно в 200 тасков в
4. Разработка и контекст. Чтобы сайт развивался в едином стиле, я сгенерировал system design. Для каждого запроса к агенту я передавал краткую информацию об архитектуре, стеке, дизайне и общих правилах программирования.
🤦♂️ Забыл зафиксировать версии библиотек в подсказках агенту, из-за чего он пару раз путался на ровном месте.
Проблема №1 vibe code
Лимиты начали гореть синим пламенем. В Cursor 80% токенов «сгорели» за 4 дня. Пришлось искать альтернативы.
* Codex сильно понравился. С ним приятно работать, он неплохо интегрировался в Cursor и хорошо закрывал задачи.
* gemeni-cli: Здесь два момента. Сама модель 2.5 показалась менее надежной, жду релиза 3-й версии. А вот консольное приложение откровенно расстроило: виснет, глючит, а лимиты сжигаются за 20 минут без возможности их отслеживать. Google, тут есть вопросики.
Что дальше и что не успел
Я не первый, кто сталкивается с дефицитом токенов. Глеб Кудрявцев работает над интересным решением Shotgun Code, которое, по заявлению автора, позволяет выстроить экономную работу с агентами. Подробнее можно посмотреть на GitHub.
На следующей неделе попробую провести эксперименты с Codex, подключенным к локальной модели. Расскажу, что из этого выйдет.
Куда пойти и что почитать
🗣 Обсудить это и многое другое вживую можно будет на нашем митапе red_mad_robot. Приходите, будет интересно! Регистрация здесь
🎓 Что думает про «vibe code» в сообществе и познакомиться с передовыми практиками можно на конференции AIDev. Очень рекомендую. Узнать больше и зарегистрироваться
📝 Почитать, как другие кодят с агентами, советую в блоге ElKornacio. Много практического опыта. Перейти в канал
Случилось любопытное: я смог найти время на целую неделю, стряхнуть пыль с IDE и реализовать небольшой сервис, чтобы проверить свою идею. В голове всё выглядит идеально, а в жизни, как обычно, не так радужно.
Делюсь своим процессом и выводами, вот мой пайплайн работы с LLM
1. Идея и прототип. Начал с проработки образа результата с помощью DeepResearch в ChatGPT. Затем переключился на Gemini 2.5 Pro — он здорово создает в canvas живые HTML-шаблоны приложений с анимацией и работающими кнопками.
2. Архитектура и стек. Когда идея была отработана, перешел к архитектуре. LLM готова работать с любым стеком, но личный опыт помог выбрать то, с чем проще и быстрее: Strapi + PostgreSQL для бэкенда и React + Next.js для фронта.
3. Декомпозиция задач. Ключевой этап — максимальная декомпозиция. Просил LLM разбивать задачи до уровня «1 задача — 1 функция», что вылилось примерно в 200 тасков в
TASKS.md. Так гораздо проще контролировать и проверять код. Если ваш проект уже зрелый, рекомендую более строгий подход отлично написаный в канале The AI Architect4. Разработка и контекст. Чтобы сайт развивался в едином стиле, я сгенерировал system design. Для каждого запроса к агенту я передавал краткую информацию об архитектуре, стеке, дизайне и общих правилах программирования.
🤦♂️ Забыл зафиксировать версии библиотек в подсказках агенту, из-за чего он пару раз путался на ровном месте.
Проблема №1 vibe code
Лимиты начали гореть синим пламенем. В Cursor 80% токенов «сгорели» за 4 дня. Пришлось искать альтернативы.
* Codex сильно понравился. С ним приятно работать, он неплохо интегрировался в Cursor и хорошо закрывал задачи.
* gemeni-cli: Здесь два момента. Сама модель 2.5 показалась менее надежной, жду релиза 3-й версии. А вот консольное приложение откровенно расстроило: виснет, глючит, а лимиты сжигаются за 20 минут без возможности их отслеживать. Google, тут есть вопросики.
Что дальше и что не успел
Я не первый, кто сталкивается с дефицитом токенов. Глеб Кудрявцев работает над интересным решением Shotgun Code, которое, по заявлению автора, позволяет выстроить экономную работу с агентами. Подробнее можно посмотреть на GitHub.
На следующей неделе попробую провести эксперименты с Codex, подключенным к локальной модели. Расскажу, что из этого выйдет.
Куда пойти и что почитать
🗣 Обсудить это и многое другое вживую можно будет на нашем митапе red_mad_robot. Приходите, будет интересно! Регистрация здесь
🎓 Что думает про «vibe code» в сообществе и познакомиться с передовыми практиками можно на конференции AIDev. Очень рекомендую. Узнать больше и зарегистрироваться
📝 Почитать, как другие кодят с агентами, советую в блоге ElKornacio. Много практического опыта. Перейти в канал
🔥4❤1👏1💯1
Ограничения AI-IDE
Сегодня в разговоре с клиентом услышал сомнение росте производительности разработчиков в x2 и больше от внедрения AI-IDE в процесс разработки, и попытался выделить основные тезисы, которые влияют на эту самую производительность:
1. AI-IDE требует применения новых практик. Сейчас только энтузиасты действительно погружаются в то, как эффективно использовать AI-инструменты. Большинство разработчиков остаются в привычной парадигме, не меняют свой майндсет и не осваивают новые приёмы — например, работу с промптами, проверку гипотез через AI-агентов, или настройку контекста для конкретных задач. Освоение AI-IDE требует не просто изучить интерфейс, а переосмыслить сам процесс программирования: писать не только код, но и «инструкции для модели», сочетать собственное мышление с машинным. Без этого эффект от внедрения ИИ часто остаётся точечным и не приводит к росту эффективности.
Это вызов и для компаний, и для руководителей, и для самих разработчиков — хорошие практики только формируются, а умные книги по этой теме ещё пишутся.
2. Когнитивное ограничение на проверку результатов. Даже при качественных подсказках работу AI-агентов приходится контролировать. Генерируемый код нередко требует ревью и исправлений — от оптимизации решений до устранения ошибок или небезопасных конструкций. Это добавляет дополнительный слой умственной нагрузки: вместо «писать» разработчик начинает «проверять». В результате полностью делегировать задачи не выходит, а параллельная работа нескольких агентов ограничена — эффективно удаётся контролировать не более 1–3 одновременно.
Если вы справляетесь с большим количеством — поделитесь опытом в комментариях 🙂
3. Стоимость токенов и лимиты использования. При активной работе с кодом объём запросов быстро растёт, и вместе с ним — расходы. Это заставляет разработчиков балансировать между глубиной взаимодействия с моделью и экономией ресурсов, ограничивая частоту и сложность запросов.
А вы знали, что стоимость пользователя в Cursor для корпоративных клиентов в два раза выше, чем для частного использования?
4. Ограниченное понимание контекста проекта. Модели работают в рамках контекстного окна и не видят всю кодовую базу целиком. В больших системах AI-ассистент теряет связность: предложения становятся неточными, появляются ошибки в логике и архитектуре. Разработчики вынуждены дробить задачи, вручную подсказывать контекст или обучать модель на фрагментах проекта — что частично нивелирует обещанную “автоматизацию”.
Похоже, скоро у каждого проекта появится своя документация — не для людей, а для AI-агентов.
5. Конфиденциальность и корпоративные ограничения. Внедрения AI-IDE часто возможно только на условии отправки кода на внешние серверы, что неприемлемо для многих компаний. Локальные режимы и приватные модели снижают риски, но пока уступают по качеству и удобству. Это делает массовое внедрение ИИ-редакторов в корпоративной среде более медленным и осторожным.
Я действительно встречаюсь с такими переживаниями: разработчики всерьёз обсуждают маскирование имён функций перед отправкой кода в облако. Но важно помнить — стоимость кода и его ценность падает. Следует следить не столько за самим кодом, сколько за ценностью продукта, ради которого он написан.
Есть что дополнить? Пишите 👇
Сегодня в разговоре с клиентом услышал сомнение росте производительности разработчиков в x2 и больше от внедрения AI-IDE в процесс разработки, и попытался выделить основные тезисы, которые влияют на эту самую производительность:
1. AI-IDE требует применения новых практик. Сейчас только энтузиасты действительно погружаются в то, как эффективно использовать AI-инструменты. Большинство разработчиков остаются в привычной парадигме, не меняют свой майндсет и не осваивают новые приёмы — например, работу с промптами, проверку гипотез через AI-агентов, или настройку контекста для конкретных задач. Освоение AI-IDE требует не просто изучить интерфейс, а переосмыслить сам процесс программирования: писать не только код, но и «инструкции для модели», сочетать собственное мышление с машинным. Без этого эффект от внедрения ИИ часто остаётся точечным и не приводит к росту эффективности.
Это вызов и для компаний, и для руководителей, и для самих разработчиков — хорошие практики только формируются, а умные книги по этой теме ещё пишутся.
2. Когнитивное ограничение на проверку результатов. Даже при качественных подсказках работу AI-агентов приходится контролировать. Генерируемый код нередко требует ревью и исправлений — от оптимизации решений до устранения ошибок или небезопасных конструкций. Это добавляет дополнительный слой умственной нагрузки: вместо «писать» разработчик начинает «проверять». В результате полностью делегировать задачи не выходит, а параллельная работа нескольких агентов ограничена — эффективно удаётся контролировать не более 1–3 одновременно.
Если вы справляетесь с большим количеством — поделитесь опытом в комментариях 🙂
3. Стоимость токенов и лимиты использования. При активной работе с кодом объём запросов быстро растёт, и вместе с ним — расходы. Это заставляет разработчиков балансировать между глубиной взаимодействия с моделью и экономией ресурсов, ограничивая частоту и сложность запросов.
А вы знали, что стоимость пользователя в Cursor для корпоративных клиентов в два раза выше, чем для частного использования?
4. Ограниченное понимание контекста проекта. Модели работают в рамках контекстного окна и не видят всю кодовую базу целиком. В больших системах AI-ассистент теряет связность: предложения становятся неточными, появляются ошибки в логике и архитектуре. Разработчики вынуждены дробить задачи, вручную подсказывать контекст или обучать модель на фрагментах проекта — что частично нивелирует обещанную “автоматизацию”.
Похоже, скоро у каждого проекта появится своя документация — не для людей, а для AI-агентов.
5. Конфиденциальность и корпоративные ограничения. Внедрения AI-IDE часто возможно только на условии отправки кода на внешние серверы, что неприемлемо для многих компаний. Локальные режимы и приватные модели снижают риски, но пока уступают по качеству и удобству. Это делает массовое внедрение ИИ-редакторов в корпоративной среде более медленным и осторожным.
Я действительно встречаюсь с такими переживаниями: разработчики всерьёз обсуждают маскирование имён функций перед отправкой кода в облако. Но важно помнить — стоимость кода и его ценность падает. Следует следить не столько за самим кодом, сколько за ценностью продукта, ради которого он написан.
Есть что дополнить? Пишите 👇
👍4👏2
В начале года я участвовал в валидации первых версий агентов, о которых идёт речь в статье. Проверял их работу на Go-проекте — и был немало удивлён, когда оказалось, что LLM «ленятся» разбирать
if с более чем двумя условиями. С тех пор команда несколько раз перестраивала архитектуру и довела решение до боевого использования. Работы впереди ещё много — нюансов в каждом языке программирования хватает, — но уже сейчас результат впечатляет.🔥5
Forwarded from red_mad_robot
red_mad_robot и СберТех разработали мультиагентную систему, которая автоматически находит и исправляет уязвимости в коде ⚡
Она анализирует результаты SAST — статического анализа, который выявляет потенциально опасные места на этапе разработки. В системе несколько агентов: один собирает контекст, другой определяет, какие срабатывания действительно критичны, а третий формирует патчи и предлагает изменения в исходный код.
Результат — снижение ручной нагрузки, ускорение цикла исправлений и повышение точности анализа до 70 %.
В новой статье подробно рассказали, как устроена архитектура и зачем вообще нужен мультиагентный подход. Читайте!
#AI_moment #роботайм
↗️ red_mad_robot
Она анализирует результаты SAST — статического анализа, который выявляет потенциально опасные места на этапе разработки. В системе несколько агентов: один собирает контекст, другой определяет, какие срабатывания действительно критичны, а третий формирует патчи и предлагает изменения в исходный код.
Результат — снижение ручной нагрузки, ускорение цикла исправлений и повышение точности анализа до 70 %.
В новой статье подробно рассказали, как устроена архитектура и зачем вообще нужен мультиагентный подход. Читайте!
#AI_moment #роботайм
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2👍1
Forwarded from red_mad_robot
Карта_рынка_GenAI_red_mad_robot_2025.pdf
40.5 MB
Карта рынка GenAI: как он устроен в России
Центр AI-компетенций red_mad_robot собрал большой отчёт по состоянию российского рынка GenAI в 2025 году. Получилась настоящая онтологическая карта с уровнями экосистемы, распределением ролей и зонами, где формируются ключевые компетенции.
Мы проанализировали локальный ландшафт, зафиксировали связи и точки роста, а контекст и практические детали дополнили разговоры с экспертами из red_mad_robot, @beeline и @skolkovo_channel.
Сохраняйте и читайте PDF!
#AI_moment #трендвотчинг
↗️ red_mad_robot
Центр AI-компетенций red_mad_robot собрал большой отчёт по состоянию российского рынка GenAI в 2025 году. Получилась настоящая онтологическая карта с уровнями экосистемы, распределением ролей и зонами, где формируются ключевые компетенции.
Мы проанализировали локальный ландшафт, зафиксировали связи и точки роста, а контекст и практические детали дополнили разговоры с экспертами из red_mad_robot, @beeline и @skolkovo_channel.
Сохраняйте и читайте PDF!
#AI_moment #трендвотчинг
Please open Telegram to view this post
VIEW IN TELEGRAM
Записали со мной выпуск «Разбор полётов» про AI. Как когда-то мы учились гуглить, так и сейчас учимся нормально жить с моделями и агентами — без магии и с калькулятором в руках.
Рассказывал, что внедрение AI по сложности уже сравнимо с обычной диджитал-автоматизацией: нужны данные, люди, новые подходы. Prompt-engineering — это не «магия для избранных», а базовый навык, как когда-то умение гуглить. Что вокруг RAG уже выросли альтернативы вроде deep research, а кодовые агенты всё меньше опираются на «голый» векторный поиск и всё больше — на осмысленный контекст.
Мы много говорили про зрелость. Скептичные разработчики, которые только сейчас «просыпаются». Продукты, которые уже сами собирают агентов, чтобы быстро проверить гипотезу на тестовой среде. И про то, что серьёзные AI-системы без наблюдаемости, логов и постоянной проверки качества просто нельзя считать взрослыми — это новый слой поверх привычного SDLC.
Рассказывал, что внедрение AI по сложности уже сравнимо с обычной диджитал-автоматизацией: нужны данные, люди, новые подходы. Prompt-engineering — это не «магия для избранных», а базовый навык, как когда-то умение гуглить. Что вокруг RAG уже выросли альтернативы вроде deep research, а кодовые агенты всё меньше опираются на «голый» векторный поиск и всё больше — на осмысленный контекст.
Мы много говорили про зрелость. Скептичные разработчики, которые только сейчас «просыпаются». Продукты, которые уже сами собирают агентов, чтобы быстро проверить гипотезу на тестовой среде. И про то, что серьёзные AI-системы без наблюдаемости, логов и постоянной проверки качества просто нельзя считать взрослыми — это новый слой поверх привычного SDLC.
👍5🔥1
Forwarded from Полезняшки от "Разбора Полетов"
Новый выпуск https://razborpoletov.com/2025/11/episode-298.html
Проводил скоринг python разработчика на один из наших проектов, и задал обычный для себя вопрос «какую книгу посоветуешь для зрелого разработчика?»
Такой вопрос позволяет оценить насмотрелось и увлеченность кандидатов своему делу, но ответ поставил меня в тупик: «Книгу? Сейчас никто не читает книги. Они быстро теряют актуальность.»
Рука автоматически потянулась к подбородку, ожидая почувствовать густую бороду, а в голове стал вспоминать, сколько мне лет…
Что скажете, ИИ убьет книги или нет? Ведь он может объяснить все, что только мы пожелаем, пусть и с некоторыми искажениями. Появление интернета пошатнула позицию книг, но они не исчезли и продолжают нас радовать)))
А по поводу книг, по python есть одна замечательная книга: “Python. К вершине мастерства» она показывает, насколько этот ЯП сложен и многогранен. Рекомендую тем, кто серьезно с ним работает, что бы как можно меньше эту сложность применять на проекте) А нужна ли она в мире vibe кодинга, решайте сами.
Такой вопрос позволяет оценить насмотрелось и увлеченность кандидатов своему делу, но ответ поставил меня в тупик: «Книгу? Сейчас никто не читает книги. Они быстро теряют актуальность.»
Рука автоматически потянулась к подбородку, ожидая почувствовать густую бороду, а в голове стал вспоминать, сколько мне лет…
Что скажете, ИИ убьет книги или нет? Ведь он может объяснить все, что только мы пожелаем, пусть и с некоторыми искажениями. Появление интернета пошатнула позицию книг, но они не исчезли и продолжают нас радовать)))
А по поводу книг, по python есть одна замечательная книга: “Python. К вершине мастерства» она показывает, насколько этот ЯП сложен и многогранен. Рекомендую тем, кто серьезно с ним работает, что бы как можно меньше эту сложность применять на проекте) А нужна ли она в мире vibe кодинга, решайте сами.
Dmkpress
Python. К вершинам мастерства. Второе издание
Купить книгу «Python. К вершинам мастерства. Второе издание», автора Рамальо Л. в издательстве «ДМК Пресс». Выгодные цены в Москве, доставка. Заказать книги и учебники на официальном сайте издательства.
👍5