О чем молчит AI CTO – Telegram
О чем молчит AI CTO
161 subscribers
6 photos
2 videos
1 file
14 links
Привет! Я Влад, CTO по AI в red_mad_robot. Здесь делюсь применении AI в бизнесе, разбираю технологии и публикую интересные материалы из жизни.
Download Telegram
Меня зовут Владислав Шевченко, и я технический руководитель по направлением AI в red_mad_robot, а так же житель молодого города Иннополис.

До IT успел побывать руководителем конструкторского отдела в НИИ и поучаствовать в запуске ракет шахтного базирования на Байконуре. После осваивал Python и Go, наставлял студентов в Яндекс.Практикум и руководил backend практикой. Сейчас активно выстраиваю процессы в AI направлении и вместе с остальными готовлюсь к новым открытиям современных технологий.

Подробнее обо мне можно посмотреть в подкасте "Слово Техлида"
👍1
Workflow-агенты с n8n

2 августа 2025 на iSpring Tech Event 2025 в Йошкар-Оле я рассказал о своём текущем видении Workflow-агентов и том, как их можно собрать на платформе n8n. Немного пофилософствовал на тему того, какими должны быть агенты сегодня, какие вызовы стоят перед разработчиками и пользователями, а также что значит быть AI Fluency.

Мы сейчас находимся во временном промежутке, когда workflow-агенты уже осваиваются повсеместно, а no-code платформы ускоряют этот процесс. Так, Яндекс в одном из своих докладов на AI Dev Day рассказал о внедрении n8n в свои внутренние процессы. Сегодня создание собственного TG-бота с AI под капотом без программирования — уже простейшая задача.

Но несмотря на внешнюю простоту, внутри AI-сервисов лежат абсолютно новые подходы, процессы и понятия: программирование на естественном языке, подготовка контекста для LLM и оценка качества системы с помощью метрик, а не unit тестов.

- - -

Материалы по теме доклада:

презентация.pdf
workflow-search.json
workflow-rag.json
инструкция по n8n.pdf
как устроены Foundation Agents нового поколения
digital twin на n8n от Валеры Кавальских
🔥1
Потеря ответственности

Наткнулся на хорошую статью-предупреждение: «Карьера вайб-кодера — это тупик». Она ярко описывает риски слепого использования новых инструментов:

• Иллюзия скорости на старте, но падение эффективности с ростом сложности.
• Увеличение трудозатрат на тестирование и написание инструкций как новой парадигмы работы с AI-агентами.
• Потеря понимания кодовой базы и, как следствие, низкое качество продукта.

Очень живо все эти сложности показал Артем в серии постов о сервисе транскрибации: из нагенерированного кода собрать проект по классическим best practices — это настоящая боль.

Но тут есть и менее очевидный слой — нейрофизиологическое влияние LLM 🧠:

• Дефицит дофамина: обычные достижения радуют меньше, ведь «за тебя все сделал AI».
• Снижение способности к глубокому анализу.
• Формирование зависимости от LLM.

Сергей Булаев подробно разбирает исследования на эту тему и дает простые рекомендации.

Почему таких статей сейчас становится больше? На мой взгляд — потому что мы все чаще видим, как люди перекладывают ответственность на AI.
Если раньше у разработчика была отговорка «У меня все работает», то теперь звучит новая: «Это не я, это LLM накодила».

Недавно мне попалась «аналитическая записка» по архитектуре AI-сервиса, целиком сгенерированная моделью. Первое впечатление — ВАУ, все выглядит стройно и убедительно. Но стоит погрузиться в детали, и задача из серии «подправлю за час» превращается в «прошло пять часов, а документ все еще вызывает сомнения».

Вот это и есть потеря ответственности: мы легко передаем ИИ право писать код, тексты, документы. Так быстрее, так мы «повышаем эффективность», так можно закрыть больше задач параллельно… Но времени на настоящую ответственность не остается. Не позволяет и темп — быстрый ритм жизни и развитие технологий подталкивают нас к ускорению любой ценой.

---

Что делать? 📌

Сместить фокус: ответственность не за результат (код), а за процесс (как мы кодим)

Anthropic в статье Vibe coding in prod дает хороший ориентир, краткий разбор — у Этихлида:

• Будьте PM’ом для AI.
• Будьте Архитектором для AI.
• Будьте Техлидом для AI.

---

AI не освободит нас от ответственности — он только смещает ее в новое поле.
Либо мы берем эту роль осознанно, либо нас поглотит иллюзия скорости.
2👍1🔥1
Media is too big
VIEW IN TELEGRAM
Архив Отзывчивых Знаний

Иногда простые вещи попадают прямо в сердце.

Вместе с Gemini Storybook от Google за минуту собрал красивую мини-книжку — с картинками и озвучкой. По сути это «сказки на заказ»: задаёшь тему — получаешь 10-страничную историю, которую можно читать и слушать вместе с ребёнком. Хочу поэкспериментировать: как такой формат помогает детям, когда они сталкиваются с непониманием тех или иных тем в школе.

Как думаете, о чем говорится в книжке с видео, что такое - "Архив Отзывчивых Знаний"?
🔥21👍1
Безопасность с LLM

Собрали базовую подборку фреймворков и моделей угроз по AI Security:

CIA Triad — классика ИБ (Конфиденциальность, Целостность, Доступность). Ссылка
GenAI OWASP Top 10 — главные 10 рисков для LLM-приложений и способы их снижения. Ссылка
AI Security Solution Landscape — карта традиционных и новых средств защиты от GenAI-рисков. Ссылка
Модели угроз от Сбера — российский взгляд на кибербез AI, включая схемы объектов защиты. Ссылка 1 и Ссылка 2
1👍1
Конструктор промптов от Anthropic

В console.anthropic.com появился удобный инструмент: описываете задачу — получаете готовый шаблон промпта с переменными, тестами и кнопкой «Get code» (Python/TS). Можно улучшать существующие промпты, делиться с командой и сразу проверять в Workbench.
👍2
AI-грамотность

Выступал на внутренней конференции и рассказал, что в AI появилось нового: философия, инструменты, риски.

Если коротко: нынешние интерфейсы ChatGPT и его «родственников» похожи на старый добрый поиск, но под капотом — совсем другой подход. В «цифровой грамотности» мы учились писать короткий запрос и сверять источники; в «AI-грамотности» — формулируем промпт и критично проверяем сгенерированный «здесь и сейчас» материал. Это меняет повседневную работу и нашу ответственность за результат.

О чём говорил:

• Три базовых навыка: промпт-инженерия (как задать роль и формат), контекст-инженерия (как собрать/сжать/защитить данные) и «AI-грамотность 4D» от Anthropic: делегирование, описание, разборчивость, тщательность.
• «Ассистенты» уже закрывают рутину: поиск с цитатами (Perplexity), анализ собственных материалов (NotebookLM), глубокие веб-исследования (platform.parallel.ai). Это не демонстрация — этим удобно пользоваться уже сегодня.
• Безопасность — не «где-то в платформе», а в наших руках: LLM-инъекции, утечки из облачных документов, скрытые инструкции. Держим в голове базовую триаду: конфиденциальность, целостность, доступность.
• Агентные паттерны: для исследовательских задач — ReAct («думай → действуй → наблюдай»); для контролируемых процессов — Plan-then-Execute и граф-подход: больше предсказуемости и проще трассировать ошибки.

Мои рекомендации: познакомьтесь со зрелыми AI-сервисами — они дают новый опыт и экономят время.

Материалы по теме:
Perplexity — поиск с цитатами
Google NotebookLM — анализ ваших материалов
Parallel Deep Research — автономные исследования
Anthropic Prompt Builder
OpenWebUI — локальные ассистенты
LangGraph — граф-агенты

Запись доклада и презентацию прикреплю в первом сообщении.
3👍3🔥1
После освоения AI-инструментов

Послушал лекцию Александра Крайнова (директор по развитию ИИ в «Яндексе») для студентов Иннополиса — зацепила простая мысль: выбор конкретной LLM уходит в прошлое. Как когда-то мы перестали переживать, каким компилятором собирать код, так и здесь — решать будет сервис.

В нашем business-аккаунте Cursor режим Auto уже стал дефолтом. Команда почти не переключается на конкретные модели — ручной выбор остаётся у энтузиастов (см. скрин).

И это не случайность. OpenAI все понимает и то же движется в эту сторону: летом компания уже пробовала с релизом GPT-5 «спрятать» ручной выбор и оставить автоподбор. Комьюнити отстояло переключатель — но, уверен, это временно.

Что меняется на практике? Смещается точка ответственности. Важно уметь чётко описать задачу (промпт), дать релевантный контекст и проверить качество ответа. Экспертиза — в дизайне запроса и оценке результата, а не в переборе моделей. Похоже, индустрия в целом идёт к меньшему ручному выбору — курс на «задача → результат» без микроменеджмента моделей.

Материалы по теме:
Пост-GPT. Что глобально ждёт индустрию после бума генеративных ИИ — лекция Александра Крайнова
👍6
Паттерны GenAI для онбординга

Перечитал статью Мартина Фаулера про паттерны в GenAI. Он называет их «новыми», но по сути сообщество обсуждает эти подходы уже больше года — ценность здесь в аккуратной систематизации. Как когда-то «Банда четырёх» разложила ООП по полочкам, так теперь Фаулер с коллегами собирает практики GenAI.

От себя добавлю: Фаулер — автор многих книг, и его работы сильно повлияли на культуру разработки. Поэтому рекомендую этот материал всем, кто только заходит в тему ИИ-продуктов.

Материалы по теме:
Паттерны для GenAI-продуктов у Мартина Фаулера
1🔥6
Осознанный Vibe Code

Случилось любопытное: я смог найти время на целую неделю, стряхнуть пыль с IDE и реализовать небольшой сервис, чтобы проверить свою идею. В голове всё выглядит идеально, а в жизни, как обычно, не так радужно.

Делюсь своим процессом и выводами, вот мой пайплайн работы с LLM

1. Идея и прототип. Начал с проработки образа результата с помощью DeepResearch в ChatGPT. Затем переключился на Gemini 2.5 Pro — он здорово создает в canvas живые HTML-шаблоны приложений с анимацией и работающими кнопками.

2. Архитектура и стек. Когда идея была отработана, перешел к архитектуре. LLM готова работать с любым стеком, но личный опыт помог выбрать то, с чем проще и быстрее: Strapi + PostgreSQL для бэкенда и React + Next.js для фронта.

3. Декомпозиция задач. Ключевой этап — максимальная декомпозиция. Просил LLM разбивать задачи до уровня «1 задача — 1 функция», что вылилось примерно в 200 тасков в TASKS.md. Так гораздо проще контролировать и проверять код. Если ваш проект уже зрелый, рекомендую более строгий подход отлично написаный в канале The AI Architect

4. Разработка и контекст. Чтобы сайт развивался в едином стиле, я сгенерировал system design. Для каждого запроса к агенту я передавал краткую информацию об архитектуре, стеке, дизайне и общих правилах программирования.

🤦‍♂️ Забыл зафиксировать версии библиотек в подсказках агенту, из-за чего он пару раз путался на ровном месте.

Проблема №1 vibe code

Лимиты начали гореть синим пламенем. В Cursor 80% токенов «сгорели» за 4 дня. Пришлось искать альтернативы.

* Codex сильно понравился. С ним приятно работать, он неплохо интегрировался в Cursor и хорошо закрывал задачи.
* gemeni-cli: Здесь два момента. Сама модель 2.5 показалась менее надежной, жду релиза 3-й версии. А вот консольное приложение откровенно расстроило: виснет, глючит, а лимиты сжигаются за 20 минут без возможности их отслеживать. Google, тут есть вопросики.

Что дальше и что не успел

Я не первый, кто сталкивается с дефицитом токенов. Глеб Кудрявцев работает над интересным решением Shotgun Code, которое, по заявлению автора, позволяет выстроить экономную работу с агентами. Подробнее можно посмотреть на GitHub.

На следующей неделе попробую провести эксперименты с Codex, подключенным к локальной модели. Расскажу, что из этого выйдет.

Куда пойти и что почитать

🗣 Обсудить это и многое другое вживую можно будет на нашем митапе red_mad_robot. Приходите, будет интересно! Регистрация здесь
🎓 Что думает про «vibe code» в сообществе и познакомиться с передовыми практиками можно на конференции AIDev. Очень рекомендую. Узнать больше и зарегистрироваться
📝 Почитать, как другие кодят с агентами, советую в блоге ElKornacio. Много практического опыта. Перейти в канал
🔥41👏1💯1
Готовы к приходу нового поколения разработчиков 😐
😁6👏2
Ограничения AI-IDE

Сегодня в разговоре с клиентом услышал сомнение росте производительности разработчиков в x2 и больше от внедрения AI-IDE в процесс разработки, и попытался выделить основные тезисы, которые влияют на эту самую производительность:

1. AI-IDE требует применения новых практик. Сейчас только энтузиасты действительно погружаются в то, как эффективно использовать AI-инструменты. Большинство разработчиков остаются в привычной парадигме, не меняют свой майндсет и не осваивают новые приёмы — например, работу с промптами, проверку гипотез через AI-агентов, или настройку контекста для конкретных задач. Освоение AI-IDE требует не просто изучить интерфейс, а переосмыслить сам процесс программирования: писать не только код, но и «инструкции для модели», сочетать собственное мышление с машинным. Без этого эффект от внедрения ИИ часто остаётся точечным и не приводит к росту эффективности.

Это вызов и для компаний, и для руководителей, и для самих разработчиков — хорошие практики только формируются, а умные книги по этой теме ещё пишутся.

2. Когнитивное ограничение на проверку результатов. Даже при качественных подсказках работу AI-агентов приходится контролировать. Генерируемый код нередко требует ревью и исправлений — от оптимизации решений до устранения ошибок или небезопасных конструкций. Это добавляет дополнительный слой умственной нагрузки: вместо «писать» разработчик начинает «проверять». В результате полностью делегировать задачи не выходит, а параллельная работа нескольких агентов ограничена — эффективно удаётся контролировать не более 1–3 одновременно.

Если вы справляетесь с большим количеством — поделитесь опытом в комментариях 🙂

3. Стоимость токенов и лимиты использования. При активной работе с кодом объём запросов быстро растёт, и вместе с ним — расходы. Это заставляет разработчиков балансировать между глубиной взаимодействия с моделью и экономией ресурсов, ограничивая частоту и сложность запросов.

А вы знали, что стоимость пользователя в Cursor для корпоративных клиентов в два раза выше, чем для частного использования?

4. Ограниченное понимание контекста проекта. Модели работают в рамках контекстного окна и не видят всю кодовую базу целиком. В больших системах AI-ассистент теряет связность: предложения становятся неточными, появляются ошибки в логике и архитектуре. Разработчики вынуждены дробить задачи, вручную подсказывать контекст или обучать модель на фрагментах проекта — что частично нивелирует обещанную “автоматизацию”.

Похоже, скоро у каждого проекта появится своя документация — не для людей, а для AI-агентов.

5. Конфиденциальность и корпоративные ограничения. Внедрения AI-IDE часто возможно только на условии отправки кода на внешние серверы, что неприемлемо для многих компаний. Локальные режимы и приватные модели снижают риски, но пока уступают по качеству и удобству. Это делает массовое внедрение ИИ-редакторов в корпоративной среде более медленным и осторожным.

Я действительно встречаюсь с такими переживаниями: разработчики всерьёз обсуждают маскирование имён функций перед отправкой кода в облако. Но важно помнить — стоимость кода и его ценность падает. Следует следить не столько за самим кодом, сколько за ценностью продукта, ради которого он написан.

Есть что дополнить? Пишите 👇
👍4👏2