Промпт-инжиниринг мёртв? Почему «как спросить» больше не важно, и что приходит на смену https://habr.com/p/958374/
Habr
Промпт-инжиниринг мёртв? Почему «как спросить» больше не важно, и что приходит на смену
Новое исследование от Anthropic, создателей Claude, ставит крест на классическом промпт-инжиниринге. Их вывод: эффективность ИИ-агентов теперь определяется не тем, как вы спросите, а...
👍4
Forwarded from AI for Devs
Как же я устал от тех, кто ссылается на ChatGPT
Вот реально, кажется, наступил новый уровень профессиональной лени. Ставишь задачу, человек уходит, потом приносит результат… а там мешанина из слов и/или кода. Спрашиваешь: “Ты сам то это читал?” — и получаешь в ответ: “Ааа, так это ChatGPT херню нагенерил…”
Ёпта. Я вижу, что это херня. Вопрос не в том, что сделал ChatGPT. Вопрос в том, почему ты решил, что это можно мне отправить не глядя? Неужели ты рельно думаешь, что я не знаю что такое ChatGPT и не в состоянии самостоятельно отправить в него запрос? Если бы мне нужен был ответ от ChatGPT, я бы не обращался к тебе.
Использовать ChatGPT — норм. Но проверять, понимать и фильтровать что он там нагенерил – долг того, кто обратился к ChatGPT. А если к тебе обратился человек, то и проверять он хочет результат от человека, а не от ChatGPT, иначе зачем ему обращаться к тебе?
Вот реально, кажется, наступил новый уровень профессиональной лени. Ставишь задачу, человек уходит, потом приносит результат… а там мешанина из слов и/или кода. Спрашиваешь: “Ты сам то это читал?” — и получаешь в ответ: “Ааа, так это ChatGPT херню нагенерил…”
Ёпта. Я вижу, что это херня. Вопрос не в том, что сделал ChatGPT. Вопрос в том, почему ты решил, что это можно мне отправить не глядя? Неужели ты рельно думаешь, что я не знаю что такое ChatGPT и не в состоянии самостоятельно отправить в него запрос? Если бы мне нужен был ответ от ChatGPT, я бы не обращался к тебе.
Использовать ChatGPT — норм. Но проверять, понимать и фильтровать что он там нагенерил – долг того, кто обратился к ChatGPT. А если к тебе обратился человек, то и проверять он хочет результат от человека, а не от ChatGPT, иначе зачем ему обращаться к тебе?
👍16😁4🤯4
Поддержка Nginx Unit прекратилась https://habr.com/p/960488/
Имхо недооцененный проект. Не хватило технического маркетинга?
UPD: в комментах пишут что Angie работает над своим вариантом.
Имхо недооцененный проект. Не хватило технического маркетинга?
UPD: в комментах пишут что Angie работает над своим вариантом.
Habr
Поддержка Nginx Unit прекратилась
8 октября 2025 года была окончательно прекращена поддержка полиглота сервера веб-приложений NGINX Unit , разработанного в компании F5. Компания не предоставила официальной причины закрытия, однако...
😢4
Распространенные эффекты у LLM с контекстом:
«Lost in the middle» — это эффект позиционного смещения в LLM: модели хуже извлекают и используют информацию, расположенную в середине длинного контекста, демонстрируя U‑образную зависимость качества от позиции фактов (лучше в начале и в конце, хуже в середине).
Больше проявляется при наполнении до 50% от объема контекста.
Практические рекомендации:
— Размещать ключевые инструкции и факты в начале или в конце промпта; дублировать критичные детали ближе к концу.
«Lost in the distance» — это эффект, при котором LLM хуже извлекает и связывает факты, если релевантные куски контекста находятся далеко друг от друга, даже если каждый по отдельности хорошо виден модели.
Практические рекомендации:
— Старайтесь группировать взаимосвязанные факты ближе друг к другу в одном чанке или соседних чанках, минимизируя вставки нерелевантного текста между ними.
— Разбивайте сложные запросы на подзадачи, каждая из которых опирается на компактный локальный контекст, а «слияние» результатов делайте поэтапно, уменьшая требуемую дальнюю зависимость в одном проходе.
Эффекты стоит изучать применительно к каждой модели. С первым в 2025 старались в некоторых реализациях бороться.
«Lost in the middle» — это эффект позиционного смещения в LLM: модели хуже извлекают и используют информацию, расположенную в середине длинного контекста, демонстрируя U‑образную зависимость качества от позиции фактов (лучше в начале и в конце, хуже в середине).
Больше проявляется при наполнении до 50% от объема контекста.
Практические рекомендации:
— Размещать ключевые инструкции и факты в начале или в конце промпта; дублировать критичные детали ближе к концу.
«Lost in the distance» — это эффект, при котором LLM хуже извлекает и связывает факты, если релевантные куски контекста находятся далеко друг от друга, даже если каждый по отдельности хорошо виден модели.
Практические рекомендации:
— Старайтесь группировать взаимосвязанные факты ближе друг к другу в одном чанке или соседних чанках, минимизируя вставки нерелевантного текста между ними.
— Разбивайте сложные запросы на подзадачи, каждая из которых опирается на компактный локальный контекст, а «слияние» результатов делайте поэтапно, уменьшая требуемую дальнюю зависимость в одном проходе.
Эффекты стоит изучать применительно к каждой модели. С первым в 2025 старались в некоторых реализациях бороться.
👍11
Forwarded from Вебпрактик
10 ноября на TechLead Conf Иван Поддубный поделится тем, что проверено на практике в «Вебпрактик»
🎙 В докладе «RAG для лидов: архитектура и практика внедрения в реальные проекты» Иван расскажет, как работает Retrieval-Augmented Generation — один из ключевых подходов в мире LLM. RAG помогает обогащать модели реальными и актуальными данными, снижая вероятность галлюцинаций и повышая точность ответов.
Иван поделится архитектурными решениями и практическим опытом внедрения RAG: от поиска по проектным данным до интеграции с корпоративными LLM и чат-ботами.
🤝 Вместе с экспертами из Yandex B2B Tech, Т-Банка и Fun&Sun Иван примет участие в круглом столе «Как изменяется performance команды после внедрения AI», на котором обсудят:
🔴 какие AI-инструменты реально используют команды;
🔴 как они влияют на скорость и качество разработки;
🔴 что можно измерить, а что — нет;
🔴 как проходит адаптация специалистов к новым форматам работы.
👌 TechLead Conf — площадка, где говорят о технологиях, которые уже работают, люди, которые их создают.
🤩 #Вебпрактик_эксперты #TechLeadConf #AI #LLM #RAG
Иван поделится архитектурными решениями и практическим опытом внедрения RAG: от поиска по проектным данным до интеграции с корпоративными LLM и чат-ботами.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍7
Forwarded from Владилен: IT в эпоху AI
Как ИИ незаметно стандартизирует фронтенд
Интересное наблюдение.
Когда генерируешь Frontend проект через нейронку и не указываешь стек — она почти всегда выбирает React, Next, Tailwind.
И чем больше людей так делает, тем сильнее закрепляется этот выбор.
Модель просто учится на том, что встречает чаще.
Не потому что это оптимально — а потому что это популярно. Я еще с 2017 года говорил, что везде пихать React не надо. Вот и получили, что получили.
Мы, по сути, наблюдаем, как ИИ превращает статистику в стандарт.
Код всё меньше рождается из инженерного решения — и всё больше из консенсуса данных.
Парадокс вот в чем: ИИ должен был расширить наш инструментарий, а вместо этого — сужает его до выбора технологий “по умолчанию”.
React, Next, Tailwind становятся новой догмой, не потому что они лучшие — а потому что все так делают. Раньше – из-за инженерной некомпетентности, сейчас – из-за стандартов разработки.
Интересное наблюдение.
Когда генерируешь Frontend проект через нейронку и не указываешь стек — она почти всегда выбирает React, Next, Tailwind.
И чем больше людей так делает, тем сильнее закрепляется этот выбор.
Модель просто учится на том, что встречает чаще.
Не потому что это оптимально — а потому что это популярно. Я еще с 2017 года говорил, что везде пихать React не надо. Вот и получили, что получили.
Мы, по сути, наблюдаем, как ИИ превращает статистику в стандарт.
Код всё меньше рождается из инженерного решения — и всё больше из консенсуса данных.
Парадокс вот в чем: ИИ должен был расширить наш инструментарий, а вместо этого — сужает его до выбора технологий “по умолчанию”.
React, Next, Tailwind становятся новой догмой, не потому что они лучшие — а потому что все так делают. Раньше – из-за инженерной некомпетентности, сейчас – из-за стандартов разработки.
👍9❤1
SDD (SpecDrivenDevelopment) набирает обороты и нашел новое воплощение на компонентном уровне.
Пример в статье на vue, но реализовать в react (или любом другом компоненте в т.ч. бекенд компоненте) не составит труда.
https://habr.com/p/965882/
Пример в статье на vue, но реализовать в react (или любом другом компоненте в т.ч. бекенд компоненте) не составит труда.
https://habr.com/p/965882/
Habr
Vue SFC — идеальный формат для AI-разработки и вот почему
Вы уже пробовали применять ИИ в разработке? Если да, то заметили, что чем дольше вы общаетесь с моделью, тем выше шанс, что она забудет ваши исходные требования. Спецификация, которую вы указали...
👍5
Интересный бенчмарк: postgresql на отдельной машине будет на 20-40% быстрее чем если поднять ее в кубе.
https://habr.com/p/967626/
https://habr.com/p/967626/
Habr
Сколько производительности съедает Kubernetes: сравниваю native PostgreSQL и CloudNativePG в Yandex Cloud
Миграция баз данных в Kubernetes выглядит логичным шагом: хочется операторов, GitOps, автопочинку, единый способ доставки и управления. Для PostgreSQL один из популярных вариантов — CloudNativePG . Но...
👍5
Дозировано применяем MCP т.к. избыток может перегружать и путать агентов.
Иногда простые костыли могут показывать более высокую эффективность.
https://habr.com/ru/articles/968110/
P.S. Картинка статьи конечно не отражает реальность.
Иногда простые костыли могут показывать более высокую эффективность.
https://habr.com/ru/articles/968110/
P.S. Картинка статьи конечно не отражает реальность.
Хабр
А что, если MCP вам вообще не нужен?
Команда AI for Devs подготовила перевод статьи о том, почему увлечение MCP-серверами может быть избыточным. Автор показывает на практике: во многих сценариях агенты справляются куда лучше, когда...
👍4
Через неделю (1–5 декабря) стартанет новый сезон Podlodka PHP Crew.
В этот раз программа конференции (10 докладов) сосредоточена на теме повышения перфоманса разработчиков.
Собственно почему именно эту тему выбрали - понятно что важно поделится AI практиками среди PHP разработчиками в SDLC, но делать весь сезон чисто про AI не кайф, мы все таки PHPшное сообщество, тем более что у подлодки вышла отдельная AI конфа.
По этому у нас несмотря на то что будет не мало AI практик для разработчиков - большая часть докладов будет про то как перформить разработчикам с помощью не AI утилит и практик)
# Отдельно хотел выделить доклады:
⚙️ Background-агенты в разработке — Пётр Мязин («Пятиминутка PHP») покажет, как выглядит 4/5 стадия внедрения AI агентов в SDLC процесс, когда вы уже переходите от уровня курсора к автоматизации фоновыми агентами. Прям кайф, коллеги уже автоматизируют окружающие работу разработчиков процессы, например подстраивают работу аналитиков.
🧩 От промпта к продакшену — Павел Бучнев (Spiral Scout) объяснит, почему пора мыслить контекстами, а не только промптами.
Контекстный инжиниринг - главный скил разработчика будущего. У Павла отличный ликбез по бестпрактиксам.
⚙️ Доклад «Детерминированный CodeGen в эпоху LLM» - очень важная мысль от Миши Каморина про то что кодеген не только по прежнему актуален, но и предпочтителен перед AI генерацией кода.
И еще много все интересного: best practices работы с фича флагами, TBD, как тесты ускоряют разработку, генерировать админки с AI или работать с техдолгом (тут обещают весьма не банальный доклад от Дмитрия Кириллова) и автоматизировать работу на базе контрактов.
⚡️Практика, кейсы и новые подходы, которые экономят часы и силы.
🔗 Подключайтесь с 1 декабря: https://podlodka.io/phpcrew
Скидка 500 р для участников сообщества по промокоду: php_crew_7_8FsLsA
В этот раз программа конференции (10 докладов) сосредоточена на теме повышения перфоманса разработчиков.
Собственно почему именно эту тему выбрали - понятно что важно поделится AI практиками среди PHP разработчиками в SDLC, но делать весь сезон чисто про AI не кайф, мы все таки PHPшное сообщество, тем более что у подлодки вышла отдельная AI конфа.
По этому у нас несмотря на то что будет не мало AI практик для разработчиков - большая часть докладов будет про то как перформить разработчикам с помощью не AI утилит и практик)
# Отдельно хотел выделить доклады:
⚙️ Background-агенты в разработке — Пётр Мязин («Пятиминутка PHP») покажет, как выглядит 4/5 стадия внедрения AI агентов в SDLC процесс, когда вы уже переходите от уровня курсора к автоматизации фоновыми агентами. Прям кайф, коллеги уже автоматизируют окружающие работу разработчиков процессы, например подстраивают работу аналитиков.
🧩 От промпта к продакшену — Павел Бучнев (Spiral Scout) объяснит, почему пора мыслить контекстами, а не только промптами.
Контекстный инжиниринг - главный скил разработчика будущего. У Павла отличный ликбез по бестпрактиксам.
⚙️ Доклад «Детерминированный CodeGen в эпоху LLM» - очень важная мысль от Миши Каморина про то что кодеген не только по прежнему актуален, но и предпочтителен перед AI генерацией кода.
И еще много все интересного: best practices работы с фича флагами, TBD, как тесты ускоряют разработку, генерировать админки с AI или работать с техдолгом (тут обещают весьма не банальный доклад от Дмитрия Кириллова) и автоматизировать работу на базе контрактов.
⚡️Практика, кейсы и новые подходы, которые экономят часы и силы.
🔗 Подключайтесь с 1 декабря: https://podlodka.io/phpcrew
Скидка 500 р для участников сообщества по промокоду: php_crew_7_8FsLsA
🔥5❤4
Подъехали недавно фоточки)
На TechLeadConf выступил с темой про архитектуру RAG.
Последний год+ у меня плотно в погружении в AI тематику, уже могу делится опытом.
На докладе раскрыл как базовые принципы, так и затронул продвинутые механики с графовыми RAG и бестпрактисами для повышения качества.
Построил его именно по цепочке архитектурных выборов которые нужно принять техлиду чтобы построить процесс.
Кстати доклад вошел в топ 3 лучших конференции.
Ссылка на видео появится мб в ближайшие пару-тройку месяцев. Пишите в личку в январе примерно если кому интересно.
Но ссылка на презу доступна сразу: https://north-leshiy.github.io/rag-techlead/
На TechLeadConf выступил с темой про архитектуру RAG.
Последний год+ у меня плотно в погружении в AI тематику, уже могу делится опытом.
На докладе раскрыл как базовые принципы, так и затронул продвинутые механики с графовыми RAG и бестпрактисами для повышения качества.
Построил его именно по цепочке архитектурных выборов которые нужно принять техлиду чтобы построить процесс.
Кстати доклад вошел в топ 3 лучших конференции.
Ссылка на видео появится мб в ближайшие пару-тройку месяцев. Пишите в личку в январе примерно если кому интересно.
Но ссылка на презу доступна сразу: https://north-leshiy.github.io/rag-techlead/
❤6👍6🔥4
Также по AI в SDLC был круглый стол с крутыми коллегам)
2 часа разгоняли про внедрение в процесс и изменение перфоманса)
Было кайфово активно пораспрашивать коллег про то как внедряется AI в процессы у Т-Банк и Яндекса из первых лиц занимающихся процессом или познакомится с опытом коллеги CTO из Fun&Sun.
# Безопасность
Одна из мыслей которая уже вдохновила на изменения: есть часть корпораций (в лице Т-Банка) которые разрешают разработчикам доступ к внешним моделям (на большей части проектов). Но ... через свой кастомный прокси. Который вырезает PII и секреты.
Вчера подняли такой аналог в виде liteLLMProxy + Presidio. Тестим.
Microsoft Presidio мы раньше юзали для RAG, но как прокси для разрабов как раз идея после этого круглого стола родилась.
Конечно персональные подписки вроде бы экономически (пока) выгоднее. Надо проверить можно ли их тоже подружить через прокси.
# Измерение перфоманса разработчиков
Это сложно. Сейчас все больше меряют adoption. Есть тезис что не научилась хорошо и системно трассировать усилия разработчика (или их изменения) в бизнес показатели.
Но зато у Яндекса получилось замерить рост перфоманса QA, они говорят что по их замерам - активное внедрение позволило во командах где внедрили достичь х3 показателя.
Какие команды могут измерить производительность: те у кого есть baseline оценок. И если оценки в бейзлайне можно снизить это явно можно трассировать на пользу бизнеса.
Важно помнить что написание кода лишь небольшая часть всего времени которая тратит разработчик. И автоматизация только этой части не даст большой разницы. Нужно автоматизировтаь и другие процессы. Но в любом случае все процессы сейчас не поддаются автоматизации.
В т.ч. поднимался вопрос на сколько нужно запариваться изменением разницы. Очевидно что через 1-2 года использование AI будет такой же практикой как и использование git.
Будут доп затраты? Ну мы же тратимся на IDE, никто не спрашивает, нужно ли ее покупать. С учетом что inference дешевеет каждый год в несколько раз - есть шанс что в каком то будущем они будут даже сопоставимо стоить.
# Внедрение в команды
Конечно же обсудили что у всех команд есть коллеги которые отрицают новые инструменты. Евгений поделился опытом что лично ходил в десятки команд и с каждой индивидуально показывал реальную применимость на реальных проектах, отвечал на вопросы. После этого adoption вырос чуть ли не до 70%.
2 часа разгоняли про внедрение в процесс и изменение перфоманса)
Было кайфово активно пораспрашивать коллег про то как внедряется AI в процессы у Т-Банк и Яндекса из первых лиц занимающихся процессом или познакомится с опытом коллеги CTO из Fun&Sun.
# Безопасность
Одна из мыслей которая уже вдохновила на изменения: есть часть корпораций (в лице Т-Банка) которые разрешают разработчикам доступ к внешним моделям (на большей части проектов). Но ... через свой кастомный прокси. Который вырезает PII и секреты.
Вчера подняли такой аналог в виде liteLLMProxy + Presidio. Тестим.
Microsoft Presidio мы раньше юзали для RAG, но как прокси для разрабов как раз идея после этого круглого стола родилась.
Конечно персональные подписки вроде бы экономически (пока) выгоднее. Надо проверить можно ли их тоже подружить через прокси.
# Измерение перфоманса разработчиков
Это сложно. Сейчас все больше меряют adoption. Есть тезис что не научилась хорошо и системно трассировать усилия разработчика (или их изменения) в бизнес показатели.
Но зато у Яндекса получилось замерить рост перфоманса QA, они говорят что по их замерам - активное внедрение позволило во командах где внедрили достичь х3 показателя.
Какие команды могут измерить производительность: те у кого есть baseline оценок. И если оценки в бейзлайне можно снизить это явно можно трассировать на пользу бизнеса.
Важно помнить что написание кода лишь небольшая часть всего времени которая тратит разработчик. И автоматизация только этой части не даст большой разницы. Нужно автоматизировтаь и другие процессы. Но в любом случае все процессы сейчас не поддаются автоматизации.
В т.ч. поднимался вопрос на сколько нужно запариваться изменением разницы. Очевидно что через 1-2 года использование AI будет такой же практикой как и использование git.
Будут доп затраты? Ну мы же тратимся на IDE, никто не спрашивает, нужно ли ее покупать. С учетом что inference дешевеет каждый год в несколько раз - есть шанс что в каком то будущем они будут даже сопоставимо стоить.
# Внедрение в команды
Конечно же обсудили что у всех команд есть коллеги которые отрицают новые инструменты. Евгений поделился опытом что лично ходил в десятки команд и с каждой индивидуально показывал реальную применимость на реальных проектах, отвечал на вопросы. После этого adoption вырос чуть ли не до 70%.
2👍8🔥7
Forwarded from Букуров, почини мир!
Media is too big
VIEW IN TELEGRAM
У команды «Вебпрактик» важный день. Сегодня стартовал форум МЫВМЕСТЕ, к которому мы сделали релиз новой версии Платформы Добро.РФ 3.0.
Это целая экосистема ИТ-сервисов для развития созидательной гражданской активности, на которой уже зарегистрировано более 9 млн волонтеров.
Что изменилось:
И это только начало. Впереди еще много важных обновлений: новый образовательный интерфейс цифрового «Добрино», аналитические модули, платформа «Обучение как служение» и др.
Очень благодарны команде Добро.РФ и нашим партнерам за возможность участвовать в таком крутом проекте! Обязательно сделаем подробный кейс обо всем, но позже)
Всем Добра!
Это целая экосистема ИТ-сервисов для развития созидательной гражданской активности, на которой уже зарегистрировано более 9 млн волонтеров.
Что изменилось:
1. Появилось новое направление «Нужна помощь»
Это долгосрочный функционал, который позволит разворачивать масштабные инициативы поддержки на годы вперёд. Теперь запросы на помощь и доступные решения находятся в одном месте. Удобно и прозрачно.
2. Удобная навигация
Мы переработали структуру платформы так, чтобы каждый — волонтёр, НКО или организатор — без долгих поисков находил нужный сервис. Логика переходов стала короче, а времени на поиск уходит в разы меньше.
3. Собрали все сервисы в единую экосистему
Теперь инструменты Добро.рф не разбросаны по разным ресурсам. Всё — в одном окне. Это экономит силы и упрощает работу всем участникам движения.
4. Укрепляем сообщество
Активные организации и группы теперь могут публиковать ключевые новости прямо у себя. Платформа становится более живой, поддерживает горизонтальные связи и помогает формировать общую повестку.
5. Добавили дружбу и личные чаты
Теперь можно находить единомышленников и общаться без перехода во внешние мессенджеры.
6. Профили компетенций
Волонтёры могут показывать свои навыки и опыт, а организаторы в будущем смогут точнее подбирать людей под конкретные задачи. Это шаг к профессионализации всего движения.
7. Первый тематический раздел «Проект МЫВМЕСТЕ»
В основе — реальные жизненные ситуации. Участники и ветераны СВО, а также их семьи, теперь могут быстро найти ближайшие организации, оказывающие помощь. В пилотных регионах уже работает подача заявок напрямую. Одним из партнёров навигатора стал Фонд Защитников Отечества.
8. Обновили навигатор мер поддержки
Он стал удобнее для всех: и тех, кто ищет меры, и тех, кто их предоставляет. Новый дизайн помогает быстрее ориентироваться и заводить меры.
И это только начало. Впереди еще много важных обновлений: новый образовательный интерфейс цифрового «Добрино», аналитические модули, платформа «Обучение как служение» и др.
Очень благодарны команде Добро.РФ и нашим партнерам за возможность участвовать в таком крутом проекте! Обязательно сделаем подробный кейс обо всем, но позже)
Всем Добра!
1👍8🔥7💩1
Прошёл ещё один сезон Podlodka PHP Crew.
Из яркого — два финальных доклада про AI (которые я помогал готовить как член ПК и был ведущим на этих сессиях).
Доклад Петра Мязина начинает с вводной о том, что есть некоторые уровни внедрения AI в SDLC. Кажется сообществу пора давно дать классификацию. Я чуть расширил его модель, и мне кажется для сообщества она может быть примерно такой.
Уровни внедрения AI в дев-инструменты:
1. Вне процесса
LLM-чаты, живущие отдельно от IDE и CI. Нет связи с кодом, репозиториями и трекером задач.
2. Точечный ассистент / inline-AI
Автокомплит, explain/fix, генерация мелких фрагментов кода и тестов.
Встроенный чат, читающий отдельные файлы.
3. IDE-агенты (task-level)
Агент понимает задачу («обнови X», «сделай миграцию») и сам вызывает операции IDE.
Разработчик остаётся в цикле: ревьюит, откатывает, правит.
4. Background / remote-агенты
Агенты работают в фоне или удалённо: массовые правки в монорепе, линтинг, миграции, документация, анализ логов.
Есть интеграция с CI/CD и трекером: агент сам поднимает PR, пишет отчёты и инициирует диалог.
5. Сквозные SDLC-агенты
Мультиагентная система, покрывающая весь цикл: от user story до релиза и мониторинга.
Человек задаёт цели, агенты координируются сами.
————
По этой классификации компания Петра уже на уровне 4 с элементами 5. Примечательно, что около 60% задач у них запускаются через background-агентов.
Ключевые нюансы этого пути:
— Не все задачи агенты могут качественно реализовать на background агентах.
— Требуется более мелкое дробление задач.
— Потолок у background AI-агента ниже, чем
у локального (3 стадия).
— Аналитики устают отвечать на уточняющие вопросы агентов.
— Ревью разработчиков остаётся обязательным.
— Экономика сходится: укладывается в лимиты подписки 200$.
— Всё построено на codex-стеке, у которого есть свои UX-ограничения.
7 сезон PHP Crew обещают выложить уже на следующей неделе и можно будет взять по этой ссылке https://podlodka.io/crew-records.
Из яркого — два финальных доклада про AI (которые я помогал готовить как член ПК и был ведущим на этих сессиях).
Доклад Петра Мязина начинает с вводной о том, что есть некоторые уровни внедрения AI в SDLC. Кажется сообществу пора давно дать классификацию. Я чуть расширил его модель, и мне кажется для сообщества она может быть примерно такой.
Уровни внедрения AI в дев-инструменты:
1. Вне процесса
LLM-чаты, живущие отдельно от IDE и CI. Нет связи с кодом, репозиториями и трекером задач.
2. Точечный ассистент / inline-AI
Автокомплит, explain/fix, генерация мелких фрагментов кода и тестов.
Встроенный чат, читающий отдельные файлы.
3. IDE-агенты (task-level)
Агент понимает задачу («обнови X», «сделай миграцию») и сам вызывает операции IDE.
Разработчик остаётся в цикле: ревьюит, откатывает, правит.
4. Background / remote-агенты
Агенты работают в фоне или удалённо: массовые правки в монорепе, линтинг, миграции, документация, анализ логов.
Есть интеграция с CI/CD и трекером: агент сам поднимает PR, пишет отчёты и инициирует диалог.
5. Сквозные SDLC-агенты
Мультиагентная система, покрывающая весь цикл: от user story до релиза и мониторинга.
Человек задаёт цели, агенты координируются сами.
————
По этой классификации компания Петра уже на уровне 4 с элементами 5. Примечательно, что около 60% задач у них запускаются через background-агентов.
Ключевые нюансы этого пути:
— Не все задачи агенты могут качественно реализовать на background агентах.
— Требуется более мелкое дробление задач.
— Потолок у background AI-агента ниже, чем
у локального (3 стадия).
— Аналитики устают отвечать на уточняющие вопросы агентов.
— Ревью разработчиков остаётся обязательным.
— Экономика сходится: укладывается в лимиты подписки 200$.
— Всё построено на codex-стеке, у которого есть свои UX-ограничения.
7 сезон PHP Crew обещают выложить уже на следующей неделе и можно будет взять по этой ссылке https://podlodka.io/crew-records.
🔥6👍3
Второй доклад от Павла Бучнева сосредотачивается на 3 уровне: как разработчику грамотно заниматься контекст инжинирингом — на мой взгляд одним из самых главных современных скилов современного разработчика, аналитика, qa, еtc.
Иллюстрации в докладе потрясающие, взял небольшое количество для примера).
Павел на своем опыте разработал свой личный фреймворк успешной AI разработки, сфокусированном на управлении контекстом. По факту можно считать его подход разновидностью CDD (Context Driven Development).
Подход основан основана на:
- Целом ряде best bractis,
- Написанным им open source CTX библиотеке,
- Ручном ювелирном управлении контекстом (даже Claude Code в его парадигме хуже т.к. добавляет много своего контекста)
- Feature Request в строгом и детализированном формате
- Продуманных гайдлайнах в базовом контексте
- Из непривычного - очень много Feature Request и контекста он задает голосом, на его личном опыте это работает гораздо быстрее и в большем потоке чем описывать руками. Исходник прогоняет через chatGPT превращая его в FR.
UPD: кстати это видео выложили в открытый доступ.
Иллюстрации в докладе потрясающие, взял небольшое количество для примера).
Павел на своем опыте разработал свой личный фреймворк успешной AI разработки, сфокусированном на управлении контекстом. По факту можно считать его подход разновидностью CDD (Context Driven Development).
Подход основан основана на:
- Целом ряде best bractis,
- Написанным им open source CTX библиотеке,
- Ручном ювелирном управлении контекстом (даже Claude Code в его парадигме хуже т.к. добавляет много своего контекста)
- Feature Request в строгом и детализированном формате
- Продуманных гайдлайнах в базовом контексте
- Из непривычного - очень много Feature Request и контекста он задает голосом, на его личном опыте это работает гораздо быстрее и в большем потоке чем описывать руками. Исходник прогоняет через chatGPT превращая его в FR.
UPD: кстати это видео выложили в открытый доступ.
🔥7👍3❤1