👉 Модель научится извлекать нужные данные и форматировать их в JSON.
• Советы:
• Используйте качественные и разные примеры
• Для сложных задач — от 3 до 5 примеров
• Включайте edge cases — необычные входные данные, чтобы сделать промпт более устойчивым
⸻
📌 3. System, Role и Context prompting — три приёма, как дополнительно управлять поведением модели:
🖥️ System prompting — общие правила для модели
Пример:
“Классифицируй отзыв на фильм как POSITIVE, NEGATIVE или NEUTRAL. Ответ возвращай в виде JSON.”
→ Это даёт структуру вывода.
👤 Role prompting — модель играет заданную роль
Пример:
“Ты — тревел-гид. Предложи 3 музея в Амстердаме.”
→ Модель “входит в образ” и отвечает соответствующим стилем.
Можно даже задавать тон: вдохновляющий, юмористический, формальный и т.д.
🧾 Contextual prompting — даёте контекст задачи
Пример:
“Ты пишешь для блога об аркадных играх 80-х. Предложи темы для статей.”
→ Модель будет учитывать тематику и стиль блога.
⸻
📚 Все эти техники можно комбинировать, чтобы повысить управляемость вывода. Например:
• Сначала system prompt (формат ответа),
• Затем role prompt (стиль и голос),
• И наконец — контекст задачи.
⸻
• Советы:
• Используйте качественные и разные примеры
• Для сложных задач — от 3 до 5 примеров
• Включайте edge cases — необычные входные данные, чтобы сделать промпт более устойчивым
⸻
📌 3. System, Role и Context prompting — три приёма, как дополнительно управлять поведением модели:
🖥️ System prompting — общие правила для модели
Пример:
“Классифицируй отзыв на фильм как POSITIVE, NEGATIVE или NEUTRAL. Ответ возвращай в виде JSON.”
→ Это даёт структуру вывода.
👤 Role prompting — модель играет заданную роль
Пример:
“Ты — тревел-гид. Предложи 3 музея в Амстердаме.”
→ Модель “входит в образ” и отвечает соответствующим стилем.
Можно даже задавать тон: вдохновляющий, юмористический, формальный и т.д.
🧾 Contextual prompting — даёте контекст задачи
Пример:
“Ты пишешь для блога об аркадных играх 80-х. Предложи темы для статей.”
→ Модель будет учитывать тематику и стиль блога.
⸻
📚 Все эти техники можно комбинировать, чтобы повысить управляемость вывода. Например:
• Сначала system prompt (формат ответа),
• Затем role prompt (стиль и голос),
• И наконец — контекст задачи.
⸻
🔁 Step-back prompting — техника «Шаг назад»
⸻
💡 Что это такое?
Step-back prompting — это техника, при которой модель сначала размышляет над общим вопросом, связанным с задачей, а затем решает конкретную проблему на основе этих размышлений.
Это как сказать модели:
«Прежде чем решать — подумай в общем. А потом возвращайся к задаче».
⸻
🧠 Зачем это нужно?
• Активирует фоновое знание модели
• Улучшает точность, логичность и глубину ответа
• Помогает избежать искажения контекста
• Может снизить предвзятость (bias) в ответах
⸻
📌 Пример:
Допустим, задача — придумать сюжет уровня для шутера от первого лица.
Обычный промпт (без step-back):
“Напиши абзац с сюжетом для нового уровня в шутере.”
🧾 Модель выдаёт стандартный ответ: засада, стрельба, враги, миссия…
⸻
🔙 Теперь step-back вариант:
1. Шаг назад:
“Назови 5 крутых тем/локаций, которые подойдут для уровня в шутере.”
✅ Модель предлагает:
• Зомби-город
• Подводная база
• Киберпанк-город
• Военная база
• Корабль пришельцев
2. Основной промпт:
“Используя тему ‘Подводная база’, напиши сюжет уровня для шутера.”
💡 Результат: сюжет становится более разнообразным, глубоким и оригинальным, потому что модель сначала активировала “базу идей”.
⸻
📋 Ключевые преимущества:
• Модель использует больше своих знаний
• Ответ получается более продуманный
• Лучше справляется с нестандартными или креативными задачами
⸻
📎 Вывод:
Если ответ модели выглядит «плоско» или банально — попробуй сделать шаг назад: задай более общий вопрос перед основной задачей.
⸻
💡 Что это такое?
Step-back prompting — это техника, при которой модель сначала размышляет над общим вопросом, связанным с задачей, а затем решает конкретную проблему на основе этих размышлений.
Это как сказать модели:
«Прежде чем решать — подумай в общем. А потом возвращайся к задаче».
⸻
🧠 Зачем это нужно?
• Активирует фоновое знание модели
• Улучшает точность, логичность и глубину ответа
• Помогает избежать искажения контекста
• Может снизить предвзятость (bias) в ответах
⸻
📌 Пример:
Допустим, задача — придумать сюжет уровня для шутера от первого лица.
Обычный промпт (без step-back):
“Напиши абзац с сюжетом для нового уровня в шутере.”
🧾 Модель выдаёт стандартный ответ: засада, стрельба, враги, миссия…
⸻
🔙 Теперь step-back вариант:
1. Шаг назад:
“Назови 5 крутых тем/локаций, которые подойдут для уровня в шутере.”
✅ Модель предлагает:
• Зомби-город
• Подводная база
• Киберпанк-город
• Военная база
• Корабль пришельцев
2. Основной промпт:
“Используя тему ‘Подводная база’, напиши сюжет уровня для шутера.”
💡 Результат: сюжет становится более разнообразным, глубоким и оригинальным, потому что модель сначала активировала “базу идей”.
⸻
📋 Ключевые преимущества:
• Модель использует больше своих знаний
• Ответ получается более продуманный
• Лучше справляется с нестандартными или креативными задачами
⸻
📎 Вывод:
Если ответ модели выглядит «плоско» или банально — попробуй сделать шаг назад: задай более общий вопрос перед основной задачей.
🔗 Chain of Thought (CoT) — Цепочка размышлений
⸻
💡 Что это такое?
Chain of Thought prompting — это техника, при которой вы побуждаете модель «думать вслух», пошагово рассуждать, а не сразу выдавать итоговый ответ.
Формулировка запроса:
“Давайте подумаем шаг за шагом”
“Let’s think step by step”
⸻
🔍 Зачем это нужно?
• Улучшает логические и математические ответы
• Позволяет обнаружить ошибки в рассуждении модели
• Повышает устойчивость промпта при переходе на другие версии модели
• Упрощает отладку и анализ
⸻
📌 Пример без CoT (ошибка):
❓ “Когда мне было 3 года, моему партнёру было в 3 раза больше лет. Сейчас мне 20. Сколько лет партнёру?”
Ответ модели: 63 ❌ — неправильно.
⸻
✅ Теперь с Chain of Thought:
❓ “Когда мне было 3 года, моему партнёру было в 3 раза больше лет. Сейчас мне 20. Сколько лет партнёру? Давайте подумаем шаг за шагом.”
Ответ:
1. Когда мне было 3 года → партнёру было 3 × 3 = 9
2. Разница в возрасте = 9 - 3 = 6 лет
3. Сейчас мне 20 → партнёру 20 + 6 = 26 лет
👉 Правильный ответ: 26
⸻
🧪 Можно комбинировать с few-shot:
Вы даёте сначала пример, где модель делает пошаговое рассуждение,
а потом даёте новую задачу — и она копирует структуру рассуждений.
⸻
🧰 Где особенно полезно применять:
• Математика
• Анализ кода
• Классификация сложных кейсов
• Сценарии с множеством допущений
• Юридические задачи (например: определение правомерности действий по признакам)
⸻
⚠️ Минусы:
• Ответ длиннее → больше токенов → дороже
• Иногда модель начинает “болтать” лишнее
⸻
📎 Вывод:
Если задача требует рассуждений — всегда пробуй CoT. Даже добавление фразы “Давай подумаем по шагам” уже может сильно повысить точность ответа.
⸻
💡 Что это такое?
Chain of Thought prompting — это техника, при которой вы побуждаете модель «думать вслух», пошагово рассуждать, а не сразу выдавать итоговый ответ.
Формулировка запроса:
“Давайте подумаем шаг за шагом”
“Let’s think step by step”
⸻
🔍 Зачем это нужно?
• Улучшает логические и математические ответы
• Позволяет обнаружить ошибки в рассуждении модели
• Повышает устойчивость промпта при переходе на другие версии модели
• Упрощает отладку и анализ
⸻
📌 Пример без CoT (ошибка):
❓ “Когда мне было 3 года, моему партнёру было в 3 раза больше лет. Сейчас мне 20. Сколько лет партнёру?”
Ответ модели: 63 ❌ — неправильно.
⸻
✅ Теперь с Chain of Thought:
❓ “Когда мне было 3 года, моему партнёру было в 3 раза больше лет. Сейчас мне 20. Сколько лет партнёру? Давайте подумаем шаг за шагом.”
Ответ:
1. Когда мне было 3 года → партнёру было 3 × 3 = 9
2. Разница в возрасте = 9 - 3 = 6 лет
3. Сейчас мне 20 → партнёру 20 + 6 = 26 лет
👉 Правильный ответ: 26
⸻
🧪 Можно комбинировать с few-shot:
Вы даёте сначала пример, где модель делает пошаговое рассуждение,
а потом даёте новую задачу — и она копирует структуру рассуждений.
⸻
🧰 Где особенно полезно применять:
• Математика
• Анализ кода
• Классификация сложных кейсов
• Сценарии с множеством допущений
• Юридические задачи (например: определение правомерности действий по признакам)
⸻
⚠️ Минусы:
• Ответ длиннее → больше токенов → дороже
• Иногда модель начинает “болтать” лишнее
⸻
📎 Вывод:
Если задача требует рассуждений — всегда пробуй CoT. Даже добавление фразы “Давай подумаем по шагам” уже может сильно повысить точность ответа.
🔁 Self-consistency (Самосогласованность)
⸻
💡 Что это такое?
Self-consistency — это техника, которая помогает повысить точность модели путём многократного прогона одного и того же промпта и выбора наиболее частого (наиболее согласованного) ответа.
⸻
📌 Зачем это нужно?
Хотя Chain of Thought (CoT) позволяет получить рассуждения,
он обычно использует один путь рассуждения (один вариант вывода).
Но ведь LLM может дать несколько разных путей — и не все они одинаково хороши.
Self-consistency предлагает:
“Давайте получим много версий размышлений — и выберем ту, что чаще всего даёт один и тот же результат.”
⸻
🧪 Как работает:
1. Многократный запуск промпта с высокой температурой (например, 0.8–1.0), чтобы получить разные варианты цепочек рассуждений.
2. Извлекаем ответы из каждой цепочки.
3. Считаем, какой ответ встречается чаще всего.
4. Используем его как финальный ответ.
⸻
🎯 Пример из документа: классификация письма
Задача: классифицировать e-mail как IMPORTANT или NOT IMPORTANT
📧 Пример письма от “Хакера Гарри”, который сообщает о баге на сайте.
• Попытка 1:
Модель рассуждает, что баг может быть серьёзным → вывод: IMPORTANT
• Попытка 2:
Модель делает акцент на дружелюбном тоне письма → вывод: NOT IMPORTANT
• Попытка 3:
Модель снова делает вывод, что баг потенциально опасен → вывод: IMPORTANT
📊 Финальный вывод по голосам:
• IMPORTANT — 2 раза
• NOT IMPORTANT — 1 раз
👉 Финальный ответ: IMPORTANT
⸻
🧠 Преимущества:
• Повышает логичность и точность ответов
• Снижает влияние случайности или неудачного рассуждения
• Подходит для задач, где важен однозначный и обоснованный вывод
⸻
⚠️ Минусы:
• Требует больше вычислений (несколько прогонов)
• Увеличивает стоимость и время выполнения
• Нужно обрабатывать несколько ответов и агрегировать
⸻
📎 Вывод:
Когда важна точность вывода, а не просто “что-то ответить” — self-consistency помогает выбрать наиболее разумное решение среди возможных.
⸻
💡 Что это такое?
Self-consistency — это техника, которая помогает повысить точность модели путём многократного прогона одного и того же промпта и выбора наиболее частого (наиболее согласованного) ответа.
⸻
📌 Зачем это нужно?
Хотя Chain of Thought (CoT) позволяет получить рассуждения,
он обычно использует один путь рассуждения (один вариант вывода).
Но ведь LLM может дать несколько разных путей — и не все они одинаково хороши.
Self-consistency предлагает:
“Давайте получим много версий размышлений — и выберем ту, что чаще всего даёт один и тот же результат.”
⸻
🧪 Как работает:
1. Многократный запуск промпта с высокой температурой (например, 0.8–1.0), чтобы получить разные варианты цепочек рассуждений.
2. Извлекаем ответы из каждой цепочки.
3. Считаем, какой ответ встречается чаще всего.
4. Используем его как финальный ответ.
⸻
🎯 Пример из документа: классификация письма
Задача: классифицировать e-mail как IMPORTANT или NOT IMPORTANT
📧 Пример письма от “Хакера Гарри”, который сообщает о баге на сайте.
• Попытка 1:
Модель рассуждает, что баг может быть серьёзным → вывод: IMPORTANT
• Попытка 2:
Модель делает акцент на дружелюбном тоне письма → вывод: NOT IMPORTANT
• Попытка 3:
Модель снова делает вывод, что баг потенциально опасен → вывод: IMPORTANT
📊 Финальный вывод по голосам:
• IMPORTANT — 2 раза
• NOT IMPORTANT — 1 раз
👉 Финальный ответ: IMPORTANT
⸻
🧠 Преимущества:
• Повышает логичность и точность ответов
• Снижает влияние случайности или неудачного рассуждения
• Подходит для задач, где важен однозначный и обоснованный вывод
⸻
⚠️ Минусы:
• Требует больше вычислений (несколько прогонов)
• Увеличивает стоимость и время выполнения
• Нужно обрабатывать несколько ответов и агрегировать
⸻
📎 Вывод:
Когда важна точность вывода, а не просто “что-то ответить” — self-consistency помогает выбрать наиболее разумное решение среди возможных.
🌳 Tree of Thoughts (Дерево размышлений)
⸻
💡 Что это такое?
Tree of Thoughts (ToT) — это техника, где модель не просто идёт по одной цепочке рассуждений, как в Chain of Thought, а исследует сразу несколько возможных путей параллельно, в виде дерева вариантов.
Представь:
• Chain of Thought — это линейное мышление
• Tree of Thoughts — это вариативное мышление, как мозговой штурм с разветвлениями
⸻
🧩 Как это работает:
1. Модель делит решение задачи на шаги (thoughts)
2. Для каждого шага она генерирует несколько возможных вариантов (ветвей дерева)
3. Затем оценивает эти варианты и решает, какие развивать дальше
4. Повторяет процесс, пока не найдёт наилучший путь к решению
⸻
📌 Где полезно:
• Сложные задачи, где один способ мышления не даёт правильный ответ
• Планирование, стратегия, сценарии “а что если”
• Творческие задачи, где надо перебрать несколько подходов
• Анализ с разными условиями, точками зрения, рисками
⸻
🎯 Преимущества:
• Лучше справляется с многовариантными задачами
• Даёт более осознанный и обоснованный результат
• Может использоваться для самооценки и корректировки вывода
⸻
⚠️ Недостатки:
• Требует больше вычислений и ресурсов
• Нужно управлять логикой оценки мыслей/веток (в коде или с помощью правил)
• Пока что не реализуется «в лоб» обычными промптами — нужна дополнительная логика
⸻
🛠️ Пример реализации:
Для ToT часто используют внешний фреймворк, например, LangChain, где вы можете запрограммировать:
• генерацию идей
• оценку каждой ветки
• выбор самой перспективной
• переход на следующий уровень
⸻
📎 Вывод:
Tree of Thoughts — это способ сделать LLM более “мыслящей”, особенно когда задача сложная и не имеет одного очевидного решения. Это модель «исследования решений», как у человека при принятии серьёзных решений.
⸻
💡 Что это такое?
Tree of Thoughts (ToT) — это техника, где модель не просто идёт по одной цепочке рассуждений, как в Chain of Thought, а исследует сразу несколько возможных путей параллельно, в виде дерева вариантов.
Представь:
• Chain of Thought — это линейное мышление
• Tree of Thoughts — это вариативное мышление, как мозговой штурм с разветвлениями
⸻
🧩 Как это работает:
1. Модель делит решение задачи на шаги (thoughts)
2. Для каждого шага она генерирует несколько возможных вариантов (ветвей дерева)
3. Затем оценивает эти варианты и решает, какие развивать дальше
4. Повторяет процесс, пока не найдёт наилучший путь к решению
⸻
📌 Где полезно:
• Сложные задачи, где один способ мышления не даёт правильный ответ
• Планирование, стратегия, сценарии “а что если”
• Творческие задачи, где надо перебрать несколько подходов
• Анализ с разными условиями, точками зрения, рисками
⸻
🎯 Преимущества:
• Лучше справляется с многовариантными задачами
• Даёт более осознанный и обоснованный результат
• Может использоваться для самооценки и корректировки вывода
⸻
⚠️ Недостатки:
• Требует больше вычислений и ресурсов
• Нужно управлять логикой оценки мыслей/веток (в коде или с помощью правил)
• Пока что не реализуется «в лоб» обычными промптами — нужна дополнительная логика
⸻
🛠️ Пример реализации:
Для ToT часто используют внешний фреймворк, например, LangChain, где вы можете запрограммировать:
• генерацию идей
• оценку каждой ветки
• выбор самой перспективной
• переход на следующий уровень
⸻
📎 Вывод:
Tree of Thoughts — это способ сделать LLM более “мыслящей”, особенно когда задача сложная и не имеет одного очевидного решения. Это модель «исследования решений», как у человека при принятии серьёзных решений.
⚙️ ReAct (Reason + Act) — рассуждай и действуй
⸻
💡 Что это такое?
ReAct — это подход, при котором LLM:
1. рассуждает (объясняет, что собирается делать),
2. выполняет действие (например, ищет что-то, запускает инструмент),
3. и повторяет цикл, пока не получит нужный результат.
Это своего рода “AI-агент”, который думает, пробует, пересматривает — как человек.
⸻
🧠 Зачем это нужно?
• ReAct позволяет использовать внешние инструменты: поиск, API, калькуляторы, коды и т.д.
• Модель не просто «выдаёт ответ», а активно работает над задачей:
• формулирует гипотезы
• делает действия (ищет, считает, вызывает код)
• анализирует результат
• и продолжает, если нужно
⸻
📌 Пример из документа:
Задача: Сколько детей у участников группы Metallica?
Сценарий ReAct:
1. 🤔 Thought: “Metallica состоит из 4 участников.”
2. ⚙️ Action: “Ищу: Сколько детей у Джеймса Хэтфилда?”
3. 🔍 Observation: “У него трое детей”
4. 🤔 Thought: “1 из 4 участников — 3 ребёнка”
5. … (аналогично для остальных участников)
6. ✅ Final Answer: “Всего 10 детей”
Модель делает серию действий с промежуточными размышлениями — прямо как аналитик.
⸻
🔗 Технически это делается через LangChain
(или другой фреймворк типа AutoGPT). В коде можно описать, какие инструменты доступны, как их вызывать, как обрабатывать результат.
⸻
⚖️ Плюсы:
• Реальная интерактивность — ИИ ведёт себя как агент, а не просто как «оракул»
• Может разбивать задачи на шаги и проверять гипотезы
• Работает там, где обычный промпт не справляется (например, актуальные данные, сложные вычисления)
⸻
⚠️ Минусы:
• Нужна настройка окружения (доступ к API, инструменты)
• Требует контроля и логики со стороны разработчика
• Может ошибаться в выборе инструментов или шагов
⸻
🤖 Как это работает на практике:
Фреймворк вроде LangChain создаёт так называемого ReAct-агента, которому вы указываете:
• какие инструменты ему доступны (поиск, калькулятор, база данных и т.д.)
• как формировать reasoning (рассуждения) между действиями
• как обрабатывать результат
⸻
📎 Вывод:
ReAct — это переход от «просто LLM» к интерактивному ИИ, который рассуждает и действует. Подходит для построения ботов, агентов-помощников и автоматизации задач, где надо взаимодействовать с внешним миром.
⸻
💡 Что это такое?
ReAct — это подход, при котором LLM:
1. рассуждает (объясняет, что собирается делать),
2. выполняет действие (например, ищет что-то, запускает инструмент),
3. и повторяет цикл, пока не получит нужный результат.
Это своего рода “AI-агент”, который думает, пробует, пересматривает — как человек.
⸻
🧠 Зачем это нужно?
• ReAct позволяет использовать внешние инструменты: поиск, API, калькуляторы, коды и т.д.
• Модель не просто «выдаёт ответ», а активно работает над задачей:
• формулирует гипотезы
• делает действия (ищет, считает, вызывает код)
• анализирует результат
• и продолжает, если нужно
⸻
📌 Пример из документа:
Задача: Сколько детей у участников группы Metallica?
Сценарий ReAct:
1. 🤔 Thought: “Metallica состоит из 4 участников.”
2. ⚙️ Action: “Ищу: Сколько детей у Джеймса Хэтфилда?”
3. 🔍 Observation: “У него трое детей”
4. 🤔 Thought: “1 из 4 участников — 3 ребёнка”
5. … (аналогично для остальных участников)
6. ✅ Final Answer: “Всего 10 детей”
Модель делает серию действий с промежуточными размышлениями — прямо как аналитик.
⸻
🔗 Технически это делается через LangChain
(или другой фреймворк типа AutoGPT). В коде можно описать, какие инструменты доступны, как их вызывать, как обрабатывать результат.
⸻
⚖️ Плюсы:
• Реальная интерактивность — ИИ ведёт себя как агент, а не просто как «оракул»
• Может разбивать задачи на шаги и проверять гипотезы
• Работает там, где обычный промпт не справляется (например, актуальные данные, сложные вычисления)
⸻
⚠️ Минусы:
• Нужна настройка окружения (доступ к API, инструменты)
• Требует контроля и логики со стороны разработчика
• Может ошибаться в выборе инструментов или шагов
⸻
🤖 Как это работает на практике:
Фреймворк вроде LangChain создаёт так называемого ReAct-агента, которому вы указываете:
• какие инструменты ему доступны (поиск, калькулятор, база данных и т.д.)
• как формировать reasoning (рассуждения) между действиями
• как обрабатывать результат
⸻
📎 Вывод:
ReAct — это переход от «просто LLM» к интерактивному ИИ, который рассуждает и действует. Подходит для построения ботов, агентов-помощников и автоматизации задач, где надо взаимодействовать с внешним миром.
🤖 Automatic Prompt Engineering (APE)
Автоматический инжиниринг промптов
⸻
💡 Что это такое?
APE — это подход, при котором сама языковая модель генерирует варианты промптов, а затем:
1. Эти промпты тестируются или оцениваются,
2. Отбираются лучшие,
3. При необходимости — оптимизируются вручную или автоматически.
То есть ты пишешь промпт, который пишет другие промпты
⸻
🔍 Зачем это нужно?
• Ускоряет поиск «удачного» промпта
• Экономит время, особенно при создании чат-ботов, интерфейсов, ассистентов
• Снижает зависимость от человеческого trial-and-error
⸻
📌 Пример из документа:
Контекст:
Ты делаешь чат-бот для магазина футболок с мерчем. Нужно, чтобы он понимал разные формулировки заказа:
Ты хочешь собрать варианты, как люди могут сказать это по-разному.
⸻
📤 Output модели:
1. “Хочу купить футболку Metallica размера S”
2. “Можно заказать Metallica-футболку, размер S?”
3. “Одна маленькая футболка Metallica, пожалуйста”
… и так далее (всего 10 вариантов)
⸻
🧪 Шаг 2. Оценка и отбор:
Можно автоматически оценить полученные фразы с помощью метрик, например:
• BLEU, ROUGE — классические метрики сходства текстов
• Или вручную выбрать те, что проще, универсальнее, понятнее
⸻
🔁 Шаг 3. Итерации:
• Берём лучший вариант → пробуем на нём модель
• Если нужно — тюним формулировку
• Повторяем до получения надёжного промпта
⸻
🧠 В чём сила APE:
• Модель может помочь себе сама
• Особенно полезно при масштабировании промптов:
• для разных языков
• разных типов пользователей
• разных тонов общения (формально, шутливо и т.д.)
⸻
⚠️ Минусы:
• Без чёткого задания модель может генерировать слишком однотипные или бессмысленные варианты
• Требуется оценка — вручную или через скрипт
⸻
📎 Вывод:
Автоматический инжиниринг промптов — это способ использовать LLM как генератор промптов, бустер креатива и ускоритель разработки. Особенно полезен для:
• построения ботов
• обучения моделей
• настройки команд LLM в продуктах и интерфейсах
Автоматический инжиниринг промптов
⸻
💡 Что это такое?
APE — это подход, при котором сама языковая модель генерирует варианты промптов, а затем:
1. Эти промпты тестируются или оцениваются,
2. Отбираются лучшие,
3. При необходимости — оптимизируются вручную или автоматически.
То есть ты пишешь промпт, который пишет другие промпты
⸻
🔍 Зачем это нужно?
• Ускоряет поиск «удачного» промпта
• Экономит время, особенно при создании чат-ботов, интерфейсов, ассистентов
• Снижает зависимость от человеческого trial-and-error
⸻
📌 Пример из документа:
Контекст:
Ты делаешь чат-бот для магазина футболок с мерчем. Нужно, чтобы он понимал разные формулировки заказа:
“Одна футболка Metallica, размер S”
Ты хочешь собрать варианты, как люди могут сказать это по-разному.
⸻
У нас есть веб-магазин футболок с мерчем.
Нужно 10 вариантов фразы "Одна футболка Metallica, размер S",
которые говорят то же самое, но другими словами.
📤 Output модели:
1. “Хочу купить футболку Metallica размера S”
2. “Можно заказать Metallica-футболку, размер S?”
3. “Одна маленькая футболка Metallica, пожалуйста”
… и так далее (всего 10 вариантов)
⸻
🧪 Шаг 2. Оценка и отбор:
Можно автоматически оценить полученные фразы с помощью метрик, например:
• BLEU, ROUGE — классические метрики сходства текстов
• Или вручную выбрать те, что проще, универсальнее, понятнее
⸻
🔁 Шаг 3. Итерации:
• Берём лучший вариант → пробуем на нём модель
• Если нужно — тюним формулировку
• Повторяем до получения надёжного промпта
⸻
🧠 В чём сила APE:
• Модель может помочь себе сама
• Особенно полезно при масштабировании промптов:
• для разных языков
• разных типов пользователей
• разных тонов общения (формально, шутливо и т.д.)
⸻
⚠️ Минусы:
• Без чёткого задания модель может генерировать слишком однотипные или бессмысленные варианты
• Требуется оценка — вручную или через скрипт
⸻
📎 Вывод:
Автоматический инжиниринг промптов — это способ использовать LLM как генератор промптов, бустер креатива и ускоритель разработки. Особенно полезен для:
• построения ботов
• обучения моделей
• настройки команд LLM в продуктах и интерфейсах
💻 Промпты для работы с кодом
(Code Prompting)
Этот раздел показывает, как использовать LLM для работы с программным кодом — не только генерации, но и объяснения, перевода, отладки.
⸻
🧑💻 1. Промпты для написания кода
Ты описываешь задачу — модель пишет код.
Пример промпта:
Рекомендации:
• Будь максимально конкретным: язык, библиотеки, стиль кода
• Можно указать формат вывода: “Выводи только код, без комментариев”
⸻
📖 2. Промпты для объяснения кода
Ты вставляешь код и просишь объяснение:
Также можно просить:
• объяснить, как работает функция/алгоритм
• упростить объяснение для новичка
• сделать комментарии внутри кода
⸻
🔄 3. Промпты для перевода кода
Перевод из одного языка в другой (например, Java → Python)
❗ Советы:
• Указывай особенности перевода: синтаксис, стиль, фреймворк
• Уточняй, если хочешь сохранить архитектуру или адаптировать под стиль языка
⸻
🛠️ 4. Промпты для отладки и ревью кода
Ты просишь модель найти баг, улучшить стиль, оптимизировать:
Примеры:
Также можно:
• попросить предложить тесты (unit tests)
• объяснить, почему возникает определённая ошибка
⸻
🔍 Рекомендации:
• Если модель генерирует слишком много «болтовни» — скажи:
👉 “Отвечай только кодом без объяснений”
• Для сложных задач лучше использовать few-shot prompting:
сначала пример → потом твоя задача
• Если код многослойный — используй Chain of Thought:
“Разбери по шагам, где может быть ошибка, потом предложи исправление.”
⸻
📎 Вывод:
LLM может выступать как кодогенератор, учитель, ревьюер и переводчик. Всё зависит от того, насколько чётко и конкретно ты сформулируешь промпт.
(Code Prompting)
Этот раздел показывает, как использовать LLM для работы с программным кодом — не только генерации, но и объяснения, перевода, отладки.
⸻
🧑💻 1. Промпты для написания кода
Ты описываешь задачу — модель пишет код.
Пример промпта:
Напиши Python-скрипт, который принимает список чисел и возвращает список только чётных чисел.
Рекомендации:
• Будь максимально конкретным: язык, библиотеки, стиль кода
• Можно указать формат вывода: “Выводи только код, без комментариев”
⸻
📖 2. Промпты для объяснения кода
Ты вставляешь код и просишь объяснение:
Объясни, что делает следующий код строка за строкой:
<вставь код>
Также можно просить:
• объяснить, как работает функция/алгоритм
• упростить объяснение для новичка
• сделать комментарии внутри кода
⸻
🔄 3. Промпты для перевода кода
Перевод из одного языка в другой (например, Java → Python)
Переведи следующий код с Java на Python:
<код>
❗ Советы:
• Указывай особенности перевода: синтаксис, стиль, фреймворк
• Уточняй, если хочешь сохранить архитектуру или адаптировать под стиль языка
⸻
🛠️ 4. Промпты для отладки и ревью кода
Ты просишь модель найти баг, улучшить стиль, оптимизировать:
Примеры:
Найди ошибки в этом коде и предложи исправления:
<код>
Сделай ревью этого Python-кода по стандартам PEP8.
Оптимизируй этот SQL-запрос для больших таблиц.
Также можно:
• попросить предложить тесты (unit tests)
• объяснить, почему возникает определённая ошибка
⸻
🔍 Рекомендации:
• Если модель генерирует слишком много «болтовни» — скажи:
👉 “Отвечай только кодом без объяснений”
• Для сложных задач лучше использовать few-shot prompting:
сначала пример → потом твоя задача
• Если код многослойный — используй Chain of Thought:
“Разбери по шагам, где может быть ошибка, потом предложи исправление.”
⸻
📎 Вывод:
LLM может выступать как кодогенератор, учитель, ревьюер и переводчик. Всё зависит от того, насколько чётко и конкретно ты сформулируешь промпт.
🧠🖼️ 12. А как насчёт мультимодальных промптов?
⸻
💡 Что это такое?
Мультимодальный prompting — это когда в одном промпте используются разные типы данных, например:
• 📝 текст
• 🖼️ изображение
• 🔊 аудио
• 📊 графики, таблицы
• 📍 документы, PDF и т.д.
Это позволяет LLM (или мультимодальной модели вроде Gemini, GPT-4V, Claude 3) анализировать и комбинировать разные источники информации, чтобы дать более точный или полезный ответ.
⸻
📌 Примеры задач:
🖼️ + 📝 Понимание изображений:
📊 Анализ таблиц:
🔡 Извлечение текста из скриншота или PDF:
📷 + 🔍 UI-дизайн:
⸻
⚙️ Что умеют мультимодальные модели:
• Распознавать визуальные объекты
• Извлекать текст с картинок (OCR)
• Комментировать и сравнивать изображения
• Анализировать документы
• Генерировать подписи, объяснения, резюме
⸻
🔧 Пример промпта в Gemini (или GPT-4V)
⚠️ Ограничения:
• Не все модели на сегодня поддерживают все типы модальностей
• Точность понимания изображений или таблиц пока хуже, чем у текста
• Возможности сильно зависят от инструмента и API (например, Gemini API, ChatGPT с GPT-4V)
⸻
📎 Вывод:
Мультимодальные промпты расширяют границы возможностей ИИ.
Теперь можно решать задачи, которые раньше требовали человека:
визуальный анализ, просмотр документов, UX-аудит, расшифровка рукописей — всё это становится доступно прямо в одном запросе.
⸻
💡 Что это такое?
Мультимодальный prompting — это когда в одном промпте используются разные типы данных, например:
• 📝 текст
• 🖼️ изображение
• 🔊 аудио
• 📊 графики, таблицы
• 📍 документы, PDF и т.д.
Это позволяет LLM (или мультимодальной модели вроде Gemini, GPT-4V, Claude 3) анализировать и комбинировать разные источники информации, чтобы дать более точный или полезный ответ.
⸻
📌 Примеры задач:
🖼️ + 📝 Понимание изображений:
Посмотри на изображение ниже. Есть ли на нём признаки повреждения конструкции?
<вставка изображения>
📊 Анализ таблиц:
Что можно сказать о динамике продаж по этой таблице?
<таблица или скриншот>
🔡 Извлечение текста из скриншота или PDF:
Извлеки текст из этого PDF и составь краткое резюме.
<файл>
📷 + 🔍 UI-дизайн:
Проанализируй интерфейс на этом скриншоте и предложи UX-улучшения.
⸻
⚙️ Что умеют мультимодальные модели:
• Распознавать визуальные объекты
• Извлекать текст с картинок (OCR)
• Комментировать и сравнивать изображения
• Анализировать документы
• Генерировать подписи, объяснения, резюме
⸻
🔧 Пример промпта в Gemini (или GPT-4V)
Это скан договора. Укажи, какие ключевые условия в нём содержатся и есть ли риски.
<документ>
⚠️ Ограничения:
• Не все модели на сегодня поддерживают все типы модальностей
• Точность понимания изображений или таблиц пока хуже, чем у текста
• Возможности сильно зависят от инструмента и API (например, Gemini API, ChatGPT с GPT-4V)
⸻
📎 Вывод:
Мультимодальные промпты расширяют границы возможностей ИИ.
Теперь можно решать задачи, которые раньше требовали человека:
визуальный анализ, просмотр документов, UX-аудит, расшифровка рукописей — всё это становится доступно прямо в одном запросе.
🔧 13. Best Practices — Лучшие практики при создании промптов
⸻
✅ 1. Приводите примеры (Few-shot)
Модель работает лучше, когда видит пример того, чего вы хотите. Даже один пример помогает задать структуру вывода.
⸻
✂️ 2. Принцип “чем проще — тем лучше”
Избегай сложных конструкций. Пиши чётко, коротко, по делу.
Чем яснее запрос → тем яснее ответ.
⸻
🎯 3. Будьте конкретны насчёт ожидаемого вывода
Хочешь список? — скажи “Дай список”.
Хочешь JSON? — скажи “Верни результат в формате JSON”.
Формулируй прямо, чего ты хочешь на выходе.
⸻
🧾 4. Используйте инструкции, а не запреты
🚫 Плохо: “Не используй сложные слова”
✅ Лучше: “Объясни простыми словами, как для новичка”
Модели лучше следуют позитивным указаниям, чем запретам.
⸻
📏 5. Управляйте длиной вывода
Хочешь кратко? Скажи:
“Ответь в одном абзаце.”
“Не больше 3 пунктов.”
“Один абзац по 2–3 предложения.”
⸻
🔤 6. Используйте переменные в шаблонах
Создавай универсальные промпты с заполнительными частями:
Это удобно для автоматизации.
⸻
🧪 7. Экспериментируйте с форматами и стилями
Один и тот же запрос можно подать по-разному:
• как инструкция
• как вопрос
• как игра или роль
• как шаблон
Разные подачи дают разные результаты.
⸻
🔄 8. В классификации — перемешивайте порядок классов
Если ты обучаешь модель выбирать из вариантов (A, B, C),
не всегда ставь их в одном порядке — это снижает предвзятость.
⸻
⚠️ 9. Следи за обновлением моделей
После апдейта GPT, Gemini или Claude — промпты могут вести себя иначе.
Периодически перепроверяй свои старые шаблоны.
⸻
📤 10. Экспериментируйте с форматами вывода
Иногда лучший результат — не текст, а:
• таблица
• JSON
• маркдаун
• схема
→ Уточняй нужный формат, и модель подстроится.
⸻
📎 Вывод:
Хороший промпт — это не магия, а проектирование.
Это как UI-дизайн, но для взаимодействия с ИИ: чем яснее, проще и понятнее ты формулируешь задачу,
тем умнее и полезнее будет ответ.
⸻
✅ 1. Приводите примеры (Few-shot)
Модель работает лучше, когда видит пример того, чего вы хотите. Даже один пример помогает задать структуру вывода.
⸻
✂️ 2. Принцип “чем проще — тем лучше”
Избегай сложных конструкций. Пиши чётко, коротко, по делу.
Чем яснее запрос → тем яснее ответ.
⸻
🎯 3. Будьте конкретны насчёт ожидаемого вывода
Хочешь список? — скажи “Дай список”.
Хочешь JSON? — скажи “Верни результат в формате JSON”.
Формулируй прямо, чего ты хочешь на выходе.
⸻
🧾 4. Используйте инструкции, а не запреты
🚫 Плохо: “Не используй сложные слова”
✅ Лучше: “Объясни простыми словами, как для новичка”
Модели лучше следуют позитивным указаниям, чем запретам.
⸻
📏 5. Управляйте длиной вывода
Хочешь кратко? Скажи:
“Ответь в одном абзаце.”
“Не больше 3 пунктов.”
“Один абзац по 2–3 предложения.”
⸻
🔤 6. Используйте переменные в шаблонах
Создавай универсальные промпты с заполнительными частями:
Проведи анализ рисков для контракта в сфере {отрасль}, сумма — {сумма}, срок — {дата}.
Это удобно для автоматизации.
⸻
🧪 7. Экспериментируйте с форматами и стилями
Один и тот же запрос можно подать по-разному:
• как инструкция
• как вопрос
• как игра или роль
• как шаблон
Разные подачи дают разные результаты.
⸻
🔄 8. В классификации — перемешивайте порядок классов
Если ты обучаешь модель выбирать из вариантов (A, B, C),
не всегда ставь их в одном порядке — это снижает предвзятость.
⸻
⚠️ 9. Следи за обновлением моделей
После апдейта GPT, Gemini или Claude — промпты могут вести себя иначе.
Периодически перепроверяй свои старые шаблоны.
⸻
📤 10. Экспериментируйте с форматами вывода
Иногда лучший результат — не текст, а:
• таблица
• JSON
• маркдаун
• схема
→ Уточняй нужный формат, и модель подстроится.
⸻
📎 Вывод:
Хороший промпт — это не магия, а проектирование.
Это как UI-дизайн, но для взаимодействия с ИИ: чем яснее, проще и понятнее ты формулируешь задачу,
тем умнее и полезнее будет ответ.
🧰 14. JSON Repair — автоматическая корректировка JSON-моделей
⸻
💡 Что это такое?
Когда ты просишь LLM вернуть результат в формате JSON, иногда она делает это с ошибками:
• пропущенные кавычки или запятые
• неправильная вложенность
• несовместимость с парсерами
⚠️ Особенно часто такое случается при длинных или сложных промптах.
JSON Repair — это техника (и набор практик), чтобы:
1. Сделать JSON-вывод корректным
2. Автоматически исправлять ошибки форматирования
3. Повысить надёжность при использовании модели в продакшене
⸻
🧪 Как это делается:
✅ Способ 1: Явный формат + инструкции
Добавь в промпт строгие указания:
✅ Способ 2: Укажи ожидаемую схему
Пример:
LLM старается подстроиться под шаблон.
⸻
🧑💻 Способ 3: Использовать “JSON Repair” алгоритмы после вывода
Если ты получаешь JSON с ошибкой — можно:
• либо повторно прогнать через LLM с промптом:
"Исправь этот JSON и верни валидный JSON:"
• либо использовать библиотеку (например, в Python: jsonrepair, dirtyjson и т.п.)
⸻
🛠️ Пример использования в коде:
🤖 Подход через саму модель (в промпте)
→ Модель часто сама чинит структуру, если дать ей понять, что от неё требуется.
⸻
📎 Вывод:
Работа с JSON — один из ключевых сценариев для интеграции LLM в продукты.
JSON Repair помогает:
• избежать падения кода
• сократить ошибки API
• сделать промпты надёжнее в продакшене
⸻
💡 Что это такое?
Когда ты просишь LLM вернуть результат в формате JSON, иногда она делает это с ошибками:
• пропущенные кавычки или запятые
• неправильная вложенность
• несовместимость с парсерами
⚠️ Особенно часто такое случается при длинных или сложных промптах.
JSON Repair — это техника (и набор практик), чтобы:
1. Сделать JSON-вывод корректным
2. Автоматически исправлять ошибки форматирования
3. Повысить надёжность при использовании модели в продакшене
⸻
🧪 Как это делается:
✅ Способ 1: Явный формат + инструкции
Добавь в промпт строгие указания:
Ответь строго в формате JSON. Не добавляй никаких пояснений, комментариев, текста до или после.
✅ Способ 2: Укажи ожидаемую схему
Пример:
Ответ должен быть в следующем формате:
{
"имя": "string",
"возраст": number,
"профессия": "string"
}
LLM старается подстроиться под шаблон.
⸻
🧑💻 Способ 3: Использовать “JSON Repair” алгоритмы после вывода
Если ты получаешь JSON с ошибкой — можно:
• либо повторно прогнать через LLM с промптом:
"Исправь этот JSON и верни валидный JSON:"
• либо использовать библиотеку (например, в Python: jsonrepair, dirtyjson и т.п.)
⸻
🛠️ Пример использования в коде:
from json_repair import repair_json
broken_json = """{ "name": "Alice", "age": 30, }"""
fixed = repair_json(broken_json)
print(fixed)
# → {"name": "Alice", "age": 30}
🤖 Подход через саму модель (в промпте)
Вот повреждённый JSON. Верни валидную версию:
<вставить ошибочный JSON>
→ Модель часто сама чинит структуру, если дать ей понять, что от неё требуется.
⸻
📎 Вывод:
Работа с JSON — один из ключевых сценариев для интеграции LLM в продукты.
JSON Repair помогает:
• избежать падения кода
• сократить ошибки API
• сделать промпты надёжнее в продакшене
📐 15. Работа со схемами (Schemas)
⸻
💡 Что такое схема?
Схема (schema) — это структурное описание данных, которое определяет:
• какие поля есть в JSON/объекте,
• каких они типов,
• что обязательно, что опционально,
• какие значения допустимы.
Примеры форматов схем:
• JSON Schema
• Pydantic (в Python)
• OpenAPI
• Data classes
• Proto / gRPC
⸻
🧠 Зачем использовать схемы при работе с LLM?
📦 Если ты просишь LLM вернуть данные в виде структуры (например, JSON или словаря), то:
• Схема помогает объяснить модели, как должен выглядеть результат
• Снижает вероятность ошибок, делает вывод предсказуемым
• Легче валидировать и использовать в API, приложениях, коде
⸻
📌 Как использовать схемы в промптах:
✅ Способ 1: Встроить схему прямо в промпт
✅ Способ 2: Объяснить, для чего нужна структура
🤖 LLM как валидатор?
Ты можешь просить модель сама проверить соответствие схеме:
🛠️ Дополнительно в разработке:
• В библиотеках вроде LangChain, LlamaIndex, Vertex AI ты можешь:
• задать схему через Pydantic или JSON Schema
• связать это с генерацией промптов
• автоматически парсить, валидировать и обрабатывать результат от модели
⸻
📎 Вывод:
Работа со схемами превращает LLM из «болтливого помощника» в надёжный интерфейс к структурам данных.
Это особенно важно в продакшене, где результат должен быть:
• предсказуем,
• валиден,
• готов к передаче дальше (в базу, API, UI и т.п.)
⸻
💡 Что такое схема?
Схема (schema) — это структурное описание данных, которое определяет:
• какие поля есть в JSON/объекте,
• каких они типов,
• что обязательно, что опционально,
• какие значения допустимы.
Примеры форматов схем:
• JSON Schema
• Pydantic (в Python)
• OpenAPI
• Data classes
• Proto / gRPC
⸻
🧠 Зачем использовать схемы при работе с LLM?
📦 Если ты просишь LLM вернуть данные в виде структуры (например, JSON или словаря), то:
• Схема помогает объяснить модели, как должен выглядеть результат
• Снижает вероятность ошибок, делает вывод предсказуемым
• Легче валидировать и использовать в API, приложениях, коде
⸻
📌 Как использовать схемы в промптах:
✅ Способ 1: Встроить схему прямо в промпт
Верни результат строго в формате:
{
"имя": string,
"возраст": number,
"навыки": [string]
}
✅ Способ 2: Объяснить, для чего нужна структура
Ты помогаешь заполнить объект пользователя для API.
Вот структура:
- name: строка
- age: число
- tags: список интересов (строки)
Создай пример объекта для пользователя "Алексей, 31 год, любит юриспруденцию и ИИ".
🤖 LLM как валидатор?
Ты можешь просить модель сама проверить соответствие схеме:
Проверь, соответствует ли этот JSON следующей схеме.
Если нет — укажи, что не так:
<схема>
<json>
🛠️ Дополнительно в разработке:
• В библиотеках вроде LangChain, LlamaIndex, Vertex AI ты можешь:
• задать схему через Pydantic или JSON Schema
• связать это с генерацией промптов
• автоматически парсить, валидировать и обрабатывать результат от модели
⸻
📎 Вывод:
Работа со схемами превращает LLM из «болтливого помощника» в надёжный интерфейс к структурам данных.
Это особенно важно в продакшене, где результат должен быть:
• предсказуем,
• валиден,
• готов к передаче дальше (в базу, API, UI и т.п.)
🧑🤝🧑 16. Экспериментируйте вместе с другими инженерами промптов
⸻
💡 Суть идеи:
Создание промптов — это не одиночная игра, а скорее коллективное ремесло.
Если ты хочешь быстро расти как специалист по LLM или просто научиться лучше использовать ИИ — общайся, тестируй и делись опытом с другими.
⸻
📚 Зачем это нужно:
• Ты быстрее находишь рабочие формулировки
• Видишь, как разные люди подходят к одной и той же задаче
• Получаешь обратную связь на свои промпты
• Учишься структурировать промпты по задачам и сравнивать варианты
⸻
🛠️ Форматы сотрудничества:
• 👥 Форумы и комьюнити:
Reddit (r/LocalLLaMA, r/PromptEngineering), Discord, Slack, Telegram
• 💬 Разбор промптов:
Бери промпт другого человека → попробуй улучшить
Делай свой промпт → попроси других протестировать
• 📋 Шаблоны и библиотеки:
Обменивайся шаблонами промптов, делай коллекции под задачи:
контент, код, юридические документы, UX и т.д.
• 🧪 Совместные тесты:
Одна задача → много промптов → сравниваем результаты и метрики
Это особенно полезно при работе в команде или с клиентами
⸻
🤝 Пример задачи на совместную разработку:
“Нам нужно, чтобы модель заполняла шаблон трудового договора в стиле legal design.”
Один участник пишет структуру, другой — текстовку, третий — формулирует промпт.
⸻
📎 Вывод:
🔥 «Промпт становится лучше тогда, когда над ним думали несколько человек».
Ты не обязан всё изобретать сам. Вдохновляйся чужими подходами, адаптируй под себя, делись своими находками — и будешь расти как инженер промптов или эксперт в своей сфере.
⸻
💡 Суть идеи:
Создание промптов — это не одиночная игра, а скорее коллективное ремесло.
Если ты хочешь быстро расти как специалист по LLM или просто научиться лучше использовать ИИ — общайся, тестируй и делись опытом с другими.
⸻
📚 Зачем это нужно:
• Ты быстрее находишь рабочие формулировки
• Видишь, как разные люди подходят к одной и той же задаче
• Получаешь обратную связь на свои промпты
• Учишься структурировать промпты по задачам и сравнивать варианты
⸻
🛠️ Форматы сотрудничества:
• 👥 Форумы и комьюнити:
Reddit (r/LocalLLaMA, r/PromptEngineering), Discord, Slack, Telegram
• 💬 Разбор промптов:
Бери промпт другого человека → попробуй улучшить
Делай свой промпт → попроси других протестировать
• 📋 Шаблоны и библиотеки:
Обменивайся шаблонами промптов, делай коллекции под задачи:
контент, код, юридические документы, UX и т.д.
• 🧪 Совместные тесты:
Одна задача → много промптов → сравниваем результаты и метрики
Это особенно полезно при работе в команде или с клиентами
⸻
🤝 Пример задачи на совместную разработку:
“Нам нужно, чтобы модель заполняла шаблон трудового договора в стиле legal design.”
Один участник пишет структуру, другой — текстовку, третий — формулирует промпт.
⸻
📎 Вывод:
🔥 «Промпт становится лучше тогда, когда над ним думали несколько человек».
Ты не обязан всё изобретать сам. Вдохновляйся чужими подходами, адаптируй под себя, делись своими находками — и будешь расти как инженер промптов или эксперт в своей сфере.
📅 Пятница. 8:25 утра.
Я только пришёл на работу, открыл ноутбук, собирался накидать план на день.
И тут — Telegram-уведомление от Глеба.
Он переслал пост из какого-то техно-канала. Подпись:
«Гугл опять дропнули вот штуку»
(цитата из оригинального поста — орфография сохранена 😄)
📎 Вложение — PDF-документ Prompt Engineering от Lee Boonstra.
Английский знаю, но 60 страниц утром пятницы за 15 минут— не лучший тайминг.
Решаю: закину в ChatGPT, прошу перевести.
С первых страниц становится ясно — вещь годная.
Про то, как писать эффективные промпты, использовать ИИ в работе, ускорять рутину и автоматизировать работу с GPT.
📢 Так появился этот канал — «Технологии для юриста»
Честно говоря, изначально он задумывался просто как место, куда мы можем скидывать полезные штуки по LegalTech, ИИ и технологиям, которые попадаются в работе.
Чтобы не терялись в закладках, переписках и черновиках.
👨⚖️Авторы канала — юристы: Леша и Глеб. Не разработчики.
Но технологии — уже часть нашей профессии.
Они реально помогают: в организации процессов, анализе информации, визуализации, написании документов.
И вот мы подумали — а что, если всё, что мы накапливаем,
систематизировать и превратить в продукт?
📌 Возможно, это будет просто база знаний, которой удобно пользоваться.
А может — что-то большее: бот с ИИ, который будет искать нужное, помогать и напоминать.
Пока сами не знаем, во что это вырастет — но точно будет полезно хотя бы нам.
🧠 Что здесь будет?
📚 Посты по направлениям:
#LegalTech — ИИ, боты, поисковики, автоматизация
#LegalDesign — оформление, визуализация, понятные документы
#Proуправление — юр-менеджмент, процессы, подходы (системный взгляд Глеба)
#Agile_in_law — гибкие методы в юр-среде
#Соцсети — Telegram, TikTok и продвижение для юристов
(дальше, возможно, появятся и другие темы — посмотрим по ходу)
🧪 Блог-рубрика: как мы делаем продукт
Мы решили попробовать собрать базу знаний + сделать помощника-бота.
💬 Будем честно рассказывать, как мы — юристы без технического бэкграунда — пробуем создать полезный инструмент. Что получается, где тупим, с чем сталкиваемся.
Если тебе близка идея быть в профессии, но на шаг ближе к технологиям — присоединяйся.
Я только пришёл на работу, открыл ноутбук, собирался накидать план на день.
И тут — Telegram-уведомление от Глеба.
Он переслал пост из какого-то техно-канала. Подпись:
«Гугл опять дропнули вот штуку»
(цитата из оригинального поста — орфография сохранена 😄)
📎 Вложение — PDF-документ Prompt Engineering от Lee Boonstra.
Английский знаю, но 60 страниц утром пятницы за 15 минут— не лучший тайминг.
Решаю: закину в ChatGPT, прошу перевести.
С первых страниц становится ясно — вещь годная.
Про то, как писать эффективные промпты, использовать ИИ в работе, ускорять рутину и автоматизировать работу с GPT.
📢 Так появился этот канал — «Технологии для юриста»
Честно говоря, изначально он задумывался просто как место, куда мы можем скидывать полезные штуки по LegalTech, ИИ и технологиям, которые попадаются в работе.
Чтобы не терялись в закладках, переписках и черновиках.
👨⚖️Авторы канала — юристы: Леша и Глеб. Не разработчики.
Но технологии — уже часть нашей профессии.
Они реально помогают: в организации процессов, анализе информации, визуализации, написании документов.
И вот мы подумали — а что, если всё, что мы накапливаем,
систематизировать и превратить в продукт?
📌 Возможно, это будет просто база знаний, которой удобно пользоваться.
А может — что-то большее: бот с ИИ, который будет искать нужное, помогать и напоминать.
Пока сами не знаем, во что это вырастет — но точно будет полезно хотя бы нам.
🧠 Что здесь будет?
📚 Посты по направлениям:
#LegalTech — ИИ, боты, поисковики, автоматизация
#LegalDesign — оформление, визуализация, понятные документы
#Proуправление — юр-менеджмент, процессы, подходы (системный взгляд Глеба)
#Agile_in_law — гибкие методы в юр-среде
#Соцсети — Telegram, TikTok и продвижение для юристов
(дальше, возможно, появятся и другие темы — посмотрим по ходу)
🧪 Блог-рубрика: как мы делаем продукт
Мы решили попробовать собрать базу знаний + сделать помощника-бота.
💬 Будем честно рассказывать, как мы — юристы без технического бэкграунда — пробуем создать полезный инструмент. Что получается, где тупим, с чем сталкиваемся.
Если тебе близка идея быть в профессии, но на шаг ближе к технологиям — присоединяйся.
🔥7👍2👏2
Технологии для юриста pinned «📅 Пятница. 8:25 утра. Я только пришёл на работу, открыл ноутбук, собирался накидать план на день. И тут — Telegram-уведомление от Глеба. Он переслал пост из какого-то техно-канала. Подпись: «Гугл опять дропнули вот штуку» (цитата из оригинального поста — орфография…»
Несколько месяцев назад я сел писать внутреннюю инструкцию по информационной безопасности - после того, как в очередной раз увидел, как материалы по делу спокойно лежат в принтере, пока кто-то не вспомнит о них час спустя. Таких мелочей накопилось достаточно, чтобы стало понятно: то, что мы считаем рабочей рутиной, на самом деле - источник рисков. Особенно в юридической практике:
- документы остаются в принтере у входа без присмотра, а в конце рабочего дня аккуратно валяются на рабочем столе,
- у всех доступ ко всему в облаке - просто потому что так удобнее,
- рабочие файлы - на флешках и жёстких дисках без элементарного пароля,
- переписка - с личной почты,
- работа с документами - с личного ноутбука,
- экран компьютера не блокируется никогда…
Список можно продолжать.
При этом, пока собирал материал, понял: чтобы закрыть большинство уязвимостей, не нужны большие бюджеты. Нужно просто навести порядок и договориться о правилах.
Вот что можно сделать почти (!) без боли и бюджета:
Корпоративные инструменты - по умолчанию
- Вся переписка и документы - только через корпоративную почту.
- Личные аккаунты, мессенджеры, облачные хранилища - не для работы (должна быть корпоративная связь).
- Сотрудники не должны использовать личные ноутбуки и домашние ПК! Точка.
Хранение документов
- Вся работа ведётся в корпоративном облаке.
- Доступ - по ролям, сотрудники видят только то что им необходимо по работе.
- Работа вне офиса - удалённый доступ к рабочему серверу осуществляется через VPN и двухфакторную аутентификацию. Рабочая среда запускается на сервере, локально ничего не хранится.
Резервное копирование и шифрование
- Бэкап - раз в месяц, автоматически (в том числе переносимых носителей информации).
- Все переносные носители (флешки, HDD, SSD) - обязательно шифруются.
Пароли и учётки
- Один пароль - одна система.
- Только сложные пароли (буквы, цифры, символы, 10+ символов).
- Смена паролей - 1 раз в 3 месяца или сразу после увольнения любого сотрудника.
Автоблокировка
- Все устройства блокируются через 5 минут бездействия.
- PIN, пароль или биометрия - на каждом устройстве.
📄 3. Офлайн-безопасность
Работа с бумагами
- Документы не выносятся без необходимости.
- Транспортировка документов - такси или личный авто.
- Черновики - сразу в шредер.
Офис и принтеры
- В конце дня на столах не должно оставаться документов.
- Принтеры не служат временным хранилищем документов: напечатал - сразу забери.
- Кабинеты с чувствительными документами — закрываются.
- Потеряли устройство, файл, флешку — сразу сообщите IT и руководству.
- Подозрительная активность — фиксируется и анализируется.
- Аудит доступа 1 раз в квартал: кто к чему имеет доступ и зачем.
Информационная безопасность - это не про отдел информационной безопасности, дорогое оборудование, фаерволы и огромные бюджеты.
Это про самодисциплину и уважение к своей профессии.
#Юр_Инфобез #LegalTech
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4
Как понять, что ИИ действительно полезен юристу
Дать ему прочитать обзор ВС по банкротству и попросить сделать из него внятную выжимку.
Мы протестировали три модели/сервиса - ChatGPT, DeepSeek и Perplexity - и дали им одну и ту же задачу.
Результат удивил
Важно понимать: ИИ - это не волшебная палочка, а набор разных инструментов.
И задача - выбрать тот, который подходит под конкретную цель.
Для сравнения мы взяли три модели: ChatGPT, DeepSeek, Perplexity - и дали всем одну задачу:
Промпт:
Сделай шортрид из этого текста, он должен быть структурирован и содержать основные выводы
1. Структурированность
2. Полнота охвата
3. Юридическая точность
4. Готовность к публикации
5. Стиль
Обзор сделал, не с первой попытки, но разобрался:
• Восстановил структуру документа
• Уловил ключевые позиции ВС
• Без существенных искажений
• Требуется контекст
• Объективно - на уровне хорошего черновика
Рабочий инструмент, особенно если дать контекст, направить и подредактировать
Стоит отметить: при первом использовании дал худший результат, спустя неделю - сильно улучшились результаты
Сделал хорошо, но не идеально:
• Уловил структуру, разбил на ключевые блоки
• Правильно отразил большую часть позиций из документа, есть фактические ошибки
• Формулировки - четкие, но немного тяжеловесные
• Без контекста справился лучше остальных
Уверенный инструмент, если нужен бесплатный помощник для чтения и резюмирования
Поиск с интеллектом (база - GPT-4), но слабо:
• Дает слабоструктурированную выжимку, без глубины
• Улавливает суть, но местами путается
• Теряет часть информации
• Есть фактические ошибки
• Не выстраивает цельную картинку
Можно использовать как стартовую точку для поиска и исследования
ИТОГ:
ChatGPT - универсальный помощник, хорош для писем, черновиков, первичного анализа
Perplexity - поиск, резюме, факт-чекинг
DeepSeek - первичный быстрый анализ документа
Ниже выложим ответы, которые дали все три сервиса
#LegalTech
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍4❤1
Ответы ИИ 1.0.pdf
145.4 KB
#LegalTech
Технологии для юриста
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Обзор судебной ВС РФ за 2024 год.pdf
446.6 KB
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Как юристу правильно писать запросы для ChatGPT (и наконец получить нормальный ответ)
Если ты уже пробовал написать в ChatGPT что-то вроде "расскажи про договор" - скорее всего, получил воду: общее, ни о чём, с кучей лишнего.
Нормально. Почти у всех так.
Часто дело не в ИИ, а в запросе.
Промпт - это инструкция.
А без внятного ТЗ…
➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖
🧠 5 простых правил, которые реально работают:
1. Начни с глагола действия
📎 "Составь договор…", "Разбей по пунктам…", "Оцени риски…", «Объясни…"
❌ Не надо: "Расскажи про права работника". Это как "Погугли что-нибудь".
➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖
2. Укажи роль
Кто ты? Кто должен “говорить”?
📌 "Напиши как юрист банка"
📌 "Представь, что ты in-house юрист"
📌 "Отвечай как помощник адвоката"
➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖
3. Дай контекст (Кому и зачем?)
📌 "Текст для клиента - объясни простым языком"
📌 "Пояснение для внутреннего отчёта"
📌 "Письмо для руководителя с предложением изменений в договор"
📌 "Пояснения по делу для арбитражного суда России"
➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖
4. Сразу задай формат
Нужен список, таблица, письмо, чек-лист? Напиши это. Не жди, что ИИ сам догадается:
📌 "Ответ - в виде таблицы"
📌 "Сделай краткий список с пояснениями"
📌 "Подготовь драфт письма клиенту"
📌 "Подготовь информацию в виде тезисов в защиту моей позиции"
➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖
5. Уточни стиль и глубину
📌 "Пиши официально, как для регулятора"
📌 "Просто, для клиента, без лишней терминологии"
📌 "Для начинающего юриста - объясни пошагово"
📌 "Пиши уверенно, с некоторым давлением, письмо для контрагента, который просрочил оплату по договору"
➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖
🔥 Дополнительно:
🗂️ Прикрепи нужные данные
Закон, договор, решение суда - вставь прямо в промпт.
ИИ лучше работает с конкретикой, а не по памяти.
📝 Работай по шагам
Декомпозируй сложную задачу:
1. "Раздели договор на блоки"
2. "Проанализируй блок 3"
3. "Предложи правки и выдели риски"
✉️ Уточняй
📌 "Ты не разобрал 3 пункт - обрати внимание"
📌 "Добавь примеры"
📌 "Сократи текст"
📌 "Где могут быть ошибки?"
📌 "Обрати внимание на этот источник"
🔒 Обезличивай данные
Убирай ФИО, адреса, реквизиты.
Не вставляй чувствительные данные в открытый ИИ - особенно без корпоративной лицензии.
➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖ ➖
✉️ Вывод:
ИИ не заменит юриста.
Но с правильным запросом - сэкономит тебе часы рутинной работы.
А это, как ты знаешь, уже половина дела.
Ниже прикрепляем PDF который вы можете забрать и использовать как памятку.
#LegalTech #Prompting
➖ ➖➖➖➖➖➖➖➖➖
Технологии для юриста
Если ты уже пробовал написать в ChatGPT что-то вроде "расскажи про договор" - скорее всего, получил воду: общее, ни о чём, с кучей лишнего.
Нормально. Почти у всех так.
Часто дело не в ИИ, а в запросе.
Промпт - это инструкция.
А без внятного ТЗ…
1. Начни с глагола действия
2. Укажи роль
Кто ты? Кто должен “говорить”?
3. Дай контекст (Кому и зачем?)
4. Сразу задай формат
Нужен список, таблица, письмо, чек-лист? Напиши это. Не жди, что ИИ сам догадается:
5. Уточни стиль и глубину
Закон, договор, решение суда - вставь прямо в промпт.
ИИ лучше работает с конкретикой, а не по памяти.
Декомпозируй сложную задачу:
1. "Раздели договор на блоки"
2. "Проанализируй блок 3"
3. "Предложи правки и выдели риски"
Убирай ФИО, адреса, реквизиты.
Не вставляй чувствительные данные в открытый ИИ - особенно без корпоративной лицензии.
ИИ не заменит юриста.
Но с правильным запросом - сэкономит тебе часы рутинной работы.
А это, как ты знаешь, уже половина дела.
Ниже прикрепляем PDF который вы можете забрать и использовать как памятку.
#LegalTech #Prompting
Технологии для юриста
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11👍3
Правила + Промпты.pdf
96.2 KB
Сохрани, чтобы не потерять
#LegalTech #Prompting
Технологии для юриста
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍7❤6