Технологии для юриста – Telegram
Технологии для юриста
772 subscribers
53 photos
1 video
9 files
60 links
Авторы канала:
Алексей Русинов @Alexey_rsv
Глеб Шайхутдинов @glbst
Download Telegram
👉 Модель научится извлекать нужные данные и форматировать их в JSON.
• Советы:
• Используйте качественные и разные примеры
• Для сложных задач — от 3 до 5 примеров
• Включайте edge cases — необычные входные данные, чтобы сделать промпт более устойчивым



📌 3. System, Role и Context prompting — три приёма, как дополнительно управлять поведением модели:

🖥️ System prompting — общие правила для модели

Пример:
“Классифицируй отзыв на фильм как POSITIVE, NEGATIVE или NEUTRAL. Ответ возвращай в виде JSON.”
→ Это даёт структуру вывода.

👤 Role prompting — модель играет заданную роль

Пример:
“Ты — тревел-гид. Предложи 3 музея в Амстердаме.”
→ Модель “входит в образ” и отвечает соответствующим стилем.

Можно даже задавать тон: вдохновляющий, юмористический, формальный и т.д.

🧾 Contextual prompting — даёте контекст задачи

Пример:
“Ты пишешь для блога об аркадных играх 80-х. Предложи темы для статей.”
→ Модель будет учитывать тематику и стиль блога.



📚 Все эти техники можно комбинировать, чтобы повысить управляемость вывода. Например:
• Сначала system prompt (формат ответа),
• Затем role prompt (стиль и голос),
• И наконец — контекст задачи.

🔁 Step-back prompting — техника «Шаг назад»



💡 Что это такое?

Step-back prompting — это техника, при которой модель сначала размышляет над общим вопросом, связанным с задачей, а затем решает конкретную проблему на основе этих размышлений.
Это как сказать модели:

«Прежде чем решать — подумай в общем. А потом возвращайся к задаче».



🧠 Зачем это нужно?
• Активирует фоновое знание модели
• Улучшает точность, логичность и глубину ответа
• Помогает избежать искажения контекста
• Может снизить предвзятость (bias) в ответах



📌 Пример:

Допустим, задача — придумать сюжет уровня для шутера от первого лица.

Обычный промпт (без step-back):

“Напиши абзац с сюжетом для нового уровня в шутере.”

🧾 Модель выдаёт стандартный ответ: засада, стрельба, враги, миссия…



🔙 Теперь step-back вариант:
1. Шаг назад:

“Назови 5 крутых тем/локаций, которые подойдут для уровня в шутере.”

Модель предлагает:
• Зомби-город
• Подводная база
• Киберпанк-город
• Военная база
• Корабль пришельцев

2. Основной промпт:

“Используя тему ‘Подводная база’, напиши сюжет уровня для шутера.”

💡 Результат: сюжет становится более разнообразным, глубоким и оригинальным, потому что модель сначала активировала “базу идей”.



📋 Ключевые преимущества:
• Модель использует больше своих знаний
• Ответ получается более продуманный
• Лучше справляется с нестандартными или креативными задачами



📎 Вывод:
Если ответ модели выглядит «плоско» или банально — попробуй сделать шаг назад: задай более общий вопрос перед основной задачей.
🔗 Chain of Thought (CoT) — Цепочка размышлений



💡 Что это такое?

Chain of Thought prompting — это техника, при которой вы побуждаете модель «думать вслух», пошагово рассуждать, а не сразу выдавать итоговый ответ.
Формулировка запроса:

“Давайте подумаем шаг за шагом”
“Let’s think step by step”



🔍 Зачем это нужно?
• Улучшает логические и математические ответы
• Позволяет обнаружить ошибки в рассуждении модели
• Повышает устойчивость промпта при переходе на другие версии модели
• Упрощает отладку и анализ



📌 Пример без CoT (ошибка):

“Когда мне было 3 года, моему партнёру было в 3 раза больше лет. Сейчас мне 20. Сколько лет партнёру?”

Ответ модели: 63 — неправильно.



Теперь с Chain of Thought:

“Когда мне было 3 года, моему партнёру было в 3 раза больше лет. Сейчас мне 20. Сколько лет партнёру? Давайте подумаем шаг за шагом.”

Ответ:
1. Когда мне было 3 года → партнёру было 3 × 3 = 9
2. Разница в возрасте = 9 - 3 = 6 лет
3. Сейчас мне 20 → партнёру 20 + 6 = 26 лет

👉 Правильный ответ: 26



🧪 Можно комбинировать с few-shot:

Вы даёте сначала пример, где модель делает пошаговое рассуждение,
а потом даёте новую задачу — и она копирует структуру рассуждений.



🧰 Где особенно полезно применять:
• Математика
• Анализ кода
• Классификация сложных кейсов
• Сценарии с множеством допущений
• Юридические задачи (например: определение правомерности действий по признакам)



⚠️ Минусы:
• Ответ длиннее → больше токенов → дороже
• Иногда модель начинает “болтать” лишнее



📎 Вывод:
Если задача требует рассуждений — всегда пробуй CoT. Даже добавление фразы “Давай подумаем по шагам” уже может сильно повысить точность ответа.
🔁 Self-consistency (Самосогласованность)



💡 Что это такое?

Self-consistency — это техника, которая помогает повысить точность модели путём многократного прогона одного и того же промпта и выбора наиболее частого (наиболее согласованного) ответа.



📌 Зачем это нужно?


Хотя Chain of Thought (CoT) позволяет получить рассуждения,
он обычно использует один путь рассуждения (один вариант вывода).
Но ведь LLM может дать несколько разных путей — и не все они одинаково хороши.

Self-consistency предлагает:

“Давайте получим много версий размышлений — и выберем ту, что чаще всего даёт один и тот же результат.”



🧪 Как работает:
1. Многократный запуск промпта с высокой температурой (например, 0.8–1.0), чтобы получить разные варианты цепочек рассуждений.
2. Извлекаем ответы из каждой цепочки.
3. Считаем, какой ответ встречается чаще всего.
4. Используем его как финальный ответ.



🎯 Пример из документа: классификация письма

Задача: классифицировать e-mail как IMPORTANT или NOT IMPORTANT

📧 Пример письма от “Хакера Гарри”, который сообщает о баге на сайте.
• Попытка 1:
Модель рассуждает, что баг может быть серьёзным → вывод: IMPORTANT
• Попытка 2:
Модель делает акцент на дружелюбном тоне письма → вывод: NOT IMPORTANT
• Попытка 3:
Модель снова делает вывод, что баг потенциально опасен → вывод: IMPORTANT

📊 Финальный вывод по голосам:
• IMPORTANT — 2 раза
• NOT IMPORTANT — 1 раз
👉 Финальный ответ: IMPORTANT



🧠 Преимущества:
• Повышает логичность и точность ответов
• Снижает влияние случайности или неудачного рассуждения
• Подходит для задач, где важен однозначный и обоснованный вывод



⚠️ Минусы:

• Требует больше вычислений (несколько прогонов)
• Увеличивает стоимость и время выполнения
• Нужно обрабатывать несколько ответов и агрегировать



📎 Вывод:
Когда важна точность вывода, а не просто “что-то ответить” — self-consistency помогает выбрать наиболее разумное решение среди возможных.
🌳 Tree of Thoughts (Дерево размышлений)



💡 Что это такое?

Tree of Thoughts (ToT) — это техника, где модель не просто идёт по одной цепочке рассуждений, как в Chain of Thought, а исследует сразу несколько возможных путей параллельно, в виде дерева вариантов.

Представь:
• Chain of Thought — это линейное мышление
• Tree of Thoughts — это вариативное мышление, как мозговой штурм с разветвлениями



🧩 Как это работает:
1. Модель делит решение задачи на шаги (thoughts)
2. Для каждого шага она генерирует несколько возможных вариантов (ветвей дерева)
3. Затем оценивает эти варианты и решает, какие развивать дальше
4. Повторяет процесс, пока не найдёт наилучший путь к решению



📌 Где полезно:
• Сложные задачи, где один способ мышления не даёт правильный ответ
• Планирование, стратегия, сценарии “а что если”
• Творческие задачи, где надо перебрать несколько подходов
• Анализ с разными условиями, точками зрения, рисками



🎯 Преимущества:
• Лучше справляется с многовариантными задачами
• Даёт более осознанный и обоснованный результат
• Может использоваться для самооценки и корректировки вывода



⚠️ Недостатки:
• Требует больше вычислений и ресурсов
• Нужно управлять логикой оценки мыслей/веток (в коде или с помощью правил)
• Пока что не реализуется «в лоб» обычными промптами — нужна дополнительная логика



🛠️ Пример реализации:

Для ToT часто используют внешний фреймворк, например, LangChain, где вы можете запрограммировать:
• генерацию идей
• оценку каждой ветки
• выбор самой перспективной
• переход на следующий уровень



📎 Вывод:
Tree of Thoughts — это способ сделать LLM более “мыслящей”, особенно когда задача сложная и не имеет одного очевидного решения. Это модель «исследования решений», как у человека при принятии серьёзных решений.
⚙️ ReAct (Reason + Act) — рассуждай и действуй



💡 Что это такое?

ReAct — это подход, при котором LLM:
1. рассуждает (объясняет, что собирается делать),
2. выполняет действие (например, ищет что-то, запускает инструмент),
3. и повторяет цикл, пока не получит нужный результат.

Это своего рода “AI-агент”, который думает, пробует, пересматривает — как человек.



🧠 Зачем это нужно?
• ReAct позволяет использовать внешние инструменты: поиск, API, калькуляторы, коды и т.д.
• Модель не просто «выдаёт ответ», а активно работает над задачей:
• формулирует гипотезы
• делает действия (ищет, считает, вызывает код)
• анализирует результат
• и продолжает, если нужно



📌 Пример из документа:

Задача: Сколько детей у участников группы Metallica?

Сценарий ReAct:
1. 🤔 Thought: “Metallica состоит из 4 участников.”
2. ⚙️ Action: “Ищу: Сколько детей у Джеймса Хэтфилда?”
3. 🔍 Observation: “У него трое детей”
4. 🤔 Thought: “1 из 4 участников — 3 ребёнка”
5. … (аналогично для остальных участников)
6. Final Answer: “Всего 10 детей”

Модель делает серию действий с промежуточными размышлениями — прямо как аналитик.



🔗 Технически это делается через LangChain

(или другой фреймворк типа AutoGPT). В коде можно описать, какие инструменты доступны, как их вызывать, как обрабатывать результат.



⚖️ Плюсы:
• Реальная интерактивность — ИИ ведёт себя как агент, а не просто как «оракул»
• Может разбивать задачи на шаги и проверять гипотезы
• Работает там, где обычный промпт не справляется (например, актуальные данные, сложные вычисления)



⚠️ Минусы:
• Нужна настройка окружения (доступ к API, инструменты)
• Требует контроля и логики со стороны разработчика
• Может ошибаться в выборе инструментов или шагов



🤖 Как это работает на практике:

Фреймворк вроде LangChain создаёт так называемого ReAct-агента, которому вы указываете:
• какие инструменты ему доступны (поиск, калькулятор, база данных и т.д.)
• как формировать reasoning (рассуждения) между действиями
• как обрабатывать результат



📎 Вывод:
ReAct — это переход от «просто LLM» к интерактивному ИИ, который рассуждает и действует. Подходит для построения ботов, агентов-помощников и автоматизации задач, где надо взаимодействовать с внешним миром.
🤖 Automatic Prompt Engineering (APE)

Автоматический инжиниринг промптов



💡 Что это такое?

APE — это подход, при котором сама языковая модель генерирует варианты промптов, а затем:
1. Эти промпты тестируются или оцениваются,
2. Отбираются лучшие,
3. При необходимости — оптимизируются вручную или автоматически.

То есть ты пишешь промпт, который пишет другие промпты



🔍 Зачем это нужно?
• Ускоряет поиск «удачного» промпта
• Экономит время, особенно при создании чат-ботов, интерфейсов, ассистентов
• Снижает зависимость от человеческого trial-and-error



📌 Пример из документа:

Контекст:
Ты делаешь чат-бот для магазина футболок с мерчем. Нужно, чтобы он понимал разные формулировки заказа:

“Одна футболка Metallica, размер S”


Ты хочешь собрать варианты, как люди могут сказать это по-разному.


У нас есть веб-магазин футболок с мерчем.
Нужно 10 вариантов фразы "Одна футболка Metallica, размер S",
которые говорят то же самое, но другими словами.


📤 Output модели:
1. “Хочу купить футболку Metallica размера S”
2. “Можно заказать Metallica-футболку, размер S?”
3. “Одна маленькая футболка Metallica, пожалуйста”
… и так далее (всего 10 вариантов)



🧪 Шаг 2. Оценка и отбор:

Можно автоматически оценить полученные фразы с помощью метрик, например:
• BLEU, ROUGE — классические метрики сходства текстов
• Или вручную выбрать те, что проще, универсальнее, понятнее



🔁 Шаг 3. Итерации:
• Берём лучший вариант → пробуем на нём модель
• Если нужно — тюним формулировку
• Повторяем до получения надёжного промпта



🧠 В чём сила APE:
• Модель может помочь себе сама
• Особенно полезно при масштабировании промптов:
• для разных языков
• разных типов пользователей
• разных тонов общения (формально, шутливо и т.д.)



⚠️ Минусы:
• Без чёткого задания модель может генерировать слишком однотипные или бессмысленные варианты
• Требуется оценка — вручную или через скрипт



📎 Вывод:
Автоматический инжиниринг промптов — это способ использовать LLM как генератор промптов, бустер креатива и ускоритель разработки. Особенно полезен для:
• построения ботов
• обучения моделей
• настройки команд LLM в продуктах и интерфейсах
💻 Промпты для работы с кодом

(Code Prompting)
Этот раздел показывает, как использовать LLM для работы с программным кодом — не только генерации, но и объяснения, перевода, отладки.



🧑‍💻 1. Промпты для написания кода

Ты описываешь задачу — модель пишет код.

Пример промпта:
Напиши Python-скрипт, который принимает список чисел и возвращает список только чётных чисел.

Рекомендации:
• Будь максимально конкретным: язык, библиотеки, стиль кода
• Можно указать формат вывода: “Выводи только код, без комментариев”



📖 2. Промпты для объяснения кода

Ты вставляешь код и просишь объяснение:
Объясни, что делает следующий код строка за строкой:
<вставь код>

Также можно просить:
• объяснить, как работает функция/алгоритм
• упростить объяснение для новичка
• сделать комментарии внутри кода



🔄 3. Промпты для перевода кода

Перевод из одного языка в другой (например, Java → Python)
Переведи следующий код с Java на Python:
<код>

Советы:
• Указывай особенности перевода: синтаксис, стиль, фреймворк
• Уточняй, если хочешь сохранить архитектуру или адаптировать под стиль языка



🛠️ 4. Промпты для отладки и ревью кода

Ты просишь модель найти баг, улучшить стиль, оптимизировать:

Примеры:
Найди ошибки в этом коде и предложи исправления:
<код>

Сделай ревью этого Python-кода по стандартам PEP8.

Оптимизируй этот SQL-запрос для больших таблиц.


Также можно:
• попросить предложить тесты (unit tests)
• объяснить, почему возникает определённая ошибка



🔍 Рекомендации:
• Если модель генерирует слишком много «болтовни» — скажи:
👉 “Отвечай только кодом без объяснений”
• Для сложных задач лучше использовать few-shot prompting:
сначала пример → потом твоя задача
• Если код многослойный — используй Chain of Thought:
“Разбери по шагам, где может быть ошибка, потом предложи исправление.”



📎 Вывод:
LLM может выступать как кодогенератор, учитель, ревьюер и переводчик. Всё зависит от того, насколько чётко и конкретно ты сформулируешь промпт.
🧠🖼️ 12. А как насчёт мультимодальных промптов?



💡 Что это такое?

Мультимодальный prompting — это когда в одном промпте используются разные типы данных, например:
📝 текст
🖼️ изображение
🔊 аудио
📊 графики, таблицы
📍 документы, PDF и т.д.

Это позволяет LLM (или мультимодальной модели вроде Gemini, GPT-4V, Claude 3) анализировать и комбинировать разные источники информации, чтобы дать более точный или полезный ответ.



📌 Примеры задач:

🖼️ + 📝 Понимание изображений:
Посмотри на изображение ниже. Есть ли на нём признаки повреждения конструкции?
<вставка изображения>


📊 Анализ таблиц:
Что можно сказать о динамике продаж по этой таблице?
<таблица или скриншот>


🔡 Извлечение текста из скриншота или PDF:
Извлеки текст из этого PDF и составь краткое резюме.
<файл>


📷 + 🔍 UI-дизайн:
Проанализируй интерфейс на этом скриншоте и предложи UX-улучшения.




⚙️ Что умеют мультимодальные модели:
• Распознавать визуальные объекты
• Извлекать текст с картинок (OCR)
• Комментировать и сравнивать изображения
• Анализировать документы
• Генерировать подписи, объяснения, резюме



🔧 Пример промпта в Gemini (или GPT-4V)
Это скан договора. Укажи, какие ключевые условия в нём содержатся и есть ли риски.
<документ>


⚠️ Ограничения:
• Не все модели на сегодня поддерживают все типы модальностей
• Точность понимания изображений или таблиц пока хуже, чем у текста
• Возможности сильно зависят от инструмента и API (например, Gemini API, ChatGPT с GPT-4V)



📎 Вывод:
Мультимодальные промпты расширяют границы возможностей ИИ.
Теперь можно решать задачи, которые раньше требовали человека:
визуальный анализ, просмотр документов, UX-аудит, расшифровка рукописей — всё это становится доступно прямо в одном запросе.
🔧 13. Best Practices — Лучшие практики при создании промптов



1. Приводите примеры (Few-shot)

Модель работает лучше, когда видит пример того, чего вы хотите. Даже один пример помогает задать структуру вывода.



✂️ 2. Принцип “чем проще — тем лучше”

Избегай сложных конструкций. Пиши чётко, коротко, по делу.
Чем яснее запрос → тем яснее ответ.



🎯 3. Будьте конкретны насчёт ожидаемого вывода


Хочешь список? — скажи “Дай список”.
Хочешь JSON? — скажи “Верни результат в формате JSON”.
Формулируй прямо, чего ты хочешь на выходе.



🧾 4. Используйте инструкции, а не запреты


🚫 Плохо: “Не используй сложные слова”
Лучше: “Объясни простыми словами, как для новичка”

Модели лучше следуют позитивным указаниям, чем запретам.



📏 5. Управляйте длиной вывода

Хочешь кратко? Скажи:

“Ответь в одном абзаце.”
“Не больше 3 пунктов.”
“Один абзац по 2–3 предложения.”



🔤 6. Используйте переменные в шаблонах


Создавай универсальные промпты с заполнительными частями:
Проведи анализ рисков для контракта в сфере {отрасль}, сумма — {сумма}, срок — {дата}.


Это удобно для автоматизации.



🧪 7. Экспериментируйте с форматами и стилями

Один и тот же запрос можно подать по-разному:
• как инструкция
• как вопрос
• как игра или роль
• как шаблон

Разные подачи дают разные результаты.



🔄 8. В классификации — перемешивайте порядок классов

Если ты обучаешь модель выбирать из вариантов (A, B, C),
не всегда ставь их в одном порядке — это снижает предвзятость.



⚠️ 9. Следи за обновлением моделей

После апдейта GPT, Gemini или Claude — промпты могут вести себя иначе.
Периодически перепроверяй свои старые шаблоны.



📤 10. Экспериментируйте с форматами вывода

Иногда лучший результат — не текст, а:
• таблица
• JSON
• маркдаун
• схема
→ Уточняй нужный формат, и модель подстроится.



📎 Вывод:

Хороший промпт — это не магия, а проектирование.
Это как UI-дизайн, но для взаимодействия с ИИ: чем яснее, проще и понятнее ты формулируешь задачу,
тем умнее и полезнее будет ответ.
🧰 14. JSON Repair — автоматическая корректировка JSON-моделей



💡 Что это такое?

Когда ты просишь LLM вернуть результат в формате JSON, иногда она делает это с ошибками:
• пропущенные кавычки или запятые
• неправильная вложенность
• несовместимость с парсерами

⚠️ Особенно часто такое случается при длинных или сложных промптах.

JSON Repair — это техника (и набор практик), чтобы:
1. Сделать JSON-вывод корректным
2. Автоматически исправлять ошибки форматирования
3. Повысить надёжность при использовании модели в продакшене



🧪 Как это делается:

Способ 1: Явный формат + инструкции

Добавь в промпт строгие указания:
Ответь строго в формате JSON. Не добавляй никаких пояснений, комментариев, текста до или после.


Способ 2: Укажи ожидаемую схему

Пример:
Ответ должен быть в следующем формате:
{
"имя": "string",
"возраст": number,
"профессия": "string"
}

LLM старается подстроиться под шаблон.



🧑‍💻 Способ 3: Использовать “JSON Repair” алгоритмы после вывода

Если ты получаешь JSON с ошибкой — можно:
• либо повторно прогнать через LLM с промптом:
"Исправь этот JSON и верни валидный JSON:"
• либо использовать библиотеку (например, в Python: jsonrepair, dirtyjson и т.п.)



🛠️ Пример использования в коде:
from json_repair import repair_json

broken_json = """{ "name": "Alice", "age": 30, }"""
fixed = repair_json(broken_json)
print(fixed)
# → {"name": "Alice", "age": 30}


🤖 Подход через саму модель (в промпте)
Вот повреждённый JSON. Верни валидную версию:
<вставить ошибочный JSON>


→ Модель часто сама чинит структуру, если дать ей понять, что от неё требуется.



📎 Вывод:

Работа с JSON — один из ключевых сценариев для интеграции LLM в продукты.
JSON Repair помогает:
• избежать падения кода
• сократить ошибки API
• сделать промпты надёжнее в продакшене
📐 15. Работа со схемами (Schemas)



💡 Что такое схема?

Схема (schema) — это структурное описание данных, которое определяет:
• какие поля есть в JSON/объекте,
• каких они типов,
• что обязательно, что опционально,
• какие значения допустимы.

Примеры форматов схем:
• JSON Schema
• Pydantic (в Python)
• OpenAPI
• Data classes
• Proto / gRPC



🧠 Зачем использовать схемы при работе с LLM?

📦 Если ты просишь LLM вернуть данные в виде структуры (например, JSON или словаря), то:
• Схема помогает объяснить модели, как должен выглядеть результат
• Снижает вероятность ошибок, делает вывод предсказуемым
• Легче валидировать и использовать в API, приложениях, коде



📌 Как использовать схемы в промптах:


Способ 1: Встроить схему прямо в промпт
Верни результат строго в формате:

{
"имя": string,
"возраст": number,
"навыки": [string]
}


Способ 2: Объяснить, для чего нужна структура
Ты помогаешь заполнить объект пользователя для API.
Вот структура:
- name: строка
- age: число
- tags: список интересов (строки)

Создай пример объекта для пользователя "Алексей, 31 год, любит юриспруденцию и ИИ".


🤖 LLM как валидатор?

Ты можешь просить модель сама проверить соответствие схеме:

Проверь, соответствует ли этот JSON следующей схеме.
Если нет — укажи, что не так:
<схема>
<json>


🛠️ Дополнительно в разработке:
• В библиотеках вроде LangChain, LlamaIndex, Vertex AI ты можешь:
• задать схему через Pydantic или JSON Schema
• связать это с генерацией промптов
• автоматически парсить, валидировать и обрабатывать результат от модели



📎 Вывод:

Работа со схемами превращает LLM из «болтливого помощника» в надёжный интерфейс к структурам данных.
Это особенно важно в продакшене, где результат должен быть:
• предсказуем,
• валиден,
• готов к передаче дальше (в базу, API, UI и т.п.)
🧑‍🤝‍🧑 16. Экспериментируйте вместе с другими инженерами промптов



💡 Суть идеи:

Создание промптов — это не одиночная игра, а скорее коллективное ремесло.
Если ты хочешь быстро расти как специалист по LLM или просто научиться лучше использовать ИИ — общайся, тестируй и делись опытом с другими.



📚 Зачем это нужно:
• Ты быстрее находишь рабочие формулировки
• Видишь, как разные люди подходят к одной и той же задаче
• Получаешь обратную связь на свои промпты
• Учишься структурировать промпты по задачам и сравнивать варианты



🛠️ Форматы сотрудничества:
👥 Форумы и комьюнити:
Reddit (r/LocalLLaMA, r/PromptEngineering), Discord, Slack, Telegram
💬 Разбор промптов:
Бери промпт другого человека → попробуй улучшить
Делай свой промпт → попроси других протестировать
📋 Шаблоны и библиотеки:
Обменивайся шаблонами промптов, делай коллекции под задачи:
контент, код, юридические документы, UX и т.д.
🧪 Совместные тесты:
Одна задача → много промптов → сравниваем результаты и метрики
Это особенно полезно при работе в команде или с клиентами



🤝 Пример задачи на совместную разработку:

“Нам нужно, чтобы модель заполняла шаблон трудового договора в стиле legal design.”
Один участник пишет структуру, другой — текстовку, третий — формулирует промпт.



📎 Вывод:

🔥 «Промпт становится лучше тогда, когда над ним думали несколько человек».

Ты не обязан всё изобретать сам. Вдохновляйся чужими подходами, адаптируй под себя, делись своими находками — и будешь расти как инженер промптов или эксперт в своей сфере.
📅 Пятница. 8:25 утра.
Я только пришёл на работу, открыл ноутбук, собирался накидать план на день.
И тут — Telegram-уведомление от Глеба.
Он переслал пост из какого-то техно-канала. Подпись:
«Гугл опять дропнули вот штуку»
(цитата из оригинального поста — орфография сохранена 😄)
📎 Вложение — PDF-документ Prompt Engineering от Lee Boonstra.
Английский знаю, но 60 страниц утром пятницы за 15 минут— не лучший тайминг.
Решаю: закину в ChatGPT, прошу перевести.
С первых страниц становится ясно — вещь годная.
Про то, как писать эффективные промпты, использовать ИИ в работе, ускорять рутину и автоматизировать работу с GPT.

📢 Так появился этот канал — «Технологии для юриста»
Честно говоря, изначально он задумывался просто как место, куда мы можем скидывать полезные штуки по LegalTech, ИИ и технологиям, которые попадаются в работе.
Чтобы не терялись в закладках, переписках и черновиках.

👨‍⚖️Авторы канала — юристы: Леша и Глеб. Не разработчики.
Но технологии — уже часть нашей профессии.
Они реально помогают: в организации процессов, анализе информации, визуализации, написании документов.
И вот мы подумали — а что, если всё, что мы накапливаем,
систематизировать и превратить в продукт?
📌 Возможно, это будет просто база знаний, которой удобно пользоваться.
А может — что-то большее: бот с ИИ, который будет искать нужное, помогать и напоминать.
Пока сами не знаем, во что это вырастет — но точно будет полезно хотя бы нам.

🧠 Что здесь будет?
📚 Посты по направлениям:
#LegalTech — ИИ, боты, поисковики, автоматизация
#LegalDesign — оформление, визуализация, понятные документы
#Proуправление — юр-менеджмент, процессы, подходы (системный взгляд Глеба)
#Agile_in_law — гибкие методы в юр-среде
#Соцсети — Telegram, TikTok и продвижение для юристов
(дальше, возможно, появятся и другие темы — посмотрим по ходу)

🧪 Блог-рубрика: как мы делаем продукт
Мы решили попробовать собрать базу знаний + сделать помощника-бота.
💬 Будем честно рассказывать, как мы — юристы без технического бэкграунда — пробуем создать полезный инструмент. Что получается, где тупим, с чем сталкиваемся.

Если тебе близка идея быть в профессии, но на шаг ближе к технологиям — присоединяйся.
🔥7👍2👏2
Технологии для юриста pinned «📅 Пятница. 8:25 утра. Я только пришёл на работу, открыл ноутбук, собирался накидать план на день. И тут — Telegram-уведомление от Глеба. Он переслал пост из какого-то техно-канала. Подпись: «Гугл опять дропнули вот штуку» (цитата из оригинального поста — орфография…»
📌 Как улучшить инфобез юридической фирмы без огромного бюджета.

Несколько месяцев назад я сел писать внутреннюю инструкцию по информационной безопасности - после того, как в очередной раз увидел, как материалы по делу спокойно лежат в принтере, пока кто-то не вспомнит о них час спустя. Таких мелочей накопилось достаточно, чтобы стало понятно: то, что мы считаем рабочей рутиной, на самом деле - источник рисков. Особенно в юридической практике:

- документы остаются в принтере у входа без присмотра, а в конце рабочего дня аккуратно валяются на рабочем столе,
- у всех доступ ко всему в облаке - просто потому что так удобнее,
- рабочие файлы - на флешках и жёстких дисках без элементарного пароля,
- переписка - с личной почты,
- работа с документами - с личного ноутбука,
- экран компьютера не блокируется никогда…

Список можно продолжать.

При этом, пока собирал материал, понял: чтобы закрыть большинство уязвимостей, не нужны большие бюджеты. Нужно просто навести порядок и договориться о правилах.

Вот что можно сделать почти (!) без боли и бюджета:

🖥 1. Онлайн-безопасность

Корпоративные инструменты - по умолчанию

- Вся переписка и документы - только через корпоративную почту.
- Личные аккаунты, мессенджеры, облачные хранилища - не для работы (должна быть корпоративная связь).
- Сотрудники не должны использовать личные ноутбуки и домашние ПК! Точка.

Хранение документов

- Вся работа ведётся в корпоративном облаке.
- Доступ - по ролям, сотрудники видят только то что им необходимо по работе.
- Работа вне офиса - удалённый доступ к рабочему серверу осуществляется через VPN и двухфакторную аутентификацию. Рабочая среда запускается на сервере, локально ничего не хранится.

Резервное копирование и шифрование

- Бэкап - раз в месяц, автоматически (в том числе переносимых носителей информации).
- Все переносные носители (флешки, HDD, SSD) - обязательно шифруются.

🔓 2. Пароли, доступ и блокировка

Пароли и учётки

- Один пароль - одна система.
- Только сложные пароли (буквы, цифры, символы, 10+ символов).
- Смена паролей - 1 раз в 3 месяца или сразу после увольнения любого сотрудника.

Автоблокировка

- Все устройства блокируются через 5 минут бездействия.
- PIN, пароль или биометрия - на каждом устройстве.

📄 3. Офлайн-безопасность

Работа с бумагами

- Документы не выносятся без необходимости.
- Транспортировка документов - такси или личный авто.
- Черновики - сразу в шредер.

Офис и принтеры

- В конце дня на столах не должно оставаться документов.
- Принтеры не служат временным хранилищем документов: напечатал - сразу забери.
- Кабинеты с чувствительными документами — закрываются.

🚨 4. Реакция и контроль

- Потеряли устройство, файл, флешку — сразу сообщите IT и руководству.
- Подозрительная активность — фиксируется и анализируется.
- Аудит доступа 1 раз в квартал: кто к чему имеет доступ и зачем.


Информационная безопасность - это не про отдел информационной безопасности, дорогое оборудование, фаерволы и огромные бюджеты.

Это про самодисциплину и уважение к своей профессии.

✈️ Напишите, с какими ситуациями сталкивались вы - будем собирать список уязвимостей и решать как их устранить.

#Юр_Инфобез #LegalTech
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4
🖥 Что происходит, когда ИИ дают прочитать обзор Верховного суда? (ChatGPT, DeepSeek и Perplexity)

Как понять, что ИИ действительно полезен юристу и так ли быстро из-за ИИ нас всех уволят ?
Дать ему прочитать обзор ВС по банкротству и попросить сделать из него внятную выжимку.

Мы протестировали три модели/сервиса - ChatGPT, DeepSeek и Perplexity - и дали им одну и ту же задачу.

Результат удивил


Важно понимать: ИИ - это не волшебная палочка, а набор разных инструментов.
И задача - выбрать тот, который подходит под конкретную цель.

Для сравнения мы взяли три модели: ChatGPT, DeepSeek, Perplexity - и дали всем одну задачу:

📝 Сделать краткий, структурированный обзор судебной практики по банкротству за 2024 год (25 пунктов, тяжёлый текст).

Промпт:
Сделай шортрид из этого текста, он должен быть структурирован и содержать основные выводы


👍 Критерии оценки:

1. Структурированность
2. Полнота охвата
3. Юридическая точность
4. Готовность к публикации
5. Стиль


🟰 ChatGPT (4.5/5 ⭐️)

Обзор сделал, не с первой попытки, но разобрался:

• Восстановил структуру документа
• Уловил ключевые позиции ВС
• Без существенных искажений
• Требуется контекст
• Объективно - на уровне хорошего черновика

Дружелюбный стиль, подходит для адаптации под читателя
Местами обтекаемо, требует правки по юридической точности и глубине

Рабочий инструмент, особенно если дать контекст, направить и подредактировать

Стоит отметить: при первом использовании дал худший результат, спустя неделю - сильно улучшились результаты


DeepSeek (4/5 ⭐️)

Сделал хорошо, но не идеально:

• Уловил структуру, разбил на ключевые блоки
• Правильно отразил большую часть позиций из документа, есть фактические ошибки
• Формулировки - четкие, но немного тяжеловесные
• Без контекста справился лучше остальных

Подходит для внутренней аналитики и внутренней работы
Суховатый стиль, требует адаптации под читателя

Уверенный инструмент, если нужен бесплатный помощник для чтения и резюмирования


🟰 Perplexity (3/5 ⭐️)

Поиск с интеллектом (база - GPT-4), но слабо:

• Дает слабоструктурированную выжимку, без глубины
• Улавливает суть, но местами путается
• Теряет часть информации
• Есть фактические ошибки
• Не выстраивает цельную картинку

Удобен для поиска в интернете
Текст требует доработки, перепроверки и уточняющих запросов

Можно использовать как стартовую точку для поиска и исследования


ИТОГ:

ChatGPT - универсальный помощник, хорош для писем, черновиков, первичного анализа

Perplexity - поиск, резюме, факт-чекинг

DeepSeek - первичный быстрый анализ документа

Ниже выложим ответы, которые дали все три сервиса

#LegalTech
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍41
Ответы ИИ 1.0.pdf
145.4 KB
📎 В этом PDF ответы трёх ИИ по обзору судебной практики ВС РФ.

#LegalTech

Технологии для юриста
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Обзор судебной ВС РФ за 2024 год.pdf
446.6 KB
📝 А вот и сам обзор ВС РФ по банкротству - для тех, кто хочет прочитать первоисточник.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Как юристу правильно писать запросы для ChatGPT (и наконец получить нормальный ответ)

Если ты уже пробовал написать в ChatGPT что-то вроде "расскажи про договор" - скорее всего, получил воду: общее, ни о чём, с кучей лишнего.

Нормально. Почти у всех так.
Часто дело не в ИИ, а в запросе.

Промпт - это инструкция.
А без внятного ТЗ…



🧠 5 простых правил, которые реально работают:

1. Начни с глагола действия

📎 "Составь договор…", "Разбей по пунктам…", "Оцени риски…", «Объясни…"

Не надо: "Расскажи про права работника". Это как "Погугли что-нибудь".

2. Укажи роль
Кто ты? Кто должен “говорить”?


📌"Напиши как юрист банка"
📌"Представь, что ты in-house юрист"
📌"Отвечай как помощник адвоката"

3. Дай контекст (Кому и зачем?)

📌"Текст для клиента - объясни простым языком"
📌"Пояснение для внутреннего отчёта"
📌"Письмо для руководителя с предложением изменений в договор"
📌"Пояснения по делу для арбитражного суда России"

4. Сразу задай формат

Нужен список, таблица, письмо, чек-лист? Напиши это. Не жди, что ИИ сам догадается:

📌"Ответ - в виде таблицы"
📌"Сделай краткий список с пояснениями"
📌"Подготовь драфт письма клиенту"
📌"Подготовь информацию в виде тезисов в защиту моей позиции"

5. Уточни стиль и глубину

📌"Пиши официально, как для регулятора"
📌"Просто, для клиента, без лишней терминологии"
📌"Для начинающего юриста - объясни пошагово"
📌"Пиши уверенно, с некоторым давлением, письмо для контрагента, который просрочил оплату по договору"



🔥 Дополнительно:

🗂️ Прикрепи нужные данные

Закон, договор, решение суда - вставь прямо в промпт.
ИИ лучше работает с конкретикой, а не по памяти.

📝 Работай по шагам

Декомпозируй сложную задачу:
1. "Раздели договор на блоки"
2. "Проанализируй блок 3"
3. "Предложи правки и выдели риски"

✉️ Уточняй

📌"Ты не разобрал 3 пункт - обрати внимание"
📌"Добавь примеры"
📌"Сократи текст"
📌"Где могут быть ошибки?"
📌"Обрати внимание на этот источник"

🔒 Обезличивай данные

Убирай ФИО, адреса, реквизиты.

Не вставляй чувствительные данные в открытый ИИ - особенно без корпоративной лицензии.



✉️ Вывод:

ИИ не заменит юриста.
Но с правильным запросом - сэкономит тебе часы рутинной работы.
А это, как ты знаешь, уже половина дела.

Ниже прикрепляем PDF который вы можете забрать и использовать как памятку.

#LegalTech #Prompting

Технологии для юриста
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11👍3
Правила + Промпты.pdf
96.2 KB
📎 Файл с рекомендациями для промптов + примеры плохих и хороших запросов

Сохрани, чтобы не потерять

#LegalTech #Prompting

Технологии для юриста
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍76