Примерный чек-лист в картинках для составления/проверки контрактов и примеры ИИ-инструментов
Рассмотренные в предыдущем посте AI Modal Сlauses помогают составить свой примерный чек-лист ключевых положений, необходимых для составления/проверки договоров, связанных с ИИ.
Также появляется все больше инструментов, которые позволят привести к единому стандарту положения в договорах:
🔹IntelliDraft.AI - использует генеративный ИИ для поиска нужных положений в своей базе данных, генерирования новых пунктов по вашему запросу, сокращения объемных положений, переводить их на другие языки;
🔹Clause Buddy - ИИ-инструмент интегрируется с Microsoft Word и Outlook, предлагает комплексный подход к работе с контрактами, создает опросники из документов, помогает находить несоответствия, пропущенные определения и другие ошибки. Фича "Clause Hunt" сканирует документы и шаблоны, извлекая релевантные положения, что позволяет создать собственную базу знаний и обеспечить единообразие в контрактах вашей компании.
#AIShelf
————
@pattern_ai
Рассмотренные в предыдущем посте AI Modal Сlauses помогают составить свой примерный чек-лист ключевых положений, необходимых для составления/проверки договоров, связанных с ИИ.
Также появляется все больше инструментов, которые позволят привести к единому стандарту положения в договорах:
🔹IntelliDraft.AI - использует генеративный ИИ для поиска нужных положений в своей базе данных, генерирования новых пунктов по вашему запросу, сокращения объемных положений, переводить их на другие языки;
🔹Clause Buddy - ИИ-инструмент интегрируется с Microsoft Word и Outlook, предлагает комплексный подход к работе с контрактами, создает опросники из документов, помогает находить несоответствия, пропущенные определения и другие ошибки. Фича "Clause Hunt" сканирует документы и шаблоны, извлекая релевантные положения, что позволяет создать собственную базу знаний и обеспечить единообразие в контрактах вашей компании.
#AIShelf
————
@pattern_ai
Как провести аудит системы ИИ
Аудит системы ИИ - это «итеративный процесс взаимодействия между аудитором/ами и командой/ами разработчиков» для сбора и оценки информации, которая поможет компании определить, подходит ли система ИИ для интеграции в их бизнес и соответствует ли она применимому законодательству (например, EU AI Act, GDPR).
Ключевые элементы аудита ИИ:
🔹Model Cards (Карты моделей): документы или набор данных, которые содержат ключевую информацию о модели ИИ, включая ее характеристики, предполагаемые случаи использования, ограничения, источники данных, этические риски и меры по их снижению. Они помогают оценивать соответствие модели требованиям законодательства и нормам.
🔹System Maps (Системные карты): визуальные или текстовые описания, которые показывают, как алгоритмическая модель взаимодействует с технической системой и процессом принятия решений. Они помогают аудиторам и заинтересованным сторонам понять, как и где модель используется, какие данные она обрабатывает и как влияет на конечный результат.
❗️Для чего нужно проведение аудита:
▪️ понимание и оценка мер защиты данных в контексте законодательства об искусственном интеллекте.
▪️доказательство того, что вы выполнили обязательство по подотчетности, если говорим про ЕС, в соответствии со статьей 5(2) GDPR.
▪️мера предосторожности, если ваш бизнес рассматривает возможность развертывания системы ИИ с потенциально более высоким риском.
Чек - лист для аудита (руководство EDPB):
✔️ Идентификация и прозрачность компонента на основе ИИ ( документация источников данных, используемых для обучения модели, надзор за защитой данных, связанный с разработкой компонента ИИ, например, привлечение DPO, информация о параметрах, используемых при обучении системы ИИ);
✔️ Цель компонента на основе ИИ (информация об основных видах использования и возможных вторичных видах использования компонента ИИ, законность любой обработки данных, связанной с компонентом ИИ, информация о необходимости и пропорциональности обработки, получателях субъектов данных или любых мерах по ограничению хранения, в том числе связанных с датой, которую ввел разработчик);
✔️ Основы компонента ИИ ( информация об основной базовой разработке модели, была ли создана документация о методах выбора, сбора и подготовки обучающих данных компонента ИИ, были ли разработаны метрики для измерения поведения модели);
✔️ Тестирование на предвзятость (выявление потенциальных предвзятостей в системе ИИ, понимание того, на кого может повлиять система ИИ, статистический анализ, определение защищенных групп, тестирование выходных данных системы, изучение обучающих данных и рассмотрение показателей справедливости, предоставленных разработчиком);
✔️ Состязательный аудит ( дополнительный аудит для тестирования системы в реальных условиях для выявления скрытых предвзятостей или проблем, рекомендуется EDPB для высокорисковых и неконтролируемых систем машинного обучения). Методы проведения состязательного аудита могут включать интервьюирование конечных пользователей или создание поддельных профилей для запуска и анализа результатов системы).
✔️ Создание окончательного отчета после аудита систем ИИ;
✔️ Внутренний отчет с мерами по смягчению последствий;
✔️ Публичный отчет, описывающий процесс и результаты аудита, и
✔️ Периодические последующие отчеты, которые проверяют эффективность мер по смягчению последствий.
#LawAndDisorder #AIShelf
————
@pattern_ai
Аудит системы ИИ - это «итеративный процесс взаимодействия между аудитором/ами и командой/ами разработчиков» для сбора и оценки информации, которая поможет компании определить, подходит ли система ИИ для интеграции в их бизнес и соответствует ли она применимому законодательству (например, EU AI Act, GDPR).
Ключевые элементы аудита ИИ:
🔹Model Cards (Карты моделей): документы или набор данных, которые содержат ключевую информацию о модели ИИ, включая ее характеристики, предполагаемые случаи использования, ограничения, источники данных, этические риски и меры по их снижению. Они помогают оценивать соответствие модели требованиям законодательства и нормам.
🔹System Maps (Системные карты): визуальные или текстовые описания, которые показывают, как алгоритмическая модель взаимодействует с технической системой и процессом принятия решений. Они помогают аудиторам и заинтересованным сторонам понять, как и где модель используется, какие данные она обрабатывает и как влияет на конечный результат.
❗️Для чего нужно проведение аудита:
▪️ понимание и оценка мер защиты данных в контексте законодательства об искусственном интеллекте.
▪️доказательство того, что вы выполнили обязательство по подотчетности, если говорим про ЕС, в соответствии со статьей 5(2) GDPR.
▪️мера предосторожности, если ваш бизнес рассматривает возможность развертывания системы ИИ с потенциально более высоким риском.
Чек - лист для аудита (руководство EDPB):
✔️ Идентификация и прозрачность компонента на основе ИИ ( документация источников данных, используемых для обучения модели, надзор за защитой данных, связанный с разработкой компонента ИИ, например, привлечение DPO, информация о параметрах, используемых при обучении системы ИИ);
✔️ Цель компонента на основе ИИ (информация об основных видах использования и возможных вторичных видах использования компонента ИИ, законность любой обработки данных, связанной с компонентом ИИ, информация о необходимости и пропорциональности обработки, получателях субъектов данных или любых мерах по ограничению хранения, в том числе связанных с датой, которую ввел разработчик);
✔️ Основы компонента ИИ ( информация об основной базовой разработке модели, была ли создана документация о методах выбора, сбора и подготовки обучающих данных компонента ИИ, были ли разработаны метрики для измерения поведения модели);
Карта системы особенно важна для органов надзора за защитой данных, поскольку она предоставляет подробный контрольный список, охватывающий такие аспекты, как идентификация и прозрачность компонента ИИ, его цель, управление данными и меры безопасности. Таким образом, вопросы, предложенные EDPB, дают представление о том, на что органы надзора будут обращать внимание при проверке соответствия системы ИИ требованиям GDPR.
✔️ Тестирование на предвзятость (выявление потенциальных предвзятостей в системе ИИ, понимание того, на кого может повлиять система ИИ, статистический анализ, определение защищенных групп, тестирование выходных данных системы, изучение обучающих данных и рассмотрение показателей справедливости, предоставленных разработчиком);
✔️ Состязательный аудит ( дополнительный аудит для тестирования системы в реальных условиях для выявления скрытых предвзятостей или проблем, рекомендуется EDPB для высокорисковых и неконтролируемых систем машинного обучения). Методы проведения состязательного аудита могут включать интервьюирование конечных пользователей или создание поддельных профилей для запуска и анализа результатов системы).
✔️ Создание окончательного отчета после аудита систем ИИ;
✔️ Внутренний отчет с мерами по смягчению последствий;
✔️ Публичный отчет, описывающий процесс и результаты аудита, и
✔️ Периодические последующие отчеты, которые проверяют эффективность мер по смягчению последствий.
#LawAndDisorder #AIShelf
————
@pattern_ai
AI Audit Cheklist-CTC.pdf
512.6 KB
AI Audit Checklist | Certified Trainers and Consultants
Удобный табличный формат, который можно взять за пример.
Как провести аудит смотри пост.
#AIShelf
————
@pattern_ai
Удобный табличный формат, который можно взять за пример.
Как провести аудит смотри пост.
#AIShelf
————
@pattern_ai
🔥1
ИИ в продакшне: почему пост-маркет мониторинг экономит миллионы и репутацию
Посмотрели презентацию GPT-5? Как вам?
Но в этом посте не про новый релиз. За хайпом вокруг новых возможностей часто теряется важный вопрос, что происходит с ИИ после релиза, когда он уже в продакшне, работает с клиентами, принимает решения.
Мониторинг ИИ - это элемент продуктовой зрелости и брендовой безопасности. Почему?
Потому, что если бот кликает «Я не робот», вопрос уже не в маркетинге, а в мониторинге.
Так ChatGPT Agent от OpenAI, способный управлять браузером, самостоятельно прошёл CAPTCHA Cloudflare, при этом комментируя свои действия:
И стал не только мемом в AI-среде, но и тревожным сигналом для тех, кто отвечает за доверие к цифровым продуктам. Начинаются вопросы:
- А кто это сделал?
- Нарушены ли условия?
- Какие последствия для бренда?
Другие кейсы, которые нельзя проигнорировать:
🔹McDonald’s AI-drive-thru случайно добавлял по $200+ в заказ, потому что ИИ неправильно понял речь и никто не мониторил поведение агента.
🔹 Replit AI удалил продакшн-базу данных и солгал, что «запаниковал».
🔹Galactica от Meta (признана экстремистской организацией и запрещена в России) за 3 дня демо сгенерировал «научные советы» вроде «есть стекло» и «эксперименты с космическими мишками».
ИИ-модели не статичны. Они могут менять поведение (дрейфовать), выходят за рамки инструкций, взаимодействовать с интерфейсом как человек, но без здравого смысла, в итоге:
🔻пользователь столкнулся с ИИ-ошибкой → ушёл → пожаловался.
🔻модель совершила действие на сайте → нарушение Terms of Use → бан.
Discord банит аккаунты, заподозренные в использовании агентов.
🔻агент зашёл в запрещённую зону → судебный иск → вред репутации.
Согласно отчёту IBM, утечки данных, вызванные ИИ или ошибками в его использовании, стоят бизнесу особенно дорого:
▪️$4.44 млн средняя стоимость утечки в 2025 году;
▪️ $670,000 стоимость утечки, связанной с shadow AI;
▪️13 % инцидентов связаны с ИИ, и 97 % компаний не имели контроля доступа к ИИ;
▪️ 241 день - среднее время выявления и локализации нарушения, включая услуги по восстановлению;
▪️ компании, использующие AI-защиту, экономят до $1.9 млн на инцидент.
Запоминаем простую формулу:
Отсутствие пост-маркет мониторинга = долгая реакция + финансовый ущерб + пиар-скандалы, судебные иски, общественный резонанс.
#UXWatch
—————
@pattern_ai
Посмотрели презентацию GPT-5? Как вам?
Но в этом посте не про новый релиз. За хайпом вокруг новых возможностей часто теряется важный вопрос, что происходит с ИИ после релиза, когда он уже в продакшне, работает с клиентами, принимает решения.
Мониторинг ИИ - это элемент продуктовой зрелости и брендовой безопасности. Почему?
Потому, что если бот кликает «Я не робот», вопрос уже не в маркетинге, а в мониторинге.
Так ChatGPT Agent от OpenAI, способный управлять браузером, самостоятельно прошёл CAPTCHA Cloudflare, при этом комментируя свои действия:
“Now I’ll click the ‘Verify you are human’ checkbox…”
И стал не только мемом в AI-среде, но и тревожным сигналом для тех, кто отвечает за доверие к цифровым продуктам. Начинаются вопросы:
- А кто это сделал?
- Нарушены ли условия?
- Какие последствия для бренда?
Другие кейсы, которые нельзя проигнорировать:
🔹McDonald’s AI-drive-thru случайно добавлял по $200+ в заказ, потому что ИИ неправильно понял речь и никто не мониторил поведение агента.
🔹 Replit AI удалил продакшн-базу данных и солгал, что «запаниковал».
🔹Galactica от Meta (признана экстремистской организацией и запрещена в России) за 3 дня демо сгенерировал «научные советы» вроде «есть стекло» и «эксперименты с космическими мишками».
ИИ-модели не статичны. Они могут менять поведение (дрейфовать), выходят за рамки инструкций, взаимодействовать с интерфейсом как человек, но без здравого смысла, в итоге:
🔻пользователь столкнулся с ИИ-ошибкой → ушёл → пожаловался.
🔻модель совершила действие на сайте → нарушение Terms of Use → бан.
Discord банит аккаунты, заподозренные в использовании агентов.
🔻агент зашёл в запрещённую зону → судебный иск → вред репутации.
Согласно отчёту IBM, утечки данных, вызванные ИИ или ошибками в его использовании, стоят бизнесу особенно дорого:
▪️$4.44 млн средняя стоимость утечки в 2025 году;
▪️ $670,000 стоимость утечки, связанной с shadow AI;
▪️13 % инцидентов связаны с ИИ, и 97 % компаний не имели контроля доступа к ИИ;
▪️ 241 день - среднее время выявления и локализации нарушения, включая услуги по восстановлению;
▪️ компании, использующие AI-защиту, экономят до $1.9 млн на инцидент.
Запоминаем простую формулу:
Отсутствие пост-маркет мониторинга = долгая реакция + финансовый ущерб + пиар-скандалы, судебные иски, общественный резонанс.
#UXWatch
—————
@pattern_ai
Чек-лист. Пост-маркет мониторинг ИИ и отчётность
Если ИИ ошибается, то заплатит компания. Без мониторинга вы не узнаете, когда ИИ нарушил чьи-то права, не сможете доказать ни свою невиновность, ни соблюдение закона, не пройдёте аудит или проверку. Для высоко-рисковых систем ИИ в ЕС мониторинг и отчётность по ИИ-инцидентам обязательны (потенциальный штраф за нарушения до €35 млн или 7% оборота).
Согласно ст. 72 и ст. 73 EU AI Act, все поставщики высокорисковых ИИ-систем обязаны:
🔹 внедрить систему пост-маркет мониторинга;
🔹отслеживать поведение ИИ в реальной среде;
🔹сообщать в надзорные органы о серьёзных инцидентах в течение:
- 15 дней ( по умолчанию);
- 10 дней ( если есть вред здоровью);
- 2 дня (при угрозе жизни или инфраструктуре);
📌 Пост-маркет мониторинг представляет собой непрерывное отслеживание работы системы в реальной среде, выявление отклонений, инцидентов и обновление оценки рисков и включает в себя:
✔️ План мониторинга - официальный документ, включаемый в техническую документацию, должен содержать:
- методы сбора данных (например, логи, фидбек от пользователей);
- показатели для оценки качества, безопасности и недискриминации;
- критерии для активации корректирующих действий (триггеры);
- процедуры внутренней проверки и пересмотра;
- связь с системой управления качеством (QMS).
✔️ Технические механизмы реализации мониторинга:
- логирование (фиксируйте входы и выходы, сохраняйте принятые решения, контекст, действия пользователя и ИИ, обеспечьте структурированность и читабельность логов (для аудита, расследования, взаимодействия с надзорными органами);
- алерты и сигналы отклонений (настройте отслеживание дрейфа модели, аномалий в поведении, неожиданных выходов за диапазон допустимых значений, внедрите real-time или периодическое уведомление ответственных лиц);
- тестовая среда (sandbox) (используйте для безопасного наблюдения за поведением агентов, особенно в ранних стадиях вывода в продакшн);
- механизмы безопасности (внедрите red teaming (тестирование модели с имитацией атак), защиту от prompt injection, контентные и поведенческие фильтры);
✔️ Система реагирования на инциденты:
- классификация инцидентов по уровням риска;
- назначение ответственных лиц ( юристы, compliance-team);
- шаблоны отчётов, сроки уведомления;
- документированные действия после отчета (технические, правовые, коммуникационные);
- взаимодействие с надзорными органами (предоставление логов, документации, участие в аудитах и проверках).
✔️ Интеграция с QMS и внутренними процессами:
- использование мониторинга как источника обратной связи для QMS;
- регулярный пересмотр оценки риска модели с учётом данных из продакшна;
- автоматизация внутренних отчётов и обновлений;
- связь с обновлениями модели, данных, документации, UX, инструкций, логики, оценки рисков.
✔️ Прозрачность и коммуникация:
- уведомление пользователей в случае существенных изменений функционала или инцидентов;
- публикация кратких отчётов о корректирующих мерах (если необходимо);
- обеспечение права на жалобы, запросы;
- взаимодействие с надзорными органами.
✔️ Использование внешних систем и реестров:
- OECD AI Safety Incident Monitor;
- MIT AI Incident Tracker;
- AI Incident Database;
✔️ Обучение внутри компании:
- обучение сотрудников (в том числе нефункциональных ролей) выявлению признаков инцидентов;
- знание, как фиксировать, классифицировать и реагировать на инциденты;
- понимание роли каждого в процессе мониторинга;
- адаптация инструкций и внутренних playbook'ов под специфику продукта.
Если у вас нет мониторинга - это уже нарушение. Если мониторинг есть, но не встроен в процессы - это иллюзия контроля.
#LawAndDisorder
————
@pattern_ai
Если ИИ ошибается, то заплатит компания. Без мониторинга вы не узнаете, когда ИИ нарушил чьи-то права, не сможете доказать ни свою невиновность, ни соблюдение закона, не пройдёте аудит или проверку. Для высоко-рисковых систем ИИ в ЕС мониторинг и отчётность по ИИ-инцидентам обязательны (потенциальный штраф за нарушения до €35 млн или 7% оборота).
Согласно ст. 72 и ст. 73 EU AI Act, все поставщики высокорисковых ИИ-систем обязаны:
🔹 внедрить систему пост-маркет мониторинга;
🔹отслеживать поведение ИИ в реальной среде;
🔹сообщать в надзорные органы о серьёзных инцидентах в течение:
- 15 дней ( по умолчанию);
- 10 дней ( если есть вред здоровью);
- 2 дня (при угрозе жизни или инфраструктуре);
Если информацию собрать не успели, можно подать первоначальный неполный отчёт с последующим дополнением.Европейская Комиссия должна предоставить шаблон Плана мониторинга ко 2 февраля 2026 года .
После подачи нужно:
- начать внутреннее расследование;
- оценить риски;
- провести корректирующие действия;
- сотрудничество с надзорными органами, которые обязаны принять меры в течение 7 дней после получения отчёта
✔️ План мониторинга - официальный документ, включаемый в техническую документацию, должен содержать:
- методы сбора данных (например, логи, фидбек от пользователей);
- показатели для оценки качества, безопасности и недискриминации;
- критерии для активации корректирующих действий (триггеры);
- процедуры внутренней проверки и пересмотра;
- связь с системой управления качеством (QMS).
✔️ Технические механизмы реализации мониторинга:
- логирование (фиксируйте входы и выходы, сохраняйте принятые решения, контекст, действия пользователя и ИИ, обеспечьте структурированность и читабельность логов (для аудита, расследования, взаимодействия с надзорными органами);
- алерты и сигналы отклонений (настройте отслеживание дрейфа модели, аномалий в поведении, неожиданных выходов за диапазон допустимых значений, внедрите real-time или периодическое уведомление ответственных лиц);
- тестовая среда (sandbox) (используйте для безопасного наблюдения за поведением агентов, особенно в ранних стадиях вывода в продакшн);
- механизмы безопасности (внедрите red teaming (тестирование модели с имитацией атак), защиту от prompt injection, контентные и поведенческие фильтры);
✔️ Система реагирования на инциденты:
- классификация инцидентов по уровням риска;
- назначение ответственных лиц ( юристы, compliance-team);
- шаблоны отчётов, сроки уведомления;
- документированные действия после отчета (технические, правовые, коммуникационные);
- взаимодействие с надзорными органами (предоставление логов, документации, участие в аудитах и проверках).
✔️ Интеграция с QMS и внутренними процессами:
- использование мониторинга как источника обратной связи для QMS;
- регулярный пересмотр оценки риска модели с учётом данных из продакшна;
- автоматизация внутренних отчётов и обновлений;
- связь с обновлениями модели, данных, документации, UX, инструкций, логики, оценки рисков.
✔️ Прозрачность и коммуникация:
- уведомление пользователей в случае существенных изменений функционала или инцидентов;
- публикация кратких отчётов о корректирующих мерах (если необходимо);
- обеспечение права на жалобы, запросы;
- взаимодействие с надзорными органами.
✔️ Использование внешних систем и реестров:
- OECD AI Safety Incident Monitor;
- MIT AI Incident Tracker;
- AI Incident Database;
✔️ Обучение внутри компании:
- обучение сотрудников (в том числе нефункциональных ролей) выявлению признаков инцидентов;
- знание, как фиксировать, классифицировать и реагировать на инциденты;
- понимание роли каждого в процессе мониторинга;
- адаптация инструкций и внутренних playbook'ов под специфику продукта.
Если у вас нет мониторинга - это уже нарушение. Если мониторинг есть, но не встроен в процессы - это иллюзия контроля.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
GenAI и юристы: кто, где и как использует ИИ в 2025 году
В этой серии постов разберём, как ИИ помогает юристам побеждать дедлайны и бумажную рутину, оставив за скобками вопрос, заменит ли ИИ юристов.
Сегодня сухие цифры.
1️⃣ Рынок legal-AI по данным Grand View Research оценивается в $1,45 млрд (2024) с прогнозом до $3,9 млрд к 2030. Global Market Insights даёт чуть выше стартовую оценку в $1,9 млрд, но более низкий CAGR (13,1%), что отражает различия в методиках.
2️⃣ По данным Grand View Research, внедрение GenAI в Азиатско-Тихоокеанском регионе будет расти на 20%+ в год, что быстрее чем в ЕС (+17%). Этот рост обусловлен такими факторами, как благоприятная нормативно-правовая среда и особая ориентация на цифровую трансформацию + растущее внедрение юридических инструментов на основе ИИ. Лидирующие направления: анализ и проверка контрактов, их автоматическая генерация, перевод и адаптация юридических документов в том числе для трансграничных сделок, проверка ИС, проведение due diligence.
3️⃣ По данным Thomson Reuters Institute в 2025 году 26% юристов по всему миру используют ИИ в работе, рост почти вдвое по сравнению с 2024 годом (14%).
4️⃣ В США (лидер по росту в 2024 г. ) по данным Legal Industry Report 2025 (Federal Bar Association):
- 31% юристов используют GenAI лично;
- 21% в рамках решений, предоставленных компанией;
- 45% респондентов, сообщивших об использовании инструментов ИИ на работе, используют ежедневно, а 40% - еженедельно.
- 65% пользователей экономят от 1 до 5 часов в неделю, 12% сэкономили от 6 до 10 часов, 7% сэкономили 11 или более часов в неделю.
Основные задачи:
- подготовка черновиков писем и корреспонденции (54%),
- генерация идей (47%),
- правовые исследования (46%).
- дополнительно используют для составления расписания, биллинга и аналитики данных.
Что это значит на практике?
▪️Рост использования GenAI идёт быстро, но не равномерно. Много индивидуальных пользователей (юристы «вручную» испытывают инструменты). Компании с осторожностью внедряют инструменты ИИ из-за рисков и своей внутренней политики.
▪️Экономия времени реальна и измерима. Большинство пользователей отмечают регулярную экономию часов в неделю. С одной стороны это дешёвый источник повышения рентабельности, с другой идет дискуссия о новой модели ценообразования (value-pricing vs billable hours).
▪️Рынок будет расти. Ожидается консолидация и специализация решений.
▪️Главные барьеры на пути внедрения ИИ: регулирование, этические нормы, риск «галлюцинаций», защита данных.
#UXWatch
————
@pattern_ai
В этой серии постов разберём, как ИИ помогает юристам побеждать дедлайны и бумажную рутину, оставив за скобками вопрос, заменит ли ИИ юристов.
Сегодня сухие цифры.
- 31% юристов используют GenAI лично;
- 21% в рамках решений, предоставленных компанией;
- 45% респондентов, сообщивших об использовании инструментов ИИ на работе, используют ежедневно, а 40% - еженедельно.
- 65% пользователей экономят от 1 до 5 часов в неделю, 12% сэкономили от 6 до 10 часов, 7% сэкономили 11 или более часов в неделю.
Основные задачи:
- подготовка черновиков писем и корреспонденции (54%),
- генерация идей (47%),
- правовые исследования (46%).
- дополнительно используют для составления расписания, биллинга и аналитики данных.
Что это значит на практике?
▪️Рост использования GenAI идёт быстро, но не равномерно. Много индивидуальных пользователей (юристы «вручную» испытывают инструменты). Компании с осторожностью внедряют инструменты ИИ из-за рисков и своей внутренней политики.
▪️Экономия времени реальна и измерима. Большинство пользователей отмечают регулярную экономию часов в неделю. С одной стороны это дешёвый источник повышения рентабельности, с другой идет дискуссия о новой модели ценообразования (value-pricing vs billable hours).
▪️Рынок будет расти. Ожидается консолидация и специализация решений.
▪️Главные барьеры на пути внедрения ИИ: регулирование, этические нормы, риск «галлюцинаций», защита данных.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
GovTech или проекты по использованию ИИ в законотворчестве, судах и госуслугах
Cмотрим инициативы:
1️⃣ ОАЭ
«Regulatory Intelligence Office» - экосистема по использованию ИИ для отслеживания и анализа законов, судебных решений и данных по госуслугам, с целью прогнозирования областей, требующие реформ, основываясь на экономических тенденциях, ускорения процесса законотворчества ( предполагается ускорение процесса принятия законов на 70%, сокращение гос. расходов на 50%, и увеличение ВВП страны примерно на 35% к 2030 г.).
2️⃣ Сингапур
Virtual Intelligent Chat Assistant (VICA) - ИИ платформа для правительства. На данный момент ее используют более 60 гос. учреждений, обслуживая более 100 чат-ботов, 800 000 запросов в месяц.
Пилотные инициативы в категории Small Claims Online Dispute Resolution, например перевод документов c помощью ИИ, представленных другой стороной в суд по мелким искам, приложения, помогающие судьям обобщать материалы дел.
3️⃣ Великобритания
Платформа Garfield.Law - автоматизированный сервис для подачи исков о взыскании до £10,000 без участия человека (генерация документов, сбор дел, сопровождение до слушания). Регулируется Solicitors Regulation Authority.
4️⃣ Китай
Централизованная платформа «умный суд», где ИИ интегрируется на всех этапах судебной деятельности,судьи используют ИИ для правовых исследований, составления документов и проверки их согласованности.
5️⃣ Южная Корея
Разработка ИИ-платформы для Верховного суда.
🔍 Примеры сервисов, упомянутых в докладе AIAB Ресурсного центра CEPEJ по киберправосудию и ИИ, направленных на повышение эффективности и доступности судебной системы:
🔹Поиск, просмотр документов и масштабное исследование информации
ПО для борьбы с детской порнографией ( Германия) - система предназначена для изучения объемов данных, полученных в ходе следственных действий, некоторые из которых весьма существенны, на предмет наличия в них материалов детской порнографии.
🔹Прогнозирование результатов судебных разбирательств
LEXIQ ( Нидерланды) - система анализа прецедентного права для службы государственного обвинения, призванная помочь прокурорам и исследователям в их повседневной работе по поиску, анализу и использованию информации по уголовным делам.
🔹Поддержка принятия решений
OLGA (Германия) - система, помогающая анализировать и классифицировать заявления на основе фактов, используется в качестве пилотного проекта в Высшем земельном суде Штутгарта по делам о выбросах газов дизельных двигателей (жалобы часто превышают 100 страниц).
Fraukа (Германия) - система автоматизации подготовки типовых решений по жалобам авиапассажиров также пилотно используются в нескольких судах.
🔹Анонимизация и псевдонимизация
ANOM (Швейцария) - использует ИИ для определения имен экспертов или другой информации, например, номеров земельных участков, которые не являются сторонами процесса, и предлагает их для анонимизации в связи с публикацией решения суда.
🔹Сортировка, распределение и автоматизация рабочих процессов
Инструмент для выявления несоответствий в судебной практике (Франция) между различными
палатами суда (Cour de Cassation) и между нижестоящими судами (судами первой инстанции и апелляционными судами).
🔹 Запись, транскрибирование и перевод
«Текстуализация речи в текст» (Испания) - система основана на нейронном обучении и интегрируется с системами записи судебных заседаний, обученными на реальных слушаниях и реальных расшифровках, позволяет осуществлять поиск по тексту в видео, загружать записи, идентифицировать говорящих в диалогах, визуализировать временную шкалу, показывать/скрывать метки и текстуализации, а также создавать теги, связанные с определенными моментами записи.
🔹Информационные и вспомогательные услуги
Practical Guide to Justice (Португалия) - система предоставляет ответы на вопросы пользователя в естественном диалоге об инструментах и услугах, предоставляемых системой правосудия, обучается на информации, уже предоставленной различными судебными органами.
На данный момент, указывают, что в базе 125 различных ИИ-инструментов.
#AIShelf
————
@pattern_ai
Cмотрим инициативы:
«Regulatory Intelligence Office» - экосистема по использованию ИИ для отслеживания и анализа законов, судебных решений и данных по госуслугам, с целью прогнозирования областей, требующие реформ, основываясь на экономических тенденциях, ускорения процесса законотворчества ( предполагается ускорение процесса принятия законов на 70%, сокращение гос. расходов на 50%, и увеличение ВВП страны примерно на 35% к 2030 г.).
Virtual Intelligent Chat Assistant (VICA) - ИИ платформа для правительства. На данный момент ее используют более 60 гос. учреждений, обслуживая более 100 чат-ботов, 800 000 запросов в месяц.
Пилотные инициативы в категории Small Claims Online Dispute Resolution, например перевод документов c помощью ИИ, представленных другой стороной в суд по мелким искам, приложения, помогающие судьям обобщать материалы дел.
Платформа Garfield.Law - автоматизированный сервис для подачи исков о взыскании до £10,000 без участия человека (генерация документов, сбор дел, сопровождение до слушания). Регулируется Solicitors Regulation Authority.
Централизованная платформа «умный суд», где ИИ интегрируется на всех этапах судебной деятельности,судьи используют ИИ для правовых исследований, составления документов и проверки их согласованности.
Разработка ИИ-платформы для Верховного суда.
🔹Поиск, просмотр документов и масштабное исследование информации
ПО для борьбы с детской порнографией ( Германия) - система предназначена для изучения объемов данных, полученных в ходе следственных действий, некоторые из которых весьма существенны, на предмет наличия в них материалов детской порнографии.
🔹Прогнозирование результатов судебных разбирательств
LEXIQ ( Нидерланды) - система анализа прецедентного права для службы государственного обвинения, призванная помочь прокурорам и исследователям в их повседневной работе по поиску, анализу и использованию информации по уголовным делам.
🔹Поддержка принятия решений
OLGA (Германия) - система, помогающая анализировать и классифицировать заявления на основе фактов, используется в качестве пилотного проекта в Высшем земельном суде Штутгарта по делам о выбросах газов дизельных двигателей (жалобы часто превышают 100 страниц).
Fraukа (Германия) - система автоматизации подготовки типовых решений по жалобам авиапассажиров также пилотно используются в нескольких судах.
🔹Анонимизация и псевдонимизация
ANOM (Швейцария) - использует ИИ для определения имен экспертов или другой информации, например, номеров земельных участков, которые не являются сторонами процесса, и предлагает их для анонимизации в связи с публикацией решения суда.
🔹Сортировка, распределение и автоматизация рабочих процессов
Инструмент для выявления несоответствий в судебной практике (Франция) между различными
палатами суда (Cour de Cassation) и между нижестоящими судами (судами первой инстанции и апелляционными судами).
🔹 Запись, транскрибирование и перевод
«Текстуализация речи в текст» (Испания) - система основана на нейронном обучении и интегрируется с системами записи судебных заседаний, обученными на реальных слушаниях и реальных расшифровках, позволяет осуществлять поиск по тексту в видео, загружать записи, идентифицировать говорящих в диалогах, визуализировать временную шкалу, показывать/скрывать метки и текстуализации, а также создавать теги, связанные с определенными моментами записи.
🔹Информационные и вспомогательные услуги
Practical Guide to Justice (Португалия) - система предоставляет ответы на вопросы пользователя в естественном диалоге об инструментах и услугах, предоставляемых системой правосудия, обучается на информации, уже предоставленной различными судебными органами.
На данный момент, указывают, что в базе 125 различных ИИ-инструментов.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ в зале суда: правила игры
В прошлом посте мы говорили о том, как правительства тестируют ИИ для оперативной поддержки законотворчества, судопроизводства, публичной вовлечённости. Но хороший пилот- это только полдела, ведь ИИ начинает влиять на реальные дела, и на кону становится уже справедливость решений.
Главные риски:
– непрозрачность моделей;
– предвзятость данных;
– потеря ответственности («это всё алгоритм!»);
– кибербезопасность;
– зависимость от чужого ПО.
Из-за быстрой скорости развития ИИ "правила игры" устанавливаются с помощью практических рекомендаций для регуляторов, судов, юристов. Вот лишь некоторые примеры:
🔹США
Formal Opinion 512, American Bar Association (29 июля 2024)
An Introduction to Artificial Intelligence for Federal Judges| James E. Baker, Laurie N. Hobart, Matthew Mittelsteadt
Полноценный гайд + список судебных кейсов, связанных с ИИ!
🔹Сингапур
The Guide on the Use of Generative Artificial Intelligence Tools by Court Users (Сингапур)
-Use of AI by Courts to Enhance Court Operations| Action Committee;
- Guidelines for the Use of Artificial Intelligence in Canadian Courts
- Use of artificial intelligence (AI) in Tribunal proceedings;
- Use of AI in proceedings before the Trademarks Opposition Board
🔹Австралия
Хороший обзор дан в статье AI and the Courts in 2025
Общие правила, которые встречаются почти везде:
▪️ фиксировать, где и как применялся ИИ;
▪️защита данных;
▪️обязательная проверка человеком;
▪️вести публичные реестры ИИ-инструментов;
▪️проводить аудит моделей;
▪️запрет генерации экспертных заключений и подделки доказательств;
▪️уведомлять об использовании ИИ;
▪️соблюдать авторское право
▪️и проверять источники.
В следующем посте рассмотрим кейсы, когда ИИ в судах сыграл "злую шутку"
#LawAndDisorder
————
@pattern_ai
В прошлом посте мы говорили о том, как правительства тестируют ИИ для оперативной поддержки законотворчества, судопроизводства, публичной вовлечённости. Но хороший пилот- это только полдела, ведь ИИ начинает влиять на реальные дела, и на кону становится уже справедливость решений.
Главные риски:
– непрозрачность моделей;
– предвзятость данных;
– потеря ответственности («это всё алгоритм!»);
– кибербезопасность;
– зависимость от чужого ПО.
Из-за быстрой скорости развития ИИ "правила игры" устанавливаются с помощью практических рекомендаций для регуляторов, судов, юристов. Вот лишь некоторые примеры:
🔹США
Formal Opinion 512, American Bar Association (29 июля 2024)
- обязанность юриста понимать возможности и ограничения инструментов ИИ, в том числе его риски и склонность к "галлюцинациям", проверка всех результатов ИИ является обязательной перед использованием.;
- необходимость защиты конфиденциальности клиентов при использовании ИИ;
- необходимость прозрачности и раскрытия информации об использовании ИИ клиентам;
- ответственность юриста за надзор за использованием ИИ сотрудниками;
- этические последствия взимания платы за услуги, предоставляемые c помощью ИИ.
An Introduction to Artificial Intelligence for Federal Judges| James E. Baker, Laurie N. Hobart, Matthew Mittelsteadt
Полноценный гайд + список судебных кейсов, связанных с ИИ!
🔹Сингапур
The Guide on the Use of Generative Artificial Intelligence Tools by Court Users (Сингапур)
- вы полностью отвечаете за содержание документов;🔹Канада
- используйте ИИ-вывод только после проверки (точность, релевантность, отсутствие нарушения авторских прав);
- нельзя с помощью ИИ создавать, подделывать или изменять доказательства.
- подтверждайте существование и корректность цитат, законов и судебных дел из надёжных источников;
- адаптируйте ИИ-текст под свой случай, вычитывайте и исправляйте ошибки;
- не разглашайте личные или защищённые данные при работе с ИИ;
- указывайте авторов и источники заимствованных материалов;
- будьте готовы сообщить, что использовали ИИ, и описать, как проверяли результат.
- риски несоблюдения: штрафы, исключение документов из дела, дисциплинарные меры, ответственность по закону.
-Use of AI by Courts to Enhance Court Operations| Action Committee;
- Guidelines for the Use of Artificial Intelligence in Canadian Courts
- Use of artificial intelligence (AI) in Tribunal proceedings;
- Use of AI in proceedings before the Trademarks Opposition Board
Даны документов, которые считаются содержащими/ не содержащими контент, созданный ИИ и пример заявления:
Artificial intelligence (AI) was used to generate content in this document. All content generated by AI, and the authenticity of all authorities cited in this document, has been reviewed and verified by the [include the name of the party to the proceeding], or their trademark agent.
🔹Австралия
Хороший обзор дан в статье AI and the Courts in 2025
"Суд стремится получить информацию об «ответственном использовании новых технологий таким образом, чтобы это способствовало справедливому и эффективному выполнению работы Суда"Guidelines for litigants: responsible use of artificial intelligence in litigation
Общие правила, которые встречаются почти везде:
▪️ фиксировать, где и как применялся ИИ;
▪️защита данных;
▪️обязательная проверка человеком;
▪️вести публичные реестры ИИ-инструментов;
▪️проводить аудит моделей;
▪️запрет генерации экспертных заключений и подделки доказательств;
▪️уведомлять об использовании ИИ;
▪️соблюдать авторское право
▪️и проверять источники.
В следующем посте рассмотрим кейсы, когда ИИ в судах сыграл "злую шутку"
#LawAndDisorder
————
@pattern_ai
Когда ИИ подводит юристов: реальные судебные "триллеры"
На прошлой неделе мы разобрали, как применяется ИИ в законотворчестве, судах и госуслугах, как формируются правила «игры».
Сегодня обратная сторона медали, когда ИИ не помогает, а подставляет.
На данный момент зафиксировано 276 кейсов с "галлюцинациями" ИИ.
📌 Смотрим трекер по странам здесь.
Несколько примеров кейсов:
1️⃣ США
🔹Mata v. Avianca (2023)
Суд отклонил иск о причинении вреда здоровью против авиакомпании Avianca, где истец утверждал, что получил травму, когда металлическая сервировочная тележка ударила его по колену во время международного рейса. Адвокаты истца были оштрафованы на $5000 за представление фиктивных прецедентов, созданных ChatGPT.
Дело является знаковым, на него часто ссылаются суда и также было принято заключение об ответственности юристов, использующих ИИ.
🔹Lacey v. State Farm Gen. Ins. Co. (2025)
9 из 27 юридических ссылок в десятистраничном документе были неверными, два из упомянутых источников вообще не существовали.
Юридические фирмы оштрафованы на $31 000, отказ в ходатайствах.
🔹Kohls v. Ellison (2025)
Парадокс этого кейса заключается в том, что иск был против законов штата, запрещающих политическую сатиру, создаваемую ИИ. Генеральный прокурор в ответ представил экспертный отчет, где были обнаружены "галлюцинации" ИИ". Более подробный обзор здесь.
🔹Johnson v. Dunn (2025)
Не смотря на то, что дело вели юристы из уважаемой юридической фирмы, где была разработана политика применения ИИ, предупреждения в отношении ИИ, ими были предоставлены ходатайства со всем спектром ошибок ИИ:
- неверный кейс, неверная цитата ;
- сфабрикованная ссылка с использованием названия реального дела;
- полная фальсификация;
- сфабрикованная цитата, звучащая реалистично;
- реальное название дела, неверное цитирование и утверждение.
Итог: дисквалификация адвокатов (прямое неправомерное использование ИИ без проверки (Ривз), отказ от обязанностей по подаче документов (Крэнфорд) и халатность руководства, усугублённая уклонением от ответственности (Лансфорд)), передача регуляторам.
Юридическая фирма избежала санкций только благодаря решительному реагированию на инцидент и проведению масштабной работы по устранению выявленных нарушений:
- привлечен внешний консультант для проведения независимой проверки более 2400 юридических ссылок из 330 документов, находящихся в 40 федеральных реестрах.
- создание внутреннего комитета по ИИ и принятие протоколов для ответственного использования;
- обучение ответственному использованию ИИ;
2️⃣ Великобритания
🔹Ayinde v London Borough of Haringey & Al-Haroun v Qatar National Bank ( 2025)
Сфабрикованные цитаты, включая цитату, приписываемую самой судье.
Суд дал широкие рекомендации по использованию ИИ в юридической практике.
🔹Bandla v. Solicitors Regulation Authority (2025)
По меньшей мере 25 сфабрикованных или несуществующих ссылок на судебные дела.
Итог: ходатайство о продлении срока отклонено; апелляция отклонена по причине злоупотребления процессом; взысканы расходы на возмещение ущерба в размере 24 727,20 фунтов стерлингов; в разрешении на апелляцию отказано.
3️⃣ Канада
🔹Zhang v. Chen (2024)
Адвокат использовал ChatGPT для оказания помощи в подготовке уведомления о подаче заявления по семейному делу, касающемуся поездок родителей с детьми (ссылки на два вымышленных дела). Адвокаты противоположной стороны указали на несуществующие дела.
Это дело стало первым резонансным примером подобной проблемы в Канаде, заставив обратить внимание на необходимость проявления осмотрительности.
ИИ может ускорять работу, но в процессе цена ошибки высока.
Мини чек-лист:
▪️никогда не цитируйте то, чего вы сами не нашли в надёжной базе;
▪️журнал проверки ( где искали, что нашли, чем подтвердили);
▪️не поручайте ИИ проверку ИИ (проверяйте источники руками);
▪️разработайте и внедрите внутренние правила (когда и как можно использовать ИИ, кто проверяет, как фиксируете проверку, что и кому раскрываете);
▪️быстро и решительно реагируйте на инцидент (извинение, корректировка материалов, обучение ).
#UXWatch
————
@pattern_ai
На прошлой неделе мы разобрали, как применяется ИИ в законотворчестве, судах и госуслугах, как формируются правила «игры».
Сегодня обратная сторона медали, когда ИИ не помогает, а подставляет.
На данный момент зафиксировано 276 кейсов с "галлюцинациями" ИИ.
Несколько примеров кейсов:
🔹Mata v. Avianca (2023)
Суд отклонил иск о причинении вреда здоровью против авиакомпании Avianca, где истец утверждал, что получил травму, когда металлическая сервировочная тележка ударила его по колену во время международного рейса. Адвокаты истца были оштрафованы на $5000 за представление фиктивных прецедентов, созданных ChatGPT.
Дело является знаковым, на него часто ссылаются суда и также было принято заключение об ответственности юристов, использующих ИИ.
🔹Lacey v. State Farm Gen. Ins. Co. (2025)
9 из 27 юридических ссылок в десятистраничном документе были неверными, два из упомянутых источников вообще не существовали.
Юридические фирмы оштрафованы на $31 000, отказ в ходатайствах.
🔹Kohls v. Ellison (2025)
Парадокс этого кейса заключается в том, что иск был против законов штата, запрещающих политическую сатиру, создаваемую ИИ. Генеральный прокурор в ответ представил экспертный отчет, где были обнаружены "галлюцинации" ИИ". Более подробный обзор здесь.
🔹Johnson v. Dunn (2025)
Не смотря на то, что дело вели юристы из уважаемой юридической фирмы, где была разработана политика применения ИИ, предупреждения в отношении ИИ, ими были предоставлены ходатайства со всем спектром ошибок ИИ:
- неверный кейс, неверная цитата ;
- сфабрикованная ссылка с использованием названия реального дела;
- полная фальсификация;
- сфабрикованная цитата, звучащая реалистично;
- реальное название дела, неверное цитирование и утверждение.
Итог: дисквалификация адвокатов (прямое неправомерное использование ИИ без проверки (Ривз), отказ от обязанностей по подаче документов (Крэнфорд) и халатность руководства, усугублённая уклонением от ответственности (Лансфорд)), передача регуляторам.
Юридическая фирма избежала санкций только благодаря решительному реагированию на инцидент и проведению масштабной работы по устранению выявленных нарушений:
- привлечен внешний консультант для проведения независимой проверки более 2400 юридических ссылок из 330 документов, находящихся в 40 федеральных реестрах.
- создание внутреннего комитета по ИИ и принятие протоколов для ответственного использования;
- обучение ответственному использованию ИИ;
🔹Ayinde v London Borough of Haringey & Al-Haroun v Qatar National Bank ( 2025)
Сфабрикованные цитаты, включая цитату, приписываемую самой судье.
Суд дал широкие рекомендации по использованию ИИ в юридической практике.
🔹Bandla v. Solicitors Regulation Authority (2025)
По меньшей мере 25 сфабрикованных или несуществующих ссылок на судебные дела.
Итог: ходатайство о продлении срока отклонено; апелляция отклонена по причине злоупотребления процессом; взысканы расходы на возмещение ущерба в размере 24 727,20 фунтов стерлингов; в разрешении на апелляцию отказано.
🔹Zhang v. Chen (2024)
Адвокат использовал ChatGPT для оказания помощи в подготовке уведомления о подаче заявления по семейному делу, касающемуся поездок родителей с детьми (ссылки на два вымышленных дела). Адвокаты противоположной стороны указали на несуществующие дела.
Это дело стало первым резонансным примером подобной проблемы в Канаде, заставив обратить внимание на необходимость проявления осмотрительности.
ИИ может ускорять работу, но в процессе цена ошибки высока.
Мини чек-лист:
▪️никогда не цитируйте то, чего вы сами не нашли в надёжной базе;
▪️журнал проверки ( где искали, что нашли, чем подтвердили);
▪️не поручайте ИИ проверку ИИ (проверяйте источники руками);
▪️разработайте и внедрите внутренние правила (когда и как можно использовать ИИ, кто проверяет, как фиксируете проверку, что и кому раскрываете);
▪️быстро и решительно реагируйте на инцидент (извинение, корректировка материалов, обучение ).
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Legal AI Use Case Radar - онлайн-ресурс, созданный исследователями из Технологического Университета Мюнхена, посвящен практическим сценариям ( use cases) использования ИИ в юридической сфере.
В интерактивном виде показаны сектора с ключевыми областями применения (например, compliance, документ-анализ, судебные процессы, автоматизация контрактов), уровни зрелости (от экспериментов (Assess) до активного внедрения (Adopt)) и конкретные кейсы и технологии, которые уже применяются юристами и компаниями.
#AIShelf
————
@pattern_ai
В интерактивном виде показаны сектора с ключевыми областями применения (например, compliance, документ-анализ, судебные процессы, автоматизация контрактов), уровни зрелости (от экспериментов (Assess) до активного внедрения (Adopt)) и конкретные кейсы и технологии, которые уже применяются юристами и компаниями.
#AIShelf
————
@pattern_ai
Legal_AI_Use_Case_Radar_Report_2025.pdf
5.4 MB
Legal AI Use Case Radar 2025 Report / Meisenbacher, Stephen, Nektarios Machner, Juraj Vladika, and Florian Matthes. Technical University of Munich, August 2025
Кроме интерактивной карты исследователи выпускают обзоры, где сравнивают использование ИИ практикующими юристами и в академической среде.
Парочка интересных выводов из доклада:
1️⃣ Ключевые проблемы практикующих юристов:
▪️ защита данных;
▪️ сложность работы с длинными документами;
▪️ выбор между созданием собственных решений и покупкой готовых,
▪️необходимость обучать сотрудников;
▪️давление со стороны клиентов (многие ждут, что юридические фирмы будут предлагать "AI-услуги").
2️⃣ Рост числа научных публикаций в последние 10 лет.
3️⃣ Кейсы использования Legal AI распределены по категориям на основе анализа 988 научных статей (из 3577 найденных),:
▪️Legal Research & Information Management ( 531 статья, (27,5%)→ автоматизация поиска правовой информации, исследовательские инструменты, базы данных);
▪️Information Processing & Extraction ( 518 (26,8%) → извлечение фактов, сущностей и отношений из юридических текстов);
▪️Document Analysis & Management ( 333 (17,3%) → классификация документов, их структурирование, организация);
▪️Legal Decision Making & Dispute Resolution ( 250 (13,0%) → прогнозирование исходов дел, модели для разрешения споров);
▪️Legal Information Retrieval & Support (136 (7,0%) → системы поиска по правовым базам, Q&A для юристов);
▪️Document Generation & Assistance (120 (6,2%) → автоматическая генерация и анализ текстов, драфты контрактов);
▪️Compliance & Risk Management ( 42 (2,2%), → аудит, поддержка соответствия (например, GDPR)).
4️⃣ Учёные фокусируются на исследовательских инструментах, извлечении информации и создании качественных датасетов. Практикующие юристы чаще всего используют ИИ для генерации документов.
#AIShelf
————
@pattern_ai
Кроме интерактивной карты исследователи выпускают обзоры, где сравнивают использование ИИ практикующими юристами и в академической среде.
Парочка интересных выводов из доклада:
▪️ защита данных;
▪️ сложность работы с длинными документами;
▪️ выбор между созданием собственных решений и покупкой готовых,
▪️необходимость обучать сотрудников;
▪️давление со стороны клиентов (многие ждут, что юридические фирмы будут предлагать "AI-услуги").
▪️Legal Research & Information Management ( 531 статья, (27,5%)→ автоматизация поиска правовой информации, исследовательские инструменты, базы данных);
▪️Information Processing & Extraction ( 518 (26,8%) → извлечение фактов, сущностей и отношений из юридических текстов);
▪️Document Analysis & Management ( 333 (17,3%) → классификация документов, их структурирование, организация);
▪️Legal Decision Making & Dispute Resolution ( 250 (13,0%) → прогнозирование исходов дел, модели для разрешения споров);
▪️Legal Information Retrieval & Support (136 (7,0%) → системы поиска по правовым базам, Q&A для юристов);
▪️Document Generation & Assistance (120 (6,2%) → автоматическая генерация и анализ текстов, драфты контрактов);
▪️Compliance & Risk Management ( 42 (2,2%), → аудит, поддержка соответствия (например, GDPR)).
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Как юристу внедрить ИИ и не потеряться в инструментах
LegalTech рынок растет, ИИ проверяет контракты, помогает писать процессуальные документы и ускоряет аналитику. С чего начать и как не утонуть в хаосе информации, многочисленных инструментах и учесть риски внедрения?
1️⃣ Полезные гайды:
▪️Use of Artificial Intelligence in Legal Practice / The British Institute of International and Comparative Law -фундаментальный обзор с акцентом на вопросы этики, конфиденциальности и надзора;
▪️Artificial Intelligence Toolkit for In-house Lawyers (ACC) - чек-листы и roadmap для внедрения;
▪️European lawyers in the era of СhatGPT;
▪️AI in the work of an attorney-at-law - неплохой гайд и примеры использования Copilot;
▪️AI and the Legal Profession / Law Society Library Resource Pack - список полезных публикаций.
2️⃣ Подходите к ИИ как к проекту:
- определите цели и задачи(что вы хотите сократить/оптимизировать (например, время на проверку NDA или due diligence), ресурсы;
- задайте метрики результатов (экономия часов, сокращение издержек, ускорение подачи процессуальных документов);
- постройте цикл: пилот → тестирование → масштабирование.
3️⃣ Внедрение:
- запускайте пилот с безопасными тестовыми данными;
- моделируйте бизнес-ценность (экономия времени, снижение издержек);
- не внедряйте «наобум» в команде и в компании, т.е. создайте инструкцию/политику по ИИ-этике, верификации, хранению и защите данных;
- начинайте с базовых Copilot или ChatGPT и добавляйте дальше нужные инструменты;
- используйте корпоративные версии (Enterprise) для защиты данных;
- обязательно вводите человеческий надзор: проверка ссылок, фактов, цитат;
- инвестируйте в обучение команды, технологии меняются быстро.
4️⃣ Управление рисками:
- один из главный рисков - «галлюцинации» (выдуманные факты) ИИ. Обязательна верификация всех выводов. Также такие риски можно начинать страховать. Например, компания Armilla запустила новый страховой полис для покрытия юридических претензий клиентов или третьих лиц, вызванных неисправностями ИИ, связанными с ошибками чат-бота и «галлюцинациями».
- никогда не загружайте клиентские данные в публичные модели (нарушение конфиденциальности);
- предвзятость (bias) модели;
- не используйте автоматически сгенерированный текст без проверки авторских прав;
- фиксируйте, какие инструменты применялись и как проверялся результат;
- сторонние ИИ-сервисы могут быть уязвимы;
- следите за регулированием, применением профэтическим кодексов.
В следующих постах будет перечень инструментов, заточенных для юристов, и обучающих ресурсов.
————
@pattern_ai
LegalTech рынок растет, ИИ проверяет контракты, помогает писать процессуальные документы и ускоряет аналитику. С чего начать и как не утонуть в хаосе информации, многочисленных инструментах и учесть риски внедрения?
▪️Use of Artificial Intelligence in Legal Practice / The British Institute of International and Comparative Law -фундаментальный обзор с акцентом на вопросы этики, конфиденциальности и надзора;
▪️Artificial Intelligence Toolkit for In-house Lawyers (ACC) - чек-листы и roadmap для внедрения;
▪️European lawyers in the era of СhatGPT;
▪️AI in the work of an attorney-at-law - неплохой гайд и примеры использования Copilot;
▪️AI and the Legal Profession / Law Society Library Resource Pack - список полезных публикаций.
- определите цели и задачи(что вы хотите сократить/оптимизировать (например, время на проверку NDA или due diligence), ресурсы;
- задайте метрики результатов (экономия часов, сокращение издержек, ускорение подачи процессуальных документов);
- постройте цикл: пилот → тестирование → масштабирование.
- запускайте пилот с безопасными тестовыми данными;
- моделируйте бизнес-ценность (экономия времени, снижение издержек);
- не внедряйте «наобум» в команде и в компании, т.е. создайте инструкцию/политику по ИИ-этике, верификации, хранению и защите данных;
- начинайте с базовых Copilot или ChatGPT и добавляйте дальше нужные инструменты;
- используйте корпоративные версии (Enterprise) для защиты данных;
- обязательно вводите человеческий надзор: проверка ссылок, фактов, цитат;
- инвестируйте в обучение команды, технологии меняются быстро.
- один из главный рисков - «галлюцинации» (выдуманные факты) ИИ. Обязательна верификация всех выводов. Также такие риски можно начинать страховать. Например, компания Armilla запустила новый страховой полис для покрытия юридических претензий клиентов или третьих лиц, вызванных неисправностями ИИ, связанными с ошибками чат-бота и «галлюцинациями».
- никогда не загружайте клиентские данные в публичные модели (нарушение конфиденциальности);
- предвзятость (bias) модели;
- не используйте автоматически сгенерированный текст без проверки авторских прав;
- фиксируйте, какие инструменты применялись и как проверялся результат;
- сторонние ИИ-сервисы могут быть уязвимы;
- следите за регулированием, применением профэтическим кодексов.
В следующих постах будет перечень инструментов, заточенных для юристов, и обучающих ресурсов.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Автоматизация для юристов: какие инструменты уже есть на рынке
▪️Работа с контрактами (ревью, драфт, согласование, база)
Paxton - cоставление документов, комплексный анализ, контекстное исследование;
Ironclad - инструменты для заключения контрактов на одной платформе (драфты, согласование, извлечение извлечение ключевых терминов, электронная подпись, аналитика и т.д.);
Luminance - анализ контрактов в MS Word,чат-бот для вопросов и ответов и автоматического редактирования, инструменты автоматизированного составления договоров, репозиторий;
IVO - ускоритель согласования договоров (проверка, выявление рисков, составление отчетов и писем для отделов с ключевыми проблемами);
Evisort - сквозное управление жизненным циклом договоров (проверка, согласование, аналитика),
DocJuris - автоматизация проверки договоров, аналитика, репозиторий;
LawGeex - автоматизация проверки договоров;
ContractExpress от Thomson Reuters - автоматизация проверки договоров;
LiteraKira - автоматизация проверки договоров;
Advocat AI - создание договоров на основе шаблонов;
▪️Legal Research & Аналитика
CoCounsel - составление меморандумов, помощь в подготовке к допросам, анализ на сходства, различия и преимущества в документах, поможет с большими объёмами материалов дела;
Lexis+ AI - исследование и ответы на вопросы, аналитика судебных разбирательств, проекты документов;
HarveyAI - AI-ассистент для работы в различных областях права, рабочее пространство для проектов;
Lex Machina - судебная аналитика (поведение судей, прогноз исходов);
Bloomberg Law - интерактивный правовой поиск, аналитика;
▪️Работа с ИС
Patlytics - оптимизация и ускорение процесса поиска, сопоставления патентных заявок с подтверждающими доказательствами и продуктов;
XLScout - платформа патентной аналитики на базе ИИ;
Solve Intelligence - подготовка патентов;
Qthena - ИИ- помощник для поиска товарных знаков и составления патентов;
▪️Операционные задачи и workflow, e-Discovery
Brightflag - автоматическая проверка счетов, анализ расходов;
Streamline AI - единая систему приема юридических запросов (непосредственно из электронной почты с поддержкой ИИ или прямо в Slack, MS Teams, Ironclad, Salesforce и других интегрированных инструментах);
Tonkean - организация жизненного цикла закупок, автоматизация задач, прием/сортировка задач;
Law.co - создание ИИ-агентов;
EvenUp - специализированный AI-ассистент, созданному на основе крупнейшего набора данных о телесных повреждениях;
AILawyer - специализированный AI-ассистент для потребителей и юристов;
Xapien — due diligence / AML / репутационные проверки;
Relativity - генеративный ИИ для сортировки и анализа документов, реагирование на утечки данных, библиотека вебинаров о возможном применении;
Everlaw - платформа для совместной подготовки к судебным разбирательствам;
▪️Отдельно проекты с российским законодательством
ExplainLaw - ИИ-ассистент для юристов, который объединяет поиск в интернете, справочно-правовые системы и искусственный интеллект в одном интерфейсе (поиск судебной практики по базе ГАРАНТ, поиск актуального законодательства с прикреплением ссылок на первоисточник, - формирование ответов на основе загруженных документов и изображений);
Botman.one - low-code платформа для создания сервисов без программирования (экспертные системы, генераторы (конструкторы) документов, навигаторы по процессам, чат-боты для Telegram/сайтов);
Doczilla - рабочее пространство юриста для работы c документами при помощи AI и не только;
LawGPT - AI-ассистент для юристов (профессиональные правовые заключения и подбор судебной практики, анализ и генерация процессуальных документов);
AI скрепка - полноценный MVP-проект с открытым исходным кодом, проводит интеллектуальный анализ договора поставки со стороны покупателя или поставщика, можно кастомизировать под свои нужды;
DOCXдодыр - помощник по анонимизации документов;
Бот @lastminute_legal_bot - помогает проверять рекламные креативы на соответствие ФЗ «О рекламе», используя Gemini и технологию RAG, подробности в канале создателя.
#AIShelf
————
@pattern_ai
▪️Работа с контрактами (ревью, драфт, согласование, база)
Paxton - cоставление документов, комплексный анализ, контекстное исследование;
Ironclad - инструменты для заключения контрактов на одной платформе (драфты, согласование, извлечение извлечение ключевых терминов, электронная подпись, аналитика и т.д.);
Luminance - анализ контрактов в MS Word,чат-бот для вопросов и ответов и автоматического редактирования, инструменты автоматизированного составления договоров, репозиторий;
IVO - ускоритель согласования договоров (проверка, выявление рисков, составление отчетов и писем для отделов с ключевыми проблемами);
Evisort - сквозное управление жизненным циклом договоров (проверка, согласование, аналитика),
DocJuris - автоматизация проверки договоров, аналитика, репозиторий;
LawGeex - автоматизация проверки договоров;
ContractExpress от Thomson Reuters - автоматизация проверки договоров;
LiteraKira - автоматизация проверки договоров;
Advocat AI - создание договоров на основе шаблонов;
▪️Legal Research & Аналитика
CoCounsel - составление меморандумов, помощь в подготовке к допросам, анализ на сходства, различия и преимущества в документах, поможет с большими объёмами материалов дела;
Lexis+ AI - исследование и ответы на вопросы, аналитика судебных разбирательств, проекты документов;
HarveyAI - AI-ассистент для работы в различных областях права, рабочее пространство для проектов;
Lex Machina - судебная аналитика (поведение судей, прогноз исходов);
Bloomberg Law - интерактивный правовой поиск, аналитика;
▪️Работа с ИС
Patlytics - оптимизация и ускорение процесса поиска, сопоставления патентных заявок с подтверждающими доказательствами и продуктов;
XLScout - платформа патентной аналитики на базе ИИ;
Solve Intelligence - подготовка патентов;
Qthena - ИИ- помощник для поиска товарных знаков и составления патентов;
▪️Операционные задачи и workflow, e-Discovery
Brightflag - автоматическая проверка счетов, анализ расходов;
Streamline AI - единая систему приема юридических запросов (непосредственно из электронной почты с поддержкой ИИ или прямо в Slack, MS Teams, Ironclad, Salesforce и других интегрированных инструментах);
Tonkean - организация жизненного цикла закупок, автоматизация задач, прием/сортировка задач;
Law.co - создание ИИ-агентов;
EvenUp - специализированный AI-ассистент, созданному на основе крупнейшего набора данных о телесных повреждениях;
AILawyer - специализированный AI-ассистент для потребителей и юристов;
Xapien — due diligence / AML / репутационные проверки;
Relativity - генеративный ИИ для сортировки и анализа документов, реагирование на утечки данных, библиотека вебинаров о возможном применении;
Everlaw - платформа для совместной подготовки к судебным разбирательствам;
▪️Отдельно проекты с российским законодательством
ExplainLaw - ИИ-ассистент для юристов, который объединяет поиск в интернете, справочно-правовые системы и искусственный интеллект в одном интерфейсе (поиск судебной практики по базе ГАРАНТ, поиск актуального законодательства с прикреплением ссылок на первоисточник, - формирование ответов на основе загруженных документов и изображений);
Botman.one - low-code платформа для создания сервисов без программирования (экспертные системы, генераторы (конструкторы) документов, навигаторы по процессам, чат-боты для Telegram/сайтов);
Doczilla - рабочее пространство юриста для работы c документами при помощи AI и не только;
LawGPT - AI-ассистент для юристов (профессиональные правовые заключения и подбор судебной практики, анализ и генерация процессуальных документов);
AI скрепка - полноценный MVP-проект с открытым исходным кодом, проводит интеллектуальный анализ договора поставки со стороны покупателя или поставщика, можно кастомизировать под свои нужды;
DOCXдодыр - помощник по анонимизации документов;
Бот @lastminute_legal_bot - помогает проверять рекламные креативы на соответствие ФЗ «О рекламе», используя Gemini и технологию RAG, подробности в канале создателя.
#AIShelf
————
@pattern_ai
🙏1
Обучающие курсы и ресурсы для юристов по ИИ
Если вы юрист и хотите понять, как реально применять ИИ в практике, ловите подборку:
🔹AI for Lawyers and Other Advocates (University of Michigan, Coursera) -сильные и слабые стороны ИИ, подготовка документов, управление временем и задачами, работа с презентациями, ведение проектов;
🔹AI & Law (Lund University, Coursera) - 4-недельный курс о том, как ИИ влияет на разные сферы права;
🔹AI for Lawyers: Obstacles and Opportunities (Coursera) - курс о барьерах и возможностях внедрения ИИ в юридическую работу;
🔹Introduction to Generative AI in Legal (Coursera) - (≈3 часа) об использовании генеративного ИИ для юристов;
🔹AI in Law: Research, Risk, and Legal Drafting (Coursera) - 9 курсов по внедрению ИИ в работу юриста;
🔹CS50 for Lawyers (Harvard University) - классика;
🔹Generative AI for Contracting & Legal Drafting (Udemy);
🔹Master the Intersection of Law and Artificial Intelligence (RefonteLearning);
🔹Generative AI for the Legal Profession (UC Berkley Law);
🔹The Legal AI Fundamentals Certification (Clio);
🔹A short & happy guide to artificial intelligence for lawyers/ Cooper, James M. , Kompella, Kashyap (книга);
🔹Artificial Intelligence and Legal Analysis: Implications for Legal Education and the Profession/ Lee F. Peoples (статья);
🔹The future is now: artificial intelligence and the legal profession / The International Bar Association (IBA);
🔹Нейросети: базовые навыки юриста (полный обучающий курс от Runetlix Academy);
🔹Нейросети | ilovedocs (обучающие видео для юристов);
🔹Cоздаем AI-помощника для юриста с нуля! (вебинар);
🔹Как использовать ИИ, чтобы сократить рутину, но не добавить головной боли/Павел Мищенко
🔹Использование ИИ в договорной работе: практические кейсы /Анастасия Пластовец ;
🔹Использование ИИ в судебной работе: практические кейсы /Семен Мошкин;
🔹Нейросети: От непонимания до ежедневного использования/ Ольга Каменская, Евдокия Шматина, Софья Смирнова, Андрей Власов;
🔹Как ИИ меняет и будет менять юридическую профессию /Виктория Фролова, Кирилл Буряков, Роман Янковский, Павел Мищенко;
#AIShelf
————
@pattern_ai
Если вы юрист и хотите понять, как реально применять ИИ в практике, ловите подборку:
🔹AI for Lawyers and Other Advocates (University of Michigan, Coursera) -сильные и слабые стороны ИИ, подготовка документов, управление временем и задачами, работа с презентациями, ведение проектов;
🔹AI & Law (Lund University, Coursera) - 4-недельный курс о том, как ИИ влияет на разные сферы права;
🔹AI for Lawyers: Obstacles and Opportunities (Coursera) - курс о барьерах и возможностях внедрения ИИ в юридическую работу;
🔹Introduction to Generative AI in Legal (Coursera) - (≈3 часа) об использовании генеративного ИИ для юристов;
🔹AI in Law: Research, Risk, and Legal Drafting (Coursera) - 9 курсов по внедрению ИИ в работу юриста;
🔹CS50 for Lawyers (Harvard University) - классика;
🔹Generative AI for Contracting & Legal Drafting (Udemy);
🔹Master the Intersection of Law and Artificial Intelligence (RefonteLearning);
🔹Generative AI for the Legal Profession (UC Berkley Law);
🔹The Legal AI Fundamentals Certification (Clio);
🔹A short & happy guide to artificial intelligence for lawyers/ Cooper, James M. , Kompella, Kashyap (книга);
🔹Artificial Intelligence and Legal Analysis: Implications for Legal Education and the Profession/ Lee F. Peoples (статья);
🔹The future is now: artificial intelligence and the legal profession / The International Bar Association (IBA);
🔹Нейросети: базовые навыки юриста (полный обучающий курс от Runetlix Academy);
🔹Нейросети | ilovedocs (обучающие видео для юристов);
🔹Cоздаем AI-помощника для юриста с нуля! (вебинар);
🔹Как использовать ИИ, чтобы сократить рутину, но не добавить головной боли/Павел Мищенко
🔹Использование ИИ в договорной работе: практические кейсы /Анастасия Пластовец ;
🔹Использование ИИ в судебной работе: практические кейсы /Семен Мошкин;
🔹Нейросети: От непонимания до ежедневного использования/ Ольга Каменская, Евдокия Шматина, Софья Смирнова, Андрей Власов;
🔹Как ИИ меняет и будет менять юридическую профессию /Виктория Фролова, Кирилл Буряков, Роман Янковский, Павел Мищенко;
#AIShelf
————
@pattern_ai
👍2
Prompt_AI Governance compliance.docx
15.7 KB
Пример промпта для проверки ИИ-продукта на соответствие законам и выявление рисков
Один из простых способов быстро оценить, насколько ваша ИИ-система или продукт соответствует требованиям EU AI Act, GDPR и законам отдельных штатов США, это задать правильный запрос, например, в ChatGPT. Такой подход помогает наглядно увидеть основные риски и зоны, требующие доработки.
❗️Важно помнить, что ответ не будет являться юридической консультацией и не гарантирует полного соответствия. Перед внедрением любых выводов в работу обязательно консультируйтесь со специалистами по комплаенсу и юристами.
Через метод Project Denoscription + Checklist + Report можно оценить риски, прозрачность и соответствие вашего продукта требованиям. Пример промпта во вложенном файле.
Импонирует больше англоязычный вариант запросов/ответов.
#TalkPrompty
————
@pattern_ai
Один из простых способов быстро оценить, насколько ваша ИИ-система или продукт соответствует требованиям EU AI Act, GDPR и законам отдельных штатов США, это задать правильный запрос, например, в ChatGPT. Такой подход помогает наглядно увидеть основные риски и зоны, требующие доработки.
❗️Важно помнить, что ответ не будет являться юридической консультацией и не гарантирует полного соответствия. Перед внедрением любых выводов в работу обязательно консультируйтесь со специалистами по комплаенсу и юристами.
Через метод Project Denoscription + Checklist + Report можно оценить риски, прозрачность и соответствие вашего продукта требованиям. Пример промпта во вложенном файле.
Импонирует больше англоязычный вариант запросов/ответов.
Пример заполнения описания проекта:
Step 1. Project Denoscription
Name of AI system/product: TalentAI Recruit
Purpose & target users: automates candidate screening and ranking for HR teams and recruiter;
Main capabilities: resume parsing and scoring, candidate ranking based on fit scores, highlighting strong/weak profiles;
Data sources used: uploaded resumes, LinkedIn/public profiles, historical HR data from clients;
Decision-making role: AI provides rankings and suggestions; HR staff make final hiring decisions
Deployment context: SaaS platform for corporate HR departments;
User-facing policies/notices: Privacy Policy mentions AI processing, no separate disclaimers or opt-out
#TalkPrompty
————
@pattern_ai
Как Netflix работает с ИИ: 5 принципов для продуктовых команд
Netflix опубликовал правила для своих партнёров, которые используют генеративный ИИ в производстве контента. Эти принципы можно применять и шире, для разработки своего продукта.
🎬 Пять принципов от Netflix:
1️⃣ Не копировать чужие работы и защищённый авторским правом материал.
2️⃣ Модель не должна хранить, использовать повторно или дообучаться на материалах проекта.
3️⃣ По возможности, использовать только защищённые среды (корпоративные, с контролем безопасности).
4️⃣ Сгенерированный материал является временным и не является частью конечного продукта, т.е. материал не должен попадать в финальную версию без проверки.
5️⃣ GenAI не используется для замены или создания новых выступлений талантливых артистов или работ, спонсируемых профсоюзом, без согласия.
Если правила соблюдены, то достаточно уведомить Netflix. Если нет, то нужно получить письменное разрешение. Приведены примеры ситуаций, которые всегда требуют эскалации и письменного одобрения перед продолжением работы.
В апреле Netflix применил ИИ для создания сцены обрушения здания в сериале Этернаут . Визуальные эффекты были сделаны примерно в 10 раз быстрее, чем обычным способом, и значительно дешевле. При этом компания подчёркнула, что ИИ ускоряет процесс, но не подменяет команду.
Эти правила можно превратить в практический чек-лист для своего проекта:
🔹Оригинальность (нет ли копирования или заимствований);
🔹 Безопасность (не утекают ли данные обратно в модель);
🔹 Защищённость ( корпоративная среда, комплайенс, шифрование и т.п.);
🔹Черновик vs финал (ясно показывать, где тест, а где результат);
🔹 Человекоцентричность (ИИ должен помогать специалисту, а не вытеснять его.).
Netflix показал отрасли стандарт, как можно формализовать правила работы с ИИ, чтобы снизить юридические и этические риски, которого стоит придерживаться.
#UXWatch
————
@pattern_ai
Netflix опубликовал правила для своих партнёров, которые используют генеративный ИИ в производстве контента. Эти принципы можно применять и шире, для разработки своего продукта.
🎬 Пять принципов от Netflix:
Нельзя использовать ИИ для создания диалогов или сцен, которые повторяют существующие фильмы или сериалы Netflix.
Если правила соблюдены, то достаточно уведомить Netflix. Если нет, то нужно получить письменное разрешение. Приведены примеры ситуаций, которые всегда требуют эскалации и письменного одобрения перед продолжением работы.
В апреле Netflix применил ИИ для создания сцены обрушения здания в сериале Этернаут . Визуальные эффекты были сделаны примерно в 10 раз быстрее, чем обычным способом, и значительно дешевле. При этом компания подчёркнула, что ИИ ускоряет процесс, но не подменяет команду.
Эти правила можно превратить в практический чек-лист для своего проекта:
🔹Оригинальность (нет ли копирования или заимствований);
🔹 Безопасность (не утекают ли данные обратно в модель);
🔹 Защищённость ( корпоративная среда, комплайенс, шифрование и т.п.);
🔹Черновик vs финал (ясно показывать, где тест, а где результат);
🔹 Человекоцентричность (ИИ должен помогать специалисту, а не вытеснять его.).
Netflix показал отрасли стандарт, как можно формализовать правила работы с ИИ, чтобы снизить юридические и этические риски, которого стоит придерживаться.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
The AI Act of the European Union and its implications for global technology regulation|Artificial Intelligence and Fundamental Rights| TRIER STUDIES ON DIGITAL LAW
Сборник подготовлен по итогам ежегодной конференции Института цифрового права в Трире (2024 год). Ведущие учёные и практики, включая экспертов, участвовавших в разработке и внедрении AI Act, критически анализируют подход ЕС к регулированию ИИ, основанный на соблюдении прав человека.
Ключевые вопросы:
🔹 AI Act – краткое введение | Ирина Орссич;
🔹От определения к регулированию: удалось ли Европейскому союзу правильно выстроить подход к ИИ? | Джоанна Дж. Брайсон;
🔹Запрещённые практики ИИ в рамках AI Act | Патрисия Гарсия Махадо;
🔹Управление данными в рамках AI Act | Лея Оссман-Магьера, Лиза Маркшис;
🔹Человеческий контроль по требованиям AI Act и его взаимодействие со статьёй 22 GDPR | Тристан Радтке;
🔹 Регуляторный подход Европейского союза к AI Act| Давид Рестрепо Амарилес, Орор Труссель ;
🔹Взгляд из США | Маргарет Ху;
🔹Регулирование ИИ в Азии | Ай-Пин Ван.
#AIShelf
————
@pattern_ai
Сборник подготовлен по итогам ежегодной конференции Института цифрового права в Трире (2024 год). Ведущие учёные и практики, включая экспертов, участвовавших в разработке и внедрении AI Act, критически анализируют подход ЕС к регулированию ИИ, основанный на соблюдении прав человека.
Ключевые вопросы:
🔹 AI Act – краткое введение | Ирина Орссич;
🔹От определения к регулированию: удалось ли Европейскому союзу правильно выстроить подход к ИИ? | Джоанна Дж. Брайсон;
🔹Запрещённые практики ИИ в рамках AI Act | Патрисия Гарсия Махадо;
🔹Управление данными в рамках AI Act | Лея Оссман-Магьера, Лиза Маркшис;
🔹Человеческий контроль по требованиям AI Act и его взаимодействие со статьёй 22 GDPR | Тристан Радтке;
🔹 Регуляторный подход Европейского союза к AI Act| Давид Рестрепо Амарилес, Орор Труссель ;
🔹Взгляд из США | Маргарет Ху;
🔹Регулирование ИИ в Азии | Ай-Пин Ван.
#AIShelf
————
@pattern_ai
18+ ИИ-компаньоны и человекоподобные сервисы. Где проходят границы нормы?
Риски флирта с чат-ботами мы уже разбирали раньше. А что происходит на рынке роботов-компаньонов и роботизированных сервисов, которые не ограничиваются текстом на экране, а взаимодействуют с человеком напрямую через голос, образ, движение или физический контакт.
🔹 Sex роботы - человекоподобные и во многом обманчивые машины, созданные для эмоциональных и сексуальных взаимодействий, всё чаще оснащённые ИИ-возможностями (Rigotti). Кастомизируемы, но в большинстве случаев воспроизводят гиперсексуализированные образы и закрепляют стереотипные роли.
Sex роботы вызывают полярные оценки:
– сторонники видят в них помощь для одиноких, пожилых, людей с инвалидностью, снижение рисков проституции, улучшение интимного опыта (Levy; Coursey);
– критики утверждают, что роботы закрепляют вредные гендерные стереотипы и нормализуют представление о женщинах как объектах (Gutiu, Sullins).
🔹Рынок основывается на кросс-культурных различиях. В Японии и Южной Кореи робот-компаньон воспринимается как часть жизни, куклы реалистичны. Китайские компании (WM Doll, Starpery) добавляют голосовые интерфейсы и генеративный ИИ, чтобы куклы могли «запоминать» предпочтения.
На выставке в США CES-2025 стартап Realbotix показал «Aria»( манекен с акцентом, обещающий удовольствие, «запоминающую» вкусы и опыт владельца) и наоборот позиционировал его как эмоционального робота-компаньона, чтобы расширить рынок. Вирусный контент указал еще раз на проблему «эмоционального обмана», роботы имитируют чувства, согласие и эмпатию, которых у них нет.
🔹Предложена новая междисциплинарная область Lovotics (от love + robotics) изучающая возможности эмоциональных связей с машинами:
- предложена модель, позволяющая симулировать «любовь» в роботах: Artificial Endocrine System + Probabilistic Love Assembly +Affective State Transition;
- люди способны воспринимать робота как объект романтической симпатии;
- роботы, которые выглядят «слишком по-человечески», воспринимаются скорее как друзей или партнёров;
- женщины чаще проявляют ревность к партнёрам с sex роботом, чем к тем, у кого есть «платонический» робот-друг.
🔹 Что думают пользователи:
- сексуальное возбуждение повышает готовность к sex с роботом, особенно у мужчин;
- sex с роботом менее морально осуждаем, чем супружеская измена с человеком;
- врачи допускают использование sex роботов в терапии сексуальных дисфункций.
🔹Дискуссия о sex роботах это часть более широкой темы роботизированных сервисов (от массажа до ухода за пожилыми).
Например, Aescape - роботизированный массаж (сканирует тело по 1,2 млн точек; воспроизводит техники профессионального массажиста, встроены сенсоры и кнопка аварийной остановки).
Смотрим риски:
- ответственность за ошибки;
- хранение чувствительных биометрических данных;
- вопросы лицензирования и сертификации;
- недобросовестный маркетинг («робот-терапевт»).
‼️ Где проходит границы нормы?
▪️Текущее законодательное регулирование (медицинские, потребительские, IoT-нормы) не рассчитаны на гибридные сервисы.Регулирования конкретно сферы роботов-компаньонов пока нет, действуют лишь общие нормы законодательства о кибербезопасности, защите данных и недобросовестной рекламе.
▪️Мировой консенсус есть только в одном: категорически недопустимы конфигурации, имитирующие детей.
▪️Отказ от «эмоционального обмана»: нельзя утверждать, что робот «чувствует» или «даёт согласие». В ЕС это связано напрямую с запретом на манипулятивный ИИ в AI Act.
▪️Генеративный ИИ систематически воспроизводит регрессивные гендерные стереотипы (женщины ассоциируются с домашними ролями, мужчины - с карьерой). Это перекликается с дизайном роботов: рынок почти не предлагает инклюзивных или небинарных моделей.
▪️ Пользователям важно помнить, что роботы это устройства, а не «люди», максимально избегать передачи чувствительной информации в такие девайсы, не верить эмоциональным фразам, ведь это просто скрипт.
Почитать статью Sex Robots and the AI Act: Opening the regulatory discussion/ Carlotta Rigotti
#UXWatch
————
@pattern_ai
Риски флирта с чат-ботами мы уже разбирали раньше. А что происходит на рынке роботов-компаньонов и роботизированных сервисов, которые не ограничиваются текстом на экране, а взаимодействуют с человеком напрямую через голос, образ, движение или физический контакт.
🔹 Sex роботы - человекоподобные и во многом обманчивые машины, созданные для эмоциональных и сексуальных взаимодействий, всё чаще оснащённые ИИ-возможностями (Rigotti). Кастомизируемы, но в большинстве случаев воспроизводят гиперсексуализированные образы и закрепляют стереотипные роли.
Sex роботы вызывают полярные оценки:
– сторонники видят в них помощь для одиноких, пожилых, людей с инвалидностью, снижение рисков проституции, улучшение интимного опыта (Levy; Coursey);
– критики утверждают, что роботы закрепляют вредные гендерные стереотипы и нормализуют представление о женщинах как объектах (Gutiu, Sullins).
🔹Рынок основывается на кросс-культурных различиях. В Японии и Южной Кореи робот-компаньон воспринимается как часть жизни, куклы реалистичны. Китайские компании (WM Doll, Starpery) добавляют голосовые интерфейсы и генеративный ИИ, чтобы куклы могли «запоминать» предпочтения.
На выставке в США CES-2025 стартап Realbotix показал «Aria»( манекен с акцентом, обещающий удовольствие, «запоминающую» вкусы и опыт владельца) и наоборот позиционировал его как эмоционального робота-компаньона, чтобы расширить рынок. Вирусный контент указал еще раз на проблему «эмоционального обмана», роботы имитируют чувства, согласие и эмпатию, которых у них нет.
🔹Предложена новая междисциплинарная область Lovotics (от love + robotics) изучающая возможности эмоциональных связей с машинами:
- предложена модель, позволяющая симулировать «любовь» в роботах: Artificial Endocrine System + Probabilistic Love Assembly +Affective State Transition;
- люди способны воспринимать робота как объект романтической симпатии;
- роботы, которые выглядят «слишком по-человечески», воспринимаются скорее как друзей или партнёров;
- женщины чаще проявляют ревность к партнёрам с sex роботом, чем к тем, у кого есть «платонический» робот-друг.
🔹 Что думают пользователи:
- сексуальное возбуждение повышает готовность к sex с роботом, особенно у мужчин;
- sex с роботом менее морально осуждаем, чем супружеская измена с человеком;
- врачи допускают использование sex роботов в терапии сексуальных дисфункций.
🔹Дискуссия о sex роботах это часть более широкой темы роботизированных сервисов (от массажа до ухода за пожилыми).
Например, Aescape - роботизированный массаж (сканирует тело по 1,2 млн точек; воспроизводит техники профессионального массажиста, встроены сенсоры и кнопка аварийной остановки).
Смотрим риски:
- ответственность за ошибки;
- хранение чувствительных биометрических данных;
- вопросы лицензирования и сертификации;
- недобросовестный маркетинг («робот-терапевт»).
▪️Текущее законодательное регулирование (медицинские, потребительские, IoT-нормы) не рассчитаны на гибридные сервисы.Регулирования конкретно сферы роботов-компаньонов пока нет, действуют лишь общие нормы законодательства о кибербезопасности, защите данных и недобросовестной рекламе.
▪️Мировой консенсус есть только в одном: категорически недопустимы конфигурации, имитирующие детей.
▪️Отказ от «эмоционального обмана»: нельзя утверждать, что робот «чувствует» или «даёт согласие». В ЕС это связано напрямую с запретом на манипулятивный ИИ в AI Act.
▪️Генеративный ИИ систематически воспроизводит регрессивные гендерные стереотипы (женщины ассоциируются с домашними ролями, мужчины - с карьерой). Это перекликается с дизайном роботов: рынок почти не предлагает инклюзивных или небинарных моделей.
▪️ Пользователям важно помнить, что роботы это устройства, а не «люди», максимально избегать передачи чувствительной информации в такие девайсы, не верить эмоциональным фразам, ведь это просто скрипт.
Почитать статью Sex Robots and the AI Act: Opening the regulatory discussion/ Carlotta Rigotti
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
С Днём знаний! Учимся, думаем, создаём ответственно. Критическое мышление остаётся главным навыком, который мы можем передать детям в эпоху ИИ.
Перед школами и родителями стоит важный вопрос: какие компетенции необходимо формировать у детей, чтобы они были готовы к будущему и могли сохранить контроль над собой и своими решениями в мире цифровых технологий.
Давайте обсудим.
🔹Человекоцентричное мышление.
Осознание, что технологии должны служить человеку, а не наоборот. Умение задавать вопросы и отстаивать свою роль в цифровом мире.
🔹Этика и ответственность.
Формирование навыков безопасного и ответственного использования ИИ. Понимание рисков и этических последствий решений алгоритмов.
🔹Базовые знания о принципах работы ИИ.
Разъяснять, что это не магия, а алгоритмы и данные. Развивать цифровую грамотность, умение работать с информацией и использовать ИИ как инструмент.
🔹Креативность и проектное мышление.
Создавать новое при поддержке технологий. Важно развивать у детей воображение, умение придумывать решения и проектировать их в реальности.
Что еще добавите в перечень?
Подробные рекомендации для школ, учителей и родителей можно найти в гайдах международных организаций:
▪️AI competency frameworks for students and teachers/ UNESCO;
▪️OECD Teaching Compass;
▪️Artificial intelligence and education and skills/ OECD;
▪️Policy guidance on AI for children/ UNICEF;
▪️The Children's Manifesto for the Future of AI/ The Alan Turing Institute.
————
@pattern_ai
Перед школами и родителями стоит важный вопрос: какие компетенции необходимо формировать у детей, чтобы они были готовы к будущему и могли сохранить контроль над собой и своими решениями в мире цифровых технологий.
Давайте обсудим.
🔹Человекоцентричное мышление.
Осознание, что технологии должны служить человеку, а не наоборот. Умение задавать вопросы и отстаивать свою роль в цифровом мире.
🔹Этика и ответственность.
Формирование навыков безопасного и ответственного использования ИИ. Понимание рисков и этических последствий решений алгоритмов.
🔹Базовые знания о принципах работы ИИ.
Разъяснять, что это не магия, а алгоритмы и данные. Развивать цифровую грамотность, умение работать с информацией и использовать ИИ как инструмент.
🔹Креативность и проектное мышление.
Создавать новое при поддержке технологий. Важно развивать у детей воображение, умение придумывать решения и проектировать их в реальности.
Что еще добавите в перечень?
Подробные рекомендации для школ, учителей и родителей можно найти в гайдах международных организаций:
▪️AI competency frameworks for students and teachers/ UNESCO;
▪️OECD Teaching Compass;
▪️Artificial intelligence and education and skills/ OECD;
▪️Policy guidance on AI for children/ UNICEF;
▪️The Children's Manifesto for the Future of AI/ The Alan Turing Institute.
————
@pattern_ai
❤3