Legal AI Use Case Radar - онлайн-ресурс, созданный исследователями из Технологического Университета Мюнхена, посвящен практическим сценариям ( use cases) использования ИИ в юридической сфере.
В интерактивном виде показаны сектора с ключевыми областями применения (например, compliance, документ-анализ, судебные процессы, автоматизация контрактов), уровни зрелости (от экспериментов (Assess) до активного внедрения (Adopt)) и конкретные кейсы и технологии, которые уже применяются юристами и компаниями.
#AIShelf
————
@pattern_ai
В интерактивном виде показаны сектора с ключевыми областями применения (например, compliance, документ-анализ, судебные процессы, автоматизация контрактов), уровни зрелости (от экспериментов (Assess) до активного внедрения (Adopt)) и конкретные кейсы и технологии, которые уже применяются юристами и компаниями.
#AIShelf
————
@pattern_ai
Как юристу внедрить ИИ и не потеряться в инструментах
LegalTech рынок растет, ИИ проверяет контракты, помогает писать процессуальные документы и ускоряет аналитику. С чего начать и как не утонуть в хаосе информации, многочисленных инструментах и учесть риски внедрения?
1️⃣ Полезные гайды:
▪️Use of Artificial Intelligence in Legal Practice / The British Institute of International and Comparative Law -фундаментальный обзор с акцентом на вопросы этики, конфиденциальности и надзора;
▪️Artificial Intelligence Toolkit for In-house Lawyers (ACC) - чек-листы и roadmap для внедрения;
▪️European lawyers in the era of СhatGPT;
▪️AI in the work of an attorney-at-law - неплохой гайд и примеры использования Copilot;
▪️AI and the Legal Profession / Law Society Library Resource Pack - список полезных публикаций.
2️⃣ Подходите к ИИ как к проекту:
- определите цели и задачи(что вы хотите сократить/оптимизировать (например, время на проверку NDA или due diligence), ресурсы;
- задайте метрики результатов (экономия часов, сокращение издержек, ускорение подачи процессуальных документов);
- постройте цикл: пилот → тестирование → масштабирование.
3️⃣ Внедрение:
- запускайте пилот с безопасными тестовыми данными;
- моделируйте бизнес-ценность (экономия времени, снижение издержек);
- не внедряйте «наобум» в команде и в компании, т.е. создайте инструкцию/политику по ИИ-этике, верификации, хранению и защите данных;
- начинайте с базовых Copilot или ChatGPT и добавляйте дальше нужные инструменты;
- используйте корпоративные версии (Enterprise) для защиты данных;
- обязательно вводите человеческий надзор: проверка ссылок, фактов, цитат;
- инвестируйте в обучение команды, технологии меняются быстро.
4️⃣ Управление рисками:
- один из главный рисков - «галлюцинации» (выдуманные факты) ИИ. Обязательна верификация всех выводов. Также такие риски можно начинать страховать. Например, компания Armilla запустила новый страховой полис для покрытия юридических претензий клиентов или третьих лиц, вызванных неисправностями ИИ, связанными с ошибками чат-бота и «галлюцинациями».
- никогда не загружайте клиентские данные в публичные модели (нарушение конфиденциальности);
- предвзятость (bias) модели;
- не используйте автоматически сгенерированный текст без проверки авторских прав;
- фиксируйте, какие инструменты применялись и как проверялся результат;
- сторонние ИИ-сервисы могут быть уязвимы;
- следите за регулированием, применением профэтическим кодексов.
В следующих постах будет перечень инструментов, заточенных для юристов, и обучающих ресурсов.
————
@pattern_ai
LegalTech рынок растет, ИИ проверяет контракты, помогает писать процессуальные документы и ускоряет аналитику. С чего начать и как не утонуть в хаосе информации, многочисленных инструментах и учесть риски внедрения?
▪️Use of Artificial Intelligence in Legal Practice / The British Institute of International and Comparative Law -фундаментальный обзор с акцентом на вопросы этики, конфиденциальности и надзора;
▪️Artificial Intelligence Toolkit for In-house Lawyers (ACC) - чек-листы и roadmap для внедрения;
▪️European lawyers in the era of СhatGPT;
▪️AI in the work of an attorney-at-law - неплохой гайд и примеры использования Copilot;
▪️AI and the Legal Profession / Law Society Library Resource Pack - список полезных публикаций.
- определите цели и задачи(что вы хотите сократить/оптимизировать (например, время на проверку NDA или due diligence), ресурсы;
- задайте метрики результатов (экономия часов, сокращение издержек, ускорение подачи процессуальных документов);
- постройте цикл: пилот → тестирование → масштабирование.
- запускайте пилот с безопасными тестовыми данными;
- моделируйте бизнес-ценность (экономия времени, снижение издержек);
- не внедряйте «наобум» в команде и в компании, т.е. создайте инструкцию/политику по ИИ-этике, верификации, хранению и защите данных;
- начинайте с базовых Copilot или ChatGPT и добавляйте дальше нужные инструменты;
- используйте корпоративные версии (Enterprise) для защиты данных;
- обязательно вводите человеческий надзор: проверка ссылок, фактов, цитат;
- инвестируйте в обучение команды, технологии меняются быстро.
- один из главный рисков - «галлюцинации» (выдуманные факты) ИИ. Обязательна верификация всех выводов. Также такие риски можно начинать страховать. Например, компания Armilla запустила новый страховой полис для покрытия юридических претензий клиентов или третьих лиц, вызванных неисправностями ИИ, связанными с ошибками чат-бота и «галлюцинациями».
- никогда не загружайте клиентские данные в публичные модели (нарушение конфиденциальности);
- предвзятость (bias) модели;
- не используйте автоматически сгенерированный текст без проверки авторских прав;
- фиксируйте, какие инструменты применялись и как проверялся результат;
- сторонние ИИ-сервисы могут быть уязвимы;
- следите за регулированием, применением профэтическим кодексов.
В следующих постах будет перечень инструментов, заточенных для юристов, и обучающих ресурсов.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Автоматизация для юристов: какие инструменты уже есть на рынке
▪️Работа с контрактами (ревью, драфт, согласование, база)
Paxton - cоставление документов, комплексный анализ, контекстное исследование;
Ironclad - инструменты для заключения контрактов на одной платформе (драфты, согласование, извлечение извлечение ключевых терминов, электронная подпись, аналитика и т.д.);
Luminance - анализ контрактов в MS Word,чат-бот для вопросов и ответов и автоматического редактирования, инструменты автоматизированного составления договоров, репозиторий;
IVO - ускоритель согласования договоров (проверка, выявление рисков, составление отчетов и писем для отделов с ключевыми проблемами);
Evisort - сквозное управление жизненным циклом договоров (проверка, согласование, аналитика),
DocJuris - автоматизация проверки договоров, аналитика, репозиторий;
LawGeex - автоматизация проверки договоров;
ContractExpress от Thomson Reuters - автоматизация проверки договоров;
LiteraKira - автоматизация проверки договоров;
Advocat AI - создание договоров на основе шаблонов;
▪️Legal Research & Аналитика
CoCounsel - составление меморандумов, помощь в подготовке к допросам, анализ на сходства, различия и преимущества в документах, поможет с большими объёмами материалов дела;
Lexis+ AI - исследование и ответы на вопросы, аналитика судебных разбирательств, проекты документов;
HarveyAI - AI-ассистент для работы в различных областях права, рабочее пространство для проектов;
Lex Machina - судебная аналитика (поведение судей, прогноз исходов);
Bloomberg Law - интерактивный правовой поиск, аналитика;
▪️Работа с ИС
Patlytics - оптимизация и ускорение процесса поиска, сопоставления патентных заявок с подтверждающими доказательствами и продуктов;
XLScout - платформа патентной аналитики на базе ИИ;
Solve Intelligence - подготовка патентов;
Qthena - ИИ- помощник для поиска товарных знаков и составления патентов;
▪️Операционные задачи и workflow, e-Discovery
Brightflag - автоматическая проверка счетов, анализ расходов;
Streamline AI - единая систему приема юридических запросов (непосредственно из электронной почты с поддержкой ИИ или прямо в Slack, MS Teams, Ironclad, Salesforce и других интегрированных инструментах);
Tonkean - организация жизненного цикла закупок, автоматизация задач, прием/сортировка задач;
Law.co - создание ИИ-агентов;
EvenUp - специализированный AI-ассистент, созданному на основе крупнейшего набора данных о телесных повреждениях;
AILawyer - специализированный AI-ассистент для потребителей и юристов;
Xapien — due diligence / AML / репутационные проверки;
Relativity - генеративный ИИ для сортировки и анализа документов, реагирование на утечки данных, библиотека вебинаров о возможном применении;
Everlaw - платформа для совместной подготовки к судебным разбирательствам;
▪️Отдельно проекты с российским законодательством
ExplainLaw - ИИ-ассистент для юристов, который объединяет поиск в интернете, справочно-правовые системы и искусственный интеллект в одном интерфейсе (поиск судебной практики по базе ГАРАНТ, поиск актуального законодательства с прикреплением ссылок на первоисточник, - формирование ответов на основе загруженных документов и изображений);
Botman.one - low-code платформа для создания сервисов без программирования (экспертные системы, генераторы (конструкторы) документов, навигаторы по процессам, чат-боты для Telegram/сайтов);
Doczilla - рабочее пространство юриста для работы c документами при помощи AI и не только;
LawGPT - AI-ассистент для юристов (профессиональные правовые заключения и подбор судебной практики, анализ и генерация процессуальных документов);
AI скрепка - полноценный MVP-проект с открытым исходным кодом, проводит интеллектуальный анализ договора поставки со стороны покупателя или поставщика, можно кастомизировать под свои нужды;
DOCXдодыр - помощник по анонимизации документов;
Бот @lastminute_legal_bot - помогает проверять рекламные креативы на соответствие ФЗ «О рекламе», используя Gemini и технологию RAG, подробности в канале создателя.
#AIShelf
————
@pattern_ai
▪️Работа с контрактами (ревью, драфт, согласование, база)
Paxton - cоставление документов, комплексный анализ, контекстное исследование;
Ironclad - инструменты для заключения контрактов на одной платформе (драфты, согласование, извлечение извлечение ключевых терминов, электронная подпись, аналитика и т.д.);
Luminance - анализ контрактов в MS Word,чат-бот для вопросов и ответов и автоматического редактирования, инструменты автоматизированного составления договоров, репозиторий;
IVO - ускоритель согласования договоров (проверка, выявление рисков, составление отчетов и писем для отделов с ключевыми проблемами);
Evisort - сквозное управление жизненным циклом договоров (проверка, согласование, аналитика),
DocJuris - автоматизация проверки договоров, аналитика, репозиторий;
LawGeex - автоматизация проверки договоров;
ContractExpress от Thomson Reuters - автоматизация проверки договоров;
LiteraKira - автоматизация проверки договоров;
Advocat AI - создание договоров на основе шаблонов;
▪️Legal Research & Аналитика
CoCounsel - составление меморандумов, помощь в подготовке к допросам, анализ на сходства, различия и преимущества в документах, поможет с большими объёмами материалов дела;
Lexis+ AI - исследование и ответы на вопросы, аналитика судебных разбирательств, проекты документов;
HarveyAI - AI-ассистент для работы в различных областях права, рабочее пространство для проектов;
Lex Machina - судебная аналитика (поведение судей, прогноз исходов);
Bloomberg Law - интерактивный правовой поиск, аналитика;
▪️Работа с ИС
Patlytics - оптимизация и ускорение процесса поиска, сопоставления патентных заявок с подтверждающими доказательствами и продуктов;
XLScout - платформа патентной аналитики на базе ИИ;
Solve Intelligence - подготовка патентов;
Qthena - ИИ- помощник для поиска товарных знаков и составления патентов;
▪️Операционные задачи и workflow, e-Discovery
Brightflag - автоматическая проверка счетов, анализ расходов;
Streamline AI - единая систему приема юридических запросов (непосредственно из электронной почты с поддержкой ИИ или прямо в Slack, MS Teams, Ironclad, Salesforce и других интегрированных инструментах);
Tonkean - организация жизненного цикла закупок, автоматизация задач, прием/сортировка задач;
Law.co - создание ИИ-агентов;
EvenUp - специализированный AI-ассистент, созданному на основе крупнейшего набора данных о телесных повреждениях;
AILawyer - специализированный AI-ассистент для потребителей и юристов;
Xapien — due diligence / AML / репутационные проверки;
Relativity - генеративный ИИ для сортировки и анализа документов, реагирование на утечки данных, библиотека вебинаров о возможном применении;
Everlaw - платформа для совместной подготовки к судебным разбирательствам;
▪️Отдельно проекты с российским законодательством
ExplainLaw - ИИ-ассистент для юристов, который объединяет поиск в интернете, справочно-правовые системы и искусственный интеллект в одном интерфейсе (поиск судебной практики по базе ГАРАНТ, поиск актуального законодательства с прикреплением ссылок на первоисточник, - формирование ответов на основе загруженных документов и изображений);
Botman.one - low-code платформа для создания сервисов без программирования (экспертные системы, генераторы (конструкторы) документов, навигаторы по процессам, чат-боты для Telegram/сайтов);
Doczilla - рабочее пространство юриста для работы c документами при помощи AI и не только;
LawGPT - AI-ассистент для юристов (профессиональные правовые заключения и подбор судебной практики, анализ и генерация процессуальных документов);
AI скрепка - полноценный MVP-проект с открытым исходным кодом, проводит интеллектуальный анализ договора поставки со стороны покупателя или поставщика, можно кастомизировать под свои нужды;
DOCXдодыр - помощник по анонимизации документов;
Бот @lastminute_legal_bot - помогает проверять рекламные креативы на соответствие ФЗ «О рекламе», используя Gemini и технологию RAG, подробности в канале создателя.
#AIShelf
————
@pattern_ai
🙏1
Обучающие курсы и ресурсы для юристов по ИИ
Если вы юрист и хотите понять, как реально применять ИИ в практике, ловите подборку:
🔹AI for Lawyers and Other Advocates (University of Michigan, Coursera) -сильные и слабые стороны ИИ, подготовка документов, управление временем и задачами, работа с презентациями, ведение проектов;
🔹AI & Law (Lund University, Coursera) - 4-недельный курс о том, как ИИ влияет на разные сферы права;
🔹AI for Lawyers: Obstacles and Opportunities (Coursera) - курс о барьерах и возможностях внедрения ИИ в юридическую работу;
🔹Introduction to Generative AI in Legal (Coursera) - (≈3 часа) об использовании генеративного ИИ для юристов;
🔹AI in Law: Research, Risk, and Legal Drafting (Coursera) - 9 курсов по внедрению ИИ в работу юриста;
🔹CS50 for Lawyers (Harvard University) - классика;
🔹Generative AI for Contracting & Legal Drafting (Udemy);
🔹Master the Intersection of Law and Artificial Intelligence (RefonteLearning);
🔹Generative AI for the Legal Profession (UC Berkley Law);
🔹The Legal AI Fundamentals Certification (Clio);
🔹A short & happy guide to artificial intelligence for lawyers/ Cooper, James M. , Kompella, Kashyap (книга);
🔹Artificial Intelligence and Legal Analysis: Implications for Legal Education and the Profession/ Lee F. Peoples (статья);
🔹The future is now: artificial intelligence and the legal profession / The International Bar Association (IBA);
🔹Нейросети: базовые навыки юриста (полный обучающий курс от Runetlix Academy);
🔹Нейросети | ilovedocs (обучающие видео для юристов);
🔹Cоздаем AI-помощника для юриста с нуля! (вебинар);
🔹Как использовать ИИ, чтобы сократить рутину, но не добавить головной боли/Павел Мищенко
🔹Использование ИИ в договорной работе: практические кейсы /Анастасия Пластовец ;
🔹Использование ИИ в судебной работе: практические кейсы /Семен Мошкин;
🔹Нейросети: От непонимания до ежедневного использования/ Ольга Каменская, Евдокия Шматина, Софья Смирнова, Андрей Власов;
🔹Как ИИ меняет и будет менять юридическую профессию /Виктория Фролова, Кирилл Буряков, Роман Янковский, Павел Мищенко;
#AIShelf
————
@pattern_ai
Если вы юрист и хотите понять, как реально применять ИИ в практике, ловите подборку:
🔹AI for Lawyers and Other Advocates (University of Michigan, Coursera) -сильные и слабые стороны ИИ, подготовка документов, управление временем и задачами, работа с презентациями, ведение проектов;
🔹AI & Law (Lund University, Coursera) - 4-недельный курс о том, как ИИ влияет на разные сферы права;
🔹AI for Lawyers: Obstacles and Opportunities (Coursera) - курс о барьерах и возможностях внедрения ИИ в юридическую работу;
🔹Introduction to Generative AI in Legal (Coursera) - (≈3 часа) об использовании генеративного ИИ для юристов;
🔹AI in Law: Research, Risk, and Legal Drafting (Coursera) - 9 курсов по внедрению ИИ в работу юриста;
🔹CS50 for Lawyers (Harvard University) - классика;
🔹Generative AI for Contracting & Legal Drafting (Udemy);
🔹Master the Intersection of Law and Artificial Intelligence (RefonteLearning);
🔹Generative AI for the Legal Profession (UC Berkley Law);
🔹The Legal AI Fundamentals Certification (Clio);
🔹A short & happy guide to artificial intelligence for lawyers/ Cooper, James M. , Kompella, Kashyap (книга);
🔹Artificial Intelligence and Legal Analysis: Implications for Legal Education and the Profession/ Lee F. Peoples (статья);
🔹The future is now: artificial intelligence and the legal profession / The International Bar Association (IBA);
🔹Нейросети: базовые навыки юриста (полный обучающий курс от Runetlix Academy);
🔹Нейросети | ilovedocs (обучающие видео для юристов);
🔹Cоздаем AI-помощника для юриста с нуля! (вебинар);
🔹Как использовать ИИ, чтобы сократить рутину, но не добавить головной боли/Павел Мищенко
🔹Использование ИИ в договорной работе: практические кейсы /Анастасия Пластовец ;
🔹Использование ИИ в судебной работе: практические кейсы /Семен Мошкин;
🔹Нейросети: От непонимания до ежедневного использования/ Ольга Каменская, Евдокия Шматина, Софья Смирнова, Андрей Власов;
🔹Как ИИ меняет и будет менять юридическую профессию /Виктория Фролова, Кирилл Буряков, Роман Янковский, Павел Мищенко;
#AIShelf
————
@pattern_ai
👍2
Prompt_AI Governance compliance.docx
15.7 KB
Пример промпта для проверки ИИ-продукта на соответствие законам и выявление рисков
Один из простых способов быстро оценить, насколько ваша ИИ-система или продукт соответствует требованиям EU AI Act, GDPR и законам отдельных штатов США, это задать правильный запрос, например, в ChatGPT. Такой подход помогает наглядно увидеть основные риски и зоны, требующие доработки.
❗️Важно помнить, что ответ не будет являться юридической консультацией и не гарантирует полного соответствия. Перед внедрением любых выводов в работу обязательно консультируйтесь со специалистами по комплаенсу и юристами.
Через метод Project Denoscription + Checklist + Report можно оценить риски, прозрачность и соответствие вашего продукта требованиям. Пример промпта во вложенном файле.
Импонирует больше англоязычный вариант запросов/ответов.
#TalkPrompty
————
@pattern_ai
Один из простых способов быстро оценить, насколько ваша ИИ-система или продукт соответствует требованиям EU AI Act, GDPR и законам отдельных штатов США, это задать правильный запрос, например, в ChatGPT. Такой подход помогает наглядно увидеть основные риски и зоны, требующие доработки.
❗️Важно помнить, что ответ не будет являться юридической консультацией и не гарантирует полного соответствия. Перед внедрением любых выводов в работу обязательно консультируйтесь со специалистами по комплаенсу и юристами.
Через метод Project Denoscription + Checklist + Report можно оценить риски, прозрачность и соответствие вашего продукта требованиям. Пример промпта во вложенном файле.
Импонирует больше англоязычный вариант запросов/ответов.
Пример заполнения описания проекта:
Step 1. Project Denoscription
Name of AI system/product: TalentAI Recruit
Purpose & target users: automates candidate screening and ranking for HR teams and recruiter;
Main capabilities: resume parsing and scoring, candidate ranking based on fit scores, highlighting strong/weak profiles;
Data sources used: uploaded resumes, LinkedIn/public profiles, historical HR data from clients;
Decision-making role: AI provides rankings and suggestions; HR staff make final hiring decisions
Deployment context: SaaS platform for corporate HR departments;
User-facing policies/notices: Privacy Policy mentions AI processing, no separate disclaimers or opt-out
#TalkPrompty
————
@pattern_ai
Как Netflix работает с ИИ: 5 принципов для продуктовых команд
Netflix опубликовал правила для своих партнёров, которые используют генеративный ИИ в производстве контента. Эти принципы можно применять и шире, для разработки своего продукта.
🎬 Пять принципов от Netflix:
1️⃣ Не копировать чужие работы и защищённый авторским правом материал.
2️⃣ Модель не должна хранить, использовать повторно или дообучаться на материалах проекта.
3️⃣ По возможности, использовать только защищённые среды (корпоративные, с контролем безопасности).
4️⃣ Сгенерированный материал является временным и не является частью конечного продукта, т.е. материал не должен попадать в финальную версию без проверки.
5️⃣ GenAI не используется для замены или создания новых выступлений талантливых артистов или работ, спонсируемых профсоюзом, без согласия.
Если правила соблюдены, то достаточно уведомить Netflix. Если нет, то нужно получить письменное разрешение. Приведены примеры ситуаций, которые всегда требуют эскалации и письменного одобрения перед продолжением работы.
В апреле Netflix применил ИИ для создания сцены обрушения здания в сериале Этернаут . Визуальные эффекты были сделаны примерно в 10 раз быстрее, чем обычным способом, и значительно дешевле. При этом компания подчёркнула, что ИИ ускоряет процесс, но не подменяет команду.
Эти правила можно превратить в практический чек-лист для своего проекта:
🔹Оригинальность (нет ли копирования или заимствований);
🔹 Безопасность (не утекают ли данные обратно в модель);
🔹 Защищённость ( корпоративная среда, комплайенс, шифрование и т.п.);
🔹Черновик vs финал (ясно показывать, где тест, а где результат);
🔹 Человекоцентричность (ИИ должен помогать специалисту, а не вытеснять его.).
Netflix показал отрасли стандарт, как можно формализовать правила работы с ИИ, чтобы снизить юридические и этические риски, которого стоит придерживаться.
#UXWatch
————
@pattern_ai
Netflix опубликовал правила для своих партнёров, которые используют генеративный ИИ в производстве контента. Эти принципы можно применять и шире, для разработки своего продукта.
🎬 Пять принципов от Netflix:
Нельзя использовать ИИ для создания диалогов или сцен, которые повторяют существующие фильмы или сериалы Netflix.
Если правила соблюдены, то достаточно уведомить Netflix. Если нет, то нужно получить письменное разрешение. Приведены примеры ситуаций, которые всегда требуют эскалации и письменного одобрения перед продолжением работы.
В апреле Netflix применил ИИ для создания сцены обрушения здания в сериале Этернаут . Визуальные эффекты были сделаны примерно в 10 раз быстрее, чем обычным способом, и значительно дешевле. При этом компания подчёркнула, что ИИ ускоряет процесс, но не подменяет команду.
Эти правила можно превратить в практический чек-лист для своего проекта:
🔹Оригинальность (нет ли копирования или заимствований);
🔹 Безопасность (не утекают ли данные обратно в модель);
🔹 Защищённость ( корпоративная среда, комплайенс, шифрование и т.п.);
🔹Черновик vs финал (ясно показывать, где тест, а где результат);
🔹 Человекоцентричность (ИИ должен помогать специалисту, а не вытеснять его.).
Netflix показал отрасли стандарт, как можно формализовать правила работы с ИИ, чтобы снизить юридические и этические риски, которого стоит придерживаться.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
The AI Act of the European Union and its implications for global technology regulation|Artificial Intelligence and Fundamental Rights| TRIER STUDIES ON DIGITAL LAW
Сборник подготовлен по итогам ежегодной конференции Института цифрового права в Трире (2024 год). Ведущие учёные и практики, включая экспертов, участвовавших в разработке и внедрении AI Act, критически анализируют подход ЕС к регулированию ИИ, основанный на соблюдении прав человека.
Ключевые вопросы:
🔹 AI Act – краткое введение | Ирина Орссич;
🔹От определения к регулированию: удалось ли Европейскому союзу правильно выстроить подход к ИИ? | Джоанна Дж. Брайсон;
🔹Запрещённые практики ИИ в рамках AI Act | Патрисия Гарсия Махадо;
🔹Управление данными в рамках AI Act | Лея Оссман-Магьера, Лиза Маркшис;
🔹Человеческий контроль по требованиям AI Act и его взаимодействие со статьёй 22 GDPR | Тристан Радтке;
🔹 Регуляторный подход Европейского союза к AI Act| Давид Рестрепо Амарилес, Орор Труссель ;
🔹Взгляд из США | Маргарет Ху;
🔹Регулирование ИИ в Азии | Ай-Пин Ван.
#AIShelf
————
@pattern_ai
Сборник подготовлен по итогам ежегодной конференции Института цифрового права в Трире (2024 год). Ведущие учёные и практики, включая экспертов, участвовавших в разработке и внедрении AI Act, критически анализируют подход ЕС к регулированию ИИ, основанный на соблюдении прав человека.
Ключевые вопросы:
🔹 AI Act – краткое введение | Ирина Орссич;
🔹От определения к регулированию: удалось ли Европейскому союзу правильно выстроить подход к ИИ? | Джоанна Дж. Брайсон;
🔹Запрещённые практики ИИ в рамках AI Act | Патрисия Гарсия Махадо;
🔹Управление данными в рамках AI Act | Лея Оссман-Магьера, Лиза Маркшис;
🔹Человеческий контроль по требованиям AI Act и его взаимодействие со статьёй 22 GDPR | Тристан Радтке;
🔹 Регуляторный подход Европейского союза к AI Act| Давид Рестрепо Амарилес, Орор Труссель ;
🔹Взгляд из США | Маргарет Ху;
🔹Регулирование ИИ в Азии | Ай-Пин Ван.
#AIShelf
————
@pattern_ai
18+ ИИ-компаньоны и человекоподобные сервисы. Где проходят границы нормы?
Риски флирта с чат-ботами мы уже разбирали раньше. А что происходит на рынке роботов-компаньонов и роботизированных сервисов, которые не ограничиваются текстом на экране, а взаимодействуют с человеком напрямую через голос, образ, движение или физический контакт.
🔹 Sex роботы - человекоподобные и во многом обманчивые машины, созданные для эмоциональных и сексуальных взаимодействий, всё чаще оснащённые ИИ-возможностями (Rigotti). Кастомизируемы, но в большинстве случаев воспроизводят гиперсексуализированные образы и закрепляют стереотипные роли.
Sex роботы вызывают полярные оценки:
– сторонники видят в них помощь для одиноких, пожилых, людей с инвалидностью, снижение рисков проституции, улучшение интимного опыта (Levy; Coursey);
– критики утверждают, что роботы закрепляют вредные гендерные стереотипы и нормализуют представление о женщинах как объектах (Gutiu, Sullins).
🔹Рынок основывается на кросс-культурных различиях. В Японии и Южной Кореи робот-компаньон воспринимается как часть жизни, куклы реалистичны. Китайские компании (WM Doll, Starpery) добавляют голосовые интерфейсы и генеративный ИИ, чтобы куклы могли «запоминать» предпочтения.
На выставке в США CES-2025 стартап Realbotix показал «Aria»( манекен с акцентом, обещающий удовольствие, «запоминающую» вкусы и опыт владельца) и наоборот позиционировал его как эмоционального робота-компаньона, чтобы расширить рынок. Вирусный контент указал еще раз на проблему «эмоционального обмана», роботы имитируют чувства, согласие и эмпатию, которых у них нет.
🔹Предложена новая междисциплинарная область Lovotics (от love + robotics) изучающая возможности эмоциональных связей с машинами:
- предложена модель, позволяющая симулировать «любовь» в роботах: Artificial Endocrine System + Probabilistic Love Assembly +Affective State Transition;
- люди способны воспринимать робота как объект романтической симпатии;
- роботы, которые выглядят «слишком по-человечески», воспринимаются скорее как друзей или партнёров;
- женщины чаще проявляют ревность к партнёрам с sex роботом, чем к тем, у кого есть «платонический» робот-друг.
🔹 Что думают пользователи:
- сексуальное возбуждение повышает готовность к sex с роботом, особенно у мужчин;
- sex с роботом менее морально осуждаем, чем супружеская измена с человеком;
- врачи допускают использование sex роботов в терапии сексуальных дисфункций.
🔹Дискуссия о sex роботах это часть более широкой темы роботизированных сервисов (от массажа до ухода за пожилыми).
Например, Aescape - роботизированный массаж (сканирует тело по 1,2 млн точек; воспроизводит техники профессионального массажиста, встроены сенсоры и кнопка аварийной остановки).
Смотрим риски:
- ответственность за ошибки;
- хранение чувствительных биометрических данных;
- вопросы лицензирования и сертификации;
- недобросовестный маркетинг («робот-терапевт»).
‼️ Где проходит границы нормы?
▪️Текущее законодательное регулирование (медицинские, потребительские, IoT-нормы) не рассчитаны на гибридные сервисы.Регулирования конкретно сферы роботов-компаньонов пока нет, действуют лишь общие нормы законодательства о кибербезопасности, защите данных и недобросовестной рекламе.
▪️Мировой консенсус есть только в одном: категорически недопустимы конфигурации, имитирующие детей.
▪️Отказ от «эмоционального обмана»: нельзя утверждать, что робот «чувствует» или «даёт согласие». В ЕС это связано напрямую с запретом на манипулятивный ИИ в AI Act.
▪️Генеративный ИИ систематически воспроизводит регрессивные гендерные стереотипы (женщины ассоциируются с домашними ролями, мужчины - с карьерой). Это перекликается с дизайном роботов: рынок почти не предлагает инклюзивных или небинарных моделей.
▪️ Пользователям важно помнить, что роботы это устройства, а не «люди», максимально избегать передачи чувствительной информации в такие девайсы, не верить эмоциональным фразам, ведь это просто скрипт.
Почитать статью Sex Robots and the AI Act: Opening the regulatory discussion/ Carlotta Rigotti
#UXWatch
————
@pattern_ai
Риски флирта с чат-ботами мы уже разбирали раньше. А что происходит на рынке роботов-компаньонов и роботизированных сервисов, которые не ограничиваются текстом на экране, а взаимодействуют с человеком напрямую через голос, образ, движение или физический контакт.
🔹 Sex роботы - человекоподобные и во многом обманчивые машины, созданные для эмоциональных и сексуальных взаимодействий, всё чаще оснащённые ИИ-возможностями (Rigotti). Кастомизируемы, но в большинстве случаев воспроизводят гиперсексуализированные образы и закрепляют стереотипные роли.
Sex роботы вызывают полярные оценки:
– сторонники видят в них помощь для одиноких, пожилых, людей с инвалидностью, снижение рисков проституции, улучшение интимного опыта (Levy; Coursey);
– критики утверждают, что роботы закрепляют вредные гендерные стереотипы и нормализуют представление о женщинах как объектах (Gutiu, Sullins).
🔹Рынок основывается на кросс-культурных различиях. В Японии и Южной Кореи робот-компаньон воспринимается как часть жизни, куклы реалистичны. Китайские компании (WM Doll, Starpery) добавляют голосовые интерфейсы и генеративный ИИ, чтобы куклы могли «запоминать» предпочтения.
На выставке в США CES-2025 стартап Realbotix показал «Aria»( манекен с акцентом, обещающий удовольствие, «запоминающую» вкусы и опыт владельца) и наоборот позиционировал его как эмоционального робота-компаньона, чтобы расширить рынок. Вирусный контент указал еще раз на проблему «эмоционального обмана», роботы имитируют чувства, согласие и эмпатию, которых у них нет.
🔹Предложена новая междисциплинарная область Lovotics (от love + robotics) изучающая возможности эмоциональных связей с машинами:
- предложена модель, позволяющая симулировать «любовь» в роботах: Artificial Endocrine System + Probabilistic Love Assembly +Affective State Transition;
- люди способны воспринимать робота как объект романтической симпатии;
- роботы, которые выглядят «слишком по-человечески», воспринимаются скорее как друзей или партнёров;
- женщины чаще проявляют ревность к партнёрам с sex роботом, чем к тем, у кого есть «платонический» робот-друг.
🔹 Что думают пользователи:
- сексуальное возбуждение повышает готовность к sex с роботом, особенно у мужчин;
- sex с роботом менее морально осуждаем, чем супружеская измена с человеком;
- врачи допускают использование sex роботов в терапии сексуальных дисфункций.
🔹Дискуссия о sex роботах это часть более широкой темы роботизированных сервисов (от массажа до ухода за пожилыми).
Например, Aescape - роботизированный массаж (сканирует тело по 1,2 млн точек; воспроизводит техники профессионального массажиста, встроены сенсоры и кнопка аварийной остановки).
Смотрим риски:
- ответственность за ошибки;
- хранение чувствительных биометрических данных;
- вопросы лицензирования и сертификации;
- недобросовестный маркетинг («робот-терапевт»).
▪️Текущее законодательное регулирование (медицинские, потребительские, IoT-нормы) не рассчитаны на гибридные сервисы.Регулирования конкретно сферы роботов-компаньонов пока нет, действуют лишь общие нормы законодательства о кибербезопасности, защите данных и недобросовестной рекламе.
▪️Мировой консенсус есть только в одном: категорически недопустимы конфигурации, имитирующие детей.
▪️Отказ от «эмоционального обмана»: нельзя утверждать, что робот «чувствует» или «даёт согласие». В ЕС это связано напрямую с запретом на манипулятивный ИИ в AI Act.
▪️Генеративный ИИ систематически воспроизводит регрессивные гендерные стереотипы (женщины ассоциируются с домашними ролями, мужчины - с карьерой). Это перекликается с дизайном роботов: рынок почти не предлагает инклюзивных или небинарных моделей.
▪️ Пользователям важно помнить, что роботы это устройства, а не «люди», максимально избегать передачи чувствительной информации в такие девайсы, не верить эмоциональным фразам, ведь это просто скрипт.
Почитать статью Sex Robots and the AI Act: Opening the regulatory discussion/ Carlotta Rigotti
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
С Днём знаний! Учимся, думаем, создаём ответственно. Критическое мышление остаётся главным навыком, который мы можем передать детям в эпоху ИИ.
Перед школами и родителями стоит важный вопрос: какие компетенции необходимо формировать у детей, чтобы они были готовы к будущему и могли сохранить контроль над собой и своими решениями в мире цифровых технологий.
Давайте обсудим.
🔹Человекоцентричное мышление.
Осознание, что технологии должны служить человеку, а не наоборот. Умение задавать вопросы и отстаивать свою роль в цифровом мире.
🔹Этика и ответственность.
Формирование навыков безопасного и ответственного использования ИИ. Понимание рисков и этических последствий решений алгоритмов.
🔹Базовые знания о принципах работы ИИ.
Разъяснять, что это не магия, а алгоритмы и данные. Развивать цифровую грамотность, умение работать с информацией и использовать ИИ как инструмент.
🔹Креативность и проектное мышление.
Создавать новое при поддержке технологий. Важно развивать у детей воображение, умение придумывать решения и проектировать их в реальности.
Что еще добавите в перечень?
Подробные рекомендации для школ, учителей и родителей можно найти в гайдах международных организаций:
▪️AI competency frameworks for students and teachers/ UNESCO;
▪️OECD Teaching Compass;
▪️Artificial intelligence and education and skills/ OECD;
▪️Policy guidance on AI for children/ UNICEF;
▪️The Children's Manifesto for the Future of AI/ The Alan Turing Institute.
————
@pattern_ai
Перед школами и родителями стоит важный вопрос: какие компетенции необходимо формировать у детей, чтобы они были готовы к будущему и могли сохранить контроль над собой и своими решениями в мире цифровых технологий.
Давайте обсудим.
🔹Человекоцентричное мышление.
Осознание, что технологии должны служить человеку, а не наоборот. Умение задавать вопросы и отстаивать свою роль в цифровом мире.
🔹Этика и ответственность.
Формирование навыков безопасного и ответственного использования ИИ. Понимание рисков и этических последствий решений алгоритмов.
🔹Базовые знания о принципах работы ИИ.
Разъяснять, что это не магия, а алгоритмы и данные. Развивать цифровую грамотность, умение работать с информацией и использовать ИИ как инструмент.
🔹Креативность и проектное мышление.
Создавать новое при поддержке технологий. Важно развивать у детей воображение, умение придумывать решения и проектировать их в реальности.
Что еще добавите в перечень?
Подробные рекомендации для школ, учителей и родителей можно найти в гайдах международных организаций:
▪️AI competency frameworks for students and teachers/ UNESCO;
▪️OECD Teaching Compass;
▪️Artificial intelligence and education and skills/ OECD;
▪️Policy guidance on AI for children/ UNICEF;
▪️The Children's Manifesto for the Future of AI/ The Alan Turing Institute.
————
@pattern_ai
❤3
Список трекеров ИИ
🔹The OECD.AI Policy Navigator;
🔹Global AI Regulation Tracker;
🔹Global AI Law and Policy Tracker / IAPP;
🔹Catalogue of Tools & Metrics for Trustworthy AI| OECD.AI;
🔹EU AI Act Compliance Checker;
🔹AI Act Single Information Platform (The AI Act Explorer, timeline, resources);
🔹Map of copyright +related Lawsuits v. AI companies;
🔹EU AI Act Resource Center;
🔹 MIT AI Risk Repository ;
🔹Living repository on AI literacy| European Commission;
🔹AI Hallucination Cases Tracker;
🔹Legal AI Use Case Radar;
🔹Коллекция извлеченных системных подсказок из популярных чат-ботов, таких как ChatGPT, Claude и Gemini;
🔹AI Law Librarians;
🔹AI Basic Act Explorer of the Republic of Korea;
Пост закреплен и будет обновляться.
Если знаете еще полезные репозитории, делитесь в комментариях.
#AIShelf
————
@pattern_ai
🔹The OECD.AI Policy Navigator;
🔹Global AI Regulation Tracker;
🔹Global AI Law and Policy Tracker / IAPP;
🔹Catalogue of Tools & Metrics for Trustworthy AI| OECD.AI;
🔹EU AI Act Compliance Checker;
🔹AI Act Single Information Platform (The AI Act Explorer, timeline, resources);
🔹Map of copyright +related Lawsuits v. AI companies;
🔹EU AI Act Resource Center;
🔹 MIT AI Risk Repository ;
🔹Living repository on AI literacy| European Commission;
🔹AI Hallucination Cases Tracker;
🔹Legal AI Use Case Radar;
🔹Коллекция извлеченных системных подсказок из популярных чат-ботов, таких как ChatGPT, Claude и Gemini;
🔹AI Law Librarians;
🔹AI Basic Act Explorer of the Republic of Korea;
Пост закреплен и будет обновляться.
Если знаете еще полезные репозитории, делитесь в комментариях.
#AIShelf
————
@pattern_ai
❤2
Pattern AI pinned «Список трекеров ИИ 🔹The OECD.AI Policy Navigator; 🔹Global AI Regulation Tracker; 🔹Global AI Law and Policy Tracker / IAPP; 🔹Catalogue of Tools & Metrics for Trustworthy AI| OECD.AI; 🔹EU AI Act Compliance Checker; 🔹AI Act Single Information Platform (The AI…»
Подборка по ключевым рубрикам:
🔹 Легальный веб-скраппинг для обучения ИИ возможен?
🔹Best practices по легальному веб-скраппингу;
🔹ИИ и защита ПД: рекомендации немецких DPA;
🔹Рекомендации CNIL по соблюдению GDPR и чек-лист для проверки;
🔹GPAI Code of Practice опубликован Еврокомиссией. Для чего он нужен?
🔹Гайдлайн для поставщиков GPAI от Еврокомиссии;
🔹Как провести аудит системы ИИ;
🔹Чек-лист. Пост-маркет мониторинг ИИ и отчётность;
🔹Планы Китая и США по ИИ: один - про безопасность, другой - про скорость;
🔹ИИ в зале суда: правила игры;
🔹ИИ в продакшне: почему пост-маркет мониторинг экономит миллионы и репутацию;
🔹ИИ и дети: что нужно знать родителям?;
🔹«Барби, храни мои секреты»: почему это опасный промпт?;
🔹"Красота по алгоритму" или как кейс Vogue запустил новую волну дебатов в индустрии моды;
🔹GenAI и юристы: кто, где и как использует ИИ в 2025 году;
🔹Когда ИИ подводит юристов: реальные судебные "триллеры";
🔹Как Netflix работает с ИИ: 5 принципов для продуктовых команд;
🔹18+ ИИ-компаньоны и человекоподобные сервисы. Где проходят границы нормы?
🔹Как внедрить проактивное управление рисками ИИ: кейс Telus Digital (G7 HAIP Transparency Report);
🔹Таксономия рисков ИИ от MIT и как использовать их методологию в своей работе;
🔹Руководство по Agentic AI Red Teaming| Cloud Security Alliance;
🔹Пример промта для проверки соответствия сайта требованиям законодательства о защите данных (cookie consent);
🔹Пример промпта для проверки ИИ-продукта на соответствие законам и выявление рисков;
🔹Подборка инструментов для генерации и улучшения промптов;
📚 #AIShelf
🔹Примерный чек-лист для составления/проверки контрактов и примеры ИИ-инструментов;
🔹AI Model Clauses: универсальные шаблоны для госструктур и частных компаний;
🔹Шаблоны AI-политик, которые можно забрать в работу;
🔹Примерный чек-лист по созданию AI-продуктов для детей;
🔹Обучающие курсы и ресурсы для юристов по ИИ;
🔹Автоматизация для юристов: какие инструменты уже есть на рынке;
🔹Как юристу внедрить ИИ и не потеряться в инструментах;
🔹Legal AI Use Case Radar 2025 Report;
🔹GovTech или проекты по использованию ИИ в законотворчестве, судах и госуслугах;
🔹Salesforce’s Global AI Readiness Index;
🔹Generative AI and Copyright: Training, Creation, Regulation/ STUDY, requested by the JURI Committee;
🔹The AI Act of the European Union and its implications for global technology regulation|Artificial Intelligence and Fundamental Rights| TRIER STUDIES ON DIGITAL LAW;
Читайте, пересылайте, возвращайтесь к важному.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🙏2
Dutch Government_ai-act-guide.pdf
287 KB
Нидерланды упростили EU AI Act до гайда в 21 страницу
Нидерланды выпустили краткий AI Act Guide, который поможет быстро понять, какие системы запрещены, какие относятся к высокорисковым, а к каким применяются простые требования.
👀 Для интереса, опубликую еще ссылку на их Algorithm Register - портал, где гос.органы обязаны раскрывать, какие используются алгоритмы и ИИ. Уже опубликовано >1000 кейсов от соц.выплат до дорожной безопасности. Можно позаимствовать идеи для внедрения. На данный момент публикация добровольная, в целях обеспечения прозрачности и объяснимости применения и результатов работы алгоритмов. Планируется, что высокорисковые системы будут подлежать обязательной публикации в этом реестре. Также гос.органами указывается, проводилось ли DPIA.
#AIShelf #LawAndDisorder
————
@pattern_ai
Нидерланды выпустили краткий AI Act Guide, который поможет быстро понять, какие системы запрещены, какие относятся к высокорисковым, а к каким применяются простые требования.
#AIShelf #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
China_ the Measures for Identifying Synthetic Content by AI.pdf
173.2 KB
Маркировка ИИ контента в Китае стала обязательной
Компании, работающие в сфере ИИ, цифрового контента и интернет-услуг и ориентированные на рынки Китая, обратите внимания на новый регламент по идентификации синтетического контента, созданного ИИ, который вступил в силу с 1 сентября 2025 года.
Новые меры регулирования направлены на защиту пользователей от дезинформации, прозрачность цифрового контента и ответственное развитие технологий ИИ.
🔹Контент, созданный ИИ (тексты, изображения, аудио, видео, виртуальные сцены), должен содержать явные (графические, текстовые, звуковые метки) и скрытые идентификаторы.
Скрытые идентификаторы должны включать информацию о происхождении контента, данные о поставщике услуг, номер контента и другие метаданные, позволяющие отслеживать источник генерации.
🔹 Поставщики услуг, распространяющие синтетический контент, обязаны:
- внедрять цифровые водяные знаки, которые могут быть встроены в файлы таким образом, чтобы их нельзя было удалить без потери качества контента.
- проверять наличие скрытых идентификаторов в метаданных файлов.
- если идентификатор отсутствует, но пользователь заявляет, что контент синтетический – добавлять явные метки.
- если отсутствуют идентификаторы и заявление пользователя, но контент имеет признаки генерации – отмечать его как "подозрительный".
- обеспечивать инструменты для маркировки контента.
- указывать требования по идентификации ИИ-контента в пользовательских соглашениях.
🔹 Платформы, распространяющие интернет-приложения, должны проверять материалы, связанные с идентификацией созданного поставщиками услуг синтетического контента.
🔹 Пользователи обязаны самостоятельно заявлять о создании синтетического контента. Им запрещено удалять или подделывать идентификаторы.
🔍 Как маркировать контент?
Тексты: добавление текстовых меток в начале, середине или конце материала.
Аудио: голосовые сигналы или звуковые метки в начале, середине или конце файла.
Изображения: предупреждающие знаки на видимых участках.
Видео: метки в начале, середине и конце ролика.
Виртуальные сцены: обязательные метки на экране входа и во время взаимодействия.
Нарушители могут быть привлечены к ответственности в соответствии с законодательством Китая.
#LawAndDisorder
————
@pattern_ai
Компании, работающие в сфере ИИ, цифрового контента и интернет-услуг и ориентированные на рынки Китая, обратите внимания на новый регламент по идентификации синтетического контента, созданного ИИ, который вступил в силу с 1 сентября 2025 года.
Новые меры регулирования направлены на защиту пользователей от дезинформации, прозрачность цифрового контента и ответственное развитие технологий ИИ.
🔹Контент, созданный ИИ (тексты, изображения, аудио, видео, виртуальные сцены), должен содержать явные (графические, текстовые, звуковые метки) и скрытые идентификаторы.
Скрытые идентификаторы должны включать информацию о происхождении контента, данные о поставщике услуг, номер контента и другие метаданные, позволяющие отслеживать источник генерации.
🔹 Поставщики услуг, распространяющие синтетический контент, обязаны:
- внедрять цифровые водяные знаки, которые могут быть встроены в файлы таким образом, чтобы их нельзя было удалить без потери качества контента.
- проверять наличие скрытых идентификаторов в метаданных файлов.
- если идентификатор отсутствует, но пользователь заявляет, что контент синтетический – добавлять явные метки.
- если отсутствуют идентификаторы и заявление пользователя, но контент имеет признаки генерации – отмечать его как "подозрительный".
- обеспечивать инструменты для маркировки контента.
- указывать требования по идентификации ИИ-контента в пользовательских соглашениях.
🔹 Платформы, распространяющие интернет-приложения, должны проверять материалы, связанные с идентификацией созданного поставщиками услуг синтетического контента.
🔹 Пользователи обязаны самостоятельно заявлять о создании синтетического контента. Им запрещено удалять или подделывать идентификаторы.
Тексты: добавление текстовых меток в начале, середине или конце материала.
Аудио: голосовые сигналы или звуковые метки в начале, середине или конце файла.
Изображения: предупреждающие знаки на видимых участках.
Видео: метки в начале, середине и конце ролика.
Виртуальные сцены: обязательные метки на экране входа и во время взаимодействия.
Нарушители могут быть привлечены к ответственности в соответствии с законодательством Китая.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
The ROI Of AI 2025_Google.pdf
12.5 MB
Как получить реальный ROI от ИИ: отчет и советы от Google
Google Cloud в свежем отчёте The ROI of AI 2025 опросил 3 466 руководителей в 16 странах.
Приведу некоторые цифры здесь:
🔹74% компаний ожидают возврат инвестиций в GenAI уже в первый год.
🔹88% ранних лидеров фиксируют положительный ROI.
🔹Выгоды:
- продуктивность (+70% ),
- клиентский опыт (+63%),
- маркетинг (+55%),
- безопасность (+49%).
🔹У 51% компаний вывод новых ИИ кейсов в прод занимает 3–6 месяцев.
Google в своем докладе показывает, что компании, которые массово внедряют AI-агентов уже получают ощутимую бизнес-отдачу.
Хотя недавнее исследование State of AI in Business 2025 от MIT Media Lab показывало иную картину:
▪️ при инвестициях в GenAI на уровне $30–40 млрд, 95% пилотных проектов не дают измеримого ROI;
▪️только 5% кейсов доходят до продакшена и приносят прибыль;
▪️причины провалов указывались:
- слабая интеграция в бизнес-процессы,
- ограниченная «память» и адаптивность систем,
- нехватка опыта и методологии.
▪️покупка готовых решений в 2 раза успешнее, чем внутренние разработки.
Истина где-то посередине, ROI появляется там, где есть C-level поддержка, ИИ встроен в ключевые процессы, компания инвестирует не только в модели, но и в организационные изменения.
Чек-лист от Google "Как получить пользу от AI-агентов":
▪️заручиться поддержкой руководства;
▪️строить доверие к ИИ и заботиться о данных (защита, человеческий контроль);
▪️доказать ценность внедрения для получения бюджета ( начать с простых кейсов);
▪️дать агентам доступ к работе (подключить их к CRM, документам и другим системам), НО следить за безопасностью и установить ограничения;
▪️прописать правила использования ИИ, что можно, что нельзя;
▪️начинать с "быстрых побед" ( автоматизация рутинных задач);
▪️инвестировать в обучение команды.
#AIShelf
————
@pattern_ai
Google Cloud в свежем отчёте The ROI of AI 2025 опросил 3 466 руководителей в 16 странах.
Приведу некоторые цифры здесь:
🔹74% компаний ожидают возврат инвестиций в GenAI уже в первый год.
🔹88% ранних лидеров фиксируют положительный ROI.
🔹Выгоды:
- продуктивность (+70% ),
- клиентский опыт (+63%),
- маркетинг (+55%),
- безопасность (+49%).
🔹У 51% компаний вывод новых ИИ кейсов в прод занимает 3–6 месяцев.
Google в своем докладе показывает, что компании, которые массово внедряют AI-агентов уже получают ощутимую бизнес-отдачу.
Хотя недавнее исследование State of AI in Business 2025 от MIT Media Lab показывало иную картину:
▪️ при инвестициях в GenAI на уровне $30–40 млрд, 95% пилотных проектов не дают измеримого ROI;
▪️только 5% кейсов доходят до продакшена и приносят прибыль;
▪️причины провалов указывались:
- слабая интеграция в бизнес-процессы,
- ограниченная «память» и адаптивность систем,
- нехватка опыта и методологии.
▪️покупка готовых решений в 2 раза успешнее, чем внутренние разработки.
Истина где-то посередине, ROI появляется там, где есть C-level поддержка, ИИ встроен в ключевые процессы, компания инвестирует не только в модели, но и в организационные изменения.
Чек-лист от Google "Как получить пользу от AI-агентов":
▪️заручиться поддержкой руководства;
▪️строить доверие к ИИ и заботиться о данных (защита, человеческий контроль);
▪️доказать ценность внедрения для получения бюджета ( начать с простых кейсов);
▪️дать агентам доступ к работе (подключить их к CRM, документам и другим системам), НО следить за безопасностью и установить ограничения;
▪️прописать правила использования ИИ, что можно, что нельзя;
▪️начинать с "быстрых побед" ( автоматизация рутинных задач);
▪️инвестировать в обучение команды.
#AIShelf
————
@pattern_ai
❤1
Первая «законопослушная» AI-модель Европы
Швейцария запустила Apertus - первая в мире LLM национального уровня, где прозрачность и законность встроены в архитектуру (разработчики ETH Zurich, EPFL и Swiss National Supercomputing Centre).
👀 Посмотрим подробнее:
🔹модель построена в с учетом швейцарского законодательства о защите данных, швейцарского законодательства об авторском праве и обязательств по обеспечению прозрачности в соответствии с EU AI Act.
🔹доступна в двух версиях: 8B и 70B параметров, лицензия Apache 2.0 позволяет и коммерческое использование.
🔹модель обучалась только на публичных данных и впервые реализовала ретроактивный opt-out, т.е. если сайт позже запретил использование своих материалов, эти данные удалили даже из старых наборов.
🔹внедрили Goldfish Loss - новый метод обучения, чтобы модель не заучивала тексты дословно. Он минимизирует риск воспроизведения персональных данных или защищённых авторских материалов.
🔹использовано 1 811 языков на этапе обучения и 149 для дообучения. 40% данных не являются английскими. Поддержка редких языков вроде Romansh или африканских встроена в основу модели, а не добавлена «сверху».
🔹 проект максимально прозрачен: опубликованы веса модели, промежуточные чекпоинты, пайплайны очистки, код подготовки данных.
🔹 новый оптимизатор AdEMAMix делает обучение стабильнее, модель понимает до 65 000 токенов контекста и использует более эффективную архитектуру xIELU.
Модели доступны на Hugging Face.
Чат с моделью доступен на https://publicai.co/
Полный технический отчет здесь
Apertus задумывается как база, дальше планируются специализированные модели для медицины, образования и права. Для разработчиков может служить строительным блоком: чат-боты, системы перевода, образовательные приложения.
Швейцарцы продемонстрировали новый стандарт, где технологичность не отделяется от правовых и этических принципов, где государство способно конкурировать с Big Tech, создавая инфраструктуру «ИИ как общественное благо».
❓ Будет ли это единичный случай или новая волна собственных национальных и региональных AI-моделей, отражающих местные ценности и законы, покажет время.
Делитесь мнением о тесте модели в комментариях.
#UXWatch #AIShelf
————
@pattern_ai
Швейцария запустила Apertus - первая в мире LLM национального уровня, где прозрачность и законность встроены в архитектуру (разработчики ETH Zurich, EPFL и Swiss National Supercomputing Centre).
🔹модель построена в с учетом швейцарского законодательства о защите данных, швейцарского законодательства об авторском праве и обязательств по обеспечению прозрачности в соответствии с EU AI Act.
🔹доступна в двух версиях: 8B и 70B параметров, лицензия Apache 2.0 позволяет и коммерческое использование.
🔹модель обучалась только на публичных данных и впервые реализовала ретроактивный opt-out, т.е. если сайт позже запретил использование своих материалов, эти данные удалили даже из старых наборов.
🔹внедрили Goldfish Loss - новый метод обучения, чтобы модель не заучивала тексты дословно. Он минимизирует риск воспроизведения персональных данных или защищённых авторских материалов.
🔹использовано 1 811 языков на этапе обучения и 149 для дообучения. 40% данных не являются английскими. Поддержка редких языков вроде Romansh или африканских встроена в основу модели, а не добавлена «сверху».
🔹 проект максимально прозрачен: опубликованы веса модели, промежуточные чекпоинты, пайплайны очистки, код подготовки данных.
🔹 новый оптимизатор AdEMAMix делает обучение стабильнее, модель понимает до 65 000 токенов контекста и использует более эффективную архитектуру xIELU.
Модели доступны на Hugging Face.
Чат с моделью доступен на https://publicai.co/
Полный технический отчет здесь
Apertus задумывается как база, дальше планируются специализированные модели для медицины, образования и права. Для разработчиков может служить строительным блоком: чат-боты, системы перевода, образовательные приложения.
Швейцарцы продемонстрировали новый стандарт, где технологичность не отделяется от правовых и этических принципов, где государство способно конкурировать с Big Tech, создавая инфраструктуру «ИИ как общественное благо».
Делитесь мнением о тесте модели в комментариях.
#UXWatch #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Покупка ИИ-инструментов: на что обратить внимание перед подписанием контракта
Прежде чем покупать или интегрировать ИИ, разумно пройти несколько уровней оценки: бизнес-цель и риск-оценка, техническая и правовая экспертиза, согласование и закрепление в договоре обязательств и гарантий.
1️⃣ Стратегический блок или понять, зачем и что вы покупаете:
- Чётко сформулируйте задачу (use case);
- Оцените последствия ошибок;
- Категоризация рисков в соответствии с регламентами и стандартами
2️⃣ Техническая проверка
#AIShelf
————
@pattern_ai
Прежде чем покупать или интегрировать ИИ, разумно пройти несколько уровней оценки: бизнес-цель и риск-оценка, техническая и правовая экспертиза, согласование и закрепление в договоре обязательств и гарантий.
- Чётко сформулируйте задачу (use case);
Опишите ожидаемый бизнес-результат (например: автоматизация обработки заявок, генерация текстов/изображений, поддержка принятия решений). Укажите, какие задачи ИИ выполняет полностью, в каких ассистирует человеку.
- Оцените последствия ошибок;
Какие убытки/репутационный ущерб могут возникнуть при «галлюцинации», утечке данных или дискриминации?
Как повлияют ошибки (сотрудники, клиенты, регуляторы)?
- Категоризация рисков в соответствии с регламентами и стандартами
Например, подпадает ли система под EU AI Act (запрещённые/высокорисковые/ограниченно-рисковые/общего назначения). Это влияет на требования к прозрачности, документации и оценкам воздействия. Рассмотрите применение международных рекомендаций и стандартов (NIST AI RMF, ISO/IEC 42001) для управления рисками и построения системы управления ИИ
- Запросите архитектурную схему: какие модели используются (GPAI / foundation model / кастомные), какие сторонние сервисы интегрированы. Если интегрируется GPAI (например LLM), запросите информацию о версиях, обновлениях, известных ограничениях и механизмах отката.
- Проясните источники данных для обучения: открытые датасеты, лицензионные наборы, пользовательские данные.
- Попросите подтверждение о наличии прав/согласий на использование данных. Это критично для избегания рисков в связи с нарушении авторских прав и защитой персональных данных.
- Требуйте опции «data-silo» (ваши данные не используются для обучения общих моделей) или технической изоляции.
- Проверьте и внедрите политики по доступу, обнаружению инцидентов, резервированию и восстановлению.
- Проверьте наличие независимого аудита безопасности и периодичности тестирования.
- Запросите отчёты о тестировании и планы по их регулярному обновлению.
- Есть ли сертификация ISO/IEC 42001 или наличие дорожной карты к сертификации.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжим разбор о том, как правильно подойти к покупке ИИ-инструментов
Ч.2.
3️⃣ Специфичные регуляторные требования для определенной локации
4️⃣ Смотрим пункты договора
5️⃣ Контроль «на месте»
И помните, что ИИ ≠ магический инструмент. Это набор технологий с сильным потенциалом, но с реальными юридическими, этическими и операционными рисками. Гайды, чек-листы и подсказки ИИ НЕ заменяют профессиональную экспертизу. Привлекайте юристов, специалистов по кибербезопасности и экспертов по ИИ, чтобы защитить бизнес от ошибок и непредвиденных последствий.
#AIShelf
————
@pattern_ai
Ч.2.
- Где обрабатываются/хранятся данные? Если за пределами EEA/UK, то какие гарантии (стандартные договорные положения, одобренные механизмы, SCCs и т.п.)?
- Уведомления пользователям/клиентам об использовании ИИ (внешние интерфейсы должны информировать при первой встрече, требования зависят от статуса системы по AI Act).
- Для «высокорисковых» систем и систем, затрагивающих права людей, необходима оценка воздействия на защиту данных. Включите это в договор как обязанность поставщика, если он оператор.
- Чёткое описание функционала, ограничений, показателей доступности (например 99.5% uptime), время реакции на инциденты.
- Гарантии соответствия AI Act / GDPR / национальному законодательству, и обязательство информировать клиента о любом изменении, влияющем на соответствие.
- Четко пропишите: может ли поставщик/третьи лица использовать данные клиента для обучения модели? Если да, то при каких условиях (анонимизация, компенсация, права)? Установите запрет.
- Укажите, кому принадлежат права на результаты/выходы (сгенерированные тексты, изображения и т.д.). Предусмотрите передачу прав (assignment) или лицензирование.
- Гарантия от поставщика, что использование системы не нарушит авторские права/патенты третьих лиц; обязанность возместить убытки.
- Обязанность Поставщик обрабатывать персональные данные в соответствии с зак-вом о персональных данных, обеспечивать технические и организационные меры, уведомлять о нарушениях в установленные сроки (например, не позднее 72 часов).
- Оговорите лимиты ответственности (но не делайте их мизерными). Страхование с конкретными лимитами.
- Право заказчика на независимый аудит, проверку алгоритмов/логов и доступа к технической документации.
- Процедура уведомления и тестирования изменений моделей (например, обновление foundation model), которые могут изменить поведение системы.
- Процесс вывода из эксплуатации, экспорт данных в читаемом формате, удаление копий, подтверждение удаления.
Про Standard AI Clauses читайте отдельный пост
- Проведите пилот на реальных данных, но в изолированной среде;
- Протестируйте систему на выборке реальных кейсов, проверьте поведение при пограничных входных данных.
- Тестирование (нормальные рабочие случаи; редкие/крайние ситуации; ввод умышленно вводящих в заблуждение данных; конфиденциальные данные; попытки извлечь обучающие данные (prompt injection).
- Определите метрики для оценки ( точность, уровень «галлюцинаций», время ответа, % требующих эскалации, матрицы дискриминации по ключевым демографическим группам).
И помните, что ИИ ≠ магический инструмент. Это набор технологий с сильным потенциалом, но с реальными юридическими, этическими и операционными рисками. Гайды, чек-листы и подсказки ИИ НЕ заменяют профессиональную экспертизу. Привлекайте юристов, специалистов по кибербезопасности и экспертов по ИИ, чтобы защитить бизнес от ошибок и непредвиденных последствий.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Как превратить Office в умный редактор
Команда VISCHER сделала удобную надстройку Red Ink для Microsoft Office.
ИИ встраивается прямо в Word, Excel и Outlook и можно переводить тексты, сокращать длинные документы, анонимизировать данные, сравнивать версии договоров, оставлять комментарии с подсказками от модели.
Работает через подключение любых LLM (OpenAI, Google, Microsoft или свои).
Можете настроить Red Ink на использование размещенного на вашем компьютере LLM.
Исходный код открыт.
Бета бесплатная. Планируется, что для личного использования инструмент и останется бесплатным. а для коммерческого установят позже "низкую цену".
Пока что только Windows.
Примеры использования здесь.
#AIShelf
————
@pattern_ai
Команда VISCHER сделала удобную надстройку Red Ink для Microsoft Office.
ИИ встраивается прямо в Word, Excel и Outlook и можно переводить тексты, сокращать длинные документы, анонимизировать данные, сравнивать версии договоров, оставлять комментарии с подсказками от модели.
Работает через подключение любых LLM (OpenAI, Google, Microsoft или свои).
Можете настроить Red Ink на использование размещенного на вашем компьютере LLM.
Исходный код открыт.
Бета бесплатная. Планируется, что для личного использования инструмент и останется бесплатным. а для коммерческого установят позже "низкую цену".
Пока что только Windows.
Примеры использования здесь.
#AIShelf
————
@pattern_ai
Egypt AI Readiness Assessment Report _UNESCO.pdf
3.9 MB
Почему нам стоит посмотреть на опыт Египта в AI-регулировании
UNESCO вместе с правительством Египта выпустили "AI Readiness Assessment Report" о том, насколько страна готова к этичному и ответственному внедрению ИИ.
🔹 Законодательная база:
- Закон о защите персональных данных (2020).
- Закон о киберпреступлениях (2018).
- Конституционные гарантии на частную жизнь и доступ к информации.
- Национальная стратегия по ИИ и образовательные программы для школьников и студентов.
🔹Какие есть пробелы:
- отсутствие отдельного закона о регулировании ИИ;
- проблемы с прозрачностью и обменом данными, особенно когда речь об открытых данных и классификации данных;
- не во всех случаях есть чёткие правила и контроль над тем, как алгоритмы влияют на людей (алгоритмическая ответственность);
- риски при ИИ-закупках, как выбрать, заказать, оценить систему и её последствия.
🔹Рекомендации UNESCO, какие шаги предпринять Египту дальше:
- выпустить подзаконные акты к закону о персональных данных;
- урегулировать обмен и классификацию данных;
- составить «дорожную карту» внедрения законодательства об ИИ;
- внести изменения в закон о госзакупках, чтобы учесть специфику ИИ;
- принять сбалансированный закон об ИИ.
✏️Что значит для нас?
Одного закона о регулировании ИИ недостаточно.
Важны детали:
- как выбрать и закупать системы,
- как минимизировать риски, как обмениваться данными,
- как выстраивать безопасность,
- кто обеспечивает и несет ответственность за алгоритмы.
Образование и цифровая грамотность не менее критичны, чем сами законодательные нормы.
Это отличный пример, почему нам полезно смотреть на практику других, чтобы видеть, как реально выстраиваются AI-экосистемы, и на "какие грабли" можно наступить.
#LawAndDisorder
————
@pattern_ai
UNESCO вместе с правительством Египта выпустили "AI Readiness Assessment Report" о том, насколько страна готова к этичному и ответственному внедрению ИИ.
🔹 Законодательная база:
- Закон о защите персональных данных (2020).
- Закон о киберпреступлениях (2018).
- Конституционные гарантии на частную жизнь и доступ к информации.
- Национальная стратегия по ИИ и образовательные программы для школьников и студентов.
🔹Какие есть пробелы:
- отсутствие отдельного закона о регулировании ИИ;
- проблемы с прозрачностью и обменом данными, особенно когда речь об открытых данных и классификации данных;
- не во всех случаях есть чёткие правила и контроль над тем, как алгоритмы влияют на людей (алгоритмическая ответственность);
- риски при ИИ-закупках, как выбрать, заказать, оценить систему и её последствия.
🔹Рекомендации UNESCO, какие шаги предпринять Египту дальше:
- выпустить подзаконные акты к закону о персональных данных;
- урегулировать обмен и классификацию данных;
- составить «дорожную карту» внедрения законодательства об ИИ;
- внести изменения в закон о госзакупках, чтобы учесть специфику ИИ;
- принять сбалансированный закон об ИИ.
✏️Что значит для нас?
Одного закона о регулировании ИИ недостаточно.
Важны детали:
- как выбрать и закупать системы,
- как минимизировать риски, как обмениваться данными,
- как выстраивать безопасность,
- кто обеспечивает и несет ответственность за алгоритмы.
Образование и цифровая грамотность не менее критичны, чем сами законодательные нормы.
Это отличный пример, почему нам полезно смотреть на практику других, чтобы видеть, как реально выстраиваются AI-экосистемы, и на "какие грабли" можно наступить.
#LawAndDisorder
————
@pattern_ai
👍1
A_Practical_Guide_to_Responsible_Workforce_Transformation_The_University.pdf
1.5 MB
AI Leadership Blueprint: чек-листы, метрики и готовые шаблоны для компаний и гос.оранов от Университета Юты
Университет Юты в рамках инициативы One-U по ответственному ИИ выпустил The AI Leadership Blueprint: A Practical Guide to Responsible Workforce Transformation.
Что можно забрать полезного:
▪️фреймворки для принятия решений: как оценить готовность, риски и возможности.
▪️стратегии обучения для команд;
▪️инструменты для подсчета ROI и Sustainability;
❗️Но самое полезное, это приложения, где есть шаблоны:
▪️ ИИ политики для малого и крупного бизнеса (осторожно, слишком краткие);
▪️ метрики рисков и индикаторы эффективности;
▪️шаблон ROI;
▪️ оценка готовности команды;
▪️матрица рисков на примере госоргана.
#AIShelf
————
@pattern_ai
Университет Юты в рамках инициативы One-U по ответственному ИИ выпустил The AI Leadership Blueprint: A Practical Guide to Responsible Workforce Transformation.
Что можно забрать полезного:
▪️фреймворки для принятия решений: как оценить готовность, риски и возможности.
▪️стратегии обучения для команд;
▪️инструменты для подсчета ROI и Sustainability;
❗️Но самое полезное, это приложения, где есть шаблоны:
▪️ ИИ политики для малого и крупного бизнеса (осторожно, слишком краткие);
▪️ метрики рисков и индикаторы эффективности;
▪️шаблон ROI;
▪️ оценка готовности команды;
▪️матрица рисков на примере госоргана.
#AIShelf
————
@pattern_ai