Лайки от вашего имени после смерти?
И пока регуляторы обсуждают использованию цифровых данных после смерти и анализируют сервисы, рынок продолжается развиваться.
По данным Business Insider, Meta (Meta Platforms признана экстремистской, её деятельность на территории России запрещена) получила патент на систему, которая позволяет ИИ продолжать активность в аккаунте пользователя, даже если он перестал им пользоваться или умер.
Модель анализирует прошлые публикации, лайки, комментарии и стиль общения, чтобы имитировать поведение человека в соцсети. Такой ИИ мог бы отвечать на сообщения, публиковать посты и поддерживать «присутствие» профиля. Meta подчёркивает, что это не готовый продукт.
С учётом роста рынка DeathTech и сервисов «цифрового бессмертия», такие разработки уже не выглядят фантастикой. И если раньше речь шла о хранении архивов и мемориальных страницах, то теперь о потенциально автономных ИИ-версиях личности.
😳 А вопросов все больше:
▪️ Кто даёт согласие на такую «цифровую активность»?
▪️ Можно ли продолжать говорить от имени человека после его смерти?
▪️ Где граница между памятью и симуляцией?
▪️ Что, если алгоритм начнёт публиковать то, чего человек никогда бы не сказал?
📌 Наши данные после смерти или "воскреснуть" с помощью ИИ
#UXWatch
————
@pattern_ai
И пока регуляторы обсуждают использованию цифровых данных после смерти и анализируют сервисы, рынок продолжается развиваться.
По данным Business Insider, Meta (Meta Platforms признана экстремистской, её деятельность на территории России запрещена) получила патент на систему, которая позволяет ИИ продолжать активность в аккаунте пользователя, даже если он перестал им пользоваться или умер.
Модель анализирует прошлые публикации, лайки, комментарии и стиль общения, чтобы имитировать поведение человека в соцсети. Такой ИИ мог бы отвечать на сообщения, публиковать посты и поддерживать «присутствие» профиля. Meta подчёркивает, что это не готовый продукт.
С учётом роста рынка DeathTech и сервисов «цифрового бессмертия», такие разработки уже не выглядят фантастикой. И если раньше речь шла о хранении архивов и мемориальных страницах, то теперь о потенциально автономных ИИ-версиях личности.
▪️ Кто даёт согласие на такую «цифровую активность»?
▪️ Можно ли продолжать говорить от имени человека после его смерти?
▪️ Где граница между памятью и симуляцией?
▪️ Что, если алгоритм начнёт публиковать то, чего человек никогда бы не сказал?
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
uksc_2024_0131_judgment_1da6c10a83.pdf
382.5 KB
AI и патенты: кейс Emotional Perception может изменить подход к софту в Великобритании
Верховный суд Великобритании вынес решение по делу Emotional Perception AI v Comptroller General of Patents, Designs and Trade Marks. Компания долгое время пыталась запатентовать систему, где нейросеть анализирует эмоциональные характеристики музыки и подбирает похожий контент.
👀 Суд подтвердил, что ИНС действительно относится к компьютерным программам, но есть важный нюанс " исключение действует только для программы «как таковой». Если реализация требует компьютерного оборудования и система функционирует как техническая система, это может придать изобретению необходимый технический характер и позволить преодолеть первый барьер патентоспособности."
Это серьёзный сдвиг относительно теста Aerotel применяемого последние 20 лет. Он требовал выделить «реальный вклад» изобретения и проверить, не относится ли он к исключениям (алгоритмы, бизнес-методы, программы). На практике Aerotel часто блокировал патенты на ИИ и ПО ещё на ранней стадии.
Суд возвратил дело в Ведомство по интеллектуальной собственности (UKIPO) с указанием провести дополнительный «промежуточный» этап: определить, какие признаки заявки реально создают технический вклад, прежде чем оценивать новизну и изобретательский уровень, указав, что все части так называемых «принципов Данса», изложенных в деле T 154/04 (Duns Licensing Associates) и подтвержденных в деле G 1/19, должны соблюдаться судами Великобритании, за исключением последнего принципа.
Пока остаётся открытым вопрос, как именно UKIPO будет применять обозначенный судом «промежуточный этап» анализа.
Возможны два сценария:
1️⃣ Ведомство может фактически перенести прежнюю аргументацию, использовавшуюся в рамках теста Aerotel для отказа по исключениям из патентоспособности, на стадию оценки новизны и изобретательского уровня. В таком случае практическое положение заявителей существенно не изменится. Решения, ранее отклонявшиеся как непатентоспособные, будут признаваться очевидными или лишёнными новизны.
2️⃣ Как указывали сама Emotional Perception AI и участники процесса в Верховном суде, подход Aerotel нередко приводил к тому, что отдельные признаки изобретения, формально подпадающие под исключения (например, алгоритмические элементы), рассматривались изолированно и не оценивались в контексте всей системы. Новый подход допускает анализ таких признаков с точки зрения их вклада в технический характер изобретения в целом, особенно когда они реализуются на вычислительном оборудовании. Именно сочетание требования аппаратной реализации и «промежуточного этапа» может изменить практику оценки ИИ-изобретений.
❕Возможностей к получению патентов на ИИ становится больше, но автоматического признания технического эффекта по-прежнему нет.
#LawAndDisorder #AIShelf
————
@pattern_ai
Верховный суд Великобритании вынес решение по делу Emotional Perception AI v Comptroller General of Patents, Designs and Trade Marks. Компания долгое время пыталась запатентовать систему, где нейросеть анализирует эмоциональные характеристики музыки и подбирает похожий контент.
Это серьёзный сдвиг относительно теста Aerotel применяемого последние 20 лет. Он требовал выделить «реальный вклад» изобретения и проверить, не относится ли он к исключениям (алгоритмы, бизнес-методы, программы). На практике Aerotel часто блокировал патенты на ИИ и ПО ещё на ранней стадии.
Суд возвратил дело в Ведомство по интеллектуальной собственности (UKIPO) с указанием провести дополнительный «промежуточный» этап: определить, какие признаки заявки реально создают технический вклад, прежде чем оценивать новизну и изобретательский уровень, указав, что все части так называемых «принципов Данса», изложенных в деле T 154/04 (Duns Licensing Associates) и подтвержденных в деле G 1/19, должны соблюдаться судами Великобритании, за исключением последнего принципа.
Пока остаётся открытым вопрос, как именно UKIPO будет применять обозначенный судом «промежуточный этап» анализа.
Возможны два сценария:
❕Возможностей к получению патентов на ИИ становится больше, но автоматического признания технического эффекта по-прежнему нет.
#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
India.pdf
470.5 KB
Индия вводит обязательную маркировку AI-контента с 20 февраля
Правительство внесло поправки в Поправки к Правилам регулирования деятельности ИТ-посредников, которые вступают в силу 20 февраля 2026 года.
Стандартная обработка ( цветокоррекция, шумоподавление, сжатие, перевод), не входит в это определение, если она не искажает первоначальный смысл. Научные статьи, учебные материалы, PDF-файлы, презентации и гипотетические черновики с использованием иллюстративного контента также исключены.
Законодатель отделил дипфейки от обычного цифрового редактирования.
👀 Ключевые обязанности платформ:
1️⃣ Обязательная маркировка ИИ-контента. Если сервис позволяет создавать или распространять SGI, он обязан обеспечивать заметную маркировку, добавлять постоянные metadata / provenance-механизмы, внедрять уникальный идентификатор источника создания, не позволять удалять или скрывать метаданные.
Маркировка должна быть легко воспринимаемой визуально либо аудио-дисклеймером для звукового контента.
2️⃣ Платформы, позволяющие создавать SGI, должны применять разумные технические меры,
автоматические инструменты, механизмы предотвращения незаконного контента, т.е. подход AI-moderation by design, а не только реактивного удаления.
3️⃣ Требовать от пользователя декларацию, является ли контент синтетическим, технически проверять корректность декларации, используя автоматизированные инструменты для перекрестной проверки, проверяя формат, источник и характер контента, прежде чем он будет опубликован. Если контент помечен как синтетический, он должен иметь видимую предупреждающую метку. Если платформа сознательно закрывает глаза на контент, нарушающий правила, считается, что она не выполнила свои обязательства по проверке.
4️⃣ Предотвращать создание и распространение SGI, содержащего материалы о сексуальном насилии над детьми, непристойный контент, ложные электронные записи, материалы, связанные со взрывчатыми веществами, или дипфейки, искажающие личность или голос реального человека
5️⃣ Срок удаления незаконной информации сокращён с 36 часов до 3 часов после официального уведомления.
Ускорены процедуры рассмотрения жалоб (вплоть до 2 часов в отдельных случаях).
6️⃣ Обязаны предупреждать пользователей не реже одного раза в три месяца на английском языке или на любом языке (см. 8 приложение), о штрафах за неправомерное использование контента, созданного с помощью ИИ.
Поправки синхронизированы с выпущенным White paper Office of the Principal Scientific Adviser (январь 2026), продвигающим связку технических и юридических мер комлаенса.
❕Теперь при разработке ИИ-продуктов регулятор ожидает, что требования встраиваются уже на уровне архитектуры. Индия фактически закрепляет принцип, если ИИ создаёт реалистичный контент, платформа должна технически доказать его искусственное происхождение.
📌 Ваши пользователи из Индии? Смотрим новые AI Guidelines;
AI Laws and Regulations in India as of 2026.
#LawAndDisorder
————
@pattern_ai
Правительство внесло поправки в Поправки к Правилам регулирования деятельности ИТ-посредников, которые вступают в силу 20 февраля 2026 года.
Synthetically generated information (SGI) - аудио-, визуальная или аудиовизуальная информация, искусственно созданная или изменённая алгоритмами таким образом, что она выглядит реальной или неотличимой от реального человека или события.
Стандартная обработка ( цветокоррекция, шумоподавление, сжатие, перевод), не входит в это определение, если она не искажает первоначальный смысл. Научные статьи, учебные материалы, PDF-файлы, презентации и гипотетические черновики с использованием иллюстративного контента также исключены.
Законодатель отделил дипфейки от обычного цифрового редактирования.
Маркировка должна быть легко воспринимаемой визуально либо аудио-дисклеймером для звукового контента.
автоматические инструменты, механизмы предотвращения незаконного контента, т.е. подход AI-moderation by design, а не только реактивного удаления.
Ускорены процедуры рассмотрения жалоб (вплоть до 2 часов в отдельных случаях).
Поправки синхронизированы с выпущенным White paper Office of the Principal Scientific Adviser (январь 2026), продвигающим связку технических и юридических мер комлаенса.
❕Теперь при разработке ИИ-продуктов регулятор ожидает, что требования встраиваются уже на уровне архитектуры. Индия фактически закрепляет принцип, если ИИ создаёт реалистичный контент, платформа должна технически доказать его искусственное происхождение.
AI Laws and Regulations in India as of 2026.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Риски безопасности при использовании OpenClaw
Нидерландский регулятор по защите данных (AP) предупредил о серьёзных рисках безопасности при использовании OpenClaw (известного как «Clawdbot», а затем как «Moltbot») и аналогичных экспериментальных систем. Речь уже не о чат-ботах, а о системах, которые могут самостоятельно управлять компьютером, аккаунтами и сервисами.
Подобные системы с открытым исходным кодом, как правило, не соответствуют базовым требованиям безопасности.
👀 Аудит OpenClaw выявил 512 уязвимостей, включая критические:
▪️1/5 часть плагинов OpenClaw, по-видимому, содержит вредоносное ПО, которое, например, может украсть учетные данные для входа в систему у пользователя.
▪️Уязвима для скрытых команд (непрямое внедрение командной строки), которые могут быть скрыты на, казалось бы, обычных веб-сайтах, в электронных письмах или сообщениях мгновенного доступа. В этом случае ИИ может, например, выполнить следующие действия:
- получить доступ к учетным записям связанных сервисов (таких как Google, Facebook и Apple ID). По сути, хакер получает от пользователя главный ключ к большому объему (личных) данных и доступу к другим связанным сервисам.
-читать электронные письма, просматривать календари и работать с локальными файлами, такими как личные документы.
▪️ Злоумышленник может удаленно выполнять вредоносные команды или код, не имея физического доступа к компьютеру. Например, злоумышленник может получить полный контроль над компьютером с помощью OpenClaw (или аналогичной системы искусственного интеллекта), украсть данные или установить вредоносное ПО.
▪️Утечки данных. OpenClaw позволяет пользователю устанавливать или настраивать некорректные конфигурации, что делает личные данные общедоступными.
Фактически ваш ИИ-агент превращается в нового привилегированного пользователя, но без обучения, ответственности и понятной модели контроля доступа. Он получает доступ к почте, документам, API-ключам, корпоративным системам. Но ошибки настройки будут стоить дорого и это будут не просто баги, а, например, утечка персональных данных, нарушение обязанностей по обеспечению безопасности и т.д.
Что предпринять:
🔹 AI Use Policy должна быть рабочим инструментом, где чётко определены разрешённые инструменты, правила экспериментов, использование корпоративных аккаунтов и ограничения.
🔹 Вводите технические ограничения, например, мониторинг несанкционированных интеграций и блокировка небезопасных агентов на сетевом уровне.
🔹 Обучайте сотрудников, объясните риски agentic-AI.
🔹 Создайте безопасные sandbox-среды для экспериментов с ИИ-агентами без доступа к данным продакшна.
❕ Удобство растёт быстрее, чем безопасность....
📌 ClawdBot Skills Just Ganked Your Crypto/ OpenSourceMalware
#UXWatch
————
@pattern_ai
Нидерландский регулятор по защите данных (AP) предупредил о серьёзных рисках безопасности при использовании OpenClaw (известного как «Clawdbot», а затем как «Moltbot») и аналогичных экспериментальных систем. Речь уже не о чат-ботах, а о системах, которые могут самостоятельно управлять компьютером, аккаунтами и сервисами.
Подобные системы с открытым исходным кодом, как правило, не соответствуют базовым требованиям безопасности.
▪️1/5 часть плагинов OpenClaw, по-видимому, содержит вредоносное ПО, которое, например, может украсть учетные данные для входа в систему у пользователя.
▪️Уязвима для скрытых команд (непрямое внедрение командной строки), которые могут быть скрыты на, казалось бы, обычных веб-сайтах, в электронных письмах или сообщениях мгновенного доступа. В этом случае ИИ может, например, выполнить следующие действия:
- получить доступ к учетным записям связанных сервисов (таких как Google, Facebook и Apple ID). По сути, хакер получает от пользователя главный ключ к большому объему (личных) данных и доступу к другим связанным сервисам.
-читать электронные письма, просматривать календари и работать с локальными файлами, такими как личные документы.
▪️ Злоумышленник может удаленно выполнять вредоносные команды или код, не имея физического доступа к компьютеру. Например, злоумышленник может получить полный контроль над компьютером с помощью OpenClaw (или аналогичной системы искусственного интеллекта), украсть данные или установить вредоносное ПО.
▪️Утечки данных. OpenClaw позволяет пользователю устанавливать или настраивать некорректные конфигурации, что делает личные данные общедоступными.
Показательно, что сами разработчики OpenClaw прямо пишут в документации:
«Running an AI agent with shell access on your machine is… spicy… There is no “perfectly secure” setup.»
Фактически ваш ИИ-агент превращается в нового привилегированного пользователя, но без обучения, ответственности и понятной модели контроля доступа. Он получает доступ к почте, документам, API-ключам, корпоративным системам. Но ошибки настройки будут стоить дорого и это будут не просто баги, а, например, утечка персональных данных, нарушение обязанностей по обеспечению безопасности и т.д.
Что предпринять:
🔹 AI Use Policy должна быть рабочим инструментом, где чётко определены разрешённые инструменты, правила экспериментов, использование корпоративных аккаунтов и ограничения.
🔹 Вводите технические ограничения, например, мониторинг несанкционированных интеграций и блокировка небезопасных агентов на сетевом уровне.
🔹 Обучайте сотрудников, объясните риски agentic-AI.
🔹 Создайте безопасные sandbox-среды для экспериментов с ИИ-агентами без доступа к данным продакшна.
❕ Удобство растёт быстрее, чем безопасность....
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ-платформа "внезапно" детский сервис?
Вы точно не создаете продукт для детей? Владельцы Imgur (компания MediaLab) отнеслись к такому вопросу достаточно халатно, за что получили штраф на £247 590 от британского регулятора ICO за нарушения приватности детей.
Imgur - онлайн-сервис загрузки, хранения и обмена пользовательского контента (фото, мемов) в том числе сгенерированных ИИ.
В условиях использования Imgur было указано, что дети младше 13 лет могут пользоваться платформой только под присмотром родителей.
👀 ICO установил, что сервис:
▪️ не проверял возраст пользователей;
▪️ обрабатывал данные детей младше 13 лет без надлежащего законного основания (включая отсутствие подтверждённого согласия родителей);
▪️ не провёл Data Protection Impact Assessment ( риски, связанные с rконфиденциальностью данных детей);
▪️фактически не знал, какие пользователи являются детьми, и поэтому не применял дополнительные меры защиты.
Т.е. нарушение возникло не потому, что сервис «работал с детьми», а потому что он был доступен детям, что автоматически запускает требования UK GDPR и Age Appropriate Design Code.
При оценке последствий ICO учёл сотрудничество компании с регулятором, принятие предварительных выводов и то, что компания ограничила доступ к сервису из Великобритании, заявив о готовности внедрить необходимые меры защиты при возобновлении работы в UK.
Если дети ВЕРОЯТНО могут пользоваться вашим сервисом, то весь комплаенс нужно заранее проектировать, как минимум:
▪️ age assurance или разумная проверка возраста;
▪️ DPIA ( для функций с пользовательским контентом и рекомендациями) и AI Impact Assessment;
▪️ внедрение принципов privacy-by-default для несовершеннолетних;
▪️ контроль распространения пользовательского и синтетического контента.
📌 Примерный чек-лист по созданию AI-продуктов для детей
#UXWatch #LawAndDisorder
————
@pattern_ai
Вы точно не создаете продукт для детей? Владельцы Imgur (компания MediaLab) отнеслись к такому вопросу достаточно халатно, за что получили штраф на £247 590 от британского регулятора ICO за нарушения приватности детей.
Imgur - онлайн-сервис загрузки, хранения и обмена пользовательского контента (фото, мемов) в том числе сгенерированных ИИ.
В условиях использования Imgur было указано, что дети младше 13 лет могут пользоваться платформой только под присмотром родителей.
▪️ не проверял возраст пользователей;
▪️ обрабатывал данные детей младше 13 лет без надлежащего законного основания (включая отсутствие подтверждённого согласия родителей);
▪️ не провёл Data Protection Impact Assessment ( риски, связанные с rконфиденциальностью данных детей);
▪️фактически не знал, какие пользователи являются детьми, и поэтому не применял дополнительные меры защиты.
Т.е. нарушение возникло не потому, что сервис «работал с детьми», а потому что он был доступен детям, что автоматически запускает требования UK GDPR и Age Appropriate Design Code.
При оценке последствий ICO учёл сотрудничество компании с регулятором, принятие предварительных выводов и то, что компания ограничила доступ к сервису из Великобритании, заявив о готовности внедрить необходимые меры защиты при возобновлении работы в UK.
Если дети ВЕРОЯТНО могут пользоваться вашим сервисом, то весь комплаенс нужно заранее проектировать, как минимум:
▪️ age assurance или разумная проверка возраста;
▪️ DPIA ( для функций с пользовательским контентом и рекомендациями) и AI Impact Assessment;
▪️ внедрение принципов privacy-by-default для несовершеннолетних;
▪️ контроль распространения пользовательского и синтетического контента.
#UXWatch #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
AI-логотипы и авторское право
Местный суд Мюнхена (решение AG München judgment 142 C 9786/25, BeckRS 2026, 1513) отказал в защите трём логотипам, созданным с использованием генеративного ИИ.
👀 Истец создал изображения через GenAI-инструмент с помощью текстовых промптов, разместил эти символы на своем личном веб-сайте. Потом ответчик, знакомый истца, использовал эти три логотипа на своем веб-сайте «J de» без согласия истца.
Суд указал, что:
▪️длительность работы над промптом, его объём (до ~1700 символов) и стоимость подписки на ИИ- сервис не имеют значения для возникновения авторского права;
▪️защита принципиально возможна, но только если результат является выражением личного интеллектуального творчества человека (§ 2 UrhG);
ИИ может быть инструментом, но не источником творческого решения. В рассматриваемом случае промпты признаны слишком общими ("ноутбук с книгой, содержащей символ абзаца, парящий перед экраном", "рукопожатие между двумя людьми разного цвета кожи и звон колокольчик"), т.е. итоговый визуальный результат в значительной степени формировался системой, а не пользователем, поэтому требуемый уровень человеческого творческого вклада суд не увидел. Простой выбор продукта из четырех предложений ИИ сам по себе недостаточен для личного творческого замысла.
Отдельно суд отметил, что стороны были знакомы и обсуждали процесс создания логотипов заранее, из-за чего суд даже допустил, что спор мог быть инициирован ради получения судебной позиции по вопросу авторства на сгенерированные работы ( "также из научного интереса").
А как вообще доказать, что логотип создан дизайнером, а не ИИ?
В этом деле установить процесс создания было просто, т.к. стороны сами раскрыли детали. В реальных коммерческих спорах это значительно сложнее, т.к. происхождение дизайна становится вопросом рассмотрения доказательств (внутренних файлов, истории редактирования и рабочих процессов). Если бы спор рассматривался, например, в США, то стороны могли бы использовать процедуру discovery (обязательный обмен доказательствами между сторонами до суда) для расследования процесса создания (запросы документов, переписки, рабочих материалов).
📝Если компания не документирует создание контента, то рискует остаться без IP защиты ключевых активов:
▪️ фиксируйте процесс создания дизайна. Сохраняйте исходные файлы (PSD, Figma и т.д.), храните версии и историю правок, документируйте этапы разработки. Это одно из доказательств человеческого творчества.
▪️разделяйте генерацию с помощью ИИ и дизайнерскую работу, т.е. с помощью ИИ создавайте черновые концепты, а человек дорабатывает композицию, финальное визуальное решение.
Чем больше человеческих творческих решений можно показать,тем выше шанс защиты.
▪️ определите внутри компании, какие "активы" нельзя делать только через промптинг (логотипы, бренд-айдентика), введите обязанность сохранять промпты и весь процесс.
▪️укажите в договорах про форматы использования ИИ, степень человеческой доработки, гарантии оригинальности, обязанности предоставить материалы, подтверждающие процесс создания.
▪️помните, что если создаете произведение (например, логотип) через стандартным промтинг, то права на него могут не возникнуть вообще, аналогичный результат может получить любой другой пользователь.
📌 Может ли ИИ быть автором, что говорят законы сегодня
#UXWatch
————
@pattern_ai
Местный суд Мюнхена (решение AG München judgment 142 C 9786/25, BeckRS 2026, 1513) отказал в защите трём логотипам, созданным с использованием генеративного ИИ.
Суд указал, что:
▪️длительность работы над промптом, его объём (до ~1700 символов) и стоимость подписки на ИИ- сервис не имеют значения для возникновения авторского права;
▪️защита принципиально возможна, но только если результат является выражением личного интеллектуального творчества человека (§ 2 UrhG);
ИИ может быть инструментом, но не источником творческого решения. В рассматриваемом случае промпты признаны слишком общими ("ноутбук с книгой, содержащей символ абзаца, парящий перед экраном", "рукопожатие между двумя людьми разного цвета кожи и звон колокольчик"), т.е. итоговый визуальный результат в значительной степени формировался системой, а не пользователем, поэтому требуемый уровень человеческого творческого вклада суд не увидел. Простой выбор продукта из четырех предложений ИИ сам по себе недостаточен для личного творческого замысла.
Отдельно суд отметил, что стороны были знакомы и обсуждали процесс создания логотипов заранее, из-за чего суд даже допустил, что спор мог быть инициирован ради получения судебной позиции по вопросу авторства на сгенерированные работы ( "также из научного интереса").
А как вообще доказать, что логотип создан дизайнером, а не ИИ?
В этом деле установить процесс создания было просто, т.к. стороны сами раскрыли детали. В реальных коммерческих спорах это значительно сложнее, т.к. происхождение дизайна становится вопросом рассмотрения доказательств (внутренних файлов, истории редактирования и рабочих процессов). Если бы спор рассматривался, например, в США, то стороны могли бы использовать процедуру discovery (обязательный обмен доказательствами между сторонами до суда) для расследования процесса создания (запросы документов, переписки, рабочих материалов).
📝Если компания не документирует создание контента, то рискует остаться без IP защиты ключевых активов:
▪️ фиксируйте процесс создания дизайна. Сохраняйте исходные файлы (PSD, Figma и т.д.), храните версии и историю правок, документируйте этапы разработки. Это одно из доказательств человеческого творчества.
▪️разделяйте генерацию с помощью ИИ и дизайнерскую работу, т.е. с помощью ИИ создавайте черновые концепты, а человек дорабатывает композицию, финальное визуальное решение.
Чем больше человеческих творческих решений можно показать,тем выше шанс защиты.
▪️ определите внутри компании, какие "активы" нельзя делать только через промптинг (логотипы, бренд-айдентика), введите обязанность сохранять промпты и весь процесс.
▪️укажите в договорах про форматы использования ИИ, степень человеческой доработки, гарантии оригинальности, обязанности предоставить материалы, подтверждающие процесс создания.
▪️помните, что если создаете произведение (например, логотип) через стандартным промтинг, то права на него могут не возникнуть вообще, аналогичный результат может получить любой другой пользователь.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Руководство по Agentic AI от испанского регулятора
Испанское агентство по защите данных (AEPD) опубликовало принципы по использованию Agentic AI (системы ИИ, способные не только отвечать на вопросы, но и автономно взаимодействовать для достижения поставленных целей) с точки зрения защиты данны.
🔹Изложены меры, которые контролер или обработчик данных могут предпринять для обеспечения соответствия нормативным актам по защите данных.
🔹 Автономность системы не снимает ответственность с контролера/процессора. Организация должна сохранять управляемость решений ИИ.
🔹Privacy by design становится архитектурным требованием. AEPD рекомендует использовать возможности самой технологии для усиления защиты данных ещё на этапе проектирования и внедрения.
🔹 Человек должен вмешиваться, если действия агента могут:
- влиять на поведение или выбор людей (например, автоматически подбирать предложения),
- оказывать долгосрочное влияние на жизненные обстоятельства человека,
- приводить к исключению или дискриминации.
🔹Использование agentic AI не означает автоматически наличие автоматизированного принятия решений по ст. 22 GDPR. Необходимо оценивать последствия. Подчеркивается, что понятие «значительное воздействие» трактуется широко, включая влияние на поведение, выбор или долгосрочные обстоятельства.
Разрешение агенту отправлять письма, получать доступ к репозиториям или запускать рабочие процессы может не считаться автоматизированным принятием решений, но это может напрямую повлиять на конфиденциальность, минимизацию данных, поэтому рекомендуется проектировать обратимость действий (reversibility).
🔹 Долгосрочная память, логи и метаданные легко приводят к избыточному накоплению данных,
скрытому профилированию, перекрёстному использованию информации между контекстами обработки. Поэтому рекомендуется псевдонимизация пользовательских взаимодействий, строгие access-политики по принципу need-to-know.
🔹 Поощряются не только реактивные меры защиты, но и проактивные улучшения, например, использование ИИ для повышения анонимизации или снижения предвзятости в принятии решений человеком.
🔹 Анализируется перечень угроз, возникающих из-за автономности агентов, и предлагаются конкретные меры по снижению воздействия на права субъектов данных.
❕ Если ваш ИИ-продукт может действовать самостоятельно, то оценивается операционное поведение агента, а не сама модель.
#LawAndDisorder
————
@pattern_ai
Испанское агентство по защите данных (AEPD) опубликовало принципы по использованию Agentic AI (системы ИИ, способные не только отвечать на вопросы, но и автономно взаимодействовать для достижения поставленных целей) с точки зрения защиты данны.
🔹Изложены меры, которые контролер или обработчик данных могут предпринять для обеспечения соответствия нормативным актам по защите данных.
🔹 Автономность системы не снимает ответственность с контролера/процессора. Организация должна сохранять управляемость решений ИИ.
🔹Privacy by design становится архитектурным требованием. AEPD рекомендует использовать возможности самой технологии для усиления защиты данных ещё на этапе проектирования и внедрения.
🔹 Человек должен вмешиваться, если действия агента могут:
- влиять на поведение или выбор людей (например, автоматически подбирать предложения),
- оказывать долгосрочное влияние на жизненные обстоятельства человека,
- приводить к исключению или дискриминации.
🔹Использование agentic AI не означает автоматически наличие автоматизированного принятия решений по ст. 22 GDPR. Необходимо оценивать последствия. Подчеркивается, что понятие «значительное воздействие» трактуется широко, включая влияние на поведение, выбор или долгосрочные обстоятельства.
Разрешение агенту отправлять письма, получать доступ к репозиториям или запускать рабочие процессы может не считаться автоматизированным принятием решений, но это может напрямую повлиять на конфиденциальность, минимизацию данных, поэтому рекомендуется проектировать обратимость действий (reversibility).
🔹 Долгосрочная память, логи и метаданные легко приводят к избыточному накоплению данных,
скрытому профилированию, перекрёстному использованию информации между контекстами обработки. Поэтому рекомендуется псевдонимизация пользовательских взаимодействий, строгие access-политики по принципу need-to-know.
🔹 Поощряются не только реактивные меры защиты, но и проактивные улучшения, например, использование ИИ для повышения анонимизации или снижения предвзятости в принятии решений человеком.
🔹 Анализируется перечень угроз, возникающих из-за автономности агентов, и предлагаются конкретные меры по снижению воздействия на права субъектов данных.
❕ Если ваш ИИ-продукт может действовать самостоятельно, то оценивается операционное поведение агента, а не сама модель.
#LawAndDisorder
————
@pattern_ai
AI- транскрипция на собеседованиях и GDPR: разъяснения латвийского регулятора
Латвийский регулятор (DVI) разъяснил, что использование ИИ для записи и транскрибирования удалённых собеседований является обработкой персональных данных ( голос, ответы и контекст обсуждений) даже если аудио не хранится долго.
Законные основания обработки:
▪️Согласие – добровольное, конкретное, недвусмысленные и информированные, то есть должно четко указывать, какие данные будут обрабатываться, для каких целей будут использоваться инструменты ИИ и каковы могут быть последствия такой обработки. Также должна быть возможность отозвать согласие в любое время. Работодатель не должен создавать ситуацию, в которой кандидат оказывается в невыгодном положении или подвергается дискриминации за отказ дать согласие.
▪️ Если используется законный интерес, то перед началом такой обработки необходимо оценить баланс интересов обеих сторон, не перевешивают ли интересы компании основные права и свободы кандидата. Кандидат имеет право возражать против обработки данных, и такие возражения должны быть учтены, а в случае потенциального вреда обработка должна быть прекращена
НЕЗАВИСИМО от правового основания компания обязана ДО собеседования информировать кандидата об обработке данных, которая будет осуществляться во время собеседования, включая использование инструментов ИИ, цели обработки, сроке хранения данных и о правах кандидата.
Важно обеспечить, чтобы используемый инструмент ИИ не передавал полученную для хранения информацию в страну за пределы ЕС или ЕЭЗ. Также необходимо принять другие соответствующие технические и организационные меры безопасности для защиты персональных данных кандидата.
📌
🔹ИИ-транскрипция голоса и персональные данные (позиция Испанского регулятора (AEPD),
🔹ИИ для встреч (записи, саммари, заметки и черновики документов), а что с GDPR?
🔹Использование ИИ в сфере подбора персонала (ЕС);
#LawAndDisorder
————
@pattern_ai
Латвийский регулятор (DVI) разъяснил, что использование ИИ для записи и транскрибирования удалённых собеседований является обработкой персональных данных ( голос, ответы и контекст обсуждений) даже если аудио не хранится долго.
Законные основания обработки:
▪️Согласие – добровольное, конкретное, недвусмысленные и информированные, то есть должно четко указывать, какие данные будут обрабатываться, для каких целей будут использоваться инструменты ИИ и каковы могут быть последствия такой обработки. Также должна быть возможность отозвать согласие в любое время. Работодатель не должен создавать ситуацию, в которой кандидат оказывается в невыгодном положении или подвергается дискриминации за отказ дать согласие.
▪️ Если используется законный интерес, то перед началом такой обработки необходимо оценить баланс интересов обеих сторон, не перевешивают ли интересы компании основные права и свободы кандидата. Кандидат имеет право возражать против обработки данных, и такие возражения должны быть учтены, а в случае потенциального вреда обработка должна быть прекращена
НЕЗАВИСИМО от правового основания компания обязана ДО собеседования информировать кандидата об обработке данных, которая будет осуществляться во время собеседования, включая использование инструментов ИИ, цели обработки, сроке хранения данных и о правах кандидата.
Важно обеспечить, чтобы используемый инструмент ИИ не передавал полученную для хранения информацию в страну за пределы ЕС или ЕЭЗ. Также необходимо принять другие соответствующие технические и организационные меры безопасности для защиты персональных данных кандидата.
🔹ИИ-транскрипция голоса и персональные данные (позиция Испанского регулятора (AEPD),
🔹ИИ для встреч (записи, саммари, заметки и черновики документов), а что с GDPR?
🔹Использование ИИ в сфере подбора персонала (ЕС);
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Новый отчёт OECD об интеграции ИИ в Европе
Организация экономического сотрудничества и развития (OECD) опубликовала доклад "Progress in Implementing the European Union Coordinated Plan on Artificial Intelligence (Volume 2)", в котором оценивается внедрение ИИ в ключевых секторах: сельское хозяйство, здравоохранение, производство и мобильность.
План направлен на усиление сотрудничества между странами ЕС, повышение инвестиций и устранение фрагментации в ИИ‑политике.
1️⃣ Анализ показывает неравномерное внедрение ИИ: пилотные проекты и локальные решения есть, но масштабное применение всё ещё ограничено.
2️⃣ В сельском хозяйстве ИИ способствует точному земледелию и автоматизации процессов ( расширенное распознавание образов, прогностические возможности и автоматизация сложных процессов принятия решений), но его применение ограничено инфраструктурой и уровнем цифровых навыков фермеров.
3️⃣ В медицине ИИ внедряется в диагностику и оптимизацию операций, но мало масштабных систем.
4️⃣ Производство и транспорт демонстрируют ограниченное проникновение ИИ в стандартные процессы, несмотря на потенциал в прогнозировании и автоматизации.
#AIShelf
————
@pattern_ai
Организация экономического сотрудничества и развития (OECD) опубликовала доклад "Progress in Implementing the European Union Coordinated Plan on Artificial Intelligence (Volume 2)", в котором оценивается внедрение ИИ в ключевых секторах: сельское хозяйство, здравоохранение, производство и мобильность.
План направлен на усиление сотрудничества между странами ЕС, повышение инвестиций и устранение фрагментации в ИИ‑политике.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
AI Literacy становится требованием рынка труда не только в ЕС
Департамент труда США выпустило руководство Training and Employment Notice (TEN 07-25) AI Literacy Framework, посвящённое повышению грамотности в области ИИ, эффективной интеграции образовательных программ по ИИ в системы образования и трудоустройства, чтобы помочь ускорить развитие навыков работы с ИИ среди молодежи, студентов, преподавателей, соискателей, работников по всей стране.
Главный посыл, что важно не просто уметь пользоваться ИИ, а понимать его ограничения и риски.
👀 Грамотность в области ИИ (AI literacy) - базовый набор компетенций, позволяющих людям ответственно использовать и оценивать технологии ИИ, уделяя основное внимание генеративному ИИ, который становится все более важным для современного рабочего места.
Программы обучения должны объяснять:
▪️ как принимаются автоматизированные решения;
▪️ почему ИИ может ошибаться;
▪️ как возникают предвзятость и дискриминационные эффекты;
▪️ как ИИ влияет на найм и оценку работников.
Фреймворк является "отправной точкой" и будет обновляться, чтобы обеспечивать постоянную актуальность.
Также Министерство труда подчеркнуло, что большое количество компаний уже подписало обязательство Белого дома предоставлять бесплатные образовательные ресурсы по ИИ, и планируется развивать дальнейшее сотрудничество, что обеспечить максимальный охват обучения работников.
#LawAndDisorder
————
@pattern_ai
Департамент труда США выпустило руководство Training and Employment Notice (TEN 07-25) AI Literacy Framework, посвящённое повышению грамотности в области ИИ, эффективной интеграции образовательных программ по ИИ в системы образования и трудоустройства, чтобы помочь ускорить развитие навыков работы с ИИ среди молодежи, студентов, преподавателей, соискателей, работников по всей стране.
Главный посыл, что важно не просто уметь пользоваться ИИ, а понимать его ограничения и риски.
Программы обучения должны объяснять:
▪️ как принимаются автоматизированные решения;
▪️ почему ИИ может ошибаться;
▪️ как возникают предвзятость и дискриминационные эффекты;
▪️ как ИИ влияет на найм и оценку работников.
Фреймворк является "отправной точкой" и будет обновляться, чтобы обеспечивать постоянную актуальность.
Также Министерство труда подчеркнуло, что большое количество компаний уже подписало обязательство Белого дома предоставлять бесплатные образовательные ресурсы по ИИ, и планируется развивать дальнейшее сотрудничество, что обеспечить максимальный охват обучения работников.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
AI Standards Hub Global Summit 2026
Редко здесь публикацию анонсы конференций, но эта заслуживает внимания.
Саммит состоится 16 и 17 марта 2026 в гибридном формате ( очно в Глазго и онлайн, регистрация здесь).
Проходит при поддержке Организации экономического сотрудничества и развития (OECD) , Управления Верховного комиссара ООН по правам человека, The Data Lab и Responsible Ai UK.
Примеры тем докладов и панельных дискуссий:
🔹Национальные подходы к тестированию, оценке, верификации и валидации ИИ (TEVV);
🔹От надежности ИИ к качеству ИИ – стандарты, институты и инновации;
🔹Формирование навыков и понимание стандартов для индустрии 5.0;
🔹Обеспечение доверия к ИИ: роль глобальной экосистемы качества;
🔹Саммит по цифровым стандартам Великобритании.
#AIShelf
————
@pattern_ai
Редко здесь публикацию анонсы конференций, но эта заслуживает внимания.
Саммит состоится 16 и 17 марта 2026 в гибридном формате ( очно в Глазго и онлайн, регистрация здесь).
Проходит при поддержке Организации экономического сотрудничества и развития (OECD) , Управления Верховного комиссара ООН по правам человека, The Data Lab и Responsible Ai UK.
Примеры тем докладов и панельных дискуссий:
🔹Национальные подходы к тестированию, оценке, верификации и валидации ИИ (TEVV);
🔹От надежности ИИ к качеству ИИ – стандарты, институты и инновации;
🔹Формирование навыков и понимание стандартов для индустрии 5.0;
🔹Обеспечение доверия к ИИ: роль глобальной экосистемы качества;
🔹Саммит по цифровым стандартам Великобритании.
#AIShelf
————
@pattern_ai
AI Standards Hub
Global Summit 2026 - AI Standards Hub
61 регулятор высказался о дипфейках
61 орган по защите данных выпустили совместное предупреждение о росте вреда от ИИ дипфейк-контента.
Главные опасения регуляторов:
▪️ распространение интимных и унижающих дипфейков;
▪️ атаки на детей и уязвимые группы;
▪️кибербуллинг и эксплуатация через соцсети;
▪️глобальный характер проблемы — контент создаётся в одной стране, вред возникает в другой.
Регуляторы ожидают от компаний не реактивных мер по удалению контента, а превентивного комплаенса:
🔹Надежные меры защиты для предотвращения неправомерного использования личной информации и генерации интимных изображений и других вредных материалов без согласия,
особенно если на них изображены дети.
🔹 Обеспечение достоверной информации и прозрачности в отношении возможностей систем ИИ, мер защиты, допустимых видов использования и последствий неправомерного использования.
🔹Предоставление эффективных и доступных механизмов для запроса удаления вредного контента, содержащего личную информацию, и оперативное реагирование на такие запросы.
🔹 Устранение конкретных рисков для детей: внедрение усиленных мер защиты и предоставление четкой, соответствующей возрасту информации детям, родителям, опекунам и педагогам.
❕Риски, связанные с дипфейками, выходят за рамки модерации контента и становятся частью требований privacy by design и AI-governance. Регуляторы четко заявили, что ими будут приниматься скоординированные меры, если вред, возникает в результате генерации интимного, клеветнического или иного вредного контента.
#LawAndDisorder #UXWatch
————
@pattern_ai
61 орган по защите данных выпустили совместное предупреждение о росте вреда от ИИ дипфейк-контента.
Главные опасения регуляторов:
▪️ распространение интимных и унижающих дипфейков;
▪️ атаки на детей и уязвимые группы;
▪️кибербуллинг и эксплуатация через соцсети;
▪️глобальный характер проблемы — контент создаётся в одной стране, вред возникает в другой.
Ключевой сигнал бизнесу:
"Компании, разрабатывающим и использующие системы генерации контента на основе ИИ, должны разрабатывать и использовать ИИ системы в соответствии с применимыми правовыми фреймворками, включая правила защиты данных и конфиденциальности.
Создание интимных изображений без согласия может представлять собой
уголовное преступление во многих юрисдикциях.
Регуляторы ожидают от компаний не реактивных мер по удалению контента, а превентивного комплаенса:
🔹Надежные меры защиты для предотвращения неправомерного использования личной информации и генерации интимных изображений и других вредных материалов без согласия,
особенно если на них изображены дети.
🔹 Обеспечение достоверной информации и прозрачности в отношении возможностей систем ИИ, мер защиты, допустимых видов использования и последствий неправомерного использования.
🔹Предоставление эффективных и доступных механизмов для запроса удаления вредного контента, содержащего личную информацию, и оперативное реагирование на такие запросы.
🔹 Устранение конкретных рисков для детей: внедрение усиленных мер защиты и предоставление четкой, соответствующей возрасту информации детям, родителям, опекунам и педагогам.
❕Риски, связанные с дипфейками, выходят за рамки модерации контента и становятся частью требований privacy by design и AI-governance. Регуляторы четко заявили, что ими будут приниматься скоординированные меры, если вред, возникает в результате генерации интимного, клеветнического или иного вредного контента.
#LawAndDisorder #UXWatch
————
@pattern_ai
👍1
FRIA_en_def.pdf
1 MB
Шаблоны FRIA (оценка рисков, связанных с ИИ)
FRIA в ЕС по AI Act необходима, когда компания планирует развернуть систему ИИ с высоким уровнем риска.
👀 FRIA требует:
▪️ оценки рисков дискриминации и предвзятости,
▪️ оценки соразмерности и необходимости,
▪️анализа влияния на доступ к основным услугам,
▪️ гарантий соблюдения надлежащей процедуры и прозрачности,
▪️четких мер по смягчению последствий и обеспечению подотчетности.
➡️ Инструменты оценки воздействия AIIA, FRIA и DPIA чем отличаются,
➡️ Fundamental Rights Impact Assessment (FRIA) для чего необходима,
🔹Шаблон оценки воздействия на основные права человека (FRIA) от Каталонского управление по защите данных,
🔹Шаблон FRIA от ALIGNER,
🔹 Шаблон FRIA от ICT Institute,
🔹Шаблон FRIA от CEDPO, и разьяснения "Fundamental Rights Impact Assessments: What are they? How do they work?",
🔹Гайд и шаблон по FRIA от Датского института прав человека
#AIShelf
————
@pattern_ai
FRIA в ЕС по AI Act необходима, когда компания планирует развернуть систему ИИ с высоким уровнем риска.
▪️ оценки рисков дискриминации и предвзятости,
▪️ оценки соразмерности и необходимости,
▪️анализа влияния на доступ к основным услугам,
▪️ гарантий соблюдения надлежащей процедуры и прозрачности,
▪️четких мер по смягчению последствий и обеспечению подотчетности.
🔹Шаблон оценки воздействия на основные права человека (FRIA) от Каталонского управление по защите данных,
🔹Шаблон FRIA от ALIGNER,
🔹 Шаблон FRIA от ICT Institute,
🔹Шаблон FRIA от CEDPO, и разьяснения "Fundamental Rights Impact Assessments: What are they? How do they work?",
🔹Гайд и шаблон по FRIA от Датского института прав человека
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3