Расследование в отношении X от Ofcom (UK)
Для тех, кто следит за сериалом "Grok под прицелом регуляторов", Ofcom (британское агентство, регулирующее работу теле- и радио-компаний, а также почтовой службы) выпустил обновления о статусе их расследования.
📝Главное из разьяснений Ofcom про действие the Online Safety Act.
Не все чат-боты попадают под действие закона. Чтобы ИИ-сервис оставался «вне радаров» регулятора, он должен соответствовать трем критериям:
▪️только приватное общение, т.е. вы общаетесь только с ботом, а не с другими людьми через него.
▪️никакого поиска, т.е. бот не использует внешние базы данных или сайты для ответов в реальном времени (не является поисковиком).
▪️сервис не позволяет генерировать порнографический контент.
Правительство Великобритании уже заявило, что рассматривает вопрос расширения регулирования чат-ботов, и Ofcom эту инициативу активно поддерживает.
Следим за продолжением истории дальше...
📌 Расследование Tech Transparency Project (TTP): десятки «nudify»-AI-приложений в Apple и Google App Stores,
Grok: Еврокомиссия переходит к расследованию
#UXWatch
————
@pattern_ai
Для тех, кто следит за сериалом "Grok под прицелом регуляторов", Ofcom (британское агентство, регулирующее работу теле- и радио-компаний, а также почтовой службы) выпустил обновления о статусе их расследования.
👀 Ofcom
- продолжает требовать от xAI объяснений относительно рисков,
- собирает и анализирует доказательства, чтобы определить, нарушила ли компания X закон,
-изучает вопрос о том, следует ли начать расследование в отношении соблюдения им правил, требующих от сервисов, публикующих порнографические материалы, использования высокоэффективных проверок возраста для предотвращения доступа детей к этому контенту.
- указывает, что не может расследовать создание незаконных изображений автономным сервисом Grok в данном случае (по Online Safety Act) .
📝Главное из разьяснений Ofcom про действие the Online Safety Act.
Не все чат-боты попадают под действие закона. Чтобы ИИ-сервис оставался «вне радаров» регулятора, он должен соответствовать трем критериям:
▪️только приватное общение, т.е. вы общаетесь только с ботом, а не с другими людьми через него.
▪️никакого поиска, т.е. бот не использует внешние базы данных или сайты для ответов в реальном времени (не является поисковиком).
▪️сервис не позволяет генерировать порнографический контент.
Правительство Великобритании уже заявило, что рассматривает вопрос расширения регулирования чат-ботов, и Ofcom эту инициативу активно поддерживает.
Следим за продолжением истории дальше...
Grok: Еврокомиссия переходит к расследованию
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
How AI Destroys Institutions.pdf
596.6 KB
Как ИИ разрушает институты гражданского общества
Сегодня еще для обсуждения статья "How AI Destroys Institutions" ( авторы Woodrow Hartzog and Jessica Silbey).
👀 Ключевые тезисы:
1️⃣ Институты держатся не на технологиях, а на легитимности.
Право, университеты, наука, пресса работают потому, что есть роли и ответственность, есть процедуры, объяснимость решений, социальные связи между людьми.
ИИ же производит результат без институционального процесса.
2️⃣ ИИ размывает экспертизу. Когда ответ выдаёт система, то неясно, кто именно «знает», невозможно оспорить путь рассуждений, исчезает различие между экспертным суждением и сгенерированным текстом.
3️⃣ Решения “короче”, но беднее. ИИ сокращает обсуждения и сомнения, подменяет коллективное принятие решений автоматическим выводом, поощряет быстрое согласие, а не критическое мышление.
Это особенно опасно для судебной системы, образования, СМИ.
4️⃣ Люди изолируются друг от друга. Институты эволюционируют через споры, конфликты, совместную работу. ИИ же заменяет взаимодействие, делает процессы индивидуальными и непрозрачными, разрушает социальную ткань института.
Главный вывод авторов: нынешние системы ИИ - это смертный приговор для гражданских институтов.
Делитесь мыслями в комментариях ⤵️
#UXWatch
————
@pattern_ai
Сегодня еще для обсуждения статья "How AI Destroys Institutions" ( авторы Woodrow Hartzog and Jessica Silbey).
Право, университеты, наука, пресса работают потому, что есть роли и ответственность, есть процедуры, объяснимость решений, социальные связи между людьми.
ИИ же производит результат без институционального процесса.
Это особенно опасно для судебной системы, образования, СМИ.
Главный вывод авторов: нынешние системы ИИ - это смертный приговор для гражданских институтов.
Делитесь мыслями в комментариях ⤵️
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
ИИ-инструменты в патентных ведомствах (UKIPO, EPO, USPTO)
Патентные офисы всё активнее используют инструменты с элементами ИИ как поддержку экспертов и заявителей (поиск релевантных материалов, классификация, предварительная проверка), ускоряя рутинные шаги, предлагают ориентиры, но не заменяют профессиональную оценку.
🇬🇧 UK Intellectual Property Office (UKIPO)
🔹Search - внутренний инструмент поиска по патентам, ранжирует результаты по похожести и релевантности (основан на ANSERA).
🔹Check if you could register your trade mark - публичный ИИ-инструмент для предварительной проверки торговой марки по тексту и изображению.
🔹 AI allocation tool - внутренний инструмент для автоматического распределения заявок между экспертами (нет публичной страницы, упоминается в обзорах).
🇪🇺 European Patent Office (EPO)
🔹 ANSERA - внутренний инструмент поиска и анализа приоритетных материалов для экспертов (нет публичного доступа).
🔹 Legal Interactive Platform (LIP) - генеративный ИИ- поиск в MyEPO (структурированные ответы по праву и практике EPC).
🔹 CPC Text Categoriser - онлайн-сервис для подбора CPC-классификаций по описанию технологии.
🔹Patent Translate - машинный перевод патентных документов (32 языка). Доступ через Espacenet.
🇺🇸 United States Patent and Trademark Office (USPTO)
🔹Similarity Search - ИИ-ассистированный поиск по базе патентов (часть PE2E).
🔹ASAP! (Artificial Intelligence Search Automated Pilot Program) - пилотная программа для автоматического предварительного поиска и выдачи уведомлений о возможных материалах.
#AIShelf
————
@pattern_ai
Патентные офисы всё активнее используют инструменты с элементами ИИ как поддержку экспертов и заявителей (поиск релевантных материалов, классификация, предварительная проверка), ускоряя рутинные шаги, предлагают ориентиры, но не заменяют профессиональную оценку.
🇬🇧 UK Intellectual Property Office (UKIPO)
🔹Search - внутренний инструмент поиска по патентам, ранжирует результаты по похожести и релевантности (основан на ANSERA).
🔹Check if you could register your trade mark - публичный ИИ-инструмент для предварительной проверки торговой марки по тексту и изображению.
🔹 AI allocation tool - внутренний инструмент для автоматического распределения заявок между экспертами (нет публичной страницы, упоминается в обзорах).
🇪🇺 European Patent Office (EPO)
🔹 ANSERA - внутренний инструмент поиска и анализа приоритетных материалов для экспертов (нет публичного доступа).
🔹 Legal Interactive Platform (LIP) - генеративный ИИ- поиск в MyEPO (структурированные ответы по праву и практике EPC).
🔹 CPC Text Categoriser - онлайн-сервис для подбора CPC-классификаций по описанию технологии.
🔹Patent Translate - машинный перевод патентных документов (32 языка). Доступ через Espacenet.
🇺🇸 United States Patent and Trademark Office (USPTO)
🔹Similarity Search - ИИ-ассистированный поиск по базе патентов (часть PE2E).
🔹ASAP! (Artificial Intelligence Search Automated Pilot Program) - пилотная программа для автоматического предварительного поиска и выдачи уведомлений о возможных материалах.
#AIShelf
————
@pattern_ai
🔥1
Как регуляторы пытаются успеть за ИИ в финансовом секторе
Январский доклад OECD честно показывает, что надзор за ИИ отстаёт от технологической реальности:
1️⃣ ИИ развивается быстрее, чем обновляются регуляторные рамки. Модели сложны, плохо объяснимы, динамически дообучаются, могут работать с высокой степенью автономии. Проверять такие системы используя старые подходы всё труднее.
2️⃣ Непрозрачность экосистемы. Регуляторы часто не знают, где именно и как используется ИИ, нет полной картины внедрения ИИ в финсекторе, а ключевые элементы (модели, инфраструктура, данные) у третьих лиц и BigTech-провайдеров, которые часто вне прямого надзора.
3️⃣ Требования "объяснимости, справедливости, надежности" есть на бумаге, а в жизни сложно проверить модели, найти нужные решения, непонятно, как именно реализовывать «надзор человека» в разных сценариях.
4️⃣ Правовая неопределённость из-за того, что новые ИИ-акты и требования наслаиваются на существующие. Как итог, тормозится внедрение ИИ, повышаются комплаенс-риски, инвестиции в ИИ становятся менее предсказуемы.
👀 Что предлагают:
▪️разъяснять, как применять существующие требования к продвинутым ИИ-моделям;
▪️избегать чрезмерно предписывающего регулирования;
▪️усиливать диалог с индустрией;
▪️использовать песочницы, live-тестирование ( пример UK FCA AI Live Testing), эксперименты.
📌 Обзоры отчетов прошлого года в посте "AI и финансовый сектор"
Пост "НейроUX в банках против ваших интересов" и подборка статей
#UXWatch
————
@pattern_ai
Январский доклад OECD честно показывает, что надзор за ИИ отстаёт от технологической реальности:
▪️разъяснять, как применять существующие требования к продвинутым ИИ-моделям;
▪️избегать чрезмерно предписывающего регулирования;
▪️усиливать диалог с индустрией;
▪️использовать песочницы, live-тестирование ( пример UK FCA AI Live Testing), эксперименты.
Пример, как Европейский центральный банк активно внедряет ИИ через SupTech Hub ECB (изучает 40+ GenAI use cases, использует ИИ в повседневной работе супервизоров):
▪️Athena- для перевод и анализ надзорных документов с использованием текстового анализа;
▪️Agora - позволяющая запрашивать данные из хранилищ данных, используя естественный язык, переведенный в код с помощью ИИ;
▪️Virtual Lab - разработка и совместная работы в области машинного обучения;
▪️Medusa - помощь в составлении и сравнительной оценке результатов надзорных проверок;
▪️Heimdall - автоматическое проведение процедур оценки соответствия требованиям.
▪️Delphi - обработка естественного языка (NLP) для интеграции индикаторов рыночного риска и информации из новостных сообщений в единую веб-платформу с удобным пользовательским интерфейсом для банковских надзорных органов.
Пост "НейроUX в банках против ваших интересов" и подборка статей
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Тайвань принял базовый закон об ИИ
Регулирование ИИ в Азии набирает обороты. С января не только в Южной Корее вступил закон в силу, но и Тайвань утвердил AI Basic Act, первый рамочный закон об ИИ. Это не жёсткое регулирование «по-европейски», а база для дальнейших подзаконных актов (регламентов/административных правил), которые будут развивать отраслевые требования для разных сфер ИИ:
🔹 Закрепляет ключевые принципы: защита прав человека, прозрачность и обьяснимость, недискриминация и справедливость, безопасность и ответственность, конфиденциальность и управление данными, ответственность и подотчётность
🔹Государство обязано поддерживать развитие ИИ, а не только контролировать его.
🔹Определяет обстоятельства, при которых применение ИИ может быть запрещен или классифицирован как высокорискованный с применением строгих ограничений:
- нарушает права на жизнь, телесную неприкосновенность, свободу или права собственности отдельных лиц;
- нарушает общественный порядок, национальную безопасность или экологическую устойчивость;
- дискриминация, предвзятость, ложная реклама, дезинформация или мошенничество, нарушая действующее законодательство.
Будут дальше четкие стандарты и условия для определения ответственности. Также будут разработаны механизмы возмещения ущерба, компенсации и страхования для защиты пострадавших сторон и обеспечения подотчетности. Основа -международные стандарты.
🔹Правительство Тайваня обязано создать открытую систему обработки данных и механизмы для облегчения обмена данными и их вторичного использования. Эта инициатива направлена на повышение доступности и качества обучающих данных, что имеет решающее значение для разработки надежных моделей ИИ.
🔹 Подчеркивается важность защиты персональных данных, внедрение принципов минимизации данных при разработке ИИ.
🔹 Не предусматривает явного ослабления защиты авторских прав, но подчеркивает роль государства в увеличении количества и качества обучающих данных для ИИ.
🔹Существующие законы должны быть пересмотрены, а новые приняты в течение 2 лет.
📌
У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ";
AI Basic Act Explorer of the Republic of Korea;
#LawAndDisorder
————
@pattern_ai
Регулирование ИИ в Азии набирает обороты. С января не только в Южной Корее вступил закон в силу, но и Тайвань утвердил AI Basic Act, первый рамочный закон об ИИ. Это не жёсткое регулирование «по-европейски», а база для дальнейших подзаконных актов (регламентов/административных правил), которые будут развивать отраслевые требования для разных сфер ИИ:
🔹 Закрепляет ключевые принципы: защита прав человека, прозрачность и обьяснимость, недискриминация и справедливость, безопасность и ответственность, конфиденциальность и управление данными, ответственность и подотчётность
🔹Государство обязано поддерживать развитие ИИ, а не только контролировать его.
🔹Определяет обстоятельства, при которых применение ИИ может быть запрещен или классифицирован как высокорискованный с применением строгих ограничений:
- нарушает права на жизнь, телесную неприкосновенность, свободу или права собственности отдельных лиц;
- нарушает общественный порядок, национальную безопасность или экологическую устойчивость;
- дискриминация, предвзятость, ложная реклама, дезинформация или мошенничество, нарушая действующее законодательство.
Будут дальше четкие стандарты и условия для определения ответственности. Также будут разработаны механизмы возмещения ущерба, компенсации и страхования для защиты пострадавших сторон и обеспечения подотчетности. Основа -международные стандарты.
🔹Правительство Тайваня обязано создать открытую систему обработки данных и механизмы для облегчения обмена данными и их вторичного использования. Эта инициатива направлена на повышение доступности и качества обучающих данных, что имеет решающее значение для разработки надежных моделей ИИ.
🔹 Подчеркивается важность защиты персональных данных, внедрение принципов минимизации данных при разработке ИИ.
🔹 Не предусматривает явного ослабления защиты авторских прав, но подчеркивает роль государства в увеличении количества и качества обучающих данных для ИИ.
🔹Существующие законы должны быть пересмотрены, а новые приняты в течение 2 лет.
У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ";
AI Basic Act Explorer of the Republic of Korea;
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Реклама в AI-чатах новый риск, а не новый формат
Реклама в ChatGPT перестаёт быть слухом и скоро станет реальностью.
😳 OpenAI подтверждает планы показывать рекламные сообщения в чатах для бесплатных пользователей и дешевых тарифов (ChatGPT Go) (официальный пресс-релиз).
Речь идёт не о баннерах, а о нативной рекламе внутри чата, которая будет помечена как реклама, показана рядом или под ответом, отключаема в платных версиях.
Естественно, объяснение только одно - это способ сохранить бесплатный доступ для миллионов пользователей.
И если на Super Bowl 2026 (самое дорогое рекламное место в мире, 30 сек за $8млн) OpenAI запустил телевизионный ролик “You Can Just Build Things” об инструменте Codex, то Anthropic (создатели Claude) ответил серией рекламных роликов, высмеивающих идею рекламы прямо в чатах ИИ, чтобы заявить:
В отличие от поиска или соцсетей пользователи воспринимают ИИ-чаты как диалоги доверия (кейс, когда могут стать и уликами против них). Пользователи не просто «листают контент», а задаёт вопросы очень часто личного, профессионального или чувствительного характера.
👀 Когда в такой среде появляется реклама, возникает вопрос, где граница между нейтральной помощью и коммерческим влиянием?
Это зона риска:
▪️вводящее в заблуждение представление о «объективности» ответа;
▪️ скрытые коммерческие стимулы;
▪️ потенциальные dark patterns в дизайне диалога;
▪️ снижение прозрачности принятия решений.
Исследования показывают, что даже честно помеченная реклама снижает доверие к ответам ИИ.
Поэтому публичный спор OpenAI и Anthropic не просто про маркетинг, а про то, чем ИИ является по умолчанию, помощником, очередной медиаплатформой, продавцом «между строк»?
Как вы относитесь к рекламе в личном диалоге с ИИ?Делитесь мнением в комментариях❤️
#UXWatch
————
@pattern_ai
Реклама в ChatGPT перестаёт быть слухом и скоро станет реальностью.
Речь идёт не о баннерах, а о нативной рекламе внутри чата, которая будет помечена как реклама, показана рядом или под ответом, отключаема в платных версиях.
Естественно, объяснение только одно - это способ сохранить бесплатный доступ для миллионов пользователей.
И если на Super Bowl 2026 (самое дорогое рекламное место в мире, 30 сек за $8млн) OpenAI запустил телевизионный ролик “You Can Just Build Things” об инструменте Codex, то Anthropic (создатели Claude) ответил серией рекламных роликов, высмеивающих идею рекламы прямо в чатах ИИ, чтобы заявить:
«Ads are coming to AI. But not to Claude.»
В роликах показаны абсурдные сцены, где ИИ внезапно начинает что-то продавать посреди диалога.
В отличие от поиска или соцсетей пользователи воспринимают ИИ-чаты как диалоги доверия (кейс, когда могут стать и уликами против них). Пользователи не просто «листают контент», а задаёт вопросы очень часто личного, профессионального или чувствительного характера.
Это зона риска:
▪️вводящее в заблуждение представление о «объективности» ответа;
▪️ скрытые коммерческие стимулы;
▪️ потенциальные dark patterns в дизайне диалога;
▪️ снижение прозрачности принятия решений.
Исследования показывают, что даже честно помеченная реклама снижает доверие к ответам ИИ.
Поэтому публичный спор OpenAI и Anthropic не просто про маркетинг, а про то, чем ИИ является по умолчанию, помощником, очередной медиаплатформой, продавцом «между строк»?
Как вы относитесь к рекламе в личном диалоге с ИИ?Делитесь мнением в комментариях
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
PaperBanana или диаграммы для научных работ
Исследователи Google Cloud и Пекинского университета представили PaperBanana - агентский фреймворк для генерации научных диаграмм и графиков. Во время работы система имитирует процесс создания схем, которым пользуются люди: ищет примеры, составляет план и переделывает, если получилось плохо.
PaperBanana организует совместную работу пяти специализированных агентов ( Retriever, Planner, Stylist, Visualizer и Critic ) для преобразования исходного научного контента в диаграммы и графики высокого качества, пригодные для публикации.
▪️ Retriever определяет соответствующие примеры из источников для управления последующими агентами (похожие научные статьи, референсы изображений).
▪️Planner выступает в качестве когнитивного ядра, преобразуя контекст в подробные текстовые описания.
▪️ Stylist обеспечивает соблюдение академических эстетических стандартов, синтезируя рекомендации из источников (шрифты, палитра).
▪️ Visualizer преобразует текстовые описания в визуальный вывод или исполняемый код.
▪️ Critic проверяет сгенерированные изображения/графики на соответствие исходному материалу, предоставляя обратную связь для доработки.
Примеры и результаты бенчмаркинга здесь.
Репозиторий здесь ( код и датасет обещают в течение 2 недель).
#AIShelf
————
@pattern_ai
Исследователи Google Cloud и Пекинского университета представили PaperBanana - агентский фреймворк для генерации научных диаграмм и графиков. Во время работы система имитирует процесс создания схем, которым пользуются люди: ищет примеры, составляет план и переделывает, если получилось плохо.
PaperBanana организует совместную работу пяти специализированных агентов ( Retriever, Planner, Stylist, Visualizer и Critic ) для преобразования исходного научного контента в диаграммы и графики высокого качества, пригодные для публикации.
▪️ Retriever определяет соответствующие примеры из источников для управления последующими агентами (похожие научные статьи, референсы изображений).
▪️Planner выступает в качестве когнитивного ядра, преобразуя контекст в подробные текстовые описания.
▪️ Stylist обеспечивает соблюдение академических эстетических стандартов, синтезируя рекомендации из источников (шрифты, палитра).
▪️ Visualizer преобразует текстовые описания в визуальный вывод или исполняемый код.
▪️ Critic проверяет сгенерированные изображения/графики на соответствие исходному материалу, предоставляя обратную связь для доработки.
Примеры и результаты бенчмаркинга здесь.
Репозиторий здесь ( код и датасет обещают в течение 2 недель).
#AIShelf
————
@pattern_ai
👍1
Отчет про ИИ в образовании от OECD
Организация экономического сотрудничества и развития (OECD) опубликовала отчёт Digital Education Outlook 2026, посвящённый тому, как генеративный ИИ (GenAI) трансформирует системы обучения, преподавания и управления образованием, с примерами EdTech решений, интервью с профессорами, всего 247 страниц.
👀 Основные выводы отчёта:
1️⃣ 37% учителей младшей школы школы используют ИИ в работе, причем 57% считают ИИ полезным для планирования уроков, но 72% опасаются угроз академической честности (например, списывания, выдачи работ за свои).
2️⃣ Успешное выполнение задания с помощью ИИ ≠ настоящее обучение
Если студенты используют генAI для «сокращения пути» (готовые ответы), это может поднять качество работы, но не приводит к устойчивому усвоению навыков. В условиях отказа от ИИ такие преимущества исчезают, например, на экзаменах, когда доступ к ним прекращается.
3️⃣ GenAI помогает развивать критическое мышление, творческие способности и навыки сотрудничества тогда, когда он встроен в продуманную педагогическую стратегию.
Например, в коллаборативных сценариях усиливает аргументацию и знание предмета,
в динамичных адаптивных системах позволяет создать интерактивных «умных тьюторов», которые стимулируют рефлексию и анализ.
4️⃣ ИИ не должен вытеснять учителя. Лучшие результаты достигаются, когда инструменты проектируются совместно с педагогами, и ИИ поддерживает опыт, а не заменяет его.
5️⃣ Успех в выполнении задания с помощью ИИ может быть обманчивым. Это не обязательно отражает глубокое понимание, а скорее способность эффективно использовать инструмент. Такой феномен называют «миражом ложного мастерства, т.е. поверхностные достижения маскируют слабую базу навыков и метапознания.
6️⃣ OECD рекомендует:
▪️развивать политику, гарантирующую безопасность, защиту данных, возрастную адекватность и прозрачность ИИ;
▪️инвестировать в инфраструктуру и профессиональное развитие;
▪️финансировать научно-обоснованные EdTech-решения, ориентированные на реальный образовательный эффект.
📌
ИИ в школах: урок Ирландии по безопасному внедрению;
ИИ и инклюзивное образование;
#AIShelf
————
@pattern_ai
Организация экономического сотрудничества и развития (OECD) опубликовала отчёт Digital Education Outlook 2026, посвящённый тому, как генеративный ИИ (GenAI) трансформирует системы обучения, преподавания и управления образованием, с примерами EdTech решений, интервью с профессорами, всего 247 страниц.
Потенциал ИИ огромен, но именно педагогический контекст использования определяет, получит ли система образования пользу или ущерб.
Если студенты используют генAI для «сокращения пути» (готовые ответы), это может поднять качество работы, но не приводит к устойчивому усвоению навыков. В условиях отказа от ИИ такие преимущества исчезают, например, на экзаменах, когда доступ к ним прекращается.
Например, в коллаборативных сценариях усиливает аргументацию и знание предмета,
в динамичных адаптивных системах позволяет создать интерактивных «умных тьюторов», которые стимулируют рефлексию и анализ.
▪️развивать политику, гарантирующую безопасность, защиту данных, возрастную адекватность и прозрачность ИИ;
▪️инвестировать в инфраструктуру и профессиональное развитие;
▪️финансировать научно-обоснованные EdTech-решения, ориентированные на реальный образовательный эффект.
ИИ в школах: урок Ирландии по безопасному внедрению;
ИИ и инклюзивное образование;
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Лайки от вашего имени после смерти?
И пока регуляторы обсуждают использованию цифровых данных после смерти и анализируют сервисы, рынок продолжается развиваться.
По данным Business Insider, Meta (Meta Platforms признана экстремистской, её деятельность на территории России запрещена) получила патент на систему, которая позволяет ИИ продолжать активность в аккаунте пользователя, даже если он перестал им пользоваться или умер.
Модель анализирует прошлые публикации, лайки, комментарии и стиль общения, чтобы имитировать поведение человека в соцсети. Такой ИИ мог бы отвечать на сообщения, публиковать посты и поддерживать «присутствие» профиля. Meta подчёркивает, что это не готовый продукт.
С учётом роста рынка DeathTech и сервисов «цифрового бессмертия», такие разработки уже не выглядят фантастикой. И если раньше речь шла о хранении архивов и мемориальных страницах, то теперь о потенциально автономных ИИ-версиях личности.
😳 А вопросов все больше:
▪️ Кто даёт согласие на такую «цифровую активность»?
▪️ Можно ли продолжать говорить от имени человека после его смерти?
▪️ Где граница между памятью и симуляцией?
▪️ Что, если алгоритм начнёт публиковать то, чего человек никогда бы не сказал?
📌 Наши данные после смерти или "воскреснуть" с помощью ИИ
#UXWatch
————
@pattern_ai
И пока регуляторы обсуждают использованию цифровых данных после смерти и анализируют сервисы, рынок продолжается развиваться.
По данным Business Insider, Meta (Meta Platforms признана экстремистской, её деятельность на территории России запрещена) получила патент на систему, которая позволяет ИИ продолжать активность в аккаунте пользователя, даже если он перестал им пользоваться или умер.
Модель анализирует прошлые публикации, лайки, комментарии и стиль общения, чтобы имитировать поведение человека в соцсети. Такой ИИ мог бы отвечать на сообщения, публиковать посты и поддерживать «присутствие» профиля. Meta подчёркивает, что это не готовый продукт.
С учётом роста рынка DeathTech и сервисов «цифрового бессмертия», такие разработки уже не выглядят фантастикой. И если раньше речь шла о хранении архивов и мемориальных страницах, то теперь о потенциально автономных ИИ-версиях личности.
▪️ Кто даёт согласие на такую «цифровую активность»?
▪️ Можно ли продолжать говорить от имени человека после его смерти?
▪️ Где граница между памятью и симуляцией?
▪️ Что, если алгоритм начнёт публиковать то, чего человек никогда бы не сказал?
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
uksc_2024_0131_judgment_1da6c10a83.pdf
382.5 KB
AI и патенты: кейс Emotional Perception может изменить подход к софту в Великобритании
Верховный суд Великобритании вынес решение по делу Emotional Perception AI v Comptroller General of Patents, Designs and Trade Marks. Компания долгое время пыталась запатентовать систему, где нейросеть анализирует эмоциональные характеристики музыки и подбирает похожий контент.
👀 Суд подтвердил, что ИНС действительно относится к компьютерным программам, но есть важный нюанс " исключение действует только для программы «как таковой». Если реализация требует компьютерного оборудования и система функционирует как техническая система, это может придать изобретению необходимый технический характер и позволить преодолеть первый барьер патентоспособности."
Это серьёзный сдвиг относительно теста Aerotel применяемого последние 20 лет. Он требовал выделить «реальный вклад» изобретения и проверить, не относится ли он к исключениям (алгоритмы, бизнес-методы, программы). На практике Aerotel часто блокировал патенты на ИИ и ПО ещё на ранней стадии.
Суд возвратил дело в Ведомство по интеллектуальной собственности (UKIPO) с указанием провести дополнительный «промежуточный» этап: определить, какие признаки заявки реально создают технический вклад, прежде чем оценивать новизну и изобретательский уровень, указав, что все части так называемых «принципов Данса», изложенных в деле T 154/04 (Duns Licensing Associates) и подтвержденных в деле G 1/19, должны соблюдаться судами Великобритании, за исключением последнего принципа.
Пока остаётся открытым вопрос, как именно UKIPO будет применять обозначенный судом «промежуточный этап» анализа.
Возможны два сценария:
1️⃣ Ведомство может фактически перенести прежнюю аргументацию, использовавшуюся в рамках теста Aerotel для отказа по исключениям из патентоспособности, на стадию оценки новизны и изобретательского уровня. В таком случае практическое положение заявителей существенно не изменится. Решения, ранее отклонявшиеся как непатентоспособные, будут признаваться очевидными или лишёнными новизны.
2️⃣ Как указывали сама Emotional Perception AI и участники процесса в Верховном суде, подход Aerotel нередко приводил к тому, что отдельные признаки изобретения, формально подпадающие под исключения (например, алгоритмические элементы), рассматривались изолированно и не оценивались в контексте всей системы. Новый подход допускает анализ таких признаков с точки зрения их вклада в технический характер изобретения в целом, особенно когда они реализуются на вычислительном оборудовании. Именно сочетание требования аппаратной реализации и «промежуточного этапа» может изменить практику оценки ИИ-изобретений.
❕Возможностей к получению патентов на ИИ становится больше, но автоматического признания технического эффекта по-прежнему нет.
#LawAndDisorder #AIShelf
————
@pattern_ai
Верховный суд Великобритании вынес решение по делу Emotional Perception AI v Comptroller General of Patents, Designs and Trade Marks. Компания долгое время пыталась запатентовать систему, где нейросеть анализирует эмоциональные характеристики музыки и подбирает похожий контент.
Это серьёзный сдвиг относительно теста Aerotel применяемого последние 20 лет. Он требовал выделить «реальный вклад» изобретения и проверить, не относится ли он к исключениям (алгоритмы, бизнес-методы, программы). На практике Aerotel часто блокировал патенты на ИИ и ПО ещё на ранней стадии.
Суд возвратил дело в Ведомство по интеллектуальной собственности (UKIPO) с указанием провести дополнительный «промежуточный» этап: определить, какие признаки заявки реально создают технический вклад, прежде чем оценивать новизну и изобретательский уровень, указав, что все части так называемых «принципов Данса», изложенных в деле T 154/04 (Duns Licensing Associates) и подтвержденных в деле G 1/19, должны соблюдаться судами Великобритании, за исключением последнего принципа.
Пока остаётся открытым вопрос, как именно UKIPO будет применять обозначенный судом «промежуточный этап» анализа.
Возможны два сценария:
❕Возможностей к получению патентов на ИИ становится больше, но автоматического признания технического эффекта по-прежнему нет.
#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
India.pdf
470.5 KB
Индия вводит обязательную маркировку AI-контента с 20 февраля
Правительство внесло поправки в Поправки к Правилам регулирования деятельности ИТ-посредников, которые вступают в силу 20 февраля 2026 года.
Стандартная обработка ( цветокоррекция, шумоподавление, сжатие, перевод), не входит в это определение, если она не искажает первоначальный смысл. Научные статьи, учебные материалы, PDF-файлы, презентации и гипотетические черновики с использованием иллюстративного контента также исключены.
Законодатель отделил дипфейки от обычного цифрового редактирования.
👀 Ключевые обязанности платформ:
1️⃣ Обязательная маркировка ИИ-контента. Если сервис позволяет создавать или распространять SGI, он обязан обеспечивать заметную маркировку, добавлять постоянные metadata / provenance-механизмы, внедрять уникальный идентификатор источника создания, не позволять удалять или скрывать метаданные.
Маркировка должна быть легко воспринимаемой визуально либо аудио-дисклеймером для звукового контента.
2️⃣ Платформы, позволяющие создавать SGI, должны применять разумные технические меры,
автоматические инструменты, механизмы предотвращения незаконного контента, т.е. подход AI-moderation by design, а не только реактивного удаления.
3️⃣ Требовать от пользователя декларацию, является ли контент синтетическим, технически проверять корректность декларации, используя автоматизированные инструменты для перекрестной проверки, проверяя формат, источник и характер контента, прежде чем он будет опубликован. Если контент помечен как синтетический, он должен иметь видимую предупреждающую метку. Если платформа сознательно закрывает глаза на контент, нарушающий правила, считается, что она не выполнила свои обязательства по проверке.
4️⃣ Предотвращать создание и распространение SGI, содержащего материалы о сексуальном насилии над детьми, непристойный контент, ложные электронные записи, материалы, связанные со взрывчатыми веществами, или дипфейки, искажающие личность или голос реального человека
5️⃣ Срок удаления незаконной информации сокращён с 36 часов до 3 часов после официального уведомления.
Ускорены процедуры рассмотрения жалоб (вплоть до 2 часов в отдельных случаях).
6️⃣ Обязаны предупреждать пользователей не реже одного раза в три месяца на английском языке или на любом языке (см. 8 приложение), о штрафах за неправомерное использование контента, созданного с помощью ИИ.
Поправки синхронизированы с выпущенным White paper Office of the Principal Scientific Adviser (январь 2026), продвигающим связку технических и юридических мер комлаенса.
❕Теперь при разработке ИИ-продуктов регулятор ожидает, что требования встраиваются уже на уровне архитектуры. Индия фактически закрепляет принцип, если ИИ создаёт реалистичный контент, платформа должна технически доказать его искусственное происхождение.
📌 Ваши пользователи из Индии? Смотрим новые AI Guidelines;
AI Laws and Regulations in India as of 2026.
#LawAndDisorder
————
@pattern_ai
Правительство внесло поправки в Поправки к Правилам регулирования деятельности ИТ-посредников, которые вступают в силу 20 февраля 2026 года.
Synthetically generated information (SGI) - аудио-, визуальная или аудиовизуальная информация, искусственно созданная или изменённая алгоритмами таким образом, что она выглядит реальной или неотличимой от реального человека или события.
Стандартная обработка ( цветокоррекция, шумоподавление, сжатие, перевод), не входит в это определение, если она не искажает первоначальный смысл. Научные статьи, учебные материалы, PDF-файлы, презентации и гипотетические черновики с использованием иллюстративного контента также исключены.
Законодатель отделил дипфейки от обычного цифрового редактирования.
Маркировка должна быть легко воспринимаемой визуально либо аудио-дисклеймером для звукового контента.
автоматические инструменты, механизмы предотвращения незаконного контента, т.е. подход AI-moderation by design, а не только реактивного удаления.
Ускорены процедуры рассмотрения жалоб (вплоть до 2 часов в отдельных случаях).
Поправки синхронизированы с выпущенным White paper Office of the Principal Scientific Adviser (январь 2026), продвигающим связку технических и юридических мер комлаенса.
❕Теперь при разработке ИИ-продуктов регулятор ожидает, что требования встраиваются уже на уровне архитектуры. Индия фактически закрепляет принцип, если ИИ создаёт реалистичный контент, платформа должна технически доказать его искусственное происхождение.
AI Laws and Regulations in India as of 2026.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Риски безопасности при использовании OpenClaw
Нидерландский регулятор по защите данных (AP) предупредил о серьёзных рисках безопасности при использовании OpenClaw (известного как «Clawdbot», а затем как «Moltbot») и аналогичных экспериментальных систем. Речь уже не о чат-ботах, а о системах, которые могут самостоятельно управлять компьютером, аккаунтами и сервисами.
Подобные системы с открытым исходным кодом, как правило, не соответствуют базовым требованиям безопасности.
👀 Аудит OpenClaw выявил 512 уязвимостей, включая критические:
▪️1/5 часть плагинов OpenClaw, по-видимому, содержит вредоносное ПО, которое, например, может украсть учетные данные для входа в систему у пользователя.
▪️Уязвима для скрытых команд (непрямое внедрение командной строки), которые могут быть скрыты на, казалось бы, обычных веб-сайтах, в электронных письмах или сообщениях мгновенного доступа. В этом случае ИИ может, например, выполнить следующие действия:
- получить доступ к учетным записям связанных сервисов (таких как Google, Facebook и Apple ID). По сути, хакер получает от пользователя главный ключ к большому объему (личных) данных и доступу к другим связанным сервисам.
-читать электронные письма, просматривать календари и работать с локальными файлами, такими как личные документы.
▪️ Злоумышленник может удаленно выполнять вредоносные команды или код, не имея физического доступа к компьютеру. Например, злоумышленник может получить полный контроль над компьютером с помощью OpenClaw (или аналогичной системы искусственного интеллекта), украсть данные или установить вредоносное ПО.
▪️Утечки данных. OpenClaw позволяет пользователю устанавливать или настраивать некорректные конфигурации, что делает личные данные общедоступными.
Фактически ваш ИИ-агент превращается в нового привилегированного пользователя, но без обучения, ответственности и понятной модели контроля доступа. Он получает доступ к почте, документам, API-ключам, корпоративным системам. Но ошибки настройки будут стоить дорого и это будут не просто баги, а, например, утечка персональных данных, нарушение обязанностей по обеспечению безопасности и т.д.
Что предпринять:
🔹 AI Use Policy должна быть рабочим инструментом, где чётко определены разрешённые инструменты, правила экспериментов, использование корпоративных аккаунтов и ограничения.
🔹 Вводите технические ограничения, например, мониторинг несанкционированных интеграций и блокировка небезопасных агентов на сетевом уровне.
🔹 Обучайте сотрудников, объясните риски agentic-AI.
🔹 Создайте безопасные sandbox-среды для экспериментов с ИИ-агентами без доступа к данным продакшна.
❕ Удобство растёт быстрее, чем безопасность....
📌 ClawdBot Skills Just Ganked Your Crypto/ OpenSourceMalware
#UXWatch
————
@pattern_ai
Нидерландский регулятор по защите данных (AP) предупредил о серьёзных рисках безопасности при использовании OpenClaw (известного как «Clawdbot», а затем как «Moltbot») и аналогичных экспериментальных систем. Речь уже не о чат-ботах, а о системах, которые могут самостоятельно управлять компьютером, аккаунтами и сервисами.
Подобные системы с открытым исходным кодом, как правило, не соответствуют базовым требованиям безопасности.
▪️1/5 часть плагинов OpenClaw, по-видимому, содержит вредоносное ПО, которое, например, может украсть учетные данные для входа в систему у пользователя.
▪️Уязвима для скрытых команд (непрямое внедрение командной строки), которые могут быть скрыты на, казалось бы, обычных веб-сайтах, в электронных письмах или сообщениях мгновенного доступа. В этом случае ИИ может, например, выполнить следующие действия:
- получить доступ к учетным записям связанных сервисов (таких как Google, Facebook и Apple ID). По сути, хакер получает от пользователя главный ключ к большому объему (личных) данных и доступу к другим связанным сервисам.
-читать электронные письма, просматривать календари и работать с локальными файлами, такими как личные документы.
▪️ Злоумышленник может удаленно выполнять вредоносные команды или код, не имея физического доступа к компьютеру. Например, злоумышленник может получить полный контроль над компьютером с помощью OpenClaw (или аналогичной системы искусственного интеллекта), украсть данные или установить вредоносное ПО.
▪️Утечки данных. OpenClaw позволяет пользователю устанавливать или настраивать некорректные конфигурации, что делает личные данные общедоступными.
Показательно, что сами разработчики OpenClaw прямо пишут в документации:
«Running an AI agent with shell access on your machine is… spicy… There is no “perfectly secure” setup.»
Фактически ваш ИИ-агент превращается в нового привилегированного пользователя, но без обучения, ответственности и понятной модели контроля доступа. Он получает доступ к почте, документам, API-ключам, корпоративным системам. Но ошибки настройки будут стоить дорого и это будут не просто баги, а, например, утечка персональных данных, нарушение обязанностей по обеспечению безопасности и т.д.
Что предпринять:
🔹 AI Use Policy должна быть рабочим инструментом, где чётко определены разрешённые инструменты, правила экспериментов, использование корпоративных аккаунтов и ограничения.
🔹 Вводите технические ограничения, например, мониторинг несанкционированных интеграций и блокировка небезопасных агентов на сетевом уровне.
🔹 Обучайте сотрудников, объясните риски agentic-AI.
🔹 Создайте безопасные sandbox-среды для экспериментов с ИИ-агентами без доступа к данным продакшна.
❕ Удобство растёт быстрее, чем безопасность....
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ-платформа "внезапно" детский сервис?
Вы точно не создаете продукт для детей? Владельцы Imgur (компания MediaLab) отнеслись к такому вопросу достаточно халатно, за что получили штраф на £247 590 от британского регулятора ICO за нарушения приватности детей.
Imgur - онлайн-сервис загрузки, хранения и обмена пользовательского контента (фото, мемов) в том числе сгенерированных ИИ.
В условиях использования Imgur было указано, что дети младше 13 лет могут пользоваться платформой только под присмотром родителей.
👀 ICO установил, что сервис:
▪️ не проверял возраст пользователей;
▪️ обрабатывал данные детей младше 13 лет без надлежащего законного основания (включая отсутствие подтверждённого согласия родителей);
▪️ не провёл Data Protection Impact Assessment ( риски, связанные с rконфиденциальностью данных детей);
▪️фактически не знал, какие пользователи являются детьми, и поэтому не применял дополнительные меры защиты.
Т.е. нарушение возникло не потому, что сервис «работал с детьми», а потому что он был доступен детям, что автоматически запускает требования UK GDPR и Age Appropriate Design Code.
При оценке последствий ICO учёл сотрудничество компании с регулятором, принятие предварительных выводов и то, что компания ограничила доступ к сервису из Великобритании, заявив о готовности внедрить необходимые меры защиты при возобновлении работы в UK.
Если дети ВЕРОЯТНО могут пользоваться вашим сервисом, то весь комплаенс нужно заранее проектировать, как минимум:
▪️ age assurance или разумная проверка возраста;
▪️ DPIA ( для функций с пользовательским контентом и рекомендациями) и AI Impact Assessment;
▪️ внедрение принципов privacy-by-default для несовершеннолетних;
▪️ контроль распространения пользовательского и синтетического контента.
📌 Примерный чек-лист по созданию AI-продуктов для детей
#UXWatch #LawAndDisorder
————
@pattern_ai
Вы точно не создаете продукт для детей? Владельцы Imgur (компания MediaLab) отнеслись к такому вопросу достаточно халатно, за что получили штраф на £247 590 от британского регулятора ICO за нарушения приватности детей.
Imgur - онлайн-сервис загрузки, хранения и обмена пользовательского контента (фото, мемов) в том числе сгенерированных ИИ.
В условиях использования Imgur было указано, что дети младше 13 лет могут пользоваться платформой только под присмотром родителей.
▪️ не проверял возраст пользователей;
▪️ обрабатывал данные детей младше 13 лет без надлежащего законного основания (включая отсутствие подтверждённого согласия родителей);
▪️ не провёл Data Protection Impact Assessment ( риски, связанные с rконфиденциальностью данных детей);
▪️фактически не знал, какие пользователи являются детьми, и поэтому не применял дополнительные меры защиты.
Т.е. нарушение возникло не потому, что сервис «работал с детьми», а потому что он был доступен детям, что автоматически запускает требования UK GDPR и Age Appropriate Design Code.
При оценке последствий ICO учёл сотрудничество компании с регулятором, принятие предварительных выводов и то, что компания ограничила доступ к сервису из Великобритании, заявив о готовности внедрить необходимые меры защиты при возобновлении работы в UK.
Если дети ВЕРОЯТНО могут пользоваться вашим сервисом, то весь комплаенс нужно заранее проектировать, как минимум:
▪️ age assurance или разумная проверка возраста;
▪️ DPIA ( для функций с пользовательским контентом и рекомендациями) и AI Impact Assessment;
▪️ внедрение принципов privacy-by-default для несовершеннолетних;
▪️ контроль распространения пользовательского и синтетического контента.
#UXWatch #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
AI-логотипы и авторское право
Местный суд Мюнхена (решение AG München judgment 142 C 9786/25, BeckRS 2026, 1513) отказал в защите трём логотипам, созданным с использованием генеративного ИИ.
👀 Истец создал изображения через GenAI-инструмент с помощью текстовых промптов, разместил эти символы на своем личном веб-сайте. Потом ответчик, знакомый истца, использовал эти три логотипа на своем веб-сайте «J de» без согласия истца.
Суд указал, что:
▪️длительность работы над промптом, его объём (до ~1700 символов) и стоимость подписки на ИИ- сервис не имеют значения для возникновения авторского права;
▪️защита принципиально возможна, но только если результат является выражением личного интеллектуального творчества человека (§ 2 UrhG);
ИИ может быть инструментом, но не источником творческого решения. В рассматриваемом случае промпты признаны слишком общими ("ноутбук с книгой, содержащей символ абзаца, парящий перед экраном", "рукопожатие между двумя людьми разного цвета кожи и звон колокольчик"), т.е. итоговый визуальный результат в значительной степени формировался системой, а не пользователем, поэтому требуемый уровень человеческого творческого вклада суд не увидел. Простой выбор продукта из четырех предложений ИИ сам по себе недостаточен для личного творческого замысла.
Отдельно суд отметил, что стороны были знакомы и обсуждали процесс создания логотипов заранее, из-за чего суд даже допустил, что спор мог быть инициирован ради получения судебной позиции по вопросу авторства на сгенерированные работы ( "также из научного интереса").
А как вообще доказать, что логотип создан дизайнером, а не ИИ?
В этом деле установить процесс создания было просто, т.к. стороны сами раскрыли детали. В реальных коммерческих спорах это значительно сложнее, т.к. происхождение дизайна становится вопросом рассмотрения доказательств (внутренних файлов, истории редактирования и рабочих процессов). Если бы спор рассматривался, например, в США, то стороны могли бы использовать процедуру discovery (обязательный обмен доказательствами между сторонами до суда) для расследования процесса создания (запросы документов, переписки, рабочих материалов).
📝Если компания не документирует создание контента, то рискует остаться без IP защиты ключевых активов:
▪️ фиксируйте процесс создания дизайна. Сохраняйте исходные файлы (PSD, Figma и т.д.), храните версии и историю правок, документируйте этапы разработки. Это одно из доказательств человеческого творчества.
▪️разделяйте генерацию с помощью ИИ и дизайнерскую работу, т.е. с помощью ИИ создавайте черновые концепты, а человек дорабатывает композицию, финальное визуальное решение.
Чем больше человеческих творческих решений можно показать,тем выше шанс защиты.
▪️ определите внутри компании, какие "активы" нельзя делать только через промптинг (логотипы, бренд-айдентика), введите обязанность сохранять промпты и весь процесс.
▪️укажите в договорах про форматы использования ИИ, степень человеческой доработки, гарантии оригинальности, обязанности предоставить материалы, подтверждающие процесс создания.
▪️помните, что если создаете произведение (например, логотип) через стандартным промтинг, то права на него могут не возникнуть вообще, аналогичный результат может получить любой другой пользователь.
📌 Может ли ИИ быть автором, что говорят законы сегодня
#UXWatch
————
@pattern_ai
Местный суд Мюнхена (решение AG München judgment 142 C 9786/25, BeckRS 2026, 1513) отказал в защите трём логотипам, созданным с использованием генеративного ИИ.
Суд указал, что:
▪️длительность работы над промптом, его объём (до ~1700 символов) и стоимость подписки на ИИ- сервис не имеют значения для возникновения авторского права;
▪️защита принципиально возможна, но только если результат является выражением личного интеллектуального творчества человека (§ 2 UrhG);
ИИ может быть инструментом, но не источником творческого решения. В рассматриваемом случае промпты признаны слишком общими ("ноутбук с книгой, содержащей символ абзаца, парящий перед экраном", "рукопожатие между двумя людьми разного цвета кожи и звон колокольчик"), т.е. итоговый визуальный результат в значительной степени формировался системой, а не пользователем, поэтому требуемый уровень человеческого творческого вклада суд не увидел. Простой выбор продукта из четырех предложений ИИ сам по себе недостаточен для личного творческого замысла.
Отдельно суд отметил, что стороны были знакомы и обсуждали процесс создания логотипов заранее, из-за чего суд даже допустил, что спор мог быть инициирован ради получения судебной позиции по вопросу авторства на сгенерированные работы ( "также из научного интереса").
А как вообще доказать, что логотип создан дизайнером, а не ИИ?
В этом деле установить процесс создания было просто, т.к. стороны сами раскрыли детали. В реальных коммерческих спорах это значительно сложнее, т.к. происхождение дизайна становится вопросом рассмотрения доказательств (внутренних файлов, истории редактирования и рабочих процессов). Если бы спор рассматривался, например, в США, то стороны могли бы использовать процедуру discovery (обязательный обмен доказательствами между сторонами до суда) для расследования процесса создания (запросы документов, переписки, рабочих материалов).
📝Если компания не документирует создание контента, то рискует остаться без IP защиты ключевых активов:
▪️ фиксируйте процесс создания дизайна. Сохраняйте исходные файлы (PSD, Figma и т.д.), храните версии и историю правок, документируйте этапы разработки. Это одно из доказательств человеческого творчества.
▪️разделяйте генерацию с помощью ИИ и дизайнерскую работу, т.е. с помощью ИИ создавайте черновые концепты, а человек дорабатывает композицию, финальное визуальное решение.
Чем больше человеческих творческих решений можно показать,тем выше шанс защиты.
▪️ определите внутри компании, какие "активы" нельзя делать только через промптинг (логотипы, бренд-айдентика), введите обязанность сохранять промпты и весь процесс.
▪️укажите в договорах про форматы использования ИИ, степень человеческой доработки, гарантии оригинальности, обязанности предоставить материалы, подтверждающие процесс создания.
▪️помните, что если создаете произведение (например, логотип) через стандартным промтинг, то права на него могут не возникнуть вообще, аналогичный результат может получить любой другой пользователь.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Руководство по Agentic AI от испанского регулятора
Испанское агентство по защите данных (AEPD) опубликовало принципы по использованию Agentic AI (системы ИИ, способные не только отвечать на вопросы, но и автономно взаимодействовать для достижения поставленных целей) с точки зрения защиты данны.
🔹Изложены меры, которые контролер или обработчик данных могут предпринять для обеспечения соответствия нормативным актам по защите данных.
🔹 Автономность системы не снимает ответственность с контролера/процессора. Организация должна сохранять управляемость решений ИИ.
🔹Privacy by design становится архитектурным требованием. AEPD рекомендует использовать возможности самой технологии для усиления защиты данных ещё на этапе проектирования и внедрения.
🔹 Человек должен вмешиваться, если действия агента могут:
- влиять на поведение или выбор людей (например, автоматически подбирать предложения),
- оказывать долгосрочное влияние на жизненные обстоятельства человека,
- приводить к исключению или дискриминации.
🔹Использование agentic AI не означает автоматически наличие автоматизированного принятия решений по ст. 22 GDPR. Необходимо оценивать последствия. Подчеркивается, что понятие «значительное воздействие» трактуется широко, включая влияние на поведение, выбор или долгосрочные обстоятельства.
Разрешение агенту отправлять письма, получать доступ к репозиториям или запускать рабочие процессы может не считаться автоматизированным принятием решений, но это может напрямую повлиять на конфиденциальность, минимизацию данных, поэтому рекомендуется проектировать обратимость действий (reversibility).
🔹 Долгосрочная память, логи и метаданные легко приводят к избыточному накоплению данных,
скрытому профилированию, перекрёстному использованию информации между контекстами обработки. Поэтому рекомендуется псевдонимизация пользовательских взаимодействий, строгие access-политики по принципу need-to-know.
🔹 Поощряются не только реактивные меры защиты, но и проактивные улучшения, например, использование ИИ для повышения анонимизации или снижения предвзятости в принятии решений человеком.
🔹 Анализируется перечень угроз, возникающих из-за автономности агентов, и предлагаются конкретные меры по снижению воздействия на права субъектов данных.
❕ Если ваш ИИ-продукт может действовать самостоятельно, то оценивается операционное поведение агента, а не сама модель.
#LawAndDisorder
————
@pattern_ai
Испанское агентство по защите данных (AEPD) опубликовало принципы по использованию Agentic AI (системы ИИ, способные не только отвечать на вопросы, но и автономно взаимодействовать для достижения поставленных целей) с точки зрения защиты данны.
🔹Изложены меры, которые контролер или обработчик данных могут предпринять для обеспечения соответствия нормативным актам по защите данных.
🔹 Автономность системы не снимает ответственность с контролера/процессора. Организация должна сохранять управляемость решений ИИ.
🔹Privacy by design становится архитектурным требованием. AEPD рекомендует использовать возможности самой технологии для усиления защиты данных ещё на этапе проектирования и внедрения.
🔹 Человек должен вмешиваться, если действия агента могут:
- влиять на поведение или выбор людей (например, автоматически подбирать предложения),
- оказывать долгосрочное влияние на жизненные обстоятельства человека,
- приводить к исключению или дискриминации.
🔹Использование agentic AI не означает автоматически наличие автоматизированного принятия решений по ст. 22 GDPR. Необходимо оценивать последствия. Подчеркивается, что понятие «значительное воздействие» трактуется широко, включая влияние на поведение, выбор или долгосрочные обстоятельства.
Разрешение агенту отправлять письма, получать доступ к репозиториям или запускать рабочие процессы может не считаться автоматизированным принятием решений, но это может напрямую повлиять на конфиденциальность, минимизацию данных, поэтому рекомендуется проектировать обратимость действий (reversibility).
🔹 Долгосрочная память, логи и метаданные легко приводят к избыточному накоплению данных,
скрытому профилированию, перекрёстному использованию информации между контекстами обработки. Поэтому рекомендуется псевдонимизация пользовательских взаимодействий, строгие access-политики по принципу need-to-know.
🔹 Поощряются не только реактивные меры защиты, но и проактивные улучшения, например, использование ИИ для повышения анонимизации или снижения предвзятости в принятии решений человеком.
🔹 Анализируется перечень угроз, возникающих из-за автономности агентов, и предлагаются конкретные меры по снижению воздействия на права субъектов данных.
❕ Если ваш ИИ-продукт может действовать самостоятельно, то оценивается операционное поведение агента, а не сама модель.
#LawAndDisorder
————
@pattern_ai
AI- транскрипция на собеседованиях и GDPR: разъяснения латвийского регулятора
Латвийский регулятор (DVI) разъяснил, что использование ИИ для записи и транскрибирования удалённых собеседований является обработкой персональных данных ( голос, ответы и контекст обсуждений) даже если аудио не хранится долго.
Законные основания обработки:
▪️Согласие – добровольное, конкретное, недвусмысленные и информированные, то есть должно четко указывать, какие данные будут обрабатываться, для каких целей будут использоваться инструменты ИИ и каковы могут быть последствия такой обработки. Также должна быть возможность отозвать согласие в любое время. Работодатель не должен создавать ситуацию, в которой кандидат оказывается в невыгодном положении или подвергается дискриминации за отказ дать согласие.
▪️ Если используется законный интерес, то перед началом такой обработки необходимо оценить баланс интересов обеих сторон, не перевешивают ли интересы компании основные права и свободы кандидата. Кандидат имеет право возражать против обработки данных, и такие возражения должны быть учтены, а в случае потенциального вреда обработка должна быть прекращена
НЕЗАВИСИМО от правового основания компания обязана ДО собеседования информировать кандидата об обработке данных, которая будет осуществляться во время собеседования, включая использование инструментов ИИ, цели обработки, сроке хранения данных и о правах кандидата.
Важно обеспечить, чтобы используемый инструмент ИИ не передавал полученную для хранения информацию в страну за пределы ЕС или ЕЭЗ. Также необходимо принять другие соответствующие технические и организационные меры безопасности для защиты персональных данных кандидата.
📌
🔹ИИ-транскрипция голоса и персональные данные (позиция Испанского регулятора (AEPD),
🔹ИИ для встреч (записи, саммари, заметки и черновики документов), а что с GDPR?
🔹Использование ИИ в сфере подбора персонала (ЕС);
#LawAndDisorder
————
@pattern_ai
Латвийский регулятор (DVI) разъяснил, что использование ИИ для записи и транскрибирования удалённых собеседований является обработкой персональных данных ( голос, ответы и контекст обсуждений) даже если аудио не хранится долго.
Законные основания обработки:
▪️Согласие – добровольное, конкретное, недвусмысленные и информированные, то есть должно четко указывать, какие данные будут обрабатываться, для каких целей будут использоваться инструменты ИИ и каковы могут быть последствия такой обработки. Также должна быть возможность отозвать согласие в любое время. Работодатель не должен создавать ситуацию, в которой кандидат оказывается в невыгодном положении или подвергается дискриминации за отказ дать согласие.
▪️ Если используется законный интерес, то перед началом такой обработки необходимо оценить баланс интересов обеих сторон, не перевешивают ли интересы компании основные права и свободы кандидата. Кандидат имеет право возражать против обработки данных, и такие возражения должны быть учтены, а в случае потенциального вреда обработка должна быть прекращена
НЕЗАВИСИМО от правового основания компания обязана ДО собеседования информировать кандидата об обработке данных, которая будет осуществляться во время собеседования, включая использование инструментов ИИ, цели обработки, сроке хранения данных и о правах кандидата.
Важно обеспечить, чтобы используемый инструмент ИИ не передавал полученную для хранения информацию в страну за пределы ЕС или ЕЭЗ. Также необходимо принять другие соответствующие технические и организационные меры безопасности для защиты персональных данных кандидата.
🔹ИИ-транскрипция голоса и персональные данные (позиция Испанского регулятора (AEPD),
🔹ИИ для встреч (записи, саммари, заметки и черновики документов), а что с GDPR?
🔹Использование ИИ в сфере подбора персонала (ЕС);
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Новый отчёт OECD об интеграции ИИ в Европе
Организация экономического сотрудничества и развития (OECD) опубликовала доклад "Progress in Implementing the European Union Coordinated Plan on Artificial Intelligence (Volume 2)", в котором оценивается внедрение ИИ в ключевых секторах: сельское хозяйство, здравоохранение, производство и мобильность.
План направлен на усиление сотрудничества между странами ЕС, повышение инвестиций и устранение фрагментации в ИИ‑политике.
1️⃣ Анализ показывает неравномерное внедрение ИИ: пилотные проекты и локальные решения есть, но масштабное применение всё ещё ограничено.
2️⃣ В сельском хозяйстве ИИ способствует точному земледелию и автоматизации процессов ( расширенное распознавание образов, прогностические возможности и автоматизация сложных процессов принятия решений), но его применение ограничено инфраструктурой и уровнем цифровых навыков фермеров.
3️⃣ В медицине ИИ внедряется в диагностику и оптимизацию операций, но мало масштабных систем.
4️⃣ Производство и транспорт демонстрируют ограниченное проникновение ИИ в стандартные процессы, несмотря на потенциал в прогнозировании и автоматизации.
#AIShelf
————
@pattern_ai
Организация экономического сотрудничества и развития (OECD) опубликовала доклад "Progress in Implementing the European Union Coordinated Plan on Artificial Intelligence (Volume 2)", в котором оценивается внедрение ИИ в ключевых секторах: сельское хозяйство, здравоохранение, производство и мобильность.
План направлен на усиление сотрудничества между странами ЕС, повышение инвестиций и устранение фрагментации в ИИ‑политике.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
AI Literacy становится требованием рынка труда не только в ЕС
Департамент труда США выпустило руководство Training and Employment Notice (TEN 07-25) AI Literacy Framework, посвящённое повышению грамотности в области ИИ, эффективной интеграции образовательных программ по ИИ в системы образования и трудоустройства, чтобы помочь ускорить развитие навыков работы с ИИ среди молодежи, студентов, преподавателей, соискателей, работников по всей стране.
Главный посыл, что важно не просто уметь пользоваться ИИ, а понимать его ограничения и риски.
👀 Грамотность в области ИИ (AI literacy) - базовый набор компетенций, позволяющих людям ответственно использовать и оценивать технологии ИИ, уделяя основное внимание генеративному ИИ, который становится все более важным для современного рабочего места.
Программы обучения должны объяснять:
▪️ как принимаются автоматизированные решения;
▪️ почему ИИ может ошибаться;
▪️ как возникают предвзятость и дискриминационные эффекты;
▪️ как ИИ влияет на найм и оценку работников.
Фреймворк является "отправной точкой" и будет обновляться, чтобы обеспечивать постоянную актуальность.
Также Министерство труда подчеркнуло, что большое количество компаний уже подписало обязательство Белого дома предоставлять бесплатные образовательные ресурсы по ИИ, и планируется развивать дальнейшее сотрудничество, что обеспечить максимальный охват обучения работников.
#LawAndDisorder
————
@pattern_ai
Департамент труда США выпустило руководство Training and Employment Notice (TEN 07-25) AI Literacy Framework, посвящённое повышению грамотности в области ИИ, эффективной интеграции образовательных программ по ИИ в системы образования и трудоустройства, чтобы помочь ускорить развитие навыков работы с ИИ среди молодежи, студентов, преподавателей, соискателей, работников по всей стране.
Главный посыл, что важно не просто уметь пользоваться ИИ, а понимать его ограничения и риски.
Программы обучения должны объяснять:
▪️ как принимаются автоматизированные решения;
▪️ почему ИИ может ошибаться;
▪️ как возникают предвзятость и дискриминационные эффекты;
▪️ как ИИ влияет на найм и оценку работников.
Фреймворк является "отправной точкой" и будет обновляться, чтобы обеспечивать постоянную актуальность.
Также Министерство труда подчеркнуло, что большое количество компаний уже подписало обязательство Белого дома предоставлять бесплатные образовательные ресурсы по ИИ, и планируется развивать дальнейшее сотрудничество, что обеспечить максимальный охват обучения работников.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
AI Standards Hub Global Summit 2026
Редко здесь публикацию анонсы конференций, но эта заслуживает внимания.
Саммит состоится 16 и 17 марта 2026 в гибридном формате ( очно в Глазго и онлайн, регистрация здесь).
Проходит при поддержке Организации экономического сотрудничества и развития (OECD) , Управления Верховного комиссара ООН по правам человека, The Data Lab и Responsible Ai UK.
Примеры тем докладов и панельных дискуссий:
🔹Национальные подходы к тестированию, оценке, верификации и валидации ИИ (TEVV);
🔹От надежности ИИ к качеству ИИ – стандарты, институты и инновации;
🔹Формирование навыков и понимание стандартов для индустрии 5.0;
🔹Обеспечение доверия к ИИ: роль глобальной экосистемы качества;
🔹Саммит по цифровым стандартам Великобритании.
#AIShelf
————
@pattern_ai
Редко здесь публикацию анонсы конференций, но эта заслуживает внимания.
Саммит состоится 16 и 17 марта 2026 в гибридном формате ( очно в Глазго и онлайн, регистрация здесь).
Проходит при поддержке Организации экономического сотрудничества и развития (OECD) , Управления Верховного комиссара ООН по правам человека, The Data Lab и Responsible Ai UK.
Примеры тем докладов и панельных дискуссий:
🔹Национальные подходы к тестированию, оценке, верификации и валидации ИИ (TEVV);
🔹От надежности ИИ к качеству ИИ – стандарты, институты и инновации;
🔹Формирование навыков и понимание стандартов для индустрии 5.0;
🔹Обеспечение доверия к ИИ: роль глобальной экосистемы качества;
🔹Саммит по цифровым стандартам Великобритании.
#AIShelf
————
@pattern_ai
AI Standards Hub
Global Summit 2026 - AI Standards Hub
61 регулятор высказался о дипфейках
61 орган по защите данных выпустили совместное предупреждение о росте вреда от ИИ дипфейк-контента.
Главные опасения регуляторов:
▪️ распространение интимных и унижающих дипфейков;
▪️ атаки на детей и уязвимые группы;
▪️кибербуллинг и эксплуатация через соцсети;
▪️глобальный характер проблемы — контент создаётся в одной стране, вред возникает в другой.
Регуляторы ожидают от компаний не реактивных мер по удалению контента, а превентивного комплаенса:
🔹Надежные меры защиты для предотвращения неправомерного использования личной информации и генерации интимных изображений и других вредных материалов без согласия,
особенно если на них изображены дети.
🔹 Обеспечение достоверной информации и прозрачности в отношении возможностей систем ИИ, мер защиты, допустимых видов использования и последствий неправомерного использования.
🔹Предоставление эффективных и доступных механизмов для запроса удаления вредного контента, содержащего личную информацию, и оперативное реагирование на такие запросы.
🔹 Устранение конкретных рисков для детей: внедрение усиленных мер защиты и предоставление четкой, соответствующей возрасту информации детям, родителям, опекунам и педагогам.
❕Риски, связанные с дипфейками, выходят за рамки модерации контента и становятся частью требований privacy by design и AI-governance. Регуляторы четко заявили, что ими будут приниматься скоординированные меры, если вред, возникает в результате генерации интимного, клеветнического или иного вредного контента.
#LawAndDisorder #UXWatch
————
@pattern_ai
61 орган по защите данных выпустили совместное предупреждение о росте вреда от ИИ дипфейк-контента.
Главные опасения регуляторов:
▪️ распространение интимных и унижающих дипфейков;
▪️ атаки на детей и уязвимые группы;
▪️кибербуллинг и эксплуатация через соцсети;
▪️глобальный характер проблемы — контент создаётся в одной стране, вред возникает в другой.
Ключевой сигнал бизнесу:
"Компании, разрабатывающим и использующие системы генерации контента на основе ИИ, должны разрабатывать и использовать ИИ системы в соответствии с применимыми правовыми фреймворками, включая правила защиты данных и конфиденциальности.
Создание интимных изображений без согласия может представлять собой
уголовное преступление во многих юрисдикциях.
Регуляторы ожидают от компаний не реактивных мер по удалению контента, а превентивного комплаенса:
🔹Надежные меры защиты для предотвращения неправомерного использования личной информации и генерации интимных изображений и других вредных материалов без согласия,
особенно если на них изображены дети.
🔹 Обеспечение достоверной информации и прозрачности в отношении возможностей систем ИИ, мер защиты, допустимых видов использования и последствий неправомерного использования.
🔹Предоставление эффективных и доступных механизмов для запроса удаления вредного контента, содержащего личную информацию, и оперативное реагирование на такие запросы.
🔹 Устранение конкретных рисков для детей: внедрение усиленных мер защиты и предоставление четкой, соответствующей возрасту информации детям, родителям, опекунам и педагогам.
❕Риски, связанные с дипфейками, выходят за рамки модерации контента и становятся частью требований privacy by design и AI-governance. Регуляторы четко заявили, что ими будут приниматься скоординированные меры, если вред, возникает в результате генерации интимного, клеветнического или иного вредного контента.
#LawAndDisorder #UXWatch
————
@pattern_ai
👍1