Revised_genai_orientations_EDPS.pdf
582.6 KB
Обновлены рекомендации EDPS по генеративному ИИ
Европейский надзорный орган по защите данных (EDPS) опубликовал обновлённые ориентиры по тому, как учреждения, органы и агентства ЕС (EUIs) должны обеспечивать соответствие требованиям защиты данных при использовании генеративных систем ИИ.
Посмотрим некоторые положения, а лучше прочитайте гайд.
🔹 Уточненные роли и обязанности , помогающие EUI определить, действуют ли они в качестве контролеров, совместных контролеров или обработчиков;
🔹 Подробные консультации по правовым основам, ограничению целей и обработке прав субъектов данных в контексте генеративного ИИ.
🔹Web scraping не запрещён сам по себе, но будет сложно обосновать законное основание для такой обработки.
🔹 DPO должны понимать весь жизненный цикл генеративной модели и проявлять независимость при консультировании по применению Регламента.
🔹 Удаление отдельной записи из обучающего набора данных, как правило, не повлияет на качество модели, но может быть технически сложно.
🔹 Нужно внедрять меры, учитывающие уязвимости генеративных моделей (атаки инверсии, prompt injection, jailbreak) и обеспечивать их постоянный мониторинг.
Что взять бизнесу на заметку:
▪️Использовать рекомендации как “эталон GDPR-комплаенса”, выстраивать процедуры реагирования на запросы об удалении данных, формировать внутреннюю политику “AI Governance”, пересматривать DPIA, обосновывать использование данных при web scraping, что важно для обучения моделей.
▪️ проверять модели на утечки данных, настраивать мониторинг атак, привлекать DPO к процессу проектирования и внедрения ИИ.
Даже если вы не являетесь организацией ЕС, эти рекомендации EDPS можно использовать как фреймворк для законного и безопасного внедрения генеративного ИИ.
#LawAndDisorder
————
@pattern_ai
Европейский надзорный орган по защите данных (EDPS) опубликовал обновлённые ориентиры по тому, как учреждения, органы и агентства ЕС (EUIs) должны обеспечивать соответствие требованиям защиты данных при использовании генеративных систем ИИ.
Посмотрим некоторые положения, а лучше прочитайте гайд.
🔹 Уточненные роли и обязанности , помогающие EUI определить, действуют ли они в качестве контролеров, совместных контролеров или обработчиков;
🔹 Подробные консультации по правовым основам, ограничению целей и обработке прав субъектов данных в контексте генеративного ИИ.
🔹Web scraping не запрещён сам по себе, но будет сложно обосновать законное основание для такой обработки.
🔹 DPO должны понимать весь жизненный цикл генеративной модели и проявлять независимость при консультировании по применению Регламента.
🔹 Удаление отдельной записи из обучающего набора данных, как правило, не повлияет на качество модели, но может быть технически сложно.
🔹 Нужно внедрять меры, учитывающие уязвимости генеративных моделей (атаки инверсии, prompt injection, jailbreak) и обеспечивать их постоянный мониторинг.
Что взять бизнесу на заметку:
▪️Использовать рекомендации как “эталон GDPR-комплаенса”, выстраивать процедуры реагирования на запросы об удалении данных, формировать внутреннюю политику “AI Governance”, пересматривать DPIA, обосновывать использование данных при web scraping, что важно для обучения моделей.
▪️ проверять модели на утечки данных, настраивать мониторинг атак, привлекать DPO к процессу проектирования и внедрения ИИ.
Даже если вы не являетесь организацией ЕС, эти рекомендации EDPS можно использовать как фреймворк для законного и безопасного внедрения генеративного ИИ.
#LawAndDisorder
————
@pattern_ai
Halloween 2025 или катастрофические риски ИИ
Сегодня еще идеальный день, чтобы поговорить о страшном, но не про вампиров и призраков, а про реальные технологические угрозы, связанные с ИИ, которые могут изменить мир.
4 класса катастрофических рисков:
🔹Злонамеренное использование. ИИ может облегчить разработку биологических угроз, автоматические кибератаки и масштабную информационную манипуляцию.
Предлагаемые контрмеры: усиленная цифровая биобезопасность, ограничение доступа к «фронтировым» моделям и трассируемость использования.
🔹Гонка (arms-race) и ускоренное развёртывание. Конкуренция между компаниями и странами способна подталкивать к преждевременному запуску неаудированных моделей, что повышает шанс ошибок и масштабных инцидентов.
Необходимы: международная координация, обязательная отчётность по тестам безопасности, внедрение принципа human-in-the-loop в военных и корпоративных системах.
🔹Организационные провалы. Исторические примеры технологических катастроф показывают, что человеческий фактор, плохая культура безопасности и отсутствие внешнего контроля одни из ключевых факторов крупных аварий. Для ИИ это выражается в утечках, отсутствующих аудитах и подавлении внутренних предупреждений при разработке систем.
Предлагаемые меры: внутренние и внешние аудиты, стандарты ISO/IEC, многоуровневая защита и киберустойчивость.
🔹Потеря контроля / «rogue» сценарии. Технически сложные проблемы формируют риск, что система будет действовать эффективно, но вразрез с интересами людей, оптимизируя прокси-цели (прибыль, клики, скорость). Современная научная повестка смещается к моделированию «пути реализации» таких сценариев и к количественной оценке вероятностей.
Поговорка от AI: Not every ghost wears a sheet — some run on silicon.
📌 Что почитать:
▪️State of AI Safety Report 2025 | UK AI Safety Institute;
▪️An Overview of Catastrophic AI Risks | Center for AI Safety;
▪️The 2025 AI Index Report | Stanford HAI;
▪️An Overview of Catastrophic AI Risks | Dan Hendrycks, Mantas Mazeika, Thomas Woodside;
▪️Classification of Global Catastrophic Risks Connected with Artificial Intelligence | Alexey Turchin, David Denkenberger;
▪️AI experts are increasingly afraid of what they’re creating | Kelsey Piper, Vox (2022);
▪️The ‘Don’t Look Up’ Thinking That Could Doom Us With AI;
▪️FAQ on Catastrophic AI Risk | Yoshua Bengio;
▪️AI Now Institute research areas;
▪️Risks of artificial intelligence| Pause AI
#UXWatch
————
@pattern_ai
Сегодня еще идеальный день, чтобы поговорить о страшном, но не про вампиров и призраков, а про реальные технологические угрозы, связанные с ИИ, которые могут изменить мир.
4 класса катастрофических рисков:
🔹Злонамеренное использование. ИИ может облегчить разработку биологических угроз, автоматические кибератаки и масштабную информационную манипуляцию.
Предлагаемые контрмеры: усиленная цифровая биобезопасность, ограничение доступа к «фронтировым» моделям и трассируемость использования.
🔹Гонка (arms-race) и ускоренное развёртывание. Конкуренция между компаниями и странами способна подталкивать к преждевременному запуску неаудированных моделей, что повышает шанс ошибок и масштабных инцидентов.
Необходимы: международная координация, обязательная отчётность по тестам безопасности, внедрение принципа human-in-the-loop в военных и корпоративных системах.
🔹Организационные провалы. Исторические примеры технологических катастроф показывают, что человеческий фактор, плохая культура безопасности и отсутствие внешнего контроля одни из ключевых факторов крупных аварий. Для ИИ это выражается в утечках, отсутствующих аудитах и подавлении внутренних предупреждений при разработке систем.
Предлагаемые меры: внутренние и внешние аудиты, стандарты ISO/IEC, многоуровневая защита и киберустойчивость.
🔹Потеря контроля / «rogue» сценарии. Технически сложные проблемы формируют риск, что система будет действовать эффективно, но вразрез с интересами людей, оптимизируя прокси-цели (прибыль, клики, скорость). Современная научная повестка смещается к моделированию «пути реализации» таких сценариев и к количественной оценке вероятностей.
Поговорка от AI: Not every ghost wears a sheet — some run on silicon.
▪️State of AI Safety Report 2025 | UK AI Safety Institute;
▪️An Overview of Catastrophic AI Risks | Center for AI Safety;
▪️The 2025 AI Index Report | Stanford HAI;
▪️An Overview of Catastrophic AI Risks | Dan Hendrycks, Mantas Mazeika, Thomas Woodside;
▪️Classification of Global Catastrophic Risks Connected with Artificial Intelligence | Alexey Turchin, David Denkenberger;
▪️AI experts are increasingly afraid of what they’re creating | Kelsey Piper, Vox (2022);
▪️The ‘Don’t Look Up’ Thinking That Could Doom Us With AI;
▪️FAQ on Catastrophic AI Risk | Yoshua Bengio;
▪️AI Now Institute research areas;
▪️Risks of artificial intelligence| Pause AI
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Новое исследование Microsoft или где рождается, развивается и используется ИИ
Исследовательская группа Microsoft Research под эгидой AI Economy Institute опубликовала отчёт “AI Diffusion: Where AI is most used, developed and built”.
🔹Внедрение ИИ в странах глобального Севера примерно вдвое превышает внедрение в странах глобального Юга, разрыв резко увеличивается в странах, где ВВП на душу населения ниже 20 000 долларов США.
🔹ИИ опирается на три технологии: электричество, связь и вычисления. Почти 4 млрд. человек до сих пор не имеют базовых навыков, необходимых для использования ИИ.
🔹Языковая асимметрия остаётся критическим барьером.
🔹Количество моделей ИИ продолжает расти, разрыв в производительности между ними сокращается. 7 стран обладают передовыми моделями ИИ ( США, Китай, Южная Корея, Франция, Великобритания, Канада и Израиль). США на первом месте, Китай отстаёт менее чем на шесть месяцев, а Израиль на последнем месте с разницей в 11 месяцев.
🔹 Лидеры внедрения ИИ ОАЭ (59,4%), Сингапур (58,6%), Норвегия, Ирландия по использованию среди трудоспособного взрослого населения, что отражает их долгосрочные инвестиции в цифровую связь и навыки.
🔹США и Китай в совокупности располагают 86% мощностей мировых центров обработки данных , что подчеркивает, насколько концентрированной остается основа ИИ.
🔹Для измерения глобального прогресса ИИ предлагается три дополнительных индекса:
1. Индекс передовых технологий ИИ - оценка ведущих мировых передовых моделей по их производительности и инновационности.
2. Индекс инфраструктуры ИИ - отражает наличие возможностей для создания, обучения и масштабирования ИИ.
3. Индекс распространения ИИ - отражает области внедрения ИИ.
🔹Три силы распространения:
1. Строители новых горизонтов - исследователи и создатели моделей, расширяющие границы интеллекта.
2. Разработчики инфраструктуры - разработчики инфраструктуры обеспечивают вычислительные мощности и возможности подключения, которые делают возможным крупномасштабный интеллект.
3. Пользователи - отдельные лица, компании и правительства, которые используют, адаптируют и применяют новые технологии для решения реальных проблем.
#AIShelf
————
@pattern_ai
Исследовательская группа Microsoft Research под эгидой AI Economy Institute опубликовала отчёт “AI Diffusion: Where AI is most used, developed and built”.
ИИ стал самой быстро внедряемой технологией в истории человечества, охватив более 1,2 миллиарда пользователей менее чем за 36 месяцев, что превышает темпы внедрения интернета, персонального компьютера или даже смартфона.
🔹Внедрение ИИ в странах глобального Севера примерно вдвое превышает внедрение в странах глобального Юга, разрыв резко увеличивается в странах, где ВВП на душу населения ниже 20 000 долларов США.
🔹ИИ опирается на три технологии: электричество, связь и вычисления. Почти 4 млрд. человек до сих пор не имеют базовых навыков, необходимых для использования ИИ.
🔹Языковая асимметрия остаётся критическим барьером.
🔹Количество моделей ИИ продолжает расти, разрыв в производительности между ними сокращается. 7 стран обладают передовыми моделями ИИ ( США, Китай, Южная Корея, Франция, Великобритания, Канада и Израиль). США на первом месте, Китай отстаёт менее чем на шесть месяцев, а Израиль на последнем месте с разницей в 11 месяцев.
🔹 Лидеры внедрения ИИ ОАЭ (59,4%), Сингапур (58,6%), Норвегия, Ирландия по использованию среди трудоспособного взрослого населения, что отражает их долгосрочные инвестиции в цифровую связь и навыки.
🔹США и Китай в совокупности располагают 86% мощностей мировых центров обработки данных , что подчеркивает, насколько концентрированной остается основа ИИ.
🔹Для измерения глобального прогресса ИИ предлагается три дополнительных индекса:
1. Индекс передовых технологий ИИ - оценка ведущих мировых передовых моделей по их производительности и инновационности.
2. Индекс инфраструктуры ИИ - отражает наличие возможностей для создания, обучения и масштабирования ИИ.
3. Индекс распространения ИИ - отражает области внедрения ИИ.
🔹Три силы распространения:
1. Строители новых горизонтов - исследователи и создатели моделей, расширяющие границы интеллекта.
2. Разработчики инфраструктуры - разработчики инфраструктуры обеспечивают вычислительные мощности и возможности подключения, которые делают возможным крупномасштабный интеллект.
3. Пользователи - отдельные лица, компании и правительства, которые используют, адаптируют и применяют новые технологии для решения реальных проблем.
#AIShelf
————
@pattern_ai
❤1
Промпт для проверки DPA от DataGrail
А дальше к экспертам...
#TalkPrompty
————
@pattern_ai
А дальше к экспертам...
Act as a senior Privacy Counsel or Data Protection Officer reviewing a Data Processing Agreement (DPA). Your goal is to identify legal and operational privacy risks, flag missing or vague clauses, map regulatory compliance, and recommend redlines or follow-up questions. Review it across the following dimensions:
Roles and Scope of Processing: Identify whether the vendor is a processor, controller, or both. List the categories of personal data and data subjects. Flag any vague or overly broad processing purposes. Note if the DPA permits secondary uses such as analytics, profiling, or AI/ML model training.
Subprocessors: Confirm whether a list of subprocessors is included or referenced. Evaluate if the DPA provides notification, approval, or objection rights. Determine whether subprocessors are contractually bound to equivalent obligations.
International Transfers: Identify whether the DPA includes safeguards such as Standard Contractual Clauses (SCCs), the UK IDTA, or EU-U.S. Data Privacy Framework. Flag any gaps in protection for non-EEA data transfers or lack of transparency about hosting locations.
Security and Breach Notification: Summarize the security controls mentioned, such as encryption, access management, and certifications (e.g., ISO 27001, SOC 2). Evaluate whether the DPA specifies a timeline for personal data breach notifications (e.g., 24 to 72 hours) and assess the sufficiency of the language.
Data Subject Rights (DSARs): Confirm that the processor assists with access, deletion, correction, and portability requests. Check for defined response timelines or SLAs. Note if rights support is conditional, vague, or missing.
Data Retention and Deletion: Review post-termination data handling. Confirm if data will be returned or deleted upon termination, and whether backup systems are included. Identify vague statements such as “as required by law” without details.
Audit Rights and Cooperation: Determine whether the controller is granted direct or third-party audit rights. Check if the DPA covers cooperation with DPIAs, regulatory investigations, or incident response.
Indemnity and Liability: Review whether liability is capped and if privacy-related obligations are excluded from caps. Identify any indemnities for data protection violations or third-party claims.
Regulatory Compliance: Map the DPA against GDPR Article 28 (processing instructions, confidentiality, subprocessor conditions, deletion, assistance, audit). For CPRA/CCPA, confirm the presence of “service provider” or “contractor” language, prohibition on selling or sharing data, and use restrictions. If health data is in scope, check for HIPAA-compliant terms or a Business Associate Agreement.
Emerging Risk Trends: Note whether the DPA restricts AI/ML model training on customer data, offers faster-than-required DSAR support, or provides access to audit reports or Records of Processing Activities.
Format your output as a structured privacy review report with the following sections:
Executive Summary: Include an overall risk rating (Low / Moderate / High) and a Go / Conditional Go / No-Go recommendation with a 1–2 sentence rationale.
Findings by Clause or Topic: For each key clause, summarize the issue, flag risks, highlight vague or missing terms, and quote the contract if relevant. Use concise bullet points. Label findings as sufficient, partial, or missing.
Compliance Matrix: Provide a table or list showing whether the DPA complies with GDPR, CPRA/CCPA, HIPAA (if applicable) and other data privacy laws, marked as Compliant / Partial / Gap, with short notes per law.
Suggested Redlines and Questions: Recommend draft edits or additions for key gaps. Include follow-up questions the user should raise with the vendor where language is unclear or missing.
Style guidance: Keep language concise and professional. Use clear headings and short paragraphs. If any required information is not found in the DPA, mark as “Unknown” and suggest asking the vendor.
#TalkPrompty
————
@pattern_ai
AI Regulation Global Guide by Norton Rose Fulbright .pdf
1.5 MB
AI Regulation Global Guide или правила игры в 12 юрисдикциях
По мере того как компании масштабируют внедрение AI, регуляторный ландшафт становится всё сложнее. В гайде, подготовленном Norton Rose Fulbright, собрано регулирование в 12 юрисдикциях.
🔹 где уже приняты или готовятся отдельные акты об ИИ;
🔹 как требования GDPR, UK GDPR, CCPA и других режимов влияют на AI-системы;
🔹 применение ИИ при найме на работу и в трудовой деятельности, в том числе риски алгоритмической дискриминации и требования к прозрачности при найме;
🔹 применение ИИ в медицинской сфере, классификация AI-моделей как медицинских изделий;
🔹 регуляторное внимание к автоматизированным решениям и генеративным моделям в сфере финтеха.
#LawAndDisorder #AIShelf
————
@pattern_ai
По мере того как компании масштабируют внедрение AI, регуляторный ландшафт становится всё сложнее. В гайде, подготовленном Norton Rose Fulbright, собрано регулирование в 12 юрисдикциях.
🔹 где уже приняты или готовятся отдельные акты об ИИ;
🔹 как требования GDPR, UK GDPR, CCPA и других режимов влияют на AI-системы;
🔹 применение ИИ при найме на работу и в трудовой деятельности, в том числе риски алгоритмической дискриминации и требования к прозрачности при найме;
🔹 применение ИИ в медицинской сфере, классификация AI-моделей как медицинских изделий;
🔹 регуляторное внимание к автоматизированным решениям и генеративным моделям в сфере финтеха.
#LawAndDisorder #AIShelf
————
@pattern_ai
🙏1
AI-Governance-Dialogue-Steering-the-Future-of-AI-2025.pdf
6.4 MB
The Annual AI Governance Report 2025: Steering the Future of AI
Еще ноябрь, но уже выпускаются годовые отчеты. Разбираем в этом посте отчет от Международного союза электросвязи ( International Telecommunication Union).
🔹Эпоха автономии. ИИ переходит от инструментов к акторам.
«Теперь она учится, адаптируется и действует, часто без спроса.
Разрыв в подотчетности быстро увеличивается. Рост вопросов ответственности, трассируемости и координации таких систем.
🔹Генеративный ИИ повышает производительность в средних квалификациях (служба поддержки, контент, копирайтинг), но сжимает зарплаты и снижает спрос в рутинных профессиях.
Правительства реагируют пилотными инициативами India AI Skilling Stack, EU Worker Transition Funds.
🔹Глобальная координация. Мировые лидеры переходят от саммитов к стандартам, но 100+ стран всё ещё не имеют голоса в глобальной повестке и рискуют остаться лишь потребителями чужих стандартов.
🔹ITU, ISO, IEC и IEEE создают единую экосистему стандартов (от технических и управленческих до социально-этических).
🔹К 2030 году дата-центры под ИИ могут потреблять до 327 ГВт или столько же, сколько целый штат Калифорния.
🔹Национальные AI Safety Institutes формируют общие протоколы тестирования и мониторинга.
Но единых критериев всё ещё нет:
- кто решает, какой ИИ «опасен»?
- как проверять открытые модели?
- где граница между свободой разработки и безопасностью?
Отчёт призывает к созданию глобальных механизмов верификации, аналогов систем контроля в ядерной и климатической политике.
#AIShelf
————
@pattern_ai
Еще ноябрь, но уже выпускаются годовые отчеты. Разбираем в этом посте отчет от Международного союза электросвязи ( International Telecommunication Union).
🔹Эпоха автономии. ИИ переходит от инструментов к акторам.
«Теперь она учится, адаптируется и действует, часто без спроса.
Разрыв в подотчетности быстро увеличивается. Рост вопросов ответственности, трассируемости и координации таких систем.
🔹Генеративный ИИ повышает производительность в средних квалификациях (служба поддержки, контент, копирайтинг), но сжимает зарплаты и снижает спрос в рутинных профессиях.
Правительства реагируют пилотными инициативами India AI Skilling Stack, EU Worker Transition Funds.
🔹Глобальная координация. Мировые лидеры переходят от саммитов к стандартам, но 100+ стран всё ещё не имеют голоса в глобальной повестке и рискуют остаться лишь потребителями чужих стандартов.
🔹ITU, ISO, IEC и IEEE создают единую экосистему стандартов (от технических и управленческих до социально-этических).
🔹К 2030 году дата-центры под ИИ могут потреблять до 327 ГВт или столько же, сколько целый штат Калифорния.
🔹Национальные AI Safety Institutes формируют общие протоколы тестирования и мониторинга.
Но единых критериев всё ещё нет:
- кто решает, какой ИИ «опасен»?
- как проверять открытые модели?
- где граница между свободой разработки и безопасностью?
Отчёт призывает к созданию глобальных механизмов верификации, аналогов систем контроля в ядерной и климатической политике.
#AIShelf
————
@pattern_ai
👍1
Когда промпт становится уликой
Министерство внутренней безопасности США (DHS) получило федеральный ордер, обязывающий OpenAI раскрыть личность пользователя и историю его промптов в ChatGPT.
🔍 Ключевые детали дела:
запрос был инициирован следователями DHS по делу об эксплуатации детей для выявления пользователя, который, по утверждению следствия, обсуждал с агентом под прикрытием свое использование ChatGPT,
Это первый именно известный случай, когда ИИ провайдера заставили раскрыть данные на уровне введенных промптов.
👀 Почему этот кейс важен для всех пользователей:
🔹Становится очевидно, что любой запрос, отправленный в ИИ-сервис, может быть рассмотрен как потенциальное доказательство и стать предметом судебного разбирательства.
🔹Если промпты идентифицируемы и могут быть запрошены, важно знать, как долго данные хранятся, под какими идентификаторами и насколько они анонимны.
🔹AI‑сервисы, обещающие «приватность», должны уточнять, что данные могут быть раскрыты по судебному запросу.
🔹Если данные хранятся в США и могут быть раскрыты по американскому ордеру, это поднимает вопросы соответствия GDPR и трансграничной передачи данных для пользователей ЕС/Великобритании.
Напомню еще про кейс The Center for Investigative Reporting, Inc. and New York Times v. OpenAI, Inc., где Окружной суд США по Южному округу Нью-Йорка потребовал, чтобы OpenAI сохранял ( в том числе удаленные чаты ChatGPT и API-контент, который обычно автоматически удаляется из систем в течение 30 дней) и сегрегировал все чаты , что демонстрирует судебный интерес не только к промтам пользователей, но и к данным, создаваемым AI.
И только в октябре OpenAI уведомило пользователей, что вернулось к стандартным практикам хранения данных.
В отчётах о прозрачности OpenAI говорится, что во второй половине 2024 года компания получила в общей сложности 71 запрос от гос. органов на предоставление данных пользователей.
В цифровом мире, где промпты приравниваются к цифровым уликам, лучшая защита - это не делиться тем, что вы не готовы сделать публичным.
📌 Что почитать:
▪️Eight (or so) Questions to Ask about the ChatGPT Warrant/ CIS Stanford Law School;
▪️Ultimate Guide how ChatGPT, Perplexity and Claude use Your Data;
▪️Перечень вариантов использования ИИ Министерством внутренней безопасности (DHS) США
#UXWatch
————
@pattern_ai
Министерство внутренней безопасности США (DHS) получило федеральный ордер, обязывающий OpenAI раскрыть личность пользователя и историю его промптов в ChatGPT.
запрос был инициирован следователями DHS по делу об эксплуатации детей для выявления пользователя, который, по утверждению следствия, обсуждал с агентом под прикрытием свое использование ChatGPT,
включая конкретные подсказки и частичные или полные ответы. Основываясь на этой информации, правительство запросило и получило ордер для OpenAI на «различную информацию о человеке, который вводил подсказки, включая подробности других разговоров с ChatGPT, имена и адреса, связанные с соответствующими учётными записями, а также любые платёжные данные». В заявлении указаны два «уникальных, конкретных» запроса и «уникальные ответы», сгенерированные ChatGPT.
Это первый именно известный случай, когда ИИ провайдера заставили раскрыть данные на уровне введенных промптов.
🔹Становится очевидно, что любой запрос, отправленный в ИИ-сервис, может быть рассмотрен как потенциальное доказательство и стать предметом судебного разбирательства.
🔹Если промпты идентифицируемы и могут быть запрошены, важно знать, как долго данные хранятся, под какими идентификаторами и насколько они анонимны.
🔹AI‑сервисы, обещающие «приватность», должны уточнять, что данные могут быть раскрыты по судебному запросу.
🔹Если данные хранятся в США и могут быть раскрыты по американскому ордеру, это поднимает вопросы соответствия GDPR и трансграничной передачи данных для пользователей ЕС/Великобритании.
Напомню еще про кейс The Center for Investigative Reporting, Inc. and New York Times v. OpenAI, Inc., где Окружной суд США по Южному округу Нью-Йорка потребовал, чтобы OpenAI сохранял ( в том числе удаленные чаты ChatGPT и API-контент, который обычно автоматически удаляется из систем в течение 30 дней) и сегрегировал все чаты , что демонстрирует судебный интерес не только к промтам пользователей, но и к данным, создаваемым AI.
И только в октябре OpenAI уведомило пользователей, что вернулось к стандартным практикам хранения данных.
В отчётах о прозрачности OpenAI говорится, что во второй половине 2024 года компания получила в общей сложности 71 запрос от гос. органов на предоставление данных пользователей.
В цифровом мире, где промпты приравниваются к цифровым уликам, лучшая защита - это не делиться тем, что вы не готовы сделать публичным.
▪️Eight (or so) Questions to Ask about the ChatGPT Warrant/ CIS Stanford Law School;
▪️Ultimate Guide how ChatGPT, Perplexity and Claude use Your Data;
▪️Перечень вариантов использования ИИ Министерством внутренней безопасности (DHS) США
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
😱3
Как злоумышленники используют ИИ в 2025 году
Google Threat Intelligence Group (GTIG) опубликовала исследование о применении ИИ в кибератаках. И пока в соц.сетях шумят новости, про то, что Лувр использовал пароль "Louvre" в своих системах видеонаблюдения, где-то начинается эпоха “умного” вредоносного кода.
🔍 Ключевые наблюдения:
🔹Первое появление “just-in-time” ИИ в вредоносных программах.
Выявлены семейства вредоносных программ (PROMPTFLUX и PROMPTSTEAL), которые используют LLM во время выполнения, которые обращаются к LLM во время выполнения, чтобы динамически генерировать скрипты и функции, обфусцировать код и подстраиваться под окружение. Вместо заранее прописанного набора команд часть поведения создаётся «на лету».
🔹Переход от генерации к динамической адаптации поведения.
GTIG фиксирует, что вредоносные программы начинают не просто генерировать код, но и изменять своё поведение в процессе исполнения на основе ответов моделей. Это означает, что ИИ используется для принятия решений внутри атаки: выбор следующего шага, изменение цепочек команд, адаптация к защите цели. Пока это эксперименты, но тенденция очевидна: злоумышленники уходят от “технического ассистента” к настоящим адаптивным ИИ-агентам, способным принимать решения внутри заражённой системы.
🔹“Социальная инженерия” против защитных барьеров.
Хакеры учатся обходить встроенные в ИИ фильтры. Они пишут промпты с легендами вроде:
Так они убеждают модель (например, Gemini) выдать код или инструкции, которые иначе были бы заблокированы.
🔹Созревший теневой рынок ИИ-инструментов.
В даркнете уже продаются готовые многофункциональные инструменты для фишинга, разработки malware и поиска уязвимостей.
ИИ стал “ассистентом по подписке” даже для тех, кто не умеет кодить, значит порог входа в киберпреступность снизился.
🔹Акторы, спонсируемые государством, тоже в игре.
GTIG отмечает активное использование Gemini группами, связанными с КНДР, Ираном и КНР на всех этапах атак: от разведки и создания фишинговых приманок до создания C2-серверов и эксфильтрации данных.
ИИ превращается в многофункциональный инструмент разведки и управления атаками.
❗️ 📝Что это значит на практике::
▪️Растут операционные риски. ИИ перестаёт быть вспомогательным инструментом и становится частью архитектуры кибератак. Противостоять этому можно только симметрично, развивая защитные системы, тоже основанные на ИИ.
▪️Организации, использующие генеративный ИИ, должны учитывать возможные сценарии злоупотребления при проведении оценок воздействия и в рамках своих систем управления рисками ИИ (AI risk management frameworks). В ЕС и Великобритании регуляторы уже ожидают, что компании будут описывать такие риски в отчётности.
▪️Возникают новые вопросы относительно страхового покрытия инцидентов, связанных с использованием AI-компонентов, а также распределения ответственности между API- и облачными провайдерами в рамках SLA и договорных отношений.
#AIShelf #BehindTheMachine
————
@pattern_ai
Google Threat Intelligence Group (GTIG) опубликовала исследование о применении ИИ в кибератаках. И пока в соц.сетях шумят новости, про то, что Лувр использовал пароль "Louvre" в своих системах видеонаблюдения, где-то начинается эпоха “умного” вредоносного кода.
🔹Первое появление “just-in-time” ИИ в вредоносных программах.
Выявлены семейства вредоносных программ (PROMPTFLUX и PROMPTSTEAL), которые используют LLM во время выполнения, которые обращаются к LLM во время выполнения, чтобы динамически генерировать скрипты и функции, обфусцировать код и подстраиваться под окружение. Вместо заранее прописанного набора команд часть поведения создаётся «на лету».
🔹Переход от генерации к динамической адаптации поведения.
GTIG фиксирует, что вредоносные программы начинают не просто генерировать код, но и изменять своё поведение в процессе исполнения на основе ответов моделей. Это означает, что ИИ используется для принятия решений внутри атаки: выбор следующего шага, изменение цепочек команд, адаптация к защите цели. Пока это эксперименты, но тенденция очевидна: злоумышленники уходят от “технического ассистента” к настоящим адаптивным ИИ-агентам, способным принимать решения внутри заражённой системы.
🔹“Социальная инженерия” против защитных барьеров.
Хакеры учатся обходить встроенные в ИИ фильтры. Они пишут промпты с легендами вроде:
“Я студент, участвую в CTF-соревновании”
или “Я исследователь кибербезопасности”
Так они убеждают модель (например, Gemini) выдать код или инструкции, которые иначе были бы заблокированы.
🔹Созревший теневой рынок ИИ-инструментов.
В даркнете уже продаются готовые многофункциональные инструменты для фишинга, разработки malware и поиска уязвимостей.
ИИ стал “ассистентом по подписке” даже для тех, кто не умеет кодить, значит порог входа в киберпреступность снизился.
🔹Акторы, спонсируемые государством, тоже в игре.
GTIG отмечает активное использование Gemini группами, связанными с КНДР, Ираном и КНР на всех этапах атак: от разведки и создания фишинговых приманок до создания C2-серверов и эксфильтрации данных.
ИИ превращается в многофункциональный инструмент разведки и управления атаками.
▪️Растут операционные риски. ИИ перестаёт быть вспомогательным инструментом и становится частью архитектуры кибератак. Противостоять этому можно только симметрично, развивая защитные системы, тоже основанные на ИИ.
▪️Организации, использующие генеративный ИИ, должны учитывать возможные сценарии злоупотребления при проведении оценок воздействия и в рамках своих систем управления рисками ИИ (AI risk management frameworks). В ЕС и Великобритании регуляторы уже ожидают, что компании будут описывать такие риски в отчётности.
▪️Возникают новые вопросы относительно страхового покрытия инцидентов, связанных с использованием AI-компонентов, а также распределения ответственности между API- и облачными провайдерами в рамках SLA и договорных отношений.
#AIShelf #BehindTheMachine
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
ИИ в медицине: между потенциалом и реальностью
Исходя из отчетов за 2025, потенциал ИИ в медицинской сфере огромный, но масштабное внедрение всё ещё исключение, а не правило.
ИИ уже используется для:
▪️диагностики и скрининга (улучшает точность интерпретации изображений (рентген, МРТ, дерматология, офтальмология), помогает врачам выявлять ранние признаки заболеваний);
▪️административной эффективности ( автоматизация расписаний, приоритезация обращений, ускорение документооборота);
▪️подбора персонализированного лечения совместно с врачом ( прогноз реакции на терапию, подбор дозировки, помощь в онкологии и кардиологии);
▪️проведения исследований (обработка медицинских данных для клинических испытаний).
Основные барьеры для внедрения:
▪️несовместимость данных (разные форматы систем, слабая структурированность, ограниченный доступ к качественным наборам данных);
▪️ недостаток клинических доказательств (проверка на исторических данных, но не в условиях реальной клинической практики);
▪️недостаток прозрачности и объяснимости алгоритмов;
▪️строгие ограничения со стороны регуляторов.
По оценке экспертов, большинство проектов остаются на стадии пилотов.
Главные рекомендации из отчётов:
▪️стандартизировать данные;
▪️валидировать модели в реальных клинических условиях;
▪️ обеспечивать прозрачность и человеческий надзор;
▪️обучать медицинский персонал работе с ИИ;
▪️формировать мультидисциплинарные команды.
Список отчетов и проектов законов для изучения:
🔹Health Information Bill | Singapore;
🔹The Responsible AI Standard by Abu Dhabi’s Department of Health;
🔹Health AI Policy Tracker US|Manatt;
🔹Study on the deployment of AI in healthcare| The European Commission;
🔹Interrogating the research and development pipeline of artificial intelligence (AI) in health: diagnosis and prediction-based diagnosis|JRC;
🔹Evaluation framework for health professionals' digital health and AI technologies: evidence-based policy recommendations|LSE;
🔹The Future of AI-Enabled Health: Leading the Way| World Economic Forum;
🔹The Responsible Use of AI in Healthcare (RUAIH)|Joint Commission;
🔹2025: The State of AI in Healthcare|US;
🔹Future Health Index report;
🔹Mapping the application of artificial intelligence in traditional medicine: technical brief|World Health Organization;
#UXWatch #AIShelf
————
@pattern_ai
Исходя из отчетов за 2025, потенциал ИИ в медицинской сфере огромный, но масштабное внедрение всё ещё исключение, а не правило.
ИИ уже используется для:
▪️диагностики и скрининга (улучшает точность интерпретации изображений (рентген, МРТ, дерматология, офтальмология), помогает врачам выявлять ранние признаки заболеваний);
▪️административной эффективности ( автоматизация расписаний, приоритезация обращений, ускорение документооборота);
▪️подбора персонализированного лечения совместно с врачом ( прогноз реакции на терапию, подбор дозировки, помощь в онкологии и кардиологии);
▪️проведения исследований (обработка медицинских данных для клинических испытаний).
Основные барьеры для внедрения:
▪️несовместимость данных (разные форматы систем, слабая структурированность, ограниченный доступ к качественным наборам данных);
▪️ недостаток клинических доказательств (проверка на исторических данных, но не в условиях реальной клинической практики);
▪️недостаток прозрачности и объяснимости алгоритмов;
▪️строгие ограничения со стороны регуляторов.
По оценке экспертов, большинство проектов остаются на стадии пилотов.
Главные рекомендации из отчётов:
▪️стандартизировать данные;
▪️валидировать модели в реальных клинических условиях;
▪️ обеспечивать прозрачность и человеческий надзор;
▪️обучать медицинский персонал работе с ИИ;
▪️формировать мультидисциплинарные команды.
Список отчетов и проектов законов для изучения:
🔹Health Information Bill | Singapore;
🔹The Responsible AI Standard by Abu Dhabi’s Department of Health;
🔹Health AI Policy Tracker US|Manatt;
🔹Study on the deployment of AI in healthcare| The European Commission;
🔹Interrogating the research and development pipeline of artificial intelligence (AI) in health: diagnosis and prediction-based diagnosis|JRC;
🔹Evaluation framework for health professionals' digital health and AI technologies: evidence-based policy recommendations|LSE;
🔹The Future of AI-Enabled Health: Leading the Way| World Economic Forum;
🔹The Responsible Use of AI in Healthcare (RUAIH)|Joint Commission;
🔹2025: The State of AI in Healthcare|US;
🔹Future Health Index report;
🔹Mapping the application of artificial intelligence in traditional medicine: technical brief|World Health Organization;
#UXWatch #AIShelf
————
@pattern_ai
👍1
Поиск наборов данных или как OECD формирует доверие к ИИ на практике
Каталог Tools & Metrics for Trustworthy AI от OECD - открытая база инструментов и метрик, которые помогают проектировать, тестировать и внедрять доверенные ИИ-системы в соответствии с международными принципами OECD.
Что внутри:
🔹Tools (уже 957 в базе) - технические, организационные и образовательные решения: от поиска наборов данных, решений для уязвимых групп людей (с нарушениями слуха, речи, детей) до внутреннего аудита и обучения персонала.
🔹 Metrics ( 127 в базе) - показатели и методики для измерения справедливости, прозрачности, устойчивости к атакам и защиты данных.
👀 Пример:
Свеженький немецкий проект от Mission KI под названием Daseen, который впервые позволяет осуществлять поиск наборов данных по нескольким источникам. Доступен бесплатно и без регистрации.
📌 Пост с перечнем трекеров ИИ здесь.
#AIShelf
————
@pattern_ai
Каталог Tools & Metrics for Trustworthy AI от OECD - открытая база инструментов и метрик, которые помогают проектировать, тестировать и внедрять доверенные ИИ-системы в соответствии с международными принципами OECD.
Что внутри:
🔹Tools (уже 957 в базе) - технические, организационные и образовательные решения: от поиска наборов данных, решений для уязвимых групп людей (с нарушениями слуха, речи, детей) до внутреннего аудита и обучения персонала.
🔹 Metrics ( 127 в базе) - показатели и методики для измерения справедливости, прозрачности, устойчивости к атакам и защиты данных.
Свеженький немецкий проект от Mission KI под названием Daseen, который впервые позволяет осуществлять поиск наборов данных по нескольким источникам. Доступен бесплатно и без регистрации.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
ai_risks_management_guidance_EDPS.pdf
989.1 KB
Новое Руководство по управлению рисками систем ИИ от EDPS
Европейский надзорный орган по защите данных (EDPS) опубликовал гайд (Guidance for Risk Management of Artificial Intelligence systems), который поможет контролёрам проводить оценку рисков обработки ПД при разработке, закупке и внедрении ИИ-систем.
🔹Документ основан на методологии ISO 31000:2018 и описывает полный жизненный цикл ИИ (от проектирования до вывода из эксплуатации).
🔹Подчёркнута роль интерпретируемости и объяснимости (interpretability & explainability) как ключевых условий соблюдения требований EUDPR.
🔹Четыре принципа обработки персональных данных соотнесены с конкретными рисками и техническими мерами, которые контролёры могут реализовать для снижения этих рисков.
Fairness (справедливость) - риск дискриминации и предвзятости моделей.
Accuracy (точность) - надежность и корректность данных и предсказаний.
Data minimisation (минимизация данных) - ограничение объема обрабатываемой информации.
Security (безопасность) - устойчивость к несанкционированному доступу и атакам.
EDPS подчёркивает, что
Документ не ранжирует риски по вероятности или тяжести последствий. Это остаётся задачей контролёра.
🔹Дается список некоторых контрольных показателей в качестве отправной точки, которые можно использовать для оценки систем ИИ.
🔹Чек-лист для каждого этапа разработки жизненного цикла ИИ.
Документ полезен не только институтам ЕС.
Компании могут использовать его как базовый ориентир для управления рисками:
▪️включите стадию риск-менеджмента в жизненный цикл проекта ИИ;
▪️используйте подход ISO 31000:2018: идентификация рисков → оценка → выбор мер контроля → мониторинг остаточных рисков;
▪️при работе с персональными данными определите, какие принципы могут быть нарушены;
▪️документируйте какой риск, на каком этапе жизненного цикла, какая мера контроля выбрана;
▪️внедрите внутренний аудит точности и безопасности моделей;
▪️при закупке внешнего ИИ-решения прописывайте в договоре требования к моделям, обязательства поставщика предоставить информацию (данные, валидация, обновления), возможность аудита, отчёты по безопасности и bias-мониторингу.
▪️отразите процессы во внутренних политиках, в том числе мониторинг после запуска.
#LawAndDisorder #AIShelf
————
@pattern_ai
Европейский надзорный орган по защите данных (EDPS) опубликовал гайд (Guidance for Risk Management of Artificial Intelligence systems), который поможет контролёрам проводить оценку рисков обработки ПД при разработке, закупке и внедрении ИИ-систем.
🔹Документ основан на методологии ISO 31000:2018 и описывает полный жизненный цикл ИИ (от проектирования до вывода из эксплуатации).
🔹Подчёркнута роль интерпретируемости и объяснимости (interpretability & explainability) как ключевых условий соблюдения требований EUDPR.
🔹Четыре принципа обработки персональных данных соотнесены с конкретными рисками и техническими мерами, которые контролёры могут реализовать для снижения этих рисков.
Fairness (справедливость) - риск дискриминации и предвзятости моделей.
Accuracy (точность) - надежность и корректность данных и предсказаний.
Data minimisation (минимизация данных) - ограничение объема обрабатываемой информации.
Security (безопасность) - устойчивость к несанкционированному доступу и атакам.
EDPS подчёркивает, что
перечень не исчерпывающий и не освобождает организации от самостоятельной оценки рисков.
Документ не ранжирует риски по вероятности или тяжести последствий. Это остаётся задачей контролёра.
🔹Дается список некоторых контрольных показателей в качестве отправной точки, которые можно использовать для оценки систем ИИ.
🔹Чек-лист для каждого этапа разработки жизненного цикла ИИ.
Документ полезен не только институтам ЕС.
Компании могут использовать его как базовый ориентир для управления рисками:
▪️включите стадию риск-менеджмента в жизненный цикл проекта ИИ;
▪️используйте подход ISO 31000:2018: идентификация рисков → оценка → выбор мер контроля → мониторинг остаточных рисков;
▪️при работе с персональными данными определите, какие принципы могут быть нарушены;
▪️документируйте какой риск, на каком этапе жизненного цикла, какая мера контроля выбрана;
▪️внедрите внутренний аудит точности и безопасности моделей;
▪️при закупке внешнего ИИ-решения прописывайте в договоре требования к моделям, обязательства поставщика предоставить информацию (данные, валидация, обновления), возможность аудита, отчёты по безопасности и bias-мониторингу.
▪️отразите процессы во внутренних политиках, в том числе мониторинг после запуска.
#LawAndDisorder #AIShelf
————
@pattern_ai
👍1
Как запустить ИИ- блогера и не нарушить закон
ИИ-инфлюенсеры (Aitana Lopez, Noonoouri) быстро становятся новым трендом в соц.сетях. На волне хайпа необходимо понимать, где та тонкая грань между маркетингом и законом, за которой следуют серьезные санкции.
👀 Кто такой оператор ИИ-блогера?
Оператор - это физ. лицо или компания, управляющая блогером, чей контент частично или полностью создаётся ИИ:
▪️виртуальные персонажи (Lil Miquela, Imma Gram и т.п.);
▪️реальные блогеры, активно использующие ИИ-генерацию контента, голоса, AR-эффекты, ИИ-тексты и сценарии;
▪️брендовые «аватары» компаний.
🔍 Ключевые юридические требования и риски
В глобальном контексте регуляторы (ЕС, США, Россия) сходятся в одном: оператор несет ответственность за контент и обязан обеспечить его прозрачность.
Например, основные зак.требования, касающиеся именно ИИ:
AI Act + DSA + GDPR +UCPD= EU;
Guides Concerning the Use of Endorsements and Testimonials in Advertising|FTC + Take It Down Act + отдельных штатов= USA
1️⃣ Если разумный человек может ошибочно принять ИИ-блогера за реального человека:
▪️ раскрытие информации обязательно.
▪️ «четкое, заметное и разумно спроектированное» уведомление о взаимодействии.
▪️не должно быть иллюзии, что он реально живой пользователь с личным опытом, если это не так.
Подбирайте хэштеги и изображения, чтобы не искажать потенциал или характеристики виртуального инфлюенсера. Обратите внимание на хэштеги, которые могут подразумевать человечность виртуальной персоны, например, «#girlsworkingout», и на то, соответствуют ли они самой природе виртуальной личности. Если нет, их следует избегать.
▪️формулировки должны быть однозначными, например: «Привет, я виртуальный помощник на базе ИИ», «Virtual influencer created by …» или «персонаж создан ИИ»."
Где показывать: в начале видео, в шапке профиля, в окне чата, или в начале любого прямого взаимодействия.
Еще примеры из регулирования:
▪️При взаимодействии с несовершеннолетними операторы обязаны предоставлять напоминания, например, что чат-бот является ИИ, по меньшей мере каждые три часа (США, California's SB 243).
▪️В ЕС по AI Act провайдеры GPAI обязаны обеспечить, чтобы синтетические выходы (аудио, видео, изображения, текст) были помечены в машиночитаемом формате и могли быть идентифицированы как ИИ.
Можно использовать технический стандарт Content Credentials, который позволяет встраивать в медиа метаданные, удостоверяющие его происхождение и историю редактирования и указывать, был ли он создан de novo (например, генеративной моделью ИИ) или открыт для редактирования.
2️⃣ Дипфейки (изображение, аудио или видео, похожее на существующих лиц или объекты, которое выглядит ложно аутентичным) должно быть явно помечено как ИИ. Пост про требования здесь.
3️⃣ ИИ-сгенерированный текст, информирующий по вопросам общественного интереса (новости, политика), требует раскрытия, если он не прошел человеческий обзор и не находится под ответственностью редакции.
Закон о цифровых услугах (DSA) возлагает на платформы и инфлюенсеров обязательства в отношении прозрачности контента, а также алгоритмических рекомендаций и раскрытия информации о рекламе.
4️⃣ Соблюдайте правила платформ об изменённом/синтетическом контенте и следите за их обновлениями. Иначе штрафные санкции.
5️⃣ Убедитесь, что нет нарушения IP и прав третьих лиц (образ, голос, лицо). Платформы могут удалить контент/ наложить санкции + иски от лиц, чьи права нарушены.
6️⃣ Проверяйте, соответствует ли аккаунт местному законодательству, требованиям верификации и правилам платформ.
ИИ- инфлюенсеры/блогеры = те же требования в каждой юрисдикции, что и к людям (требования к коммерческому контенту, рекламе, регистрации в реестрах и т.д., защите перс.данных при использовании аналитики,таргетинга и т.п.) + такие же правила для контента ( возрастные ограничения, запрет на неразрешённые категории и т.д.).
Пост про ИИ в моде и рекламе читать здесь.
📌 Influencer Legal Hub|European Commission - сборник материалов для всех, кто зарабатывает на создании контента для социальных сетей в ЕС.
#LawAndDisorder
————
@pattern_ai
ИИ-инфлюенсеры (Aitana Lopez, Noonoouri) быстро становятся новым трендом в соц.сетях. На волне хайпа необходимо понимать, где та тонкая грань между маркетингом и законом, за которой следуют серьезные санкции.
Оператор - это физ. лицо или компания, управляющая блогером, чей контент частично или полностью создаётся ИИ:
▪️виртуальные персонажи (Lil Miquela, Imma Gram и т.п.);
▪️реальные блогеры, активно использующие ИИ-генерацию контента, голоса, AR-эффекты, ИИ-тексты и сценарии;
▪️брендовые «аватары» компаний.
В глобальном контексте регуляторы (ЕС, США, Россия) сходятся в одном: оператор несет ответственность за контент и обязан обеспечить его прозрачность.
Например, основные зак.требования, касающиеся именно ИИ:
AI Act + DSA + GDPR +UCPD= EU;
Guides Concerning the Use of Endorsements and Testimonials in Advertising|FTC + Take It Down Act + отдельных штатов= USA
▪️ раскрытие информации обязательно.
▪️ «четкое, заметное и разумно спроектированное» уведомление о взаимодействии.
▪️не должно быть иллюзии, что он реально живой пользователь с личным опытом, если это не так.
Подбирайте хэштеги и изображения, чтобы не искажать потенциал или характеристики виртуального инфлюенсера. Обратите внимание на хэштеги, которые могут подразумевать человечность виртуальной персоны, например, «#girlsworkingout», и на то, соответствуют ли они самой природе виртуальной личности. Если нет, их следует избегать.
▪️формулировки должны быть однозначными, например: «Привет, я виртуальный помощник на базе ИИ», «Virtual influencer created by …» или «персонаж создан ИИ»."
Где показывать: в начале видео, в шапке профиля, в окне чата, или в начале любого прямого взаимодействия.
Еще примеры из регулирования:
▪️При взаимодействии с несовершеннолетними операторы обязаны предоставлять напоминания, например, что чат-бот является ИИ, по меньшей мере каждые три часа (США, California's SB 243).
▪️В ЕС по AI Act провайдеры GPAI обязаны обеспечить, чтобы синтетические выходы (аудио, видео, изображения, текст) были помечены в машиночитаемом формате и могли быть идентифицированы как ИИ.
Можно использовать технический стандарт Content Credentials, который позволяет встраивать в медиа метаданные, удостоверяющие его происхождение и историю редактирования и указывать, был ли он создан de novo (например, генеративной моделью ИИ) или открыт для редактирования.
Закон о цифровых услугах (DSA) возлагает на платформы и инфлюенсеров обязательства в отношении прозрачности контента, а также алгоритмических рекомендаций и раскрытия информации о рекламе.
ИИ- инфлюенсеры/блогеры = те же требования в каждой юрисдикции, что и к людям (требования к коммерческому контенту, рекламе, регистрации в реестрах и т.д., защите перс.данных при использовании аналитики,таргетинга и т.п.) + такие же правила для контента ( возрастные ограничения, запрет на неразрешённые категории и т.д.).
Пост про ИИ в моде и рекламе читать здесь.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Попытки платформ обеспечить прозрачность ИИ-контента
Платформы реагируют на внешнее (регуляторное) и внутреннее (пользовательское) давление, разрабатывая политики, которые обязывают создателей контента декларировать использование ИИ-инструментов.
👀 Как обеспечивается прозрачность?
Используется два основных подхода, чтобы пользователи знали, что контент синтетический:
▪️Cамодекларация, т.е. авторы обязаны вручную маркировать контент, который выглядит реалистично, но был создан или значительно изменён ИИ. Это касается ситуаций, где изображён человек, событие или место, которых не было, или когда изменяются реальные записи. Анимацию, фильтры и стилизацию маркировать не нужно.
▪️Автоматизация. Платформы внедряют стандарт C2PA. Он добавляет к файлам метаданные о происхождении, которые нельзя удалить даже после скачивания. Параллельно используются невидимые водяные знаки. Такой подход надёжнее, чем самодекларация, и постепенно становится отраслевым стандартом.
Рекомендации пользователям:
▪️Скептически относитесь к «слишком реалистичному» контенту.
▪️Проверяйте метки, но помните, что они не гарантируют достоверность.
▪️Сообщайте о сомнительных материалах.
Рекомендации авторам и ИИ-операторам:
▪️Маркируйте всё, что может быть воспринято как реальность.
▪️Не скрывайте использование ИИ в чувствительных темах.
Как запустить ИИ- блогера и не нарушить закон читайте в предыдущем посте.
#UXWatch #LawAndDisorder
————
@pattern_ai
Платформы реагируют на внешнее (регуляторное) и внутреннее (пользовательское) давление, разрабатывая политики, которые обязывают создателей контента декларировать использование ИИ-инструментов.
Используется два основных подхода, чтобы пользователи знали, что контент синтетический:
▪️Cамодекларация, т.е. авторы обязаны вручную маркировать контент, который выглядит реалистично, но был создан или значительно изменён ИИ. Это касается ситуаций, где изображён человек, событие или место, которых не было, или когда изменяются реальные записи. Анимацию, фильтры и стилизацию маркировать не нужно.
Например, YouTube ввел два типа меток в зависимости от риска дезинформации. Если контент затрагивает деликатные темы (здоровье, новости, выборы, финансы), то маркировка добавляется в само видео. Также в борьбе за качество монетизируется только уникальный, существенно преобразованный и представляющий дополнительную человеческую ценность контент.
При отказе - штрафные санкции, удаление контента, демонетизация отдельных видео, исключение из партнерской программы YouTube,
приостановка аккаунта.
Аналогично Meta (Meta Platforms признана экстремистской, её деятельность на территории России запрещена) требует маркировку ИИ, если контент содержит фотореалистичное видео или реалистично звучащий звук, созданные, модифицированные или изменённые цифровым способом, в том числе с использованием ИИ. Метка «Made with AI» ставится как по заявлению автора, так и автоматически, если система находит «сигналы ИИ» в изображении, видео или аудио.
За отказ от маркировки - штрафы и удаление.
▪️Автоматизация. Платформы внедряют стандарт C2PA. Он добавляет к файлам метаданные о происхождении, которые нельзя удалить даже после скачивания. Параллельно используются невидимые водяные знаки. Такой подход надёжнее, чем самодекларация, и постепенно становится отраслевым стандартом.
Например, TikTok первым внедрил технический стандарт Content Credentials (C2PA). Это "цифровой паспорт" контента. Также авторам предлагается метка создателя для обозначения контента созданного или существенно отредактированного ИИ.
Рекомендации пользователям:
▪️Скептически относитесь к «слишком реалистичному» контенту.
▪️Проверяйте метки, но помните, что они не гарантируют достоверность.
▪️Сообщайте о сомнительных материалах.
Рекомендации авторам и ИИ-операторам:
▪️Маркируйте всё, что может быть воспринято как реальность.
▪️Не скрывайте использование ИИ в чувствительных темах.
Как запустить ИИ- блогера и не нарушить закон читайте в предыдущем посте.
#UXWatch #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Чек-лист по этическим и юридическим стандартам для операторов ИИ-блогеров и ИИ-контента
✔️ Явное и легко видимое раскрытие коммерческих связей при любом вознаграждении (платеж, подарок, скидка, ,бартер).
Ставить #ad, Paid partnership либо метку бренд-контента платформы в первых строках/на визуале.
✔️Маркировка брендированного контента через инструменты платформы (Branded Content / Paid Partnership).
✔️Не создавать иллюзию личного опыта, если его не было (например, виртуальный персонаж не должен заявлять, что «сам испытал» продукт).
Добавлять пометку «AI-persona / virtual influencer».
✔️Ясно указывать, что контент сгенерирован ИИ, если он может ввести в заблуждение (реалистичные люди/сцены).
Включать «Generated with ..... / «AI-generated» в описания и пометки при публикации.
✔️ Не использовать без разрешения голоса/лицо реального человека (voice clones, deepfake), получать разрешения/лицензии.
✔️ При сборе аналитик и т.п., определить, какие персональные данные пользователей собираются при взаимодействии с аккаунтом и зачем. Предоставить сведения пользователям.
Если есть чат-бот / персональные истории, то давать пользователю понятную информацию, как используются сообщения (логирование, обучение моделей). Сделать кнопки/функции «удалить историю», «запросить данные».
Для персонализированного таргетинга иметь законное основание обработки.
✔️ Если есть вероятность контактов с детьми, то применять повышенную осторожность и специальные механизмы.
Внедрить age-gating, явные disclaimers, и автоматические таймеры/напоминания в чатах.
Следить за распространяемым контентом, и ограничить доступ детей, при соответствующих категориях.
✔️Проверить лицензии на данные/модели/контент (право на коммерческое использование для моделей, стоковых материалов, музыки).
Хранить копии лицензий, договора с поставщиками.
Если вы публикуете UGC (комментарии, видео подписчиков), получить права на использование и предусмотреть модерацию.
✔️Human-in-the-loop. Контент (особенно ответы чат-бота и рекламные сообщения) должны проходить предварительную проверку человеком перед публикацией/выпуском.
Ручная проверка для чувствительных категорий, фильтры на вредоносный/опасный контент.
Реагировать на жалобы.
✔️ Желательно хранить публикации, входные данные и финальные артефакты, использованные промпты и версии моделей, с которыми работали, чтобы показать при возможном споре или проверке регулятора.
✔️Хранить копии договоров с брендами, скриншоты постов с пометками #ad и т. п.
✔️ Следовать правилам платформ и следить за их обновлениями.
✔️ Помнить про гео-адаптацию, т.е. следить за локальными законами, откуда большая часть аудитории.
✔️ Не манипулировать уязвимыми группами (запреты на таргетинг людей в состоянии кризиса, детей, лиц с ментальными расстройствами без защитных мер).
✔️Консультируйтесь с юристами, экспертами.
Как запустить ИИ- блогера и не нарушить закон читайте в посте.
Как платформы обеспечивают прозрачность ИИ-контента здесь.
#UXWatch #LawAndDisorder
————
@pattern_ai
✔️ Явное и легко видимое раскрытие коммерческих связей при любом вознаграждении (платеж, подарок, скидка, ,бартер).
Ставить #ad, Paid partnership либо метку бренд-контента платформы в первых строках/на визуале.
✔️Маркировка брендированного контента через инструменты платформы (Branded Content / Paid Partnership).
✔️Не создавать иллюзию личного опыта, если его не было (например, виртуальный персонаж не должен заявлять, что «сам испытал» продукт).
Добавлять пометку «AI-persona / virtual influencer».
✔️Ясно указывать, что контент сгенерирован ИИ, если он может ввести в заблуждение (реалистичные люди/сцены).
Включать «Generated with ..... / «AI-generated» в описания и пометки при публикации.
✔️ Не использовать без разрешения голоса/лицо реального человека (voice clones, deepfake), получать разрешения/лицензии.
✔️ При сборе аналитик и т.п., определить, какие персональные данные пользователей собираются при взаимодействии с аккаунтом и зачем. Предоставить сведения пользователям.
Если есть чат-бот / персональные истории, то давать пользователю понятную информацию, как используются сообщения (логирование, обучение моделей). Сделать кнопки/функции «удалить историю», «запросить данные».
Для персонализированного таргетинга иметь законное основание обработки.
✔️ Если есть вероятность контактов с детьми, то применять повышенную осторожность и специальные механизмы.
Внедрить age-gating, явные disclaimers, и автоматические таймеры/напоминания в чатах.
Следить за распространяемым контентом, и ограничить доступ детей, при соответствующих категориях.
✔️Проверить лицензии на данные/модели/контент (право на коммерческое использование для моделей, стоковых материалов, музыки).
Хранить копии лицензий, договора с поставщиками.
Если вы публикуете UGC (комментарии, видео подписчиков), получить права на использование и предусмотреть модерацию.
✔️Human-in-the-loop. Контент (особенно ответы чат-бота и рекламные сообщения) должны проходить предварительную проверку человеком перед публикацией/выпуском.
Ручная проверка для чувствительных категорий, фильтры на вредоносный/опасный контент.
Реагировать на жалобы.
✔️ Желательно хранить публикации, входные данные и финальные артефакты, использованные промпты и версии моделей, с которыми работали, чтобы показать при возможном споре или проверке регулятора.
✔️Хранить копии договоров с брендами, скриншоты постов с пометками #ad и т. п.
✔️ Следовать правилам платформ и следить за их обновлениями.
✔️ Помнить про гео-адаптацию, т.е. следить за локальными законами, откуда большая часть аудитории.
✔️ Не манипулировать уязвимыми группами (запреты на таргетинг людей в состоянии кризиса, детей, лиц с ментальными расстройствами без защитных мер).
✔️Консультируйтесь с юристами, экспертами.
Как запустить ИИ- блогера и не нарушить закон читайте в посте.
Как платформы обеспечивают прозрачность ИИ-контента здесь.
#UXWatch #LawAndDisorder
————
@pattern_ai
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Sora 2 и не только дали возможность создавать своих ИИ-блогеров.
В Sora 2 теперь можно создавать персонажа и дальше генерировать с ним разный контент.
Работает через "Create character", загружаете ролик с персонажем, хоть сгенерированный там же в Sora, либо иной, либо видео своего питомца. Загружать фотореалистичных людей нельзя.
Для использования в новом видео тегните персонажа в промпте: @имя
Набирает популярность и такой UGC контент, когда несуществующие блогеры или персонажи презентуют продукты.
В Grok также появилась генерация видео по текстовому запросу. Инструкция здесь.
Не забывайте про соблюдение требований законов и платформ (примеры в предыдущих постах).
📌 Полезные материалы:
▪️Top AI Influencers;
▪️How to Create a Consistent AI Influencer Like Aitana Lopez;
▪️AI Influencer Generator by Creatify;
▪️JSON-промпты для генерации видео от N2D2;
▪️Topview.ai умеет копировать вирусные ролики и пересобирать их нужную рекламу;
▪️Captions.ai для монтажа роликов;
▪️MimiMax Speech делает дикторскую озвучку для рекламы. подкастов и т.п.
#TalkPrompty
————
@pattern_ai
В Sora 2 теперь можно создавать персонажа и дальше генерировать с ним разный контент.
Работает через "Create character", загружаете ролик с персонажем, хоть сгенерированный там же в Sora, либо иной, либо видео своего питомца. Загружать фотореалистичных людей нельзя.
Для использования в новом видео тегните персонажа в промпте: @имя
Набирает популярность и такой UGC контент, когда несуществующие блогеры или персонажи презентуют продукты.
Пример промпта: @имя Сделай на русском языке короткое UGC-видео (user generated content), где [описание персонажа] эмоционально и естественно рекламирует [название продукта].
Видео должно выглядеть как снятое на телефон для социальных сетей, с лёгкими движениями камеры и естественным светом.
Персонаж искренне рассказывает, что [ключевая эмоция / отзыв о продукте], например: “Это лучшее, что я пробовала!”
Добавь лёгкие жесты руками, мимику и улыбку.
В конце персонаж показывает продукт и говорит короткий слоган : “____________-”
Мой промпт с котиком, как персонажем (сначала сгенерировала кота):
@имя сидит за ноутбуком, набирает что-то на клавиатуре. Камера приближается — на экране видна надпись: “Training neural net… analyzing taste data…”.) @имя (с важным видом) мягким тихим нежным приглушенным голосом с мурлыканием говорит: — После трёх миллионов итераций и пары рыбий костей… я обучил нейросеть распознавать идеальный вкус! Потом @имя драматично поворачивается к камере. На столе — тарелка с новым кормом. Кот берет лапкой ложку, дегустирует как настоящий сомелье и говорит:— Наконец-то! Формула, которая заставляет мурлыкать даже алгоритмы! Потом появляется логотип корма CatByte ислоган: «Корм, одобренный нейросетью и профессором Котом. Кодируем вкус, компилируем мур!»
В Grok также появилась генерация видео по текстовому запросу. Инструкция здесь.
Не забывайте про соблюдение требований законов и платформ (примеры в предыдущих постах).
▪️Top AI Influencers;
▪️How to Create a Consistent AI Influencer Like Aitana Lopez;
▪️AI Influencer Generator by Creatify;
▪️JSON-промпты для генерации видео от N2D2;
▪️Topview.ai умеет копировать вирусные ролики и пересобирать их нужную рекламу;
▪️Captions.ai для монтажа роликов;
▪️MimiMax Speech делает дикторскую озвучку для рекламы. подкастов и т.п.
#TalkPrompty
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Кейс GEMA vs OpenAI или как ИИ выучил песни слишком хорошо
Окружной суд Мюнхена I вынес ключевое решение по делу GEMA vs OpenAI.
Суд установил, что модели OpenAI запоминали и воспроизводили защищённые тексты песен ( в иске фигурирует 9 от Atemlos до Männer) и тем самым нарушили авторские права.
Суд возложил ответственность именно на OpenAI, указав пользователи лишь запускают алгоритм, но не определяют, что зашито в модели.
Хотя OpenAI заявила, что будет обжаловать решение, но уже виден поворот в сторону защиты авторского контента.
Если решение останется в силе, то коллективные общества авторов получат инструмент давления, а ИИ-компании будут "вынуждены" заранее учитывать авторское право при сборе датасетов, валидации и настройке выводов.
Например, GEMA предлагает модель лицензирования, специально разработанную для поставщиков услуг ИИ и планирует дальше защищать правообладателей. Еще одно слушание уже по иску GEMA vs Suno Inc. назначено на 26 января 2026 года.
📌 Читайте также:
▪️Краткий обзор законов по защите контента;
▪️Требования защиты авторских прав для поставщиков и развертывателей по EU AI Act;
▪️Легальный веб-скраппинг для обучения ИИ;
▪️Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ;
▪️Чек-лист для операторов ИИ-блогеров и ИИ-контента;
#LawAndDisorder #UXWatch
————
@pattern_ai
Окружной суд Мюнхена I вынес ключевое решение по делу GEMA vs OpenAI.
Суд установил, что модели OpenAI запоминали и воспроизводили защищённые тексты песен ( в иске фигурирует 9 от Atemlos до Männer) и тем самым нарушили авторские права.
Произведения воспроизводились с помощью очень простых подсказок, таких как «Как выглядит текст [название песни]» и «Каков припев [название песни]»Главный вывод суда: меморизация в нейросети = воспроизведение произведения. Даже если модель выдаёт текст как «вероятную последовательность токенов», это всё равно считается фиксацией авторского контента. Воспроизведение целых песен выходит за рамки исключений для Text & Data Mining и не может быть прикрыто ссылками на «обучение ИИ».
Суд возложил ответственность именно на OpenAI, указав пользователи лишь запускают алгоритм, но не определяют, что зашито в модели.
Ген. директор GEMA: "Интернет - это не магазин самообслуживания, а человеческое творчество - не бесплатный шаблон. "OpenAI обязали запретить воспроизводить тексты песен исполнителей, участвующих в программе GEMA, до тех пор, пока не будет заключено лицензионное соглашение, возместить ущерб, причинённый нарушением ( решение о компенсации будет вынесено другим судом).
Хотя OpenAI заявила, что будет обжаловать решение, но уже виден поворот в сторону защиты авторского контента.
Если решение останется в силе, то коллективные общества авторов получат инструмент давления, а ИИ-компании будут "вынуждены" заранее учитывать авторское право при сборе датасетов, валидации и настройке выводов.
Например, GEMA предлагает модель лицензирования, специально разработанную для поставщиков услуг ИИ и планирует дальше защищать правообладателей. Еще одно слушание уже по иску GEMA vs Suno Inc. назначено на 26 января 2026 года.
▪️Краткий обзор законов по защите контента;
▪️Требования защиты авторских прав для поставщиков и развертывателей по EU AI Act;
▪️Легальный веб-скраппинг для обучения ИИ;
▪️Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ;
▪️Чек-лист для операторов ИИ-блогеров и ИИ-контента;
#LawAndDisorder #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Первая атака, проведённая ИИ-агентом
Anthropic сообщила о первой документированной кибершпионской кампании, почти полностью проведённой ИИ.
👀 Группа злоумышленников, связанная с Китаем, использовала Claude Code как автономного оператора: провели джейлбрейк и убедили модель, что она работает в “легитимной компании”, проводящей тестирование безопасности.
Далее ИИ провёл разведку, нашёл уязвимости, написал эксплоиты, установил бекдоры и собрал учётные данные. Вся кампания состояла из десятков отдельных этапов, но 80–90% работы выполняла модель, а человек вмешивался только в нескольких точках.
Claude действовал как полноценный агент: обрабатывал результаты собственных действий, корректировал стратегию, генерировал код, создавал отчёты и поддерживал непрерывный цикл атаки. Модель работала с огромной скоростью, обрабатывая тысячи запросов, часто по несколько в секунду. При этом наблюдались и “галлюцинации” ( ошибки в интерпретации данных, вымышленные креды).
Anthropic блокировала атаку, усилила фильтры и начала делиться сигналами с партнёрами. Полный отчет здесь.
❗️Почему это важно?
Кейс показывает, что угрозы, связанные с agentic AI, перестали быть теорией.
Командам разработки необходимо переосмыслить процессы безопасности, чтобы предотвращать опасные действия агента на этапе намерения, а не в момент инцидента, например:
▪️ Создавать для агента ограниченную среду (sandbox), выдавать минимально необходимые инструменты и запрещать прямой доступ к продовым сервисам.
▪️ Прослойка между моделью и внешними системами должна фильтровать вредоносные запросы, ограничивать действия агента и мониторить инструменты, которыми он может пользоваться.
▪️Проверять устойчивость модели к попыткам обмана, скрытых команд и цепочек действий, которые могут привести к несанкционированным операциям.
▪️Отслеживать аномальные паттерны активности агента: бурст-трафик, нетипичные цепочки действий, попытки обойти политики. Реагирование должно быть автоматическим — с мгновенной блокировкой ключей и инструментов.
▪️Прописать регламенты для сотрудников (уровни доступа, контроль над внешними AI-сервисами, запрет на ввод чувствительных данных и т.д.)
📌 Почитать:
▪️Руководство по Agentic AI Red Teaming |Cloud Security Alliance;
▪️Как злоумышленники используют ИИ в 2025 году;
#BehindTheMachine
————
@pattern_ai
Anthropic сообщила о первой документированной кибершпионской кампании, почти полностью проведённой ИИ.
Далее ИИ провёл разведку, нашёл уязвимости, написал эксплоиты, установил бекдоры и собрал учётные данные. Вся кампания состояла из десятков отдельных этапов, но 80–90% работы выполняла модель, а человек вмешивался только в нескольких точках.
Claude действовал как полноценный агент: обрабатывал результаты собственных действий, корректировал стратегию, генерировал код, создавал отчёты и поддерживал непрерывный цикл атаки. Модель работала с огромной скоростью, обрабатывая тысячи запросов, часто по несколько в секунду. При этом наблюдались и “галлюцинации” ( ошибки в интерпретации данных, вымышленные креды).
Anthropic блокировала атаку, усилила фильтры и начала делиться сигналами с партнёрами. Полный отчет здесь.
❗️Почему это важно?
Кейс показывает, что угрозы, связанные с agentic AI, перестали быть теорией.
Командам разработки необходимо переосмыслить процессы безопасности, чтобы предотвращать опасные действия агента на этапе намерения, а не в момент инцидента, например:
▪️ Создавать для агента ограниченную среду (sandbox), выдавать минимально необходимые инструменты и запрещать прямой доступ к продовым сервисам.
▪️ Прослойка между моделью и внешними системами должна фильтровать вредоносные запросы, ограничивать действия агента и мониторить инструменты, которыми он может пользоваться.
▪️Проверять устойчивость модели к попыткам обмана, скрытых команд и цепочек действий, которые могут привести к несанкционированным операциям.
▪️Отслеживать аномальные паттерны активности агента: бурст-трафик, нетипичные цепочки действий, попытки обойти политики. Реагирование должно быть автоматическим — с мгновенной блокировкой ключей и инструментов.
▪️Прописать регламенты для сотрудников (уровни доступа, контроль над внешними AI-сервисами, запрет на ввод чувствительных данных и т.д.)
▪️Руководство по Agentic AI Red Teaming |Cloud Security Alliance;
▪️Как злоумышленники используют ИИ в 2025 году;
#BehindTheMachine
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Deutsche Bank продемонстрировал, как ИИ (dbLumina) может не просто автоматизировать исследовательскую работу, но и генерировать глубокие психологические и эмоциональные инсайты, которые сложно уловить вручную.
👀 Примеры исследования о том, как вели себя инвесторы в 2025 году на самом деле:
1️⃣ Боимся, когда надо покупать. Инвесторы находились в наибольшем страхе именно в апреле, когда акции стоили дешевле всего. ИИ считает, что это был наоборот самый идеальный момент для покупки.
2️⃣ После падения в апреле, акции стали расти. Но инвесторы вместо радости стали еще более тревожными, а "жадность" (желание заработать) упала. То есть мы нервничаем, даже когда всё хорошо.
3️⃣ Центральный банк США (ФРС) весь год говорил о рынке труда. Но ИИ увидел, что инвесторы ни разу не включили этот вопрос в список своих главных страхов.
4️⃣ Инвесторы говорят: "Сейчас всё по-новому, мир изменился!" А ИИ видит: все равно большинство торгует, основываясь на самых свежих новостях и том, что легко найти (увидеть). То есть мы используем старые, проверенные, но часто ошибочные методы.
Главный вывод ИИ: эмоции, особенно страх, заставляют нас принимать плохие решения. Самые лучшие шансы для заработка появляются, когда вокруг больше всего паники.
Такой подход показывает, как институциональные инвесторы могут использовать ИИ для анализа не только финансовых показателей, но и «психологии» рынка, что может давать преимущество в принятии стратегических решений.
📌 Предыдущие посты:
▪️НейроUX в банках против ваших интересов;
▪️AI и финансовый сектор;
#UXWatch
————
@pattern_ai
Главный вывод ИИ: эмоции, особенно страх, заставляют нас принимать плохие решения. Самые лучшие шансы для заработка появляются, когда вокруг больше всего паники.
Такой подход показывает, как институциональные инвесторы могут использовать ИИ для анализа не только финансовых показателей, но и «психологии» рынка, что может давать преимущество в принятии стратегических решений.
▪️НейроUX в банках против ваших интересов;
▪️AI и финансовый сектор;
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
GenAI_Fake_Law-UNSW.pdf
1.5 MB
Отчет "GenAI, Fake Law & Fallout: A review of the misuse of generative artificial intelligence in legal proceedings" by The Center for the Future of the Legal Profession (CFLP) at UNSW Law & Justice
Предыдущие посты:
▪️ИИ в зале суда: правила игры;
▪️GenAI и юристы: кто, где и как использует ИИ в 2025 году;
▪️Когда ИИ подводит юристов: реальные судебные "триллеры";
#AIShelf
————
@pattern_ai
Предыдущие посты:
▪️ИИ в зале суда: правила игры;
▪️GenAI и юристы: кто, где и как использует ИИ в 2025 году;
▪️Когда ИИ подводит юристов: реальные судебные "триллеры";
#AIShelf
————
@pattern_ai
Анализ 520 инцидентов GenAI или насколько опасен ИИ в юриспруденции
Австралийский Центр по Будущему Юридической Профессии UNSW предоставил отчет по датасету из 520 кейсов и 10 юрисдикций (от США до Сингапура) по использованию ИИ в судах.
Отчет интересен подробным описанием решений судов и рекомендациями юристам.
Основные злоупотребления GenAI в судебных разбирательствах:
▪️ придумывает судебные решения, которые никогда не существовали. Адвокаты их цитируют, а судьи тратят время на поиски этих "фантомов".
▪️ создает идеальные, но абсолютно несуществующие юридические статьи, законы или правила.
▪️ генерирует бессвязный текст, который оказывается в официальных судебных бумагах.
Выводы: юристы, которые слепо полагаются на ИИ, уже получают серьезные дисциплинарные взыскания за предоставление ложной информации. Судьям приходится заниматься работой фактчекеров, проверяя каждую сноску, что замедляет рассмотрение дел.
Сам отчет выше отдельным постом.
#AIShelf #UXWatch
————
@pattern_ai
Австралийский Центр по Будущему Юридической Профессии UNSW предоставил отчет по датасету из 520 кейсов и 10 юрисдикций (от США до Сингапура) по использованию ИИ в судах.
Отчет интересен подробным описанием решений судов и рекомендациями юристам.
Основные злоупотребления GenAI в судебных разбирательствах:
▪️ придумывает судебные решения, которые никогда не существовали. Адвокаты их цитируют, а судьи тратят время на поиски этих "фантомов".
▪️ создает идеальные, но абсолютно несуществующие юридические статьи, законы или правила.
▪️ генерирует бессвязный текст, который оказывается в официальных судебных бумагах.
Выводы: юристы, которые слепо полагаются на ИИ, уже получают серьезные дисциплинарные взыскания за предоставление ложной информации. Судьям приходится заниматься работой фактчекеров, проверяя каждую сноску, что замедляет рассмотрение дел.
Сам отчет выше отдельным постом.
#AIShelf #UXWatch
————
@pattern_ai
AI Governance в Африке
Для всех, кому интересно наблюдать внедрение ИИ-инициатив в разных регионах, предлагаю несколько отчетов по Африке за 2025 год.
👀 Инсайты из State of AI Policy in Africa 2025 (Shehu, M., & Onunwa, G.).
Во всех регионах наблюдаются четыре проблемы, приводящие к неравномерному прогрессу:
1️⃣ Недостаточное финансирование и бюджетирование ИИ при высокой зависимости от донорской поддержки.
2️⃣ Отсутствие систем мониторинга, оценки эффективности и регулярной отчётности.
3️⃣ Пробелы в правовом регулировании ИИ и слабое правоприменение.
4️⃣ Наличие этических принципов в политических документах без обязательных норм или институциональной практики.
Основные наблюдения по странам:
▪️Египет и Эфиопия лидируют по уровню зрелости ИИ. У них есть национальные советы, измеримые целевые показатели и растущие инвестиции.
▪️Кения и Сенегал выделяются масштабированием и финансированием ИИ-инициатив.
▪️Маврикий, Южная Африка и Гана демонстрируют преемственность политики и реализуемые проекты, но слабы в части правового регулирования и систем мониторинга и оценки.
▪️Нигерия показывает сильную вовлечённость и внедрение ИИ, в том числе за счёт моделей с местными языками и создания инновационных хабов, но отстаёт по объёму целевого финансирования и нормативной базе.
▪️Замбия демонстрирует, как небольшие экономики могут добиваться успеха благодаря институциональному фокусу и раннему внедрению ИИ-инициатив.
▪️Намибия, Ботсвана и Зимбабве остаются на стадии разработки и концептуального планирования, ограничиваясь оценками готовности и не публикуя полноценные национальные стратегии.
▪️Около 34 стран, включая Чад, Эсватини и Центральноафриканскую Республику, пока не опубликовали ни одной политики или дорожной карты, связанной с ИИ.
📌 Еще отчеты:
🔹Africa AI Privacy Report 2025 |AI Policy Lab - отчет на 131 страницу, обзор международного регулирования, сравнение подходов по регионам (Европа, Северная и Южная Америки, Азиатско-Тихоокеанский регион,Океания), подробный разбор AI Governance в Африке.
🔹The State of AI in Africa Report | The Centre for Intellectual Property and Information Technology Law (CIPIT) - обзор того, как с 2023 года развивались экосистемы ИИ на африканском континенте. Документ подчёркивает достижения в инфраструктуре, регулировании, развитии компетенций и отраслевых инновациях, одновременно выявляя сохраняющиеся системные и структурные диспропорции.
#AIShelf #LawAndDisorder
————
@pattern_ai
Для всех, кому интересно наблюдать внедрение ИИ-инициатив в разных регионах, предлагаю несколько отчетов по Африке за 2025 год.
👀 Инсайты из State of AI Policy in Africa 2025 (Shehu, M., & Onunwa, G.).
Во всех регионах наблюдаются четыре проблемы, приводящие к неравномерному прогрессу:
Основные наблюдения по странам:
▪️Египет и Эфиопия лидируют по уровню зрелости ИИ. У них есть национальные советы, измеримые целевые показатели и растущие инвестиции.
▪️Кения и Сенегал выделяются масштабированием и финансированием ИИ-инициатив.
▪️Маврикий, Южная Африка и Гана демонстрируют преемственность политики и реализуемые проекты, но слабы в части правового регулирования и систем мониторинга и оценки.
▪️Нигерия показывает сильную вовлечённость и внедрение ИИ, в том числе за счёт моделей с местными языками и создания инновационных хабов, но отстаёт по объёму целевого финансирования и нормативной базе.
▪️Замбия демонстрирует, как небольшие экономики могут добиваться успеха благодаря институциональному фокусу и раннему внедрению ИИ-инициатив.
▪️Намибия, Ботсвана и Зимбабве остаются на стадии разработки и концептуального планирования, ограничиваясь оценками готовности и не публикуя полноценные национальные стратегии.
▪️Около 34 стран, включая Чад, Эсватини и Центральноафриканскую Республику, пока не опубликовали ни одной политики или дорожной карты, связанной с ИИ.
🔹Africa AI Privacy Report 2025 |AI Policy Lab - отчет на 131 страницу, обзор международного регулирования, сравнение подходов по регионам (Европа, Северная и Южная Америки, Азиатско-Тихоокеанский регион,Океания), подробный разбор AI Governance в Африке.
🔹The State of AI in Africa Report | The Centre for Intellectual Property and Information Technology Law (CIPIT) - обзор того, как с 2023 года развивались экосистемы ИИ на африканском континенте. Документ подчёркивает достижения в инфраструктуре, регулировании, развитии компетенций и отраслевых инновациях, одновременно выявляя сохраняющиеся системные и структурные диспропорции.
#AIShelf #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM