Утечка Mixpanel/OpenAI или как аналитика снова подвела
OpenAI подтвердила инцидент утечки у стороннего провайдера аналитики Mixpanel.
Mixpanel обнаружил несанкционированный доступ 9 ноября 2025 года, уведомила OpenAI 25 ноября.
Затронутые данные (только API-продукты OpenAI):
- имя, которое было предоставлено в учетной записи API;
- адрес электронной почты, связанный с учетной записью API;
- примерное местоположение на основе API браузера пользователя (город, штат, страна);
- OC и браузер, используемые для доступа к учетной записи API;
- ссылающиеся сайты;
- идентификаторы организаций или пользователей, связанные с учетной записью API.
Нет полной информации о том, как долго был доступ, сколько пользователей затронуто, ограничилась ли утечка объявленными полями.
OpenAI немедленно удалила Mixpanel и начала проверку всех сторонних поставщиков.
👀 В чем риск для пользователей?
Эта комбинация данных точно подтверждает, что вы являетесь клиентом OpenAI API = отличная база для персонализированного фишинга и попыток выманить API-ключи.
Если пользователь использовал то же имя пользователя (email) и простой пароль на другом сайте = риск взлома.
Что сделать пользователям OpenAI API:
▪️ включите MFA/2FA (+ на почте, связанной с аккаунтом и на всех корпоративных учетных записях, связанных с API);
▪️проявите высокую бдительность к фишингу ( не переходите по ссылкам в подозрительных письмах, не вводите пароли или ключи API в ответ на email/смс/чат, проверяйте домен отправителя);
▪️ротация ключей API ( сгенерировать новые ключи API и отозвать старые, особенно если вы беспокоитесь о том, что ключи могли быть случайно зарегистрированы в аналитических событиях).
▪️ограничьте права ключей и используйте scoped keys;
▪️убедитесь, что все разработчики и администраторы вашей организации, использующие API, проинформированы о риске фишинга.
✏️ Уроки, которые необходимо извлечь на будущее:
🔹Минимизация данных. Вы действительно отправляете email в сторонние аналитические системы? В 95% случаев нет необходимости. Cобирайте только те данные, которые абсолютно необходимы для выполнения задачи.
🔹Карта потоков данных. У вас должна быть точная карта того, какие PII передаются каждому сервису.
Если вы не знаете, то это главный риск.
🔹Аудит поставщиков. Есть ли у них MFA для всех сотрудников? Какой план реагирования на инциденты согласован с вашим? Посмотрите на примере Mixpanel.
🔹Сегментация и изоляция сред. Обеспечивает ли архитектура систем полную изоляцию данных? Если взламывают систему аналитики, гарантирует ли это, что никакие данные, кроме аналитических, не могут быть скомпрометированы (например, ключи API, пароли)?
🔹Скорость реакции на инцидент. В этом кейсе прошло 16 дней.....У вас должен быть план на случай утечки: отзыв ключей, уведомление пользователей, восстановление доступа, ограничение дальнейших рисков.
#UXWatch #BehindTheMachine
————
@pattern_ai
OpenAI подтвердила инцидент утечки у стороннего провайдера аналитики Mixpanel.
Mixpanel обнаружил несанкционированный доступ 9 ноября 2025 года, уведомила OpenAI 25 ноября.
Затронутые данные (только API-продукты OpenAI):
- имя, которое было предоставлено в учетной записи API;
- адрес электронной почты, связанный с учетной записью API;
- примерное местоположение на основе API браузера пользователя (город, штат, страна);
- OC и браузер, используемые для доступа к учетной записи API;
- ссылающиеся сайты;
- идентификаторы организаций или пользователей, связанные с учетной записью API.
Нет полной информации о том, как долго был доступ, сколько пользователей затронуто, ограничилась ли утечка объявленными полями.
OpenAI немедленно удалила Mixpanel и начала проверку всех сторонних поставщиков.
Эта комбинация данных точно подтверждает, что вы являетесь клиентом OpenAI API = отличная база для персонализированного фишинга и попыток выманить API-ключи.
Если пользователь использовал то же имя пользователя (email) и простой пароль на другом сайте = риск взлома.
Что сделать пользователям OpenAI API:
▪️ включите MFA/2FA (+ на почте, связанной с аккаунтом и на всех корпоративных учетных записях, связанных с API);
▪️проявите высокую бдительность к фишингу ( не переходите по ссылкам в подозрительных письмах, не вводите пароли или ключи API в ответ на email/смс/чат, проверяйте домен отправителя);
▪️ротация ключей API ( сгенерировать новые ключи API и отозвать старые, особенно если вы беспокоитесь о том, что ключи могли быть случайно зарегистрированы в аналитических событиях).
▪️ограничьте права ключей и используйте scoped keys;
▪️убедитесь, что все разработчики и администраторы вашей организации, использующие API, проинформированы о риске фишинга.
Инцидент подтверждает, что сторонние поставщики аналитики являются одними из самых слабых звеньев.
✏️ Уроки, которые необходимо извлечь на будущее:
🔹Минимизация данных. Вы действительно отправляете email в сторонние аналитические системы? В 95% случаев нет необходимости. Cобирайте только те данные, которые абсолютно необходимы для выполнения задачи.
🔹Карта потоков данных. У вас должна быть точная карта того, какие PII передаются каждому сервису.
Если вы не знаете, то это главный риск.
🔹Аудит поставщиков. Есть ли у них MFA для всех сотрудников? Какой план реагирования на инциденты согласован с вашим? Посмотрите на примере Mixpanel.
🔹Сегментация и изоляция сред. Обеспечивает ли архитектура систем полную изоляцию данных? Если взламывают систему аналитики, гарантирует ли это, что никакие данные, кроме аналитических, не могут быть скомпрометированы (например, ключи API, пароли)?
🔹Скорость реакции на инцидент. В этом кейсе прошло 16 дней.....У вас должен быть план на случай утечки: отзыв ключей, уведомление пользователей, восстановление доступа, ограничение дальнейших рисков.
#UXWatch #BehindTheMachine
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👏2
Библиотеки промптов
🔹Cборник промптов для Nano Banana Pro;
🔹Prompt Optimizer от OpenAI;
🔹Промпты OpenAI 100 chats for college students;
🔹Промпты для ChatGPT;
🔹ChatGPT Role Prompts;
🔹Каталог промптов для GigaChat;
🔹Библиотека Промптов;
🔹Промпты для Stable Diffusion, Midjourney, DALL-E, Kandinsky;
🔹Каталог промптов;
🔹Midjourney prompt library;
🔹Готовые промпты для нейросети;
🔹Prompt Architect (UPA);
#TalkPrompty
————
@pattern_ai
🔹Cборник промптов для Nano Banana Pro;
🔹Prompt Optimizer от OpenAI;
🔹Промпты OpenAI 100 chats for college students;
🔹Промпты для ChatGPT;
🔹ChatGPT Role Prompts;
🔹Каталог промптов для GigaChat;
🔹Библиотека Промптов;
🔹Промпты для Stable Diffusion, Midjourney, DALL-E, Kandinsky;
🔹Каталог промптов;
🔹Midjourney prompt library;
🔹Готовые промпты для нейросети;
🔹Prompt Architect (UPA);
#TalkPrompty
————
@pattern_ai
Подборка по ключевым рубрикам:
🔹Может ли ИИ быть автором, что говорят законы сегодня;
🔹Как использовать ИИ в играх легально;
🔹Как использовать ИИ в рекламе и не нарушить закон;
🔹Как запустить ИИ- блогера и не нарушить закон;
🔹Попытки платформ обеспечить прозрачность ИИ-контента;
🔹Чек-лист по этическим и юридическим стандартам для операторов ИИ-блогеров и ИИ-контента;
🔹Новые законы в США по регулированию ИИ-компаньонов;
🔹Нидерланды упростили EU AI Act до гайда в 21 страницу ;
🔹EU AI Act: Еврокомиссия предлагает важные изменения;
🔹ЕС требует новых правил для защиты детей, в том числе от ИИ;
🔹Италия первой в ЕС вводит уголовную ответственность за преступления с использованием ИИ;
🔹Обновлены рекомендации EDPS по генеративному ИИ;
🔹Как превратить европейскую отчётность в инструмент доверия и качества;
🔹Маркировка ИИ контента в Китае стала обязательной;
🔹Почему нам стоит посмотреть на опыт Египта в AI-регулировании;
🔹У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ";
🔹Ваши пользователи из Индии? Смотрим новые AI Guidelines;
🔹AI Governance в Африке;
🔹AI Regulation Global Guide или правила игры в 12 юрисдикциях;
🔹Кейс GEMA vs OpenAI или как ИИ выучил песни слишком хорошо;
🔹Deepfake в суде (дело Mendones v. Cushman & Wakefield);
🔹Как адаптировать ИИ-сервис для нового рынка;
🔹18+ или ChatGPT скоро “повзрослеет” и это не совсем безопасно;
🔹Риски использования ChatGPT Atlas;
🔹Троянский конь Meta Camera Roll;
🔹Эмоциональная зависимость от ChatGPT;
🔹Как ИИ меняет поведение людей и наоборот;
🔹Как тёмные паттерны обманывают LLM-веб-агентов;
🔹Катастрофические риски ИИ;
🔹Когда промпт становится уликой;
🔹ИИ в медицине: между потенциалом и реальностью;
🔹ИИ в школах: урок Ирландии по безопасному внедрению;
🔹ИИ и инклюзивное образование;
🔹Чистые наборов данных или как OECD формирует доверие к ИИ на практике ;
🔹Автоматизация исследовательской работы от Deutsche Bank;
🔹Насколько опасен ИИ в юриспруденции;
🔹10 минут вместо 10 часов, а как честно биллинговать работу с ИИ, например юристам?
🔹Утечка Mixpanel/OpenAI или как аналитика снова подвела;
🔹Как получить реальный ROI от ИИ: отчет и советы от Google;
🔹Первая «законопослушная» AI-модель Европы;
🔹Покупка ИИ-инструментов: на что обратить внимание перед подписанием контракта;
🔹Как превратить Office в умный редактор;
🔹AI Leadership Blueprint: чек-листы, метрики и готовые шаблоны для компаний и гос.оранов от Университета Юты;
🔹Как на самом деле используют ChatGPT;
🔹AI in Courts - Insights from South Korea, Australia, and Singapore;
🔹Как ЕС учиться измерять мощность и риски GPAI;
🔹Инструмент проверки соответствия AI Act от Еврокомиссии;
🔹Шаблон политики в области ИИ от Австралийского правительства;
🔹Как разработчики ИИ управляют рисками: первый сводный отчёт по Хиросимскому процессу;
🔹Исследование Microsoft: как используется ИИ;
🔹The Annual AI Governance Report 2025: Steering the Future of AI;
🔹Как злоумышленники используют ИИ в 2025 году;
🔹Отчет "GenAI, Fake Law & Fallout";
🔹Новое Руководство по управлению рисками систем ИИ от EDPS;
🔹65 сценариев использования ИИ-агентов от Stack AI;
🔹Лекции Гарварда про ИИ бесплатные;
🔹Первая атака, проведённая ИИ-агентом;
🔹OWASP AI Testing Guide v1;
📚#TalkPrompty
🔹Промпт для проверки DPA от DataGrail;
🔹Sora 2 и как создавать своих ИИ-блогеров;
🔹Библиотеки промптов;
🔹Обучающие гайды по ИИ от Google, Perplexity и OpenAI;
Читайте, пересылайте, возвращайтесь к важному.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Managing data after death in 2025.pdf
676.2 KB
Наши данные после смерти или "воскреснуть" с помощью ИИ
Французский регулятор по защите данных (CNIL) опубликовал отчет «Our Data After Us», который посвящён использованию цифровых данных после смерти ( управление аккаунтами, передача данных, появление новые сервисов, в том числе AI‑агентов, натренированных на данных покойных).
👀 Приводятся данные опроса Harris Interactive:
- 1/3 французов уже сталкивались с контентом умерших в соцсетях,
- 50% респондентов хотела бы, чтобы их собственные социальные публикации удалялись после смерти
- 50% респондентов указали, что сортировку или удаление должен выполнять родственник или потомок, 22% - они сами, 14% - доверенная третья сторона (поставщик услуг, нотариус) и 13% - непосредственно платформа, на которой размещены данные.
Изучены 20 самых востребованных сервисов и составлена картография маршрутов пользователя для управления посмертными данными.
🔍 Риски и вопросы, которые возникают:
▪️Связанные с "семьей" ( эмоциональные, моральные). Цифровые копии умерших ( “deadbots” / “ghostbots”) могут вызывать сильные эмоциональные переживания у родственников, осложнение процесса горевания ( в этом вопросе между специалистам ведутся споры легче или сложнее), легкий путь к мошенническим действиям со стороны третьих лиц.
▪️Проблемы приватности и безопасности данных. Посмертные биометрические или медицинские данные (например, данные мозга, фото, переписки) особенно чувствительны. Также посмертные данные содержат информацию о родственниках, друзьях и коллегах , что делает их уязвимыми.
+ новый «парадокс конфиденциальности», когда человек фактически «возрождается» без его явного согласия. + этические вопросы (можно ли создавать цифровых аватаров умерших без согласия при жизни? Кто имеет право это запрещать?)
▪️Репутационные. Боты могут стать автономными, формируя реплики, поведение и высказывания, которые уже не совпадают с тем, как человек жил и выражал себя при жизни.
▪️Культурные и религиозные аспекты.Не все культуры или религии одинаково воспринимают идею цифрового "воскрешения". В некоторых традициях это может быть воспринято как неуважение к умершему или к его памяти.
▪️Отсутствие контроля. Большинство платформ не объясняют, что происходит с данными после смерти (архивируются/ удаляются/ используются для обучения ИИ).
▪️Материальные аспекты. Инфраструктура хранения “цифрового наследия” требует постоянного технического обслуживания.
▪️ Отсутствие и техническая сложность создания транснациональных систем и механизмов регулирования, связанных с посмертными данными.
Между тем рынки, связанные с «цифровой смертью» ( DeathTech), уже существуют и активно растут. В 2024 году глобальный рынок был оценён примерно в USD 22.46 млрд, а к 2034-му ожидается рост до ~USD 78.98 млрд.
Со стороны экспертов есть предложение про право контролировать воссоздание своей личности после смерти и включение в завещание просьбы не становиться роботом («do not bot me»), наследникам дать исключительное право создавать/разрешать/ запрещать deadbots и конкурирующих версий любому другому лицу, включая фанатов знаменитостей.
Продуктовым командам необходимо помнить про эти данные и встраивать соответствующие механизмы:
▪️лёгкого управления «посмертным сценарием» (удаление, архив, отказ от использования данных);
▪️информирования пользователей о рисках «digital resurrection»;
▪️ограничения/запрета на коммерческое использование deadbots без согласия;
▪️чётких UX-путей для тех, кто решает, что делать с цифровым наследием.
Готовы ли мы к последствиям тренда на “оживление” фотографий ( и не только) людей, которых уже нет? Хотели бы вы так "воскреснуть" ?
Что почитать:
🔹The Ethical Frontier of Generative Artificial Intelligence and Posthumous Data Protection;
🔹Chilling AI ‘ghostbots’ of the dead could ‘digitally stalk’ bereaved from beyond the grave, experts warn;
🔹Digital afterlife leaders: professionalisation as a social innovation in the digital afterlife industry;
🔹Governing Ghostbots;
🔹Draft Guidelines on Data Protection in the context of neuroscience;
#UXWatch
————
@pattern
Французский регулятор по защите данных (CNIL) опубликовал отчет «Our Data After Us», который посвящён использованию цифровых данных после смерти ( управление аккаунтами, передача данных, появление новые сервисов, в том числе AI‑агентов, натренированных на данных покойных).
- 1/3 французов уже сталкивались с контентом умерших в соцсетях,
- 50% респондентов хотела бы, чтобы их собственные социальные публикации удалялись после смерти
- 50% респондентов указали, что сортировку или удаление должен выполнять родственник или потомок, 22% - они сами, 14% - доверенная третья сторона (поставщик услуг, нотариус) и 13% - непосредственно платформа, на которой размещены данные.
Изучены 20 самых востребованных сервисов и составлена картография маршрутов пользователя для управления посмертными данными.
▪️Связанные с "семьей" ( эмоциональные, моральные). Цифровые копии умерших ( “deadbots” / “ghostbots”) могут вызывать сильные эмоциональные переживания у родственников, осложнение процесса горевания ( в этом вопросе между специалистам ведутся споры легче или сложнее), легкий путь к мошенническим действиям со стороны третьих лиц.
▪️Проблемы приватности и безопасности данных. Посмертные биометрические или медицинские данные (например, данные мозга, фото, переписки) особенно чувствительны. Также посмертные данные содержат информацию о родственниках, друзьях и коллегах , что делает их уязвимыми.
+ новый «парадокс конфиденциальности», когда человек фактически «возрождается» без его явного согласия. + этические вопросы (можно ли создавать цифровых аватаров умерших без согласия при жизни? Кто имеет право это запрещать?)
▪️Репутационные. Боты могут стать автономными, формируя реплики, поведение и высказывания, которые уже не совпадают с тем, как человек жил и выражал себя при жизни.
▪️Культурные и религиозные аспекты.Не все культуры или религии одинаково воспринимают идею цифрового "воскрешения". В некоторых традициях это может быть воспринято как неуважение к умершему или к его памяти.
▪️Отсутствие контроля. Большинство платформ не объясняют, что происходит с данными после смерти (архивируются/ удаляются/ используются для обучения ИИ).
▪️Материальные аспекты. Инфраструктура хранения “цифрового наследия” требует постоянного технического обслуживания.
▪️ Отсутствие и техническая сложность создания транснациональных систем и механизмов регулирования, связанных с посмертными данными.
Между тем рынки, связанные с «цифровой смертью» ( DeathTech), уже существуют и активно растут. В 2024 году глобальный рынок был оценён примерно в USD 22.46 млрд, а к 2034-му ожидается рост до ~USD 78.98 млрд.
Со стороны экспертов есть предложение про право контролировать воссоздание своей личности после смерти и включение в завещание просьбы не становиться роботом («do not bot me»), наследникам дать исключительное право создавать/разрешать/ запрещать deadbots и конкурирующих версий любому другому лицу, включая фанатов знаменитостей.
Продуктовым командам необходимо помнить про эти данные и встраивать соответствующие механизмы:
▪️лёгкого управления «посмертным сценарием» (удаление, архив, отказ от использования данных);
▪️информирования пользователей о рисках «digital resurrection»;
▪️ограничения/запрета на коммерческое использование deadbots без согласия;
▪️чётких UX-путей для тех, кто решает, что делать с цифровым наследием.
Готовы ли мы к последствиям тренда на “оживление” фотографий ( и не только) людей, которых уже нет? Хотели бы вы так "воскреснуть" ?
Что почитать:
🔹The Ethical Frontier of Generative Artificial Intelligence and Posthumous Data Protection;
🔹Chilling AI ‘ghostbots’ of the dead could ‘digitally stalk’ bereaved from beyond the grave, experts warn;
🔹Digital afterlife leaders: professionalisation as a social innovation in the digital afterlife industry;
🔹Governing Ghostbots;
🔹Draft Guidelines on Data Protection in the context of neuroscience;
#UXWatch
————
@pattern
Please open Telegram to view this post
VIEW IN TELEGRAM
😐1
Draft_Implementing_Act_AI_regulatory_sandboxes.pdf
199.9 KB
Проект правил о запуске AI-песочниц от Еврокомиссии
Еврокомиссия вынесла на общественное обсуждение проект правил, которые объясняют, как именно должны работать регуляторные AI-песочницы, предусмотренные AI Act.
Прием замечаний открыт до 6 января.
Предполагается, что до 2 августа 2026 года в каждой стране ЕС должна появиться как минимум одна работающая песочница.
👀 ИИ-песочница (sandbox) - это контролируемая среда, где компании могут тестировать, обучать, валидировать и испытывать свои модели под наблюдением специалистов и надзорных органов.
🔹Участие для SMEs и стартапов должно быть бесплатным кроме «исключительных затрат», которые могут быть компенсированы справедливо и пропорционально.
🔹Процедура подачи заявки, участия, выхода и завершения должна быть понятной, прозрачной и унифицированной по всему ЕС.
🔹После завершения участник может получить «свидетельство» (written proof) и «exit report», описывающий результаты, опыт и оценки рисков. Это может помочь при дальнейшем соответствии законодательству или при сертификации. НО не гарантирует автоматически «зеленый свет» для выхода на рынок.
🔹Если ИИ-проект обрабатывает персональные данные, то национальные органы защиты данных (DPA) должны быть вовлечены в работу.
Почему полезно для разработчиков:
Участие в "песочнице" может стать безопасным способом проверить свои решения, повысить качество продукта, получить обратную связь регулятора ещё до выхода на рынок и тем самым снизить риски.
#LawAndDisorder
————
@pattern_ai
Еврокомиссия вынесла на общественное обсуждение проект правил, которые объясняют, как именно должны работать регуляторные AI-песочницы, предусмотренные AI Act.
Прием замечаний открыт до 6 января.
Предполагается, что до 2 августа 2026 года в каждой стране ЕС должна появиться как минимум одна работающая песочница.
🔹Участие для SMEs и стартапов должно быть бесплатным кроме «исключительных затрат», которые могут быть компенсированы справедливо и пропорционально.
🔹Процедура подачи заявки, участия, выхода и завершения должна быть понятной, прозрачной и унифицированной по всему ЕС.
🔹После завершения участник может получить «свидетельство» (written proof) и «exit report», описывающий результаты, опыт и оценки рисков. Это может помочь при дальнейшем соответствии законодательству или при сертификации. НО не гарантирует автоматически «зеленый свет» для выхода на рынок.
🔹Если ИИ-проект обрабатывает персональные данные, то национальные органы защиты данных (DPA) должны быть вовлечены в работу.
Почему полезно для разработчиков:
Участие в "песочнице" может стать безопасным способом проверить свои решения, повысить качество продукта, получить обратную связь регулятора ещё до выхода на рынок и тем самым снизить риски.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
AI impact assessment tool_1.docx
419 KB
AI Impact Assessment Tool от Австралии
Агентство цифровой трансформации (DTA) продолжает радовать подробными и практичными гайдами.
Гайд + AI impact assessment tool +чек-лист призваны помочь госзаказчикам и проектным командам закупать, проектировать и использовать продукты и услуги, связанные с ИИ, при строгом учёте рисков этического, правового, социального характера.
Оценку воздействия можно взять за образец и даже при помощи ИИ сократить, оставив необходимое именно для вашего проекта.
Подходит как для сложных, так и для типичных кейсов (градация минимальный/средний/высокий уровень риска).
Инструмент оценки воздействия ИИ:
▪️ показывает, есть ли риски для людей и данных;
▪️помогает оценить прозрачность и справедливость системы;
▪️подсказывает, где нужно усилить контроль человека;
▪️предлагает структуру, чтобы документировать каждый шаг.
В примере документа предлагается зафиксировать: кто отвечает за оценку, кто участвует, технические характеристики ИИ, как используются данные, какие решения принимает система, и как обеспечивается контроль, мониторинг, документация.
📌 Шаблон политики в области ИИ от Австралийского правительства
#AIShelf #LawAndDisorder
————
@pattern_ai
Агентство цифровой трансформации (DTA) продолжает радовать подробными и практичными гайдами.
Гайд + AI impact assessment tool +чек-лист призваны помочь госзаказчикам и проектным командам закупать, проектировать и использовать продукты и услуги, связанные с ИИ, при строгом учёте рисков этического, правового, социального характера.
Оценку воздействия можно взять за образец и даже при помощи ИИ сократить, оставив необходимое именно для вашего проекта.
Подходит как для сложных, так и для типичных кейсов (градация минимальный/средний/высокий уровень риска).
Инструмент оценки воздействия ИИ:
▪️ показывает, есть ли риски для людей и данных;
▪️помогает оценить прозрачность и справедливость системы;
▪️подсказывает, где нужно усилить контроль человека;
▪️предлагает структуру, чтобы документировать каждый шаг.
В примере документа предлагается зафиксировать: кто отвечает за оценку, кто участвует, технические характеристики ИИ, как используются данные, какие решения принимает система, и как обеспечивается контроль, мониторинг, документация.
#AIShelf #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Инструменты оценки воздействия AIIA, FRIA и DPIA чем отличаются
Ч.1.
Инструменты оценки воздействия AI Impact Assessment (AIIA), Fundamental Rights Impact Assessment (FRIA) и Data Protection Impact Assessment (DPIA) являются ключевыми механизмами ответственного внедрения технологий, но отличаются по своей цели, сфере применения и правовой базе.
Как легко запомнить:
🔹AIIA про полный структурированный анализ ИИ как системы.
🔹FRIA про риски, связанные с использованием ИИ для всех основных прав субъектов.
🔹DPIA про риски, связанные с обработкой персональных данных.
Какой механизм необходимо выбрать и для чего разберем дальше в постах. Если не актуально, то сегодня не читаем.
#LawAndDisorder
————
@pattern_ai
Ч.1.
Инструменты оценки воздействия AI Impact Assessment (AIIA), Fundamental Rights Impact Assessment (FRIA) и Data Protection Impact Assessment (DPIA) являются ключевыми механизмами ответственного внедрения технологий, но отличаются по своей цели, сфере применения и правовой базе.
Как легко запомнить:
🔹AIIA про полный структурированный анализ ИИ как системы.
🔹FRIA про риски, связанные с использованием ИИ для всех основных прав субъектов.
🔹DPIA про риски, связанные с обработкой персональных данных.
Какой механизм необходимо выбрать и для чего разберем дальше в постах. Если не актуально, то сегодня не читаем.
#LawAndDisorder
————
@pattern_ai
AI Impact Assessment для чего необходима
Ч.2.
🔹AI Impact Assessment (оценка воздействия ИИ) - широкая, комплексная оценка всех рисков, связанных с ИИ (этических, социальных, технических, экономических и правовых).
Необходима для:
▪️управления рисками;
▪️соблюдения нормативных требований;
▪️повышения прозрачности и подотчетности;
▪️демонстрации общественности и заинтересованным сторонам, что организация серьезно относится к этическим вопросам и воздействию ИИ.
📌 Подборка инструментов:
▪️Algorithmic Impact Assessment (AIA) tool| Canada;
▪️Artificial Intelligence Impact Assessment | Government of the Netherlands;
▪️A system-level AI Impact Assessment (AIIA) |RAI Institute UK;
▪️Artificial Intelligence Impact Assessment Tool|Australia;
▪️The Assessment List for Trustworthy Artificial Intelligence;
▪️Responsible AI Toolbox|Microsoft;
▪️AI Risk Management Framework |NIST;
▪️ISO/IEC 42005:2025 Information technology — Artificial intelligence (AI) — AI system impact assessment;
▪️Co-designing an AI Impact Assessment Report Template with AI Practitioners and AI Compliance Experts;
#LawAndDisorder #AIShelf
————
@pattern_ai
Ч.2.
🔹AI Impact Assessment (оценка воздействия ИИ) - широкая, комплексная оценка всех рисков, связанных с ИИ (этических, социальных, технических, экономических и правовых).
Необходима для:
▪️управления рисками;
▪️соблюдения нормативных требований;
▪️повышения прозрачности и подотчетности;
▪️демонстрации общественности и заинтересованным сторонам, что организация серьезно относится к этическим вопросам и воздействию ИИ.
В некоторых странах уже обязательна для систем, используемых в гос. услугах (н-р, Канада), также используется организациями, желающими придерживаться стандартов ответственного ИИ (Responsible AI) или при наличии внутренних корпоративных требований.
В ЕС разработчикам корпоративных AI-решений (например, в сфере финансовых технологий или здравоохранения) предлагается ALTAI и подобные ему инструменты для классификации риска своей системы (например, является ли она "высокого риска" в соответствии с AI Act), и самооценки по семи ключевым требованиях к надежному ИИ, в том числе для включения функций объяснимости и справедливости на этапе разработки, а не после завершения.
▪️Algorithmic Impact Assessment (AIA) tool| Canada;
▪️Artificial Intelligence Impact Assessment | Government of the Netherlands;
▪️A system-level AI Impact Assessment (AIIA) |RAI Institute UK;
▪️Artificial Intelligence Impact Assessment Tool|Australia;
▪️The Assessment List for Trustworthy Artificial Intelligence;
▪️Responsible AI Toolbox|Microsoft;
▪️AI Risk Management Framework |NIST;
▪️ISO/IEC 42005:2025 Information technology — Artificial intelligence (AI) — AI system impact assessment;
▪️Co-designing an AI Impact Assessment Report Template with AI Practitioners and AI Compliance Experts;
#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Pattern AI pinned «😵💫 Pattern_AI Recap: обзор постов за сентябрь-ноябрь Подборка по ключевым рубрикам: ⚖️ #LawAndDisorder 🔹Может ли ИИ быть автором, что говорят законы сегодня; 🔹Как использовать ИИ в играх легально; 🔹Как использовать ИИ в рекламе и не нарушить закон; 🔹Как…»
Fundamental Rights Impact Assessment (FRIA) для чего необходима
Ч.3.
🔹Fundamental Rights Impact Assessment (FRIA) - оценка, направленная исключительно на то, чтобы гарантировать, что развертывание и использование конкретной системы ИИ не нарушает основные права и свободы человека.
Если говорим про ЕС, то AI Act ссылается на закрепленные в Хартии Европейского Союза основные права (недискриминация, справедливое судебное разбирательство, свобода выражения мнения, неприкосновенность частной жизни и т.д) и FRIA требуется только для развертывателей (Deployers) высокорисковых систем ИИ перед их первым использованием.
Необходима для того, чтобы:
▪️ гарантировать, что такие системы уважают права субъектов;
▪️выявить потенциальные риски для прав человека;
▪️ принять адекватные меры для их устранения.
Что делать по EU AI Act?
Развертыватели должны провести оценку, состоящую из:
▪️описания процессов, в которых будет использовала высокорисковая система ИИ (в соответствии со своей предполагаемой целью - предназначением);
▪️описания, в какой период времени (или с какой частотой) предполагается использовать высокорисковую систему ИИ;
▪️категорий физических лиц (групп), которые могут пострадать от использования высокорискового ИИ в конкретном контексте;
▪️конкретных рисков причинения вреда, которые могут оказать влияние на категории физических лиц (групп), с учетом информации, предоставленной поставщиком в соответствии со ст.13 AI Act;
▪️описания принятых мер по надзору со стороны сотрудников (человека) в соответствии с инструкцией;
▪️мер, которые необходимо принять в случае возникновения этих рисков, включая механизмы внутреннего управления и механизмы подачи жалоб.
Также в других странах создают свои механизмы оценки воздействия.
📌 Шаблоны и гайды:
▪️The ALIGNER Fundamental Rights Impact Assessment (AFRIA);
▪️FRIA Model: Guide and use cases| Catalan DPA;
▪️Fundamental Rights Impact Assessment |White Label Consultancy;
▪️Human Rights Impact Assessment to Protect Human Rights on the Development and Use of AI |Sourth Korea;
▪️AI Human Rights Impact Assessment Tools for Educators|University of Waterloo;
▪️Human Rights Impact Assessment Workbook
#LawAndDisorder #AIShelf
————
@pattern_ai
Ч.3.
🔹Fundamental Rights Impact Assessment (FRIA) - оценка, направленная исключительно на то, чтобы гарантировать, что развертывание и использование конкретной системы ИИ не нарушает основные права и свободы человека.
Если говорим про ЕС, то AI Act ссылается на закрепленные в Хартии Европейского Союза основные права (недискриминация, справедливое судебное разбирательство, свобода выражения мнения, неприкосновенность частной жизни и т.д) и FRIA требуется только для развертывателей (Deployers) высокорисковых систем ИИ перед их первым использованием.
Необходима для того, чтобы:
▪️ гарантировать, что такие системы уважают права субъектов;
▪️выявить потенциальные риски для прав человека;
▪️ принять адекватные меры для их устранения.
Субъекты, которые обязаны проводить FRIA (требования ст. 27 EU AI Act):
▪️ органы, регулируемые публичным правом;
▪️частные субъекты, предоставляющие государственные услуги;
▪️разработчики систем ИИ, предназначенных для оценки кредитоспособности или установления кредитных рейтингов для физических лиц (исключение: системы ИИ, предназначенные для обнаружения финансового мошенничества);
▪️ разработчики систем ИИ, используемых для оценки рисков и ценообразования в страховании жизни и здоровья физических лиц.
Что делать по EU AI Act?
Развертыватели должны провести оценку, состоящую из:
▪️описания процессов, в которых будет использовала высокорисковая система ИИ (в соответствии со своей предполагаемой целью - предназначением);
▪️описания, в какой период времени (или с какой частотой) предполагается использовать высокорисковую систему ИИ;
▪️категорий физических лиц (групп), которые могут пострадать от использования высокорискового ИИ в конкретном контексте;
▪️конкретных рисков причинения вреда, которые могут оказать влияние на категории физических лиц (групп), с учетом информации, предоставленной поставщиком в соответствии со ст.13 AI Act;
▪️описания принятых мер по надзору со стороны сотрудников (человека) в соответствии с инструкцией;
▪️мер, которые необходимо принять в случае возникновения этих рисков, включая механизмы внутреннего управления и механизмы подачи жалоб.
Также в других странах создают свои механизмы оценки воздействия.
▪️The ALIGNER Fundamental Rights Impact Assessment (AFRIA);
▪️FRIA Model: Guide and use cases| Catalan DPA;
▪️Fundamental Rights Impact Assessment |White Label Consultancy;
▪️Human Rights Impact Assessment to Protect Human Rights on the Development and Use of AI |Sourth Korea;
▪️AI Human Rights Impact Assessment Tools for Educators|University of Waterloo;
▪️Human Rights Impact Assessment Workbook
#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Data Protection Impact Assessment (DPIA) для чего необходима
Ч.4.
🔹Data Protection Impact Assessment (DPIA) - проводится, если запланированная деятельность по обработке персональных данных, вероятно, приведет к высокому риску для прав личности субъектов данных.
Обязательна, если есть:
▪️обработка больших объемов персональных данных.
При использовании ИИ для анализа или обработки больших наборов данных, содержащих персональные данные, особенно если они включают конфиденциальные или специальные данные категории (например, информацию о состоянии здоровья, расовое или этническое происхождение, биометрические данные и т. д.) устранить риски раскрытия или неправомерного использования.
▪️автоматизированное принятие решений и профилирование.
Системы ИИ, которые принимают решения исключительно на основе автоматизированной обработки, включая профилирование, которое может иметь правовые или существенные последствия для отдельных лиц ( ИИ для кредитного скоринга, найма и т.п.).
▪️обработка данных с высоким риском.
Наблюдение, мониторинг поведения или отслеживание с помощью ИИ (например, распознавание лиц, отслеживание местоположения, поведенческая аналитика) в общественных местах или в пределах бизнеса - влияние на конфиденциальность отдельных лиц.
▪️обработка данных с участием уязвимых субъектов данных (н-р, дети, пожилые люди).
Что необходимо сделать:
▪️определить характер, объем, контекст и цели обработки данных ИИ, показать потоки данных и указать этапы, на которых обработка ИИ может затронуть людей.
▪️оценить необходимость и пропорциональность обработки. Ответить на ряд вопросов:
- нужно ли использовать ИИ для достижения цели?
- есть ли менее навязчивые способы достичь того же результата?
- соразмерны ли интересы организации рискам для прав и свобод людей?
Любые компромиссы (например, сохранение большего объема данных ради точности анализа) должны быть обоснованы.
▪️оценить риски для прав и свобод отдельных лиц. Задокументировать и проанализировать любой потенциальный вред конфиденциальности субъектов данных, включая риски утечки, финансовые потери, репутационные потери, потенциальную предвзятость или несправедливое воздействие. Зафиксировать вероятность и серьёзность каждого риска и присвоить им оценку.
▪️описать меры по снижению рисков. Реализовать технические и организационные меры (н-р минимизация данных/ псевдонимизация /шифрование, реализация возможности отказа от обработки данных, где допустимо, соглашения о передаче данных, обучение сотрудников,) для минимизации выявленных рисков.
📌 Шаблоны и гайды:
▪️DPIA for the development of AI systems| CNIL;
▪️DPIA |EDPS;
▪️How to use AI and personal data appropriately and lawfully| ICO;
▪️How Google Cloud helps navigate your DPIA and AI privacy compliance journey;
#LawAndDisorder #AIShelf
————
@pattern_ai
Ч.4.
🔹Data Protection Impact Assessment (DPIA) - проводится, если запланированная деятельность по обработке персональных данных, вероятно, приведет к высокому риску для прав личности субъектов данных.
Обязательна, если есть:
▪️обработка больших объемов персональных данных.
При использовании ИИ для анализа или обработки больших наборов данных, содержащих персональные данные, особенно если они включают конфиденциальные или специальные данные категории (например, информацию о состоянии здоровья, расовое или этническое происхождение, биометрические данные и т. д.) устранить риски раскрытия или неправомерного использования.
▪️автоматизированное принятие решений и профилирование.
Системы ИИ, которые принимают решения исключительно на основе автоматизированной обработки, включая профилирование, которое может иметь правовые или существенные последствия для отдельных лиц ( ИИ для кредитного скоринга, найма и т.п.).
▪️обработка данных с высоким риском.
Наблюдение, мониторинг поведения или отслеживание с помощью ИИ (например, распознавание лиц, отслеживание местоположения, поведенческая аналитика) в общественных местах или в пределах бизнеса - влияние на конфиденциальность отдельных лиц.
▪️обработка данных с участием уязвимых субъектов данных (н-р, дети, пожилые люди).
Примеры: Системы машинного обучения и глубокого обучения, автономные транспортные средства с ИИ, интеллектуальные транспортные системы, умные технологии, включая носимые устройства, некоторые приложения Интернета вещей (IoT)
Что необходимо сделать:
▪️определить характер, объем, контекст и цели обработки данных ИИ, показать потоки данных и указать этапы, на которых обработка ИИ может затронуть людей.
▪️оценить необходимость и пропорциональность обработки. Ответить на ряд вопросов:
- нужно ли использовать ИИ для достижения цели?
- есть ли менее навязчивые способы достичь того же результата?
- соразмерны ли интересы организации рискам для прав и свобод людей?
Любые компромиссы (например, сохранение большего объема данных ради точности анализа) должны быть обоснованы.
▪️оценить риски для прав и свобод отдельных лиц. Задокументировать и проанализировать любой потенциальный вред конфиденциальности субъектов данных, включая риски утечки, финансовые потери, репутационные потери, потенциальную предвзятость или несправедливое воздействие. Зафиксировать вероятность и серьёзность каждого риска и присвоить им оценку.
▪️описать меры по снижению рисков. Реализовать технические и организационные меры (н-р минимизация данных/ псевдонимизация /шифрование, реализация возможности отказа от обработки данных, где допустимо, соглашения о передаче данных, обучение сотрудников,) для минимизации выявленных рисков.
▪️DPIA for the development of AI systems| CNIL;
▪️DPIA |EDPS;
▪️How to use AI and personal data appropriately and lawfully| ICO;
▪️How Google Cloud helps navigate your DPIA and AI privacy compliance journey;
#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Гид по новому корейскому закону об ИИ - AI Basic Act Explorer of the Republic of Korea
В нормах приведены связки с EU AI Act. Дана хронология принятия и внедрения закона и какие этапы еще запланированы.
📌 У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ"
#AIShelf #LawAndDisorder
————
@pattern_ai
В нормах приведены связки с EU AI Act. Дана хронология принятия и внедрения закона и какие этапы еще запланированы.
📌 У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ"
#AIShelf #LawAndDisorder
————
@pattern_ai
Онлайн-покупки без лишних данных или как EDPB хочет сломать привычную модель сбора данных для ИИ
Европейский комитет по защите данных (EDPB) опубликовал Recommendations 2/2025 о том, когда интернет-платформы/магазины могут требовать создание аккаунта.
Подход простой: оплата без регистрации («guest checkout») должна быть доступна всегда, кроме случаев, когда аккаунт действительно необходим (н-р, подписочная модель или предоставление эксклюзивных услуг/сервисов, завязанных на личный кабинет). Такой подход рекомендуется в соответствии с принципами «privacy by design» и «privacy by default». EDPB уточняет, что требование от пользователей создания постоянного аккаунта для стандартных транзакций электронной коммерции, как правило, является незаконным согласно GDPR, т.к. продажа и доставка товаров может быть выполнена и без него.
Однако последствия ограничений выходят далеко за рамки приватности.
👀 Что это значит для ИИ и систем персонализации?
Рекомендации таким образом фактически ограничивают объём данных, которые компании смогут получить в «залогированных» пользовательских сессиях, критически важных для обучения алгоритмов персонализации и рекомендательных моделей:
- стабильные идентифицируемые данные, привязанные к аккаунту;
- последовательные данные длительного наблюдения, формируемые при повторных входах;
-поведенческие паттерны, необходимые для построения рекомендаций.
Архитектура и дизайн сервисов должны будут учитывать минимизацию сбора данных, возможную анонимизацию, поддержку сценариев работы без постоянных аккаунтов.
Публичное обсуждение документа и прием предложений по нему продлится до 12 февраля 2026 года.
#LawAndDisorder #UXWatch
————
@pattern_ai
Европейский комитет по защите данных (EDPB) опубликовал Recommendations 2/2025 о том, когда интернет-платформы/магазины могут требовать создание аккаунта.
Подход простой: оплата без регистрации («guest checkout») должна быть доступна всегда, кроме случаев, когда аккаунт действительно необходим (н-р, подписочная модель или предоставление эксклюзивных услуг/сервисов, завязанных на личный кабинет). Такой подход рекомендуется в соответствии с принципами «privacy by design» и «privacy by default». EDPB уточняет, что требование от пользователей создания постоянного аккаунта для стандартных транзакций электронной коммерции, как правило, является незаконным согласно GDPR, т.к. продажа и доставка товаров может быть выполнена и без него.
Однако последствия ограничений выходят далеко за рамки приватности.
Рекомендации таким образом фактически ограничивают объём данных, которые компании смогут получить в «залогированных» пользовательских сессиях, критически важных для обучения алгоритмов персонализации и рекомендательных моделей:
- стабильные идентифицируемые данные, привязанные к аккаунту;
- последовательные данные длительного наблюдения, формируемые при повторных входах;
-поведенческие паттерны, необходимые для построения рекомендаций.
Архитектура и дизайн сервисов должны будут учитывать минимизацию сбора данных, возможную анонимизацию, поддержку сценариев работы без постоянных аккаунтов.
Публичное обсуждение документа и прием предложений по нему продлится до 12 февраля 2026 года.
#LawAndDisorder #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Дорожная карта от базового использования LLM к полностью автономным многоагентным системам by Brij kishore Pandey
#AIShelf
————
@pattern_ai
#AIShelf
————
@pattern_ai
👍1
prompt_upload_repeat-TikTok.pdf
71.2 MB
Как “агентные” ИИ-аккаунты переполняют TikTok и обходят модерацию
Исследователи AI Forensics опубликовали отчёт "Prompt. Upload. Repeat: How Agentic AI Accounts Flood TikTok with Harmful content".
AAA - это новая категория «креаторов», которые почти не используют человеческое участие. Контент генерируется и заливается автоматически, с массовым тестированием алгоритмов рекомендаций, максимальная виральность и быстрый доход.
🔍 Что показало исследование:
🔹Массовое производство контента как стратегия.
65% таких аккаунтов созданы в 2025 году. Некоторые публикуют до 11 постов в день, есть и 70 видео за сутки в одном аккаунте. Почти 80% из них это аккаунты, изначально созданные как полностью ИИ-генерируемые.
🔹 AAA массово распространяют:
- сексуализированные изображения женщин с детскими чертами,
- искажённые и нездоровые образы тела,
- ложные «новости», созданные под стилистику репортажей и документалистики,
- ксенофобские и расистские нарративы (в т.ч. антисемитские «тренды»),
- контент на стыке провокации, хайпа и манипуляции,
Многие тренды ( «mother-son», «antisemitic trend») воспроизводятся до бесконечности, что стимулирует появление новых AAA, «прыгающих» в уже раскрученные форматы.
🔹Маркировка ИИ-контента фактически не работает.
▪️55% ИИ-контента на TikTok не имеют маркировки.
▪️TikTok сам добавляет метку «AI-generated media» менее чем в 1,38% случаев. Если контент помечен, это добровольное усилие со стороны создателей.
▪️30% авторов никогда не помечают контент как ИИ-созданный.
▪️Пользователи замечают синтетичность гораздо чаще, чем сама платформа.
Это создаёт масштабный эффект обмана, особенно в политическом и «журналистском» ИИ-контенте.
🔹Монетизация: доход получают немногие, но экосистема уже работает.
Большинство AAA не попадают в Creator Rewards Program TikTok, однако:
- часть зарабатывает на промо сомнительных БАДов;
- другие на рекламе ИИ-инструментов и онлайн-курсов;
- некоторые копируют поведение человеческих инфлюенсеров, создавая «персонажей» для повышения доверия
🔹 Экосистема ИИ-виральности уже формируется.
AAA используют готовые сервисы, например Yapper.so, обещающие «массовое производство вирусного видео». Эти инструменты:
- предлагают готовые шаблоны, сюжеты, «виральные ситуации»,
- генерируют видео, включая фотореалистичных людей и “похожих на знаменитостей” без согласия,
- снижают цену производства почти до нуля, а значит стимулируют лавинообразный рост синтетического контента,
Риски:
▪️Нормализация вредного контента, алгоритмы закрепляют и масштабируют вредные паттерны.
▪️Эффект подмены человеческого контента. AI-трафик не просто «разбавляет» контент, формирует новые тренды, вытесняя реальных создателей.
▪️Манипуляция аудиторией и распространение фейков. Синтетическая «журналистика» становится неотличимой от реальной. Алгоритмы рекомендаций усиливают проблемные нарративы.
▪️Провал в маркировке ИИ-медиа. При отсутствии обязательной, унифицированной и проверяемой маркировки пользователи продолжают воспринимать ИИ-контент как человеческий.
Отчёт напрямую указывает на разрыв между масштабом автоматизированной генерации и способностью платформ обеспечивать прозрачность и безопасность.
#UXWatch
—————
@pattern_ai
Исследователи AI Forensics опубликовали отчёт "Prompt. Upload. Repeat: How Agentic AI Accounts Flood TikTok with Harmful content".
AAA - это новая категория «креаторов», которые почти не используют человеческое участие. Контент генерируется и заливается автоматически, с массовым тестированием алгоритмов рекомендаций, максимальная виральность и быстрый доход.
🔹Массовое производство контента как стратегия.
65% таких аккаунтов созданы в 2025 году. Некоторые публикуют до 11 постов в день, есть и 70 видео за сутки в одном аккаунте. Почти 80% из них это аккаунты, изначально созданные как полностью ИИ-генерируемые.
🔹 AAA массово распространяют:
- сексуализированные изображения женщин с детскими чертами,
- искажённые и нездоровые образы тела,
- ложные «новости», созданные под стилистику репортажей и документалистики,
- ксенофобские и расистские нарративы (в т.ч. антисемитские «тренды»),
- контент на стыке провокации, хайпа и манипуляции,
Многие тренды ( «mother-son», «antisemitic trend») воспроизводятся до бесконечности, что стимулирует появление новых AAA, «прыгающих» в уже раскрученные форматы.
🔹Маркировка ИИ-контента фактически не работает.
▪️55% ИИ-контента на TikTok не имеют маркировки.
▪️TikTok сам добавляет метку «AI-generated media» менее чем в 1,38% случаев. Если контент помечен, это добровольное усилие со стороны создателей.
▪️30% авторов никогда не помечают контент как ИИ-созданный.
▪️Пользователи замечают синтетичность гораздо чаще, чем сама платформа.
Это создаёт масштабный эффект обмана, особенно в политическом и «журналистском» ИИ-контенте.
🔹Монетизация: доход получают немногие, но экосистема уже работает.
Большинство AAA не попадают в Creator Rewards Program TikTok, однако:
- часть зарабатывает на промо сомнительных БАДов;
- другие на рекламе ИИ-инструментов и онлайн-курсов;
- некоторые копируют поведение человеческих инфлюенсеров, создавая «персонажей» для повышения доверия
🔹 Экосистема ИИ-виральности уже формируется.
AAA используют готовые сервисы, например Yapper.so, обещающие «массовое производство вирусного видео». Эти инструменты:
- предлагают готовые шаблоны, сюжеты, «виральные ситуации»,
- генерируют видео, включая фотореалистичных людей и “похожих на знаменитостей” без согласия,
- снижают цену производства почти до нуля, а значит стимулируют лавинообразный рост синтетического контента,
Риски:
▪️Нормализация вредного контента, алгоритмы закрепляют и масштабируют вредные паттерны.
▪️Эффект подмены человеческого контента. AI-трафик не просто «разбавляет» контент, формирует новые тренды, вытесняя реальных создателей.
▪️Манипуляция аудиторией и распространение фейков. Синтетическая «журналистика» становится неотличимой от реальной. Алгоритмы рекомендаций усиливают проблемные нарративы.
▪️Провал в маркировке ИИ-медиа. При отсутствии обязательной, унифицированной и проверяемой маркировки пользователи продолжают воспринимать ИИ-контент как человеческий.
Отчёт напрямую указывает на разрыв между масштабом автоматизированной генерации и способностью платформ обеспечивать прозрачность и безопасность.
#UXWatch
—————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Как понять, что изображение создано с помощью AI
Проведя предыдущее исследование, AI Forensic выпустили полезный гайд, как оценить вероятность того, что просматриваемый медиаконтент был создан с использованием инструментов искусственного интеллекта.
Этапы разделены на четыре ключевых направления:
▪️До изображения: признаки, характерные для ИИ;
▪️Синтетические артефакты в изображениях, созданных ИИ;
▪️Движущиеся изображения/видеоролики;
▪️Цифровое происхождение.
Даны наглядные примеры, сравнение с разных платформ. Для относительной уверенности в том, что изображение или видео созданы ИИ, рассматриваемый контент должен соответствовать более чем одной из перечисленных характеристик. Но технологии не стоят на месте...
#UXWatch #AIShelf
————
@pattern_ai
Проведя предыдущее исследование, AI Forensic выпустили полезный гайд, как оценить вероятность того, что просматриваемый медиаконтент был создан с использованием инструментов искусственного интеллекта.
Этапы разделены на четыре ключевых направления:
▪️До изображения: признаки, характерные для ИИ;
▪️Синтетические артефакты в изображениях, созданных ИИ;
▪️Движущиеся изображения/видеоролики;
▪️Цифровое происхождение.
Даны наглядные примеры, сравнение с разных платформ. Для относительной уверенности в том, что изображение или видео созданы ИИ, рассматриваемый контент должен соответствовать более чем одной из перечисленных характеристик. Но технологии не стоят на месте...
#UXWatch #AIShelf
————
@pattern_ai
👍4
ИИ, реклама и конфликт уровней власти в США: что происходит на самом деле?
На прошлой неделе в США появились две на первый взгляд противоречивые новости.
👀 С одной стороны, штат Нью-Йорк принял два закона A8887-B и A8882, призванных установить новый стандарт прозрачности в рекламе, защитить потребителей от потенциально вводящих в заблуждение цифровых материалов и усилить защиту цифрового образа человека после смерти.
▪️Любая реклама, в которой выступают ИИ-созданные персонажи, должна быть явно помечена, без мелкого шрифта, без намёков, т.е. прямое уведомление зрителя.
▪️Штрафы за сокрытие использования ИИ от $1 000 за первое нарушение до $5 000 за повторные.
▪️Вступает в силу 9 июня 2026 года.
▪️Закон A8882 требует согласия наследников для коммерческого использования имени, изображения или подобия умершего человека.
С другой стороны, Белый дом издал исполнительный указ Ensuring a National Policy Framework for Artificial Intelligence.
Его суть: не допустить, чтобы штаты «мешали» единой федеральной политике в сфере ИИ. Администрация прямо говорит о необходимости одного федерального фреймворка и допускает оспаривание законов штатов, если они считаются «избыточными» или тормозящими инновации.
🔍 Закономерный вопрос, отменяются ли сразу законы Нью-Йорка и других штатов?
Пока нет. Исполнительный указ сам по себе не аннулирует законы штатов. Но он создаёт основу для:
- давления через федеральные агентства,
- судебных споров,
- будущего федерального закона, который может вытеснить нормы штатов.
С одной стороны Штаты (38 штатов, включая Калифорнию, приняли около 100 нормативных актов, регулирующих использование ИИ, внесено более 1000 отдельных законопроектов, касающихся ИИ) пытаются закрыть конкретные риски, а с другой власть на федеральном уровне делает попытки убрать «регуляторную мозаику» и централизовать контроль над ИИ. Получаем конфликт приоритетов: защита потребителей vs. скорость инноваций.
Следим за развитием событий дальше...
📌 Предыдущие посты:
🔹Как использовать ИИ в рекламе и не нарушить закон (обзор разных юрисдикций);
🔹Новые законы в США по регулированию ИИ-компаньонов;
🔹Наши данные после смерти или "воскреснуть" с помощью ИИ;
#LawAndDisorder
————
@pattern_ai
На прошлой неделе в США появились две на первый взгляд противоречивые новости.
▪️Любая реклама, в которой выступают ИИ-созданные персонажи, должна быть явно помечена, без мелкого шрифта, без намёков, т.е. прямое уведомление зрителя.
▪️Штрафы за сокрытие использования ИИ от $1 000 за первое нарушение до $5 000 за повторные.
▪️Вступает в силу 9 июня 2026 года.
▪️Закон A8882 требует согласия наследников для коммерческого использования имени, изображения или подобия умершего человека.
С другой стороны, Белый дом издал исполнительный указ Ensuring a National Policy Framework for Artificial Intelligence.
Его суть: не допустить, чтобы штаты «мешали» единой федеральной политике в сфере ИИ. Администрация прямо говорит о необходимости одного федерального фреймворка и допускает оспаривание законов штатов, если они считаются «избыточными» или тормозящими инновации.
Пока нет. Исполнительный указ сам по себе не аннулирует законы штатов. Но он создаёт основу для:
- давления через федеральные агентства,
- судебных споров,
- будущего федерального закона, который может вытеснить нормы штатов.
С одной стороны Штаты (38 штатов, включая Калифорнию, приняли около 100 нормативных актов, регулирующих использование ИИ, внесено более 1000 отдельных законопроектов, касающихся ИИ) пытаются закрыть конкретные риски, а с другой власть на федеральном уровне делает попытки убрать «регуляторную мозаику» и централизовать контроль над ИИ. Получаем конфликт приоритетов: защита потребителей vs. скорость инноваций.
Следим за развитием событий дальше...
🔹Как использовать ИИ в рекламе и не нарушить закон (обзор разных юрисдикций);
🔹Новые законы в США по регулированию ИИ-компаньонов;
🔹Наши данные после смерти или "воскреснуть" с помощью ИИ;
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👏4
ИИ-контракты: вопросы, которые лучше задать до закрытия сделок в конце года
Ближе к концу года компании спешат закрыть сделки, утвердить подрядчиков и распределить бюджеты. В таком режиме часть вопросов остаётся за рамками обсуждения, но не потому что они неважны, а потому что «разберёмся позже».
Вопросы, которые с высокой вероятностью напомнят о себе в следующем году:
1️⃣ Что именно вы покупаете?
Речь идёт не только о функциональности, но и о степени зрелости решения. ИИ часто продаётся как «готовое решение», но по факту:
- модель может быть экспериментальной,
- качество нестабильным,
- юридические риски переложены на заказчика.
Важно понять: кто несёт риск, если модель обучена на проблемных данных или выдаёт неверные результаты.
2️⃣ Где проходит граница ответственности?
Даже при корректном договоре остаётся вопрос:
- кто отвечает за последствия рекомендаций модели,
- в каких процессах ИИ фактически влияет на решения,
- можно ли ограничить использование модели только «поддержкой», а не автоматическим принятием решений.
3️⃣ Сможете ли вы доказать корректность работы ИИ?
В 2025 году всё чаще возникал не вопрос «почему ИИ ошибся»,», а вопрос «как вы проверяли, что он работал корректно, и как можете доказать»:
- клиенту,
- регулятору,
- аудитору,
- суду.
Если у компании нет понятного механизма проверки качества и логики работы модели, защищать решение будет сложно.
4️⃣ Что происходит при ошибке модели?
Важно заранее понимать практические сценарии: как фиксируются ошибки, кто и в какие сроки обязан реагировать,есть ли механизм приостановки использования модели без штрафов и репутационных потерь.
5️⃣ Как изменятся риски при масштабировании?
Модель, безопасная в одном процессе, может стать проблемной при подключении новых данных или расширении сценариев использования. После запуска уже сложнее решить, что делать дальше.
6️⃣ Насколько вы готовы к вниманию регуляторов в 2026 год?
Регуляторы всё чаще смотрят не на текст договора, а на:
- фактическую роль ИИ в бизнес-процессах,
- наличие человеческого контроля,
- способность компании объяснить логику решений.
Даже «низкорисковый» ИИ может попасть под усиленный контроль из-за способа применения.
7️⃣ Самый важный вопрос:
📌 Примерный чек-лист для составления/проверки контрактов и примеры ИИ-инструментов.
#AIShelf
————
@pattern_ai
Ближе к концу года компании спешат закрыть сделки, утвердить подрядчиков и распределить бюджеты. В таком режиме часть вопросов остаётся за рамками обсуждения, но не потому что они неважны, а потому что «разберёмся позже».
Вопросы, которые с высокой вероятностью напомнят о себе в следующем году:
Речь идёт не только о функциональности, но и о степени зрелости решения. ИИ часто продаётся как «готовое решение», но по факту:
- модель может быть экспериментальной,
- качество нестабильным,
- юридические риски переложены на заказчика.
Важно понять: кто несёт риск, если модель обучена на проблемных данных или выдаёт неверные результаты.
Даже при корректном договоре остаётся вопрос:
- кто отвечает за последствия рекомендаций модели,
- в каких процессах ИИ фактически влияет на решения,
- можно ли ограничить использование модели только «поддержкой», а не автоматическим принятием решений.
В 2025 году всё чаще возникал не вопрос «почему ИИ ошибся»,», а вопрос «как вы проверяли, что он работал корректно, и как можете доказать»:
- клиенту,
- регулятору,
- аудитору,
- суду.
Если у компании нет понятного механизма проверки качества и логики работы модели, защищать решение будет сложно.
Важно заранее понимать практические сценарии: как фиксируются ошибки, кто и в какие сроки обязан реагировать,есть ли механизм приостановки использования модели без штрафов и репутационных потерь.
Модель, безопасная в одном процессе, может стать проблемной при подключении новых данных или расширении сценариев использования. После запуска уже сложнее решить, что делать дальше.
Регуляторы всё чаще смотрят не на текст договора, а на:
- фактическую роль ИИ в бизнес-процессах,
- наличие человеческого контроля,
- способность компании объяснить логику решений.
Даже «низкорисковый» ИИ может попасть под усиленный контроль из-за способа применения.
Если завтра ИИ станет недоступен или юридически рискованным , сможете ли вы продолжить работу без него?
Если нет, значит речь идёт не просто о сервисе, а о критической зависимости, которой нужно управлять осознанно.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
Гайды по применению AI Act от испанского регулятора
Испанское агентство по надзору за искусственным интеллектом выпустило рекомендации для компаний по применению Закона ЕС об ИИ, в рамках пилотного проекта испанской регуляторной песочницы в области ИИ:
🔹 Руководство по AI Act;
🔹Практическое руководство и примеры для понимания AI Act;
🔹 Руководство по оценке соответствия AI Act;
🔹Руководство по системам управления качеством ИИ;
🔹 Руководство по управлению рисками;
🔹Руководство по человеческому надзору;
🔹 Руководство по данным и управлению данными;
🔹Руководство по прозрачности;
🔹 Руководство по точности систем ИИ;
🔹Руководство по созданию надежного ИИ;
🔹 Руководство по кибербезопасности;
🔹 Руководство по ведению документации
🔹 Руководство по постмаркетинговомpу надзору;
🔹 Руководство по управлению инцидентами;
🔹 Руководство по технической документации;
🔹 Чек-листы.
Пока на испанском, но любой переводчик в помощь, тот же DeepL
#LawAndDisorder #AIShelf
————
@pattern_ai
Испанское агентство по надзору за искусственным интеллектом выпустило рекомендации для компаний по применению Закона ЕС об ИИ, в рамках пилотного проекта испанской регуляторной песочницы в области ИИ:
🔹 Руководство по AI Act;
🔹Практическое руководство и примеры для понимания AI Act;
🔹 Руководство по оценке соответствия AI Act;
🔹Руководство по системам управления качеством ИИ;
🔹 Руководство по управлению рисками;
🔹Руководство по человеческому надзору;
🔹 Руководство по данным и управлению данными;
🔹Руководство по прозрачности;
🔹 Руководство по точности систем ИИ;
🔹Руководство по созданию надежного ИИ;
🔹 Руководство по кибербезопасности;
🔹 Руководство по ведению документации
🔹 Руководство по постмаркетинговомpу надзору;
🔹 Руководство по управлению инцидентами;
🔹 Руководство по технической документации;
🔹 Чек-листы.
Пока на испанском, но любой переводчик в помощь, тот же DeepL
#LawAndDisorder #AIShelf
————
@pattern_ai
👍4
Советы лидерам на 2026 год от Гарвардской школы бизнеса
Начинающаяся неделя перед новогоднимм праздниками - это хороший повод посмотреть чуть дальше текущих задач.
В 2026 году успех компаний будет зависеть не столько от самих AI-технологий, сколько от того, насколько быстро организации умеют меняться.
Преподаватели Гарвардской школы бизнеса выделяют несколько ключевых тенденций, которые будут определять лидеров в следующем году:
1️⃣ "Change fitness" - новая управленческая норма
ИИ больше не эксперимент. Он становится частью повседневной работы. Лидерам важно развивать change fitness, т.е. способность команд быстро адаптироваться, тестировать новое и перестраивать процессы без паралича и сопротивления.
2️⃣ Искусственный интеллект является усилителем, а не заменой людям
Побеждают не те, кто просто автоматизирует всё подряд, а те, кто использует ИИ для усиления человеческого мышления. Лучшие решения рождаются в командах, где AI снижает стоимость экспериментов, но ключевые решения остаются за людьми.
3️⃣ Баланс компромиссов, а не «идеальный AI»
Разные типы ИИ дают разные эффекты: одни повышают стабильность и точность, другие - креативность и вариативность. Ошибкой будет искать универсальный инструмент.Ваша задача- грамотно сочетать их под конкретные цели.
4️⃣ Человеческие отношения становятся ценнее
Когда аналитика и расчёты автоматизируются, главным преимуществом остаются доверие, эмпатия и умение работать с неопределённостью. Клиенты и партнёры ценят не скорость ответа ИИ, а качество человеческого взаимодействия.
————
@pattern_ai
Начинающаяся неделя перед новогоднимм праздниками - это хороший повод посмотреть чуть дальше текущих задач.
В 2026 году успех компаний будет зависеть не столько от самих AI-технологий, сколько от того, насколько быстро организации умеют меняться.
Преподаватели Гарвардской школы бизнеса выделяют несколько ключевых тенденций, которые будут определять лидеров в следующем году:
ИИ больше не эксперимент. Он становится частью повседневной работы. Лидерам важно развивать change fitness, т.е. способность команд быстро адаптироваться, тестировать новое и перестраивать процессы без паралича и сопротивления.
Побеждают не те, кто просто автоматизирует всё подряд, а те, кто использует ИИ для усиления человеческого мышления. Лучшие решения рождаются в командах, где AI снижает стоимость экспериментов, но ключевые решения остаются за людьми.
Разные типы ИИ дают разные эффекты: одни повышают стабильность и точность, другие - креативность и вариативность. Ошибкой будет искать универсальный инструмент.Ваша задача- грамотно сочетать их под конкретные цели.
Когда аналитика и расчёты автоматизируются, главным преимуществом остаются доверие, эмпатия и умение работать с неопределённостью. Клиенты и партнёры ценят не скорость ответа ИИ, а качество человеческого взаимодействия.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3