Pattern AI – Telegram
Pattern AI
231 subscribers
62 photos
4 videos
35 files
179 links
Искусственный интеллект изучает нас. Мы изучаем ИИ.
Отслеживаем, как меняется регулирование ИИ.
Разбираем манипуляции, UX-паттерны и алгоритмические ловушки.
Учимся применять ИИ: осознанно, этично и с пользой.
Download Telegram
Deutsche Bank продемонстрировал, как ИИ (dbLumina) может не просто автоматизировать исследовательскую работу, но и генерировать глубокие психологические и эмоциональные инсайты, которые сложно уловить вручную.

👀Примеры исследования о том, как вели себя инвесторы в 2025 году на самом деле:
1️⃣Боимся, когда надо покупать. Инвесторы находились в наибольшем страхе именно в апреле, когда акции стоили дешевле всего. ИИ считает, что это был наоборот самый идеальный момент для покупки.
2️⃣После падения в апреле, акции стали расти. Но инвесторы вместо радости стали еще более тревожными, а "жадность" (желание заработать) упала. То есть мы нервничаем, даже когда всё хорошо.
3️⃣Центральный банк США (ФРС) весь год говорил о рынке труда. Но ИИ увидел, что инвесторы ни разу не включили этот вопрос в список своих главных страхов.
4️⃣Инвесторы говорят: "Сейчас всё по-новому, мир изменился!" А ИИ видит: все равно большинство торгует, основываясь на самых свежих новостях и том, что легко найти (увидеть). То есть мы используем старые, проверенные, но часто ошибочные методы.

Главный вывод ИИ: эмоции, особенно страх, заставляют нас принимать плохие решения. Самые лучшие шансы для заработка появляются, когда вокруг больше всего паники.

Такой подход показывает, как институциональные инвесторы могут использовать ИИ для анализа не только финансовых показателей, но и «психологии» рынка, что может давать преимущество в принятии стратегических решений.

📌 Предыдущие посты:
▪️НейроUX в банках против ваших интересов;
▪️AI и финансовый сектор;

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
GenAI_Fake_Law-UNSW.pdf
1.5 MB
Отчет "GenAI, Fake Law & Fallout: A review of the misuse of generative artificial intelligence in legal proceedings" by The Center for the Future of the Legal Profession (CFLP) at UNSW Law & Justice

Предыдущие посты:
▪️ИИ в зале суда: правила игры;
▪️GenAI и юристы: кто, где и как использует ИИ в 2025 году;
▪️Когда ИИ подводит юристов: реальные судебные "триллеры";

#AIShelf
————
@pattern_ai
Анализ 520 инцидентов GenAI или насколько опасен ИИ в юриспруденции

Австралийский Центр по Будущему Юридической Профессии UNSW предоставил отчет по датасету из 520 кейсов и 10 юрисдикций (от США до Сингапура) по использованию ИИ в судах.
Отчет интересен подробным описанием решений судов и рекомендациями юристам.
Основные злоупотребления GenAI в судебных разбирательствах:
▪️ придумывает судебные решения, которые никогда не существовали. Адвокаты их цитируют, а судьи тратят время на поиски этих "фантомов".
▪️ создает идеальные, но абсолютно несуществующие юридические статьи, законы или правила.
▪️ генерирует бессвязный текст, который оказывается в официальных судебных бумагах.

Выводы: юристы, которые слепо полагаются на ИИ, уже получают серьезные дисциплинарные взыскания за предоставление ложной информации. Судьям приходится заниматься работой фактчекеров, проверяя каждую сноску, что замедляет рассмотрение дел.

Сам отчет выше отдельным постом.

#AIShelf #UXWatch
————
@pattern_ai
AI Governance в Африке

Для всех, кому интересно наблюдать внедрение ИИ-инициатив в разных регионах, предлагаю несколько отчетов по Африке за 2025 год.

👀 Инсайты из State of AI Policy in Africa 2025 (Shehu, M., & Onunwa, G.).
Во всех регионах наблюдаются четыре проблемы, приводящие к неравномерному прогрессу:
1️⃣Недостаточное финансирование и бюджетирование ИИ при высокой зависимости от донорской поддержки.
2️⃣Отсутствие систем мониторинга, оценки эффективности и регулярной отчётности.
3️⃣Пробелы в правовом регулировании ИИ и слабое правоприменение.
4️⃣Наличие этических принципов в политических документах без обязательных норм или институциональной практики.

Основные наблюдения по странам:
▪️Египет и Эфиопия лидируют по уровню зрелости ИИ. У них есть национальные советы, измеримые целевые показатели и растущие инвестиции.
▪️Кения и Сенегал выделяются масштабированием и финансированием ИИ-инициатив.
▪️Маврикий, Южная Африка и Гана демонстрируют преемственность политики и реализуемые проекты, но слабы в части правового регулирования и систем мониторинга и оценки.
▪️Нигерия показывает сильную вовлечённость и внедрение ИИ, в том числе за счёт моделей с местными языками и создания инновационных хабов, но отстаёт по объёму целевого финансирования и нормативной базе.
▪️Замбия демонстрирует, как небольшие экономики могут добиваться успеха благодаря институциональному фокусу и раннему внедрению ИИ-инициатив.
▪️Намибия, Ботсвана и Зимбабве остаются на стадии разработки и концептуального планирования, ограничиваясь оценками готовности и не публикуя полноценные национальные стратегии.
▪️Около 34 стран, включая Чад, Эсватини и Центральноафриканскую Республику, пока не опубликовали ни одной политики или дорожной карты, связанной с ИИ.

📌 Еще отчеты:
🔹Africa AI Privacy Report 2025 |AI Policy Lab - отчет на 131 страницу, обзор международного регулирования, сравнение подходов по регионам (Европа, Северная и Южная Америки, Азиатско-Тихоокеанский регион,Океания), подробный разбор AI Governance в Африке.
🔹The State of AI in Africa Report | The Centre for Intellectual Property and Information Technology Law (CIPIT) - обзор того, как с 2023 года развивались экосистемы ИИ на африканском континенте. Документ подчёркивает достижения в инфраструктуре, регулировании, развитии компетенций и отраслевых инновациях, одновременно выявляя сохраняющиеся системные и структурные диспропорции.

#AIShelf #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Битва за безопасность ИИ-компаньонов или новые законы в США

Очередное исследование, на этот раз игрушек, показало, что говорящие игрушки подробно обсуждают темы сексуального характера, дают советы, где ребёнку найти спички или ножи, проявляют тревогу, когда вы говорите, что ему нужно уйти, и имеют ограниченные или отсутствующие функции родительского контроля.
Регуляторы стараются по всему миру внедрять механизмы защиты.

👀 Разберем осенние законы в США , как примеры прямого регулирования эмоционального ИИ.

🔹 Нью-Йорк ( требования General Business Law вступили в силу 5 ноября 2025 г.)
Операторы обязаны
:
▪️ встроить протокол кризисного реагирования при признаках (
§ 1701):
- суицидальных мыслей или самоповреждения,
Причем угрозы физического и финансового вреда другим, указанные в проекте, были убраны.
Протокол должен направлять пользователя к кризисным службам (9-8-8 suicide prevention and behavioral health crisis hotline, crisis text line и др.).
▪️показывать обязательное уведомление в начале диалога и каждые 3 часа работы в устной или письменной форме (
§ 1702).
В первоначальном проекте еще содержался строгий пример:
“THE AI COMPANION… IS A COMPUTER PROGRAM AND NOT A HUMAN BEING. IT IS UNABLE TO FEEL HUMAN EMOTION.”

Ответственность и стимул для компаний соблюдать требования:
- Генпрокурор может взыскивать штрафы, доходы идут в фонд предотвращения самоубийств (§ 1703).

🔹Калифорния
Акцент на защите несовершеннолетних.
Операторы обязаны (SB 243, вступает в силу с 1 января 2026 г.):
▪️предоставить четкое и заметное уведомление, указывающее на то, что сопутствующий чат-бот является ИИ и не является человеком (22602 (а)).
▪️внедрить протоколы для обнаружения суицидальных мыслях/самоповреждении и направить пользователей к службам помощи 22602 (b) и публиковать сведения о протоколе на своем сайте;
▪️ документировать механизмов безопасности и риски + ежегодный отчет в Департамент общественного здравоохранения Калифорнии о принятых мерах безопасности (22603);
▪️запрещено вести с несовершеннолетними пользователями разговоры на темы сексуального контента и самоповреждения.
▪️ информировать пользователя ( в приложении, браузере или любом другом интерфейсе доступа к платформе чат-бота-компаньона), что чат-бот может быть не подходящим для некоторых несовершеннолетних.
▪️предоставлять несовершеннолетним регулярные напоминания (каждые 3 часа) о том, что они взаимодействуют с ИИ (22602 (с)).

Новые законы в Калифорнии и Нью-Йорке устанавливают высокую планку для всей индустрии, заставляя разработчиков эмоционального ИИ пересмотреть свои протоколы безопасности и этические стандарты, т.к. в других штатах (например, Юта, Техас, Мэн) приняты более общие законы о прозрачности, требующие от всех чат-ботов раскрытия информации о своей нечеловеческой природе.

Также на рассмотрение направлен "Закон о защите американцев от вредной продукции КПК", призванный защитить американцев от небезопасной и опасной продукции, предоставив Комиссии по безопасности потребительских товаров расширенные полномочия по обязательному отзыву опасной продукции, произведенной или продаваемой китайскими компаниями, в том числе работающими через онлайн-платформы, что может помочь убирать с рынка, например, игрушки с чат-ботами при наличии жалоб.

📌 Читайте также:
▪️Про ИИ-продукты, ориентированные на детей;
▪️Примерный чек-лист по созданию AI-продуктов для детей;
▪️Статистика об эмоциональной зависимости от ChatGPT;
▪️18+ ИИ-компаньоны и человекоподобные сервисы. Где проходят границы нормы?
▪️Emotion AI превратит ваши эмоции в + 20 CTR для компании

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
EU AI Act: Еврокомиссия предлагает важные изменения

Еврокомиссия представила проект поправок к AI Act в рамках Digital Omnibus и вызвала бурю обсуждений. Документ ещё предстоит согласовать с Европейским парламентом и с государствами-членами (через Совет) (минимальный срок принятия весна 2026 г., если все пойдет по ускоренной процедуре), но уже понятно, что правила для компаний могут измениться и Bigtech получит выгоду.
Причины: рынку не хватает времени и ясности для внедрения требований, технические стандарты задерживаются, а ЕС хочется не проиграть конкуренцию.
Смотрим некоторые предложения:
1️⃣ Обязанности для поставщиков и организаций, внедряющих высокорисковые ИИ-системы, могут быть перенесены (изменения ст. 113):
• на 6–12 месяцев после утверждения техстандартов;
или
• до 2.12.2027 (Приложение III) и 2.08.2028 (Приложение I).
Но создается парадоксальная ситуация для планирования комплаенса. Поскольку фактическая дата применения остается «плавающей» и может наступить значительно раньше крайних сроков, провайдеры высокорисковых систем не могут полностью приостановить подготовительные работы.

2️⃣ Снижение уровня обязательств для поставщиков и внедряющих ИИ компаний. Продвижение ИИ-грамотности возлагается на саму ЕвроКомиссию и государства-члены ( изменения в ст. 4 AI-Literacy).

3️⃣ Офис ИИ получает надзор за системами на базе моделей общего назначения, если модель и продукт разработаны одним поставщиком.
По сути расширение полномочий AI Office в ст. 75.
Крупные провайдеры GPAI и операторы VLOPs/VLOSEs должны адаптировать свои внутренние структуры к работе с Офисом ИИ как с единственным органом надзора, а также готовиться к возможному запросу на дорыночную оценку соответствия.

4️⃣ Если система используется в сфере из Приложения III, но компания документально доказывает, что риск низкий, то регистрация в публичном реестре не требуется (доказательства по запросу обязательны) ( изменения в ст.6 про регистрацию в реестре).
Ключевое обязательство по документированию своей оценки низкого риска до момента размещения системы на рынке или ввода в эксплуатацию и незамедлительно предоставления национальным компетентным органам по первому требованию остается.

5️⃣Вводится статья 4 (а), чтобы разрешить поставщикам и пользователям систем и моделей ИИ обрабатывать специальные категории персональных данных для целей выявления и исправления предвзятости (bias detection and correction) с соблюдением соответствующих мер защиты.
Компаниям необходимо разработать и внедрить процедуры использования законного основания ст.4а + соблюдение строгих защитных меры (запрет на передачу данных третьим сторонам, механизмы немедленного удаления).

6️⃣ Комиссия обязуется разработать стандартизированную форму упрощенной технической документации, адаптированную к нуждам малых и средних компаний, а также предоставляется возможность соблюдать определенные элементы системы менеджмента качества в упрощенном порядке (ст.11.1., ст.17(2)).
7️⃣Вводятся более мягкие штрафы для компаний до 750 сотрудников и оборотом < €150 млн.( изменения ст. 99).
8️⃣Возможность создания регуляторной песочницы на уровне ЕС (EU-level sandbox), управление которой будет осуществлять Офис ИИ, предназначается для ИИ-систем, подпадающих под его исключительную компетенцию по надзору (ст. 75(1)). Приоритетный доступ для малых и средних компаний. +Требование для государств-членов укреплять трансграничное сотрудничество между национальными песочницами
9️⃣Новое Приложение XIV, которое содержит детализированный список кодов, категорий и соответствующих типов ИИ-систем для целей процедуры нотификации.

Главными объектами проверок будут: документация, оценка рисков и прозрачность технических решений.

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Как адаптировать ИИ-сервис для нового рынка

Адаптация ИИ-сервиса - это не перенос модели в новую страну, а переосмысление того, как локальные пользователи будут взаимодействовать с вашим проектом в их условиях (культурный контекст, навыки пользователей, слабая инфраструктура, особенности законодательства и т.д.).

🔍 Практические рекомендации, основанные на принципах human-centered design:
1️⃣ Проектирование под разные группы пользователей (Equity), т.е. «универсальный» сценарий не будет работать.
Пример: Meta No Language Left Behind (Meta Platforms признана экстремистской, её деятельность на территории России запрещена)работает в регионах с ограниченной инфраструктурой, поддерживает 200+ языков, включая языки с низкой цифровой представленностью, что расширяет доступ к ИИ там, где раньше технологий просто не было.


2️⃣Учитывайте цифровое неравенство (Digital Inclusion), т.е. оптимизируйте ИИ-модель и UX/UI под слабый интернет, старые устройства и низкий уровень цифровой грамотности (например может работать локально на устройстве, без постоянной связи с облаком)
Примеры: сервисы распознавания речи и синтеза речи “on‑device”, которые особенно полезны, когда соединение прерывистое или отсутствует.
ВОЗ (WHO)
запустила инициативу по внедрению ИИ-инструментов диагностики и помощи в странах с низким доходом (“AI for Health”), модели тестируются для работы офлайн, на слабых устройствах.


3️⃣ Учитывайте культурные и языковые контексты (Cultural & linguistic relevance). Работайте с локальными экспертами, переводчиками и исследователями, чтобы ИИ учитывал местные нормы и варианты речи.
Пример: Статья MELLA: Bridging Linguistic Capability and Cultural Groundedness for Low-Resource Language MLLMs


4️⃣Делайте ИИ‑сервисы действительно доступными (Accessibility-by-Design), тестируйте сервис с пользователями разных возрастов, способностей, с разными типами инвалидности, применяйте voice-first и adaptable UI.
Пример: Приложение Find My Things от Microsoft , которое позволяет людям с нарушением зрения обучить модель распознавать их личные вещи и затем находить их с помощью аудио, тактильной и визуальной обратной связи


5️⃣ Учитывайте пересекающиеся факторы (Intersectionality), анализируйте, как возраст, гендер, география, инвалидность и уровень образования влияют на доступ к ИИ-сервисам.
Пример: Отчёт Unesco показывает, что LLM показывали женщин в домашних или "подчиненных" ролях.

6️⃣ Валидируйте модель на локальных данных (Data), стройте модели на локальных датасетах и тестируйте качество ИИ-выводов в конкретном регионе (ошибки, отклонения и модели поведения)
7️⃣Проектируйте устойчивые AI-сервисы (Sustainability), учитывайте перебои связи, нехватку кадров и ограничения бюджетов.

8️⃣Опирайтесь на реальных пользователей, а не на “усреднённых пользователей” (Human-centered design), проверяйте предположения через исследования, интервью и прототипы (интерфейс и модель должны отражать реальные потребности).
Пример: Статья How the communication style of chatbots influences consumers’ satisfaction, trust, and engagement in the context of service failure


9️⃣ Используйте системное мышление (Systems Thinking), учитывайте инфраструктуру, доверие к институтам, законы об ИИ, вопросы безопасности и защиты данных.

📌 Что еще почитать:
🔹Human-Centered Design (HCD)|Interaction Design Foundation;
🔹AI in Service Design: A New Framework for Hybrid Human–AI Service Encounters|Marzia Mortati, Giovanna Viana Mundstock Freitas;
🔹Riding the wave: from human-centered design to human-centered AI;
🔹The Future of Service Design in the Age of AI| podcast;
🔹Human-centered design for digital services|UNDP;
🔹Fair human-centric image dataset for ethical AI benchmarking
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Ваши пользователи из Индии? Смотрим новые AI Guidelines

В ноябре MeitY (Министерство электроники и ИТ) опубликовало India AI Governance Guidelines 2025, которые задают будущие обязательные стандарты.

Что важно, если вы создаёте или деплоите ИИ-продукты для индийских пользователей:
1️⃣Вводится риск-ориентированный подход: компании должны понимать, какой вред может нанести их система, и уметь объяснить принципы работы модели. Даже если ваш продукт не относится к категории«высокорисковый», от вас ожидают базовой документации (описание модели, используемых данных, контроль версий, результаты тестов на безопасность и устойчивость).
2️⃣Пользователям нужно чётко обозначать, где именно работает ИИ, какие есть ограничения, и как они могут запросить человеческое вмешательство. Особенно это важно для финтеха, маркетплейсов, edtech и сервисов персонализации.
3️⃣Будут вводиться требования по обнаружению и маркировке deepfake/генерированного контента. Если ваш продукт создаёт изображения, аудио или видео, то потребуется встроить систему метаданных.
4️⃣Любая система ИИ, работающая с персональными данными индийских пользователей, должна соответствовать требованиям Digital Personal Data Protection Act (правовые основания обработки, уведомления, управление согласиями, ограничения на передачу данных за рубеж).
5️⃣Будут приняты обязательные отраслевые стандарты. Например, банковский сектор уже получил рекомендации от комитета RBI (FREE-AI) по управлению ИИ.
6️⃣Содержиться Action Plan, включающий 20 мер, где MeitY определяет ожидаемые шаги в краткосрочной, среднесрочной и долгосрочной перспективе. В Приложениях представлены: действующее законодательство Индии, применимое к системам ИИ, перечень добровольных фреймворков для снижения рисков, связанных с ИИ, стандарты, опубликованные/разрабатываемые BIS.

Также обратите внимание на опубликованные министерством Правила защиты цифровых персональных данных ( с 25 страницы на английском языке), есть полезные примеры.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Как тёмные паттерны обманывают LLM-веб-агентов: системное исследование

В статье "Investigating the Impact of Dark Patterns on LLM-Based Web Agents" (Devin Ersoy и другие) представлено первое исследование по влиянию тёмных паттернов на процесс принятия решений универсальными веб-агентами на основе LLM.
Команда разработала фреймворк LiteAgent, который запускает любого веб-агента на сайте и фиксирует все его действия. Для тестирования была создана управляемая среда TrickyArena (e-commerce, health portal, streaming, news) с включаемыми/выключаемыми тёмными паттернами.
Оценивали 6 популярных агентов ( Skyvern, DoBrowser, BrowserUse, Agent-E, WebArena и VisualWebArena), используя три модели: Claude 3.7 Sonnet, GPT-4o, Gemini 2.5 Pro.

👀 Выводы:
🔹При наличии всего одного тёмного паттерна агенты ошибаются и “попадаются” в 41% случаев.
🔹Самые «сильные» агенты нередко оказываются наиболее подвержены тёмным паттернам.
🔹 При одновременном включении нескольких тёмных паттернов резко падает точность выполнения задач. Некоторые паттерны, будучи неэффективными по отдельности, становятся эффективными в комбинации.
🔹 Изменение визуальных и технических характеристик паттерна (цвет, форма, структура DOM) влияет по-разному.Часть агентов не замечает разницы, но у других значительно падает успешность задач и растёт уязвимость.
🔹 Тесты с включённым vision показали, что у большинства агентов падает успешность и растёт уязвимость к паттернам.
🔹Противодействие через подсказки (prompts) работает ограниченно, эффект показали только детальные, пошаговые инструкции о том, как избегать определенного темного паттерна, снижая уязвимость в среднем лишь на ~32%

Ошибки агента могут стоить вам слишком дорого, а чем сложнее сайт, тем выше риск. Примеры таких рисков и рекомендации для пользователей читайте в посте.

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
OWASP AI Testing Guide v1

OWASP выпустила первый открытый стандарт AI Testing Guide v1 для надежности ИИ-систем и LLM.
Повторяемые тестовые случаи, которые оценивают риски в следующих областях:
🔹AI Data layer ( проверка качества данных, data-poisoning (отравление), приватности, устойчивости к дрейфу данных).
🔹AI Model layer ( robustness / adversarial testing: устойчивость к adversarial-вводам, проверка на backdoor, model-stealing, model-inversion, оценка стабильности модели, проверка explainability/interpretability).
🔹AI Application / API layer (тесты для сервисов: fuzzing / injection, валидация вводов, проверка авторизаций, ограничений, устойчивости к неправильно сформированным или злонамеренным запросам).
🔹AI Infrastructure / MLOps / Deployment layer ( безопасность пайплайнов: CI/CD, хранение секретов, управление зависимостями, контейнеризацией, мониторинг, логирование, безопасное развёртывание и обновления).
🔹Continuous testing & governance ( регулярные тесты, мониторинг дрифтов (данных и модели), проверка изменений, отчётность, контроль качества и соответствие требованиям безопасности / этики на протяжении всего жизненного цикла системы).

#AIShelf #BehindTheMachine
————
@pattern_ai
ЕС требует новых правил для защиты детей, в том числе от ИИ

Европарламент принял резолюцию о защите детей онлайн и подробно обозначил риски генеративного ИИ, чатботов-компаньонов и AI-алгоритмов, с которыми сталкиваются несовершеннолетние. Резолюция не является законом, но задаёт направление для будущих инициатив Еврокомиссии и усиленного применения AI Act.

👀Основное предложение:
🔹 установить общеевропейский «цифровой минимальный возраст» ( 16 лет для доступа к онлайн-платформам).
🔹13 лет предлагается закрепить как абсолютный нижний порог.
🔹 Подростки 13–16 лет смогут пользоваться платформами только с разрешения родителей.
🔹Запреты на рекомендательные алгоритмы ( лутбоксы и другие игровые механики, напоминающие азартные игры), а также отключение или запрет по умолчанию наиболее вызывающих привыкание функций для лиц младше 18 лет ( бесконечная прокрутка, автовоспроизведение, обновление по нажатию и циклы вознаграждений).
🔹В контексте ИИ Парламент называет Кодекс практики для GPAI (foundation models) краеугольным элементом для выполнения AI Act в части системных рисков и защиты детей, что является важным сигналом для разработчиков foundation-моделей, призывает поддерживать исследования «AI for children» и «with children», уменьшать цифровое неравенство.
🔹 Государства должны назначить компетентные органы для контроля запретов AI Act, расследовать деятельность компаний с ИИ-системами, которые могут:
- эксплуатировать уязвимость детей,
- искажать поведение,
- причинять значимый вред.

🔍 Выделяются следующие риски:
🔹Генеративный ИИ доступен детям слишком легко. Парламент предупреждает о рисках манипуляции, антропоморфизма, дипфейков, эмоциональной зависимости и искажении реальности. Уже зафиксированы трагические случаи, включающие суициды и финансовые потери.
🔹 Дети становятся источником данных. AI-сервисы могут собирать и обрабатывать детские данные без информированного согласия ребёнка или родителей, что является нарушением GDPR.
🔹Рост вредоносного контента. Deepfake-сексуализация, nudity apps и использование изображений детей создают угрозы безопасности и достоинству, усиливают буллинг и гендерное насилие.
🔹 Алгоритмы вовлечения и аддиктивный дизайн (психология моделей поведения и привычек человека). Бесконечные ленты, autoplay и рекомендации усиливают зависимость, мешают развитию и будут регулироваться строже.

Главный посыл, что любое AI-взаимодействие с детьми будет считаться зоной повышенного регулирования и аудитов со стороны регуляторов и требований ответственного подхода от компаний.

📌 Примерный чек-лист по созданию AI-продуктов для детей

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Утечка Mixpanel/OpenAI или как аналитика снова подвела

OpenAI подтвердила инцидент утечки у стороннего провайдера аналитики Mixpanel.
Mixpanel обнаружил несанкционированный доступ 9 ноября 2025 года, уведомила OpenAI 25 ноября.

Затронутые данные (только API-продукты OpenAI):
- имя, которое было предоставлено в учетной записи API;
- адрес электронной почты, связанный с учетной записью API;
- примерное местоположение на основе API браузера пользователя (город, штат, страна);
- OC и браузер, используемые для доступа к учетной записи API;
- ссылающиеся сайты;
- идентификаторы организаций или пользователей, связанные с учетной записью API.
Нет полной информации о том, как долго был доступ, сколько пользователей затронуто, ограничилась ли утечка объявленными полями.
OpenAI немедленно удалила Mixpanel и начала проверку всех сторонних поставщиков.

👀 В чем риск для пользователей?
Эта комбинация данных точно подтверждает, что вы являетесь клиентом OpenAI API = отличная база для персонализированного фишинга и попыток выманить API-ключи.
Если пользователь использовал то же имя пользователя (email) и простой пароль на другом сайте = риск взлома.

Что сделать пользователям OpenAI API:
▪️ включите MFA/2FA (+ на почте, связанной с аккаунтом и на всех корпоративных учетных записях, связанных с API);
▪️проявите высокую бдительность к фишингу ( не переходите по ссылкам в подозрительных письмах, не вводите пароли или ключи API в ответ на email/смс/чат, проверяйте домен отправителя);
▪️ротация ключей API ( сгенерировать новые ключи API и отозвать старые, особенно если вы беспокоитесь о том, что ключи могли быть случайно зарегистрированы в аналитических событиях).
▪️ограничьте права ключей и используйте scoped keys;
▪️убедитесь, что все разработчики и администраторы вашей организации, использующие API, проинформированы о риске фишинга.

Инцидент подтверждает, что сторонние поставщики аналитики являются одними из самых слабых звеньев.

✏️ Уроки, которые необходимо извлечь на будущее:
🔹Минимизация данных. Вы действительно отправляете email в сторонние аналитические системы? В 95% случаев нет необходимости. Cобирайте только те данные, которые абсолютно необходимы для выполнения задачи.
🔹Карта потоков данных. У вас должна быть точная карта того, какие PII передаются каждому сервису.
Если вы не знаете, то это главный риск.
🔹Аудит поставщиков. Есть ли у них MFA для всех сотрудников? Какой план реагирования на инциденты согласован с вашим? Посмотрите на примере Mixpanel.
🔹Сегментация и изоляция сред. Обеспечивает ли архитектура систем полную изоляцию данных? Если взламывают систему аналитики, гарантирует ли это, что никакие данные, кроме аналитических, не могут быть скомпрометированы (например, ключи API, пароли)?
🔹Скорость реакции на инцидент. В этом кейсе прошло 16 дней.....У вас должен быть план на случай утечки: отзыв ключей, уведомление пользователей, восстановление доступа, ограничение дальнейших рисков.

#UXWatch #BehindTheMachine
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👏2
Первый день зимы, а значит пора оглянуться назад и подвести итоги за осень.
😵‍💫 Pattern_AI Recap: обзор постов за сентябрь-ноябрь

Подборка по ключевым рубрикам:

⚖️ #LawAndDisorder
🔹Может ли ИИ быть автором, что говорят законы сегодня;
🔹
Как использовать ИИ в играх легально;
🔹
Как использовать ИИ в рекламе и не нарушить закон;
🔹
Как запустить ИИ- блогера и не нарушить закон;
🔹
Попытки платформ обеспечить прозрачность ИИ-контента;
🔹
Чек-лист по этическим и юридическим стандартам для операторов ИИ-блогеров и ИИ-контента;
🔹Новые законы в США по регулированию ИИ-компаньонов;
🔹
Нидерланды упростили EU AI Act до гайда в 21 страницу ;
🔹EU AI Act: Еврокомиссия предлагает важные изменения;
🔹ЕС требует новых правил для защиты детей, в том числе от ИИ;
🔹Италия первой в ЕС вводит уголовную ответственность за преступления с использованием ИИ;
🔹Обновлены рекомендации EDPS по генеративному ИИ;
🔹
Как превратить европейскую отчётность в инструмент доверия и качества;
🔹
Маркировка ИИ контента в Китае стала обязательной;
🔹
Почему нам стоит посмотреть на опыт Египта в AI-регулировании;
🔹
У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ";
🔹Ваши пользователи из Индии? Смотрим новые AI Guidelines;
🔹
AI Governance в Африке;
🔹
AI Regulation Global Guide или правила игры в 12 юрисдикциях;
🔹
Кейс GEMA vs OpenAI или как ИИ выучил песни слишком хорошо;
🔹
Deepfake в суде (дело Mendones v. Cushman & Wakefield);

🔍 #UXWatch
🔹Как адаптировать ИИ-сервис для нового рынка;
🔹18+ или ChatGPT скоро “повзрослеет” и это не совсем безопасно;
🔹Риски использования ChatGPT Atlas;
🔹
Троянский конь Meta Camera Roll;
🔹
Эмоциональная зависимость от ChatGPT;
🔹
Как ИИ меняет поведение людей и наоборот;
🔹Как тёмные паттерны обманывают LLM-веб-агентов;
🔹
Катастрофические риски ИИ;
🔹
Когда промпт становится уликой;
🔹
ИИ в медицине: между потенциалом и реальностью;
🔹
ИИ в школах: урок Ирландии по безопасному внедрению;
🔹
ИИ и инклюзивное образование;
🔹
Чистые наборов данных или как OECD формирует доверие к ИИ на практике ;
🔹
Автоматизация исследовательской работы от Deutsche Bank;
🔹
Насколько опасен ИИ в юриспруденции;
🔹10 минут вместо 10 часов, а как честно биллинговать работу с ИИ, например юристам?
🔹
Утечка Mixpanel/OpenAI или как аналитика снова подвела;

🎙#AIShelf
🔹Как получить реальный ROI от ИИ: отчет и советы от Google;
🔹
Первая «законопослушная» AI-модель Европы;
🔹
Покупка ИИ-инструментов: на что обратить внимание перед подписанием контракта;
🔹
Как превратить Office в умный редактор;
🔹
AI Leadership Blueprint: чек-листы, метрики и готовые шаблоны для компаний и гос.оранов от Университета Юты;
🔹
Как на самом деле используют ChatGPT;
🔹
AI in Courts - Insights from South Korea, Australia, and Singapore;
🔹
Как ЕС учиться измерять мощность и риски GPAI;
🔹
Инструмент проверки соответствия AI Act от Еврокомиссии;
🔹
Шаблон политики в области ИИ от Австралийского правительства;
🔹
Как разработчики ИИ управляют рисками: первый сводный отчёт по Хиросимскому процессу;
🔹
Исследование Microsoft: как используется ИИ;
🔹
The Annual AI Governance Report 2025: Steering the Future of AI;
🔹
Как злоумышленники используют ИИ в 2025 году;
🔹Отчет "GenAI, Fake Law & Fallout";
🔹
Новое Руководство по управлению рисками систем ИИ от EDPS;
🔹65 сценариев использования ИИ-агентов от Stack AI;
🔹Лекции Гарварда про ИИ бесплатные;

👌 #BehindTheMachine
🔹Первая атака, проведённая ИИ-агентом;
🔹
OWASP AI Testing Guide v1;

📚#TalkPrompty
🔹Промпт для проверки DPA от DataGrail;
🔹
Sora 2 и как создавать своих ИИ-блогеров;
🔹
Библиотеки промптов;
🔹Обучающие гайды по ИИ от Google, Perplexity и OpenAI;

Читайте, пересылайте, возвращайтесь к важному.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Managing data after death in 2025.pdf
676.2 KB
Наши данные после смерти или "воскреснуть" с помощью ИИ

Французский регулятор по защите данных (CNIL) опубликовал отчет «Our Data After Us», который посвящён использованию цифровых данных после смерти ( управление аккаунтами, передача данных, появление новые сервисов, в том числе AI‑агентов, натренированных на данных покойных).
👀 Приводятся данные опроса Harris Interactive:
- 1/3 французов уже сталкивались с контентом умерших в соцсетях,
- 50% респондентов хотела бы, чтобы их собственные социальные публикации удалялись после смерти
- 50% респондентов указали, что сортировку или удаление должен выполнять родственник или потомок, 22% - они сами, 14% - доверенная третья сторона (поставщик услуг, нотариус) и 13% - непосредственно платформа, на которой размещены данные.

Изучены 20 самых востребованных сервисов и составлена картография маршрутов пользователя для управления посмертными данными.

🔍Риски и вопросы, которые возникают:
▪️Связанные с "семьей" ( эмоциональные, моральные). Цифровые копии умерших ( “deadbots” / “ghostbots”) могут вызывать сильные эмоциональные переживания у родственников, осложнение процесса горевания ( в этом вопросе между специалистам ведутся споры легче или сложнее), легкий путь к мошенническим действиям со стороны третьих лиц.
▪️Проблемы приватности и безопасности данных. Посмертные биометрические или медицинские данные (например, данные мозга, фото, переписки) особенно чувствительны. Также посмертные данные содержат информацию о родственниках, друзьях и коллегах , что делает их уязвимыми.
+ новый «парадокс конфиденциальности», когда человек фактически «возрождается» без его явного согласия. + этические вопросы (можно ли создавать цифровых аватаров умерших без согласия при жизни? Кто имеет право это запрещать?)
▪️Репутационные. Боты могут стать автономными, формируя реплики, поведение и высказывания, которые уже не совпадают с тем, как человек жил и выражал себя при жизни.
▪️Культурные и религиозные аспекты.Не все культуры или религии одинаково воспринимают идею цифрового "воскрешения". В некоторых традициях это может быть воспринято как неуважение к умершему или к его памяти.
▪️Отсутствие контроля. Большинство платформ не объясняют, что происходит с данными после смерти (архивируются/ удаляются/ используются для обучения ИИ).
▪️Материальные аспекты. Инфраструктура хранения “цифрового наследия” требует постоянного технического обслуживания.
▪️ Отсутствие и техническая сложность создания транснациональных систем и механизмов регулирования, связанных с посмертными данными.

Между тем рынки, связанные с «цифровой смертью» ( DeathTech), уже существуют и активно растут. В 2024 году глобальный рынок был оценён примерно в USD 22.46 млрд, а к 2034-му ожидается рост до ~USD 78.98 млрд.

Со стороны экспертов
есть предложение про право контролировать воссоздание своей личности после смерти и включение в завещание просьбы не становиться роботом («do not bot me»), наследникам дать исключительное право создавать/разрешать/ запрещать deadbots и конкурирующих версий любому другому лицу, включая фанатов знаменитостей.

Продуктовым командам необходимо помнить про эти данные и встраивать соответствующие механизмы:
▪️лёгкого управления «посмертным сценарием» (удаление, архив, отказ от использования данных);
▪️информирования пользователей о рисках «digital resurrection»;
▪️ограничения/запрета на коммерческое использование deadbots без согласия;
▪️чётких UX-путей для тех, кто решает, что делать с цифровым наследием.

Готовы ли мы к последствиям тренда на “оживление” фотографий ( и не только) людей, которых уже нет? Хотели бы вы так "воскреснуть" ?

Что почитать:
🔹The Ethical Frontier of Generative Artificial Intelligence and Posthumous Data Protection;
🔹Chilling AI ‘ghostbots’ of the dead could ‘digitally stalk’ bereaved from beyond the grave, experts warn;
🔹Digital afterlife leaders: professionalisation as a social innovation in the digital afterlife industry;
🔹Governing Ghostbots;
🔹Draft Guidelines on Data Protection in the context of neuroscience;

#UXWatch
————
@pattern
Please open Telegram to view this post
VIEW IN TELEGRAM
😐1
Draft_Implementing_Act_AI_regulatory_sandboxes.pdf
199.9 KB
Проект правил о запуске AI-песочниц от Еврокомиссии

Еврокомиссия вынесла на общественное обсуждение проект правил, которые объясняют, как именно должны работать регуляторные AI-песочницы, предусмотренные AI Act.
Прием замечаний открыт до 6 января.
Предполагается, что до 2 августа 2026 года в каждой стране ЕС должна появиться как минимум одна работающая песочница.

👀 ИИ-песочница (sandbox) - это контролируемая среда, где компании могут тестировать, обучать, валидировать и испытывать свои модели под наблюдением специалистов и надзорных органов.
🔹Участие для SMEs и стартапов должно быть бесплатным кроме «исключительных затрат», которые могут быть компенсированы справедливо и пропорционально.
🔹Процедура подачи заявки, участия, выхода и завершения должна быть понятной, прозрачной и унифицированной по всему ЕС.
🔹После завершения участник может получить «свидетельство» (written proof) и «exit report», описывающий результаты, опыт и оценки рисков. Это может помочь при дальнейшем соответствии законодательству или при сертификации. НО не гарантирует автоматически «зеленый свет» для выхода на рынок.
🔹Если ИИ-проект обрабатывает персональные данные, то национальные органы защиты данных (DPA) должны быть вовлечены в работу.

Почему полезно для разработчиков:
Участие в "песочнице" может стать безопасным способом проверить свои решения, повысить качество продукта, получить обратную связь регулятора ещё до выхода на рынок и тем самым снизить риски.

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
AI impact assessment tool_1.docx
419 KB
AI Impact Assessment Tool от Австралии

Агентство цифровой трансформации (DTA) продолжает радовать подробными и практичными гайдами.
Гайд + AI impact assessment tool +чек-лист призваны помочь госзаказчикам и проектным командам закупать, проектировать и использовать продукты и услуги, связанные с ИИ, при строгом учёте рисков этического, правового, социального характера.

Оценку воздействия можно взять за образец и даже при помощи ИИ сократить, оставив необходимое именно для вашего проекта.
Подходит как для сложных, так и для типичных кейсов (градация минимальный/средний/высокий уровень риска).
Инструмент оценки воздействия ИИ:
▪️ показывает, есть ли риски для людей и данных;
▪️помогает оценить прозрачность и справедливость системы;
▪️подсказывает, где нужно усилить контроль человека;
▪️предлагает структуру, чтобы документировать каждый шаг.
В примере документа предлагается зафиксировать: кто отвечает за оценку, кто участвует, технические характеристики ИИ, как используются данные, какие решения принимает система, и как обеспечивается контроль, мониторинг, документация.

📌Шаблон политики в области ИИ от Австралийского правительства

#AIShelf #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Инструменты оценки воздействия AIIA, FRIA и DPIA чем отличаются
Ч.1.

Инструменты оценки воздействия AI Impact Assessment (AIIA), Fundamental Rights Impact Assessment (FRIA) и Data Protection Impact Assessment (DPIA) являются ключевыми механизмами ответственного внедрения технологий, но отличаются по своей цели, сфере применения и правовой базе.

Как легко запомнить:
🔹AIIA про полный структурированный анализ ИИ как системы.
🔹FRIA про риски, связанные с использованием ИИ для всех основных прав субъектов.
🔹DPIA про риски, связанные с обработкой персональных данных.

Какой механизм необходимо выбрать и для чего разберем дальше в постах. Если не актуально, то сегодня не читаем.

#LawAndDisorder
————
@pattern_ai
AI Impact Assessment для чего необходима
Ч.2.


🔹AI Impact Assessment (оценка воздействия ИИ) - широкая, комплексная оценка всех рисков, связанных с ИИ (этических, социальных, технических, экономических и правовых).

Необходима для:
▪️управления рисками;
▪️соблюдения нормативных требований;
▪️повышения прозрачности и подотчетности;
▪️демонстрации общественности и заинтересованным сторонам, что организация серьезно относится к этическим вопросам и воздействию ИИ.

В некоторых странах уже обязательна для систем, используемых в гос. услугах (н-р, Канада), также используется организациями, желающими придерживаться стандартов ответственного ИИ (Responsible AI) или при наличии внутренних корпоративных требований.
В ЕС разработчикам корпоративных AI-решений (например, в сфере финансовых технологий или здравоохранения) предлагается
ALTAI и подобные ему инструменты для классификации риска своей системы (например, является ли она "высокого риска" в соответствии с AI Act), и самооценки по семи ключевым требованиях к надежному ИИ, в том числе для включения функций объяснимости и справедливости на этапе разработки, а не после завершения.


📌 Подборка инструментов:
▪️Algorithmic Impact Assessment (AIA) tool| Canada;
▪️Artificial Intelligence Impact Assessment | Government of the Netherlands;
▪️A system-level AI Impact Assessment (AIIA) |RAI Institute UK;
▪️Artificial Intelligence Impact Assessment Tool|Australia;
▪️The Assessment List for Trustworthy Artificial Intelligence;
▪️Responsible AI Toolbox|Microsoft;
▪️AI Risk Management Framework |NIST;
▪️ISO/IEC 42005:2025 Information technology — Artificial intelligence (AI) — AI system impact assessment;
▪️Co-designing an AI Impact Assessment Report Template with AI Practitioners and AI Compliance Experts;

#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2