Pattern AI – Telegram
Pattern AI
276 subscribers
77 photos
5 videos
45 files
235 links
Искусственный интеллект изучает нас. Мы изучаем ИИ.
Отслеживаем, как меняется регулирование ИИ.
Разбираем манипуляции, UX-паттерны и алгоритмические ловушки.
Учимся применять ИИ: осознанно, этично и с пользой.
Download Telegram
AI Incident Tracker от FireTail

Открытая база инцидентов безопасности, связанных с искусственным интеллектом ( утечки данных, уязвимости, слабые места в ИИ-системах).
Цель трекера - помочь специалистам по безопасности, разработчикам и исследователям видеть реальные случаи проблем, извлекать уроки и усиливать защиту.
Данные доступны в виде таблицы:
▪️название,
▪️тип события,
▪️описание проблемы,
▪️последствия,
▪️ссылки на сами кейсы.

📌 Пост со списком всех трекеров ИИ (регулирование, иски, галлюцинации, риски и т.п.)

#AIShelf
Please open Telegram to view this post
VIEW IN TELEGRAM
Регулирование ИИ уже в Узбекистане

Президент подписал закон № ЗРУ-1115, который вносит масштабные правки в законы «Об информатизации» и «Кодекс об административной ответственности».
👀 Вступил в силу со дня его официального опубликования 21 января 2026 года.
Искусственный интеллект - комплекс технологических решений, дающий возможность имитации знаний и навыков человека, самостоятельного обучения, поиска решений и получения результатов, сопоставимых с результатами умственной деятельности человека при выполнении конкретных задач.

🔹Решения, имеющие юридическое значение и влияющие на права и свободы человека, НЕ МОГУТ приниматься исключительно на основе выводов ИИ.

🔹Установлено требование, чтобы системы ИИ не наносили ущерб жизни, здоровью, чести, достоинству и свободе граждан и не должны нарушать его иные неотъемлемые права.

Изначально в проекте закона речь шла о введении обязательной маркировки контента. В итоговом тексте мы видим общую формулировку.
НО на практике, например, если контент, созданный ИИ, вводит человека в заблуждение (например, фейковая новость или дипфейк), это уже считается нарушением прав и достоинства граждан, что прямо запрещено новой статьей.

Конкретные требования увидим в подзаконных актах.

🔹Незаконная обработка персональных данных с использованием технологий искусственного интеллекта, их распространение в средствах массовой информации, сетях телекоммуникаций или всемирной информационной сети Интернет влечет:
▪️штраф от 50 до 100 базовых расчетных величин (примерно от 20,6 млн до 41,2 млн сумов);
▪️конфискацию технических средств, использованных при совершении правонарушения.

✏️ Примеры для бизнеса:
▪️Маркируйте контент. Если вы постите дипфейк или сгенерированное фото как реальное, то вы нарушаете закон. Пишите просто: «Создано нейросетью».
▪️ Проверьте основания сбора ПД, в том числе согласия. Например, если ваш бот собирает ФИО или телефоны клиентов для обработки через ИИ, то проверьте пользовательское соглашение.
▪️ Любой результат работы ИИ, который влияет на права других людей, должен проверять ваш сотрудник.


#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Как учиться с ИИ

🔹ChatGPT Study Mode - сократические вопросы, советы и подсказки для самоанализа, структурированные ответы, уроки адаптированы под уровень пользователя на основе вопросов, оценивающих навыки и память из предыдущих чатов, квизы и открытые вопросы с персонализированной обратной связью.
🔹Gemini Guided Learning - может учить с нуля и помочь разобрать ваш конспект ( выбрать режим в списке - загрузите материалы - напишите цель - идите по вопросам).
🔹 Learn your way with Google- уже даны блоки по биологии, астрономии, социологии и т.д.
🔹Oboe - создает интерактивный курс по теме.
🔹 NotebookLM - делает саммари видео, статей, формирует конспекты, таблицы.

И всем «ни пуха ни пера» на экзаменах, зачетах и каких-то своих испытаниях
Выражение «ни пуха ни пера» изначально использовалось охотниками перед охотой. Оно было своеобразным пожеланием удачи и успеха в добыче дичи. Слово «пух» символизировало птицу, а слово «перо» - зверя. Таким образом, говоря «ни пуха ни пера», охотник фактически желал другому удачной охоты, чтобы тот вернулся домой с добычей.

Однако существует традиция отвечать на такое пожелание особым образом: «К черту!». Это связано с суеверием, согласно которому прямое пожелание удачи могло привлечь внимание злых духов или сглазить удачу. Поэтому произносящий фразу «ни пуха ни пера» фактически давал возможность другому человеку символически отвергнуть любые негативные влияния, отправив их «к черту».

Со временем эта фраза стала использоваться в повседневной жизни и приобрела более общий смысл пожелания удачи и успехов в любом начинании.

#AIShelf
————
@pattern_ai
👍1
ИИ и биометрия в ЕС: что запрещено, что относится к высокому риску и что требует только уведомления

Биометрические данные совместно с их обработкой ИИ активно используются бизнесом ( сканирование лица для доступа, определение возраста в интернет-магазинах, распознавание голоса в службе поддержки, анализ эмоций в видеосвязи). AI Act оценивает уровни рисков таких систем по функции и контексту.

👀
Биометрические данные - персональные данные, полученные в результате технической обработки физических, физиологических или поведенческих характеристик человека (лицо, голос, походка, манера набора текста).


🔹Биометрическая идентификация («кто это?»)
Запрет на удалённую идентификация в реальном времени в публичных местах правоохранительными органами.
К высокому риску (Annex III No. 1 AI Act) относятся, например, контроль доступа по лицу в офис, распознавание клиентов при входе в магазин, идентификация по голосу в банке.
Ряд жестких требований. Нет отдельного про уведомление.

🔹Биометрическая категоризация («к какой группе относится?»)

Запрет на системы, если нацелены на определение этнического происхождения, религии, состояния здоровья, политических убеждений или сексуальной ориентации.

Относятся к высокому риску (пол, возраст, цвет волос, цвет глаз, татуировки или личные предпочтения и интересы), свой ряд требований + прозрачность ст. 50 (3) AI Act. Например, уведомить при определении возраста и пола покупателей, поведенческом профилировании клиентов, классификации внешности.

Исключение: системы ИИ, неразрывно связанные с другими коммерческими услугами в качестве чисто вспомогательной функции по объективным техническим причинам. Например,
виртуальная примерка одежды или очков в интернет-магазине как вспомогательная функция.
В таком случае только уведомление пользователей.

🔹Распознавание эмоций («что он чувствует?»)

Запрет на анализ эмоций на рабочем месте или в учебных заведениях ( например, на собеседованиях, эмоций учеников во время обучения). Исключения: по медицинским причинам или соображениям безопасности при наличии высоких гарантий.

Относятся к высокому риску, требования для таких систем + требования о прозрачности (уведомление пользователей). Например, когда система ИИ, которая автоматически распознает такие эмоции, как страх, гнев или удивление, на основе выражения лица, жестов и голоса (анализ настроения клиентов в колл-центрах или во время онлайн-консультаций).

🔹Скрейпинг
Запрет на неизбирательное массовое считывание (например, веб-краулерами или ботами) изображений лиц из интернета, социальных сетей или записей видеонаблюдения с целью создания или расширения баз данных распознавания лиц.
НО запрет не распространяется на другие биометрические данные, такие как голос или отпечатки пальцев. Кроме того, запрещено только создание базы данных для целей распознавания лиц, а другие цели, такие как обучение генеративного ИИ, сами по себе не запрещены.

❗️Примеры требований для систем высокого риска: построение системы управления рисками, обеспечить качество данных, подробная техническая документация, человеческий контроль, заявленная точность, устойчивость к атакам, автоматическая фиксация работы и ключевых решений, проведение аудитов и расследование инцидентов, проведение оценки соответствия, внесение в реестр ЕС для ИИ высокого риска.

Важно определить не «есть ли у вас биометрические данные», а что именно делает система и в каком контексте. Ошибка в квалификации ведет к рискам и запрету со стороны регулятора.

📌
▪️Members’ Viewpoints: The Relationship Between Biometrics and Artificial Intelligence (AI)| Biometrics Institute
;
▪️Biometrics & AI – Explained|CCIA;
▪️Biometrics in the EU: Navigating the GDPR, AI Act| IAPP;
▪️Artificial Intelligence – Questions and Answers| European Commission;

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Grok: Еврокомиссия переходит к расследованию

Европейская комиссия начала новое официальное расследование в отношении компании X в соответствии с Законом о цифровых услугах (DSA), плюс расширила текущее расследование.

👀 Будет оценено:
▪️соответствие алгоритмов Grok и системы рекомендаций X требованиям DSA;
▪️ эффективность превентивных мер по снижению рисков распространения незаконного, вредоносного и сексуализированного контента;
▪️ архитектура и процессы модерации, в том числе связанные с deepfake-изображениями, сексуальным контентом и материалами без согласия субъектов данных.

DSA предоставляет Еврокомиссии полномочия инициировать формальные процедуры против "Very Large Online Platforms (VLOPs)", если есть основания полагать, что платформа системно нарушает требования по управлению рисками, прозрачности алгоритмов и защите основных прав пользователей. Расследование может привести к юридическим обязательствам исполнения, штрафам и принудительным мерам для устранения нарушений по ст.34(1) и (2), 35(1) и 42(2) DSA.

ЕС переходит от наблюдения к принуждению. Следим дальше...

📌 В предыдущих "сериях":
▪️Отчет AI Forensic: фактическая картина злоупотреблений;
▪️
Еврокомиссия обязала X сохранить данные Grok;
▪️
Реакция государств на нарушения Grok;
▪️Реакция Бразилии;

#UXWatch #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Чему AI-креаторам стоит научиться из сделки Khaby Lame на $900+ млн

И пока одни борются с незаконными дипфейками, другие заключают беспрецедентную сделку в мировой медиа-индустрии. Хаби Лейм (Khaby Lame), один из крупнейших по количеству подписчиков создатель контента в TikTok, заключил соглашение, стоящее приблизительно $900–975 млн (пресс-релиз).

👀 Хаби Лейм станет контролирующим акционером, Rich Sparkle Holdings получит не просто долю в компании, а эксклюзивные глобальные права на использование образа Лейма ( "интеграцию цифровых двойников ИИ") на 3 года:
▪️Face ID, Voice ID и поведенческих моделей для разработки цифровых двойников Лейма для создания ИИ-контента;
▪️делать это в коммерческих целях - многоязычного, многоверсионного производства контента- (реклама, e-commerce, livestream-торговля);
▪️масштабировать без обязательного участия самого Лейма в каждой кампании (коммерческой деятельности в виртуальных прямых трансляциях различной продолжительности в разных часовых поясах).
Три ключевых рынка + скоординированная стратегия на США, Ближний Восток и Юго-Восточную Азию и как итог, амбициозный план с годовым объемом продаж в сфере онлайн-торговли до 4 миллиардов долларов.

✏️ Что все это значит для ИИ-креаторов и тех, кто строит персональные бренды:
🔹Имя, лицо, голос, манера поведения это не «что-то абстрактное», а набор прав, которые можно лицензировать, эксклюзивно передавать, ограничивать по сроку, целям и рынкам.
🔹Использование образа в ИИ-аватаре не равно обычной рекламе, не покрывается «стандартным согласием на контент», а требует отдельных условий ( кто обучает модель, кто владеет результатом, можно ли дообучать, можно ли использовать после расторжения договора).
🔹 Основные риски:
- несанкционированное использование биометрии (лицо, голос);
- нарушения авторских и смежных прав при создании творческого контента;
- потенциальные конфликты с нормами о защите персональных данных и правах на цифровой образ.
🔹Эксклюзивность стоит дорого, но меньше свободы. Подумайте над вариантами компенсации (гарантированный доход, строгие ограничения на злоупотребления и т.д).
🔹Не забудьте про новые вопросы, которые возникают насчет ИИ-двойников, например:
- Что происходит с ИИ-двойником после окончания договора?
- Можно ли использовать его в "adult"-контенте, спорных продуктах?
- Есть ли право на отзыв лицензии?

С учётом масштабов сделки и её инновационного характера, соглашение по сути становится новым вектором развития для контрактов с digital-творцами, включающим ИИ-идентичность.

📌 Посты:
▪️Как запустить ИИ- блогера и не нарушить закон;
▪️ Чек-лист по этическим и юридическим стандартам для операторов ИИ-блогеров и ИИ-контента;
▪️ Дипфейки и требования маркировки контента;

#LawAndDisorder #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Когда ИИ увеличивает охваты, а права на результаты творчества превращают в бизнес

В предыдущем посте мы говорили про сделку Khaby Lame на $900+ млн. Ключевая ценность возникла из контроля над правами на образ, контент и способами их коммерческого использования.
✏️ Исследование EUIPO (Ведомство по интеллектуальной собственности ЕС) подтверждает это цифрами:

1️⃣Как инфлюенсеры используют ИИ
▪️51 % инфлюенсеров в ЕС уже применяют ИИ часто или периодически (контент, кампании, аналитика).
▪️18 % пока не используют. Речь идёт о постепенной, но устойчивой интеграции.

2️⃣Ожидания на ближайший год
▪️ 56 % ожидают улучшения показателей и упрощения организации рекламных кампаний.
▪️ 49 % понимают, что контент-стратегии придётся адаптировать к среде, насыщенной ИИ.
▪️47 % опасаются переработки и повторного использования их контента системами ИИ в интересах третьих лиц.
▪️44 % считают виртуальных инфлюенсеров источником недобросовестной конкуренции.

3️⃣Кто выигрывает от оформленных прав
Инфлюенсеры, у которых зарегистрированы права на результаты интеллектуальной деятельности, находятся на более зрелой стадии профессионального развития:
▪️ 55 % имеют собственный бренд (против 24 % у тех, чьи права не оформлены);
▪️ 33 % управляют онлайн-магазином (против 14 %).

4️⃣Осознание рисков
72 % знают, что ИИ может нарушать IP-права, генерируя «похожие» результаты. У nano-инфлюенсеров осознанность ниже лишь 58 %.

5️⃣Ответственность есть, а публичного разговора нет
▪️48 % считают, что обсуждение важности соблюдения прав на результаты интеллектуальной деятельности не влияет на рост аудитории;
▪️17 % ожидают негативный эффект.
▪️При этом 96 % инфлюенсеров признают свою ответственность за влияние рекламного контента на подписчиков, а 97 % осознают риски для аудитории при продвижении неофициальных или нелегитимных товаров и контента.

Долгосрочный результат возникает там, где права оформлены, условия использования понятны, ИИ является инструментом усиления, а не источником утраты контроля.

📌
Как “агентные” ИИ-аккаунты переполняют TikTok и обходят модерацию
;
"Красота по алгоритму" или как кейс Vogue запустил новую волну дебатов в индустрии моды;
Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ?

#AIShelf #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Зачем МакКонахи регистрирует товарные знаки

Пока EUIPO фиксирует рост тревожности инфлюенсеров из-за переработки их контента ИИ, публичные лица используют разные юридические стратегии.

Мэттью МакКонахи зарегистрировал 8 товарных знаков в США, охватывающие его голос, образ и узнаваемые фразы, включая «alright, alright, alright».

👀 Цель: защититься от несанкционированного использования личности в ИИ-контенте ( deepfake-видео, синтетической рекламы, озвучки и имитаций).
Это первый случай, когда актер использовал закон о товарных знаках для защиты своего изображения от возможного неправомерного использования ИИ.

Планируется, что такие товарные знаки позволят быстро реагировать на ситуации, где ИИ-контент создаёт впечатление его участия, одобрения или аффилированности с брендом или продуктом.

📌 Посты:
▪️Как запустить ИИ- блогера и не нарушить закон;
▪️ Чек-лист по этическим и юридическим стандартам для операторов ИИ-блогеров и ИИ-контента;

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Kentucky_ vs_Characteer_ai_Complaint Motion and Order.pdf
4.7 MB
Кейс Kentucky vs Character. AI: дизайн AI чат -бота как предмет правовой оценки

Кентукки стал первым штатом США, который подал иск против Character. AI и ее чат-ботов из-за рисков для детей. Кентукки использует законы о защите прав потребителей и конфиденциальности данных, чтобы доказать, что небезопасный дизайн является обманной практикой.
👀 В жалобе представлены:
▪️ссылки на все известные нарушения
▪️примеры диалогов, где бот поощряет самоповреждение и суицидальные мысли у подростков;
▪️примеры сексуализированного контента и обсуждений запрещённых веществ;
▪️как возрастные ограничения легко обходились вводом фейковой даты рождения.

В пресс-релизе говорится, что десятки тысяч жителей штата Кентукки активно заходят на Character.AI, в том числе тысячи лиц моложе 18 лет, и в качестве причины указывается отсутствие на платформе проверки возраста.

Основные требования: обязать компанию Character.AI изменить свою практику и выплатить компенсацию.

🛡Параллельно в ЕС, вчера, отмечая День защиты персональных данных, Европейских совет по защите данных (EDPB) выпустил напоминание, что защита данных детей является стратегическим приоритетом, и будет выпущено Руководство по обработке данных о детях, а также будет запущен специальный хаб “Privacy for Kids”.

📝 Мировая тенденция на лицо, речь уже не об абстрактных этических принципах и внедрении добровольных best practices, а о юридической ответственности за ваши конкретные решения:
▪️age gate носит декларативный характер и не препятствует доступу несовершеннолетних,
▪️меры безопасности формальны и не соответствуют реальным сценариям использования,
▪️риски для детей являются предсказуемым следствием продуктовых и engagement-метрик,
значит может быть квалификация как "unsafe and deceptive design" с соответствующими последствиями.

Задавайте при создании продукта один из ключевых вопросов, обеспечивают ли применяемые меры фактическую защиту уязвимых пользователей или лишь создают видимость соответствия требованиям?

#UXWatch #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Проблема не только в Grok: десятки «nudify»-AI-приложений в Apple и Google App Stores

Новое расследование Tech Transparency Project (TTP) показывает, что проблема генерации сексуализированных изображений без согласия не ограничена только чат-ботом Grok.
Десятки приложений размещены в Google Play и Apple App Store, способных использовать ИИ для автоматического «nudify» ( снимать одежду с людей на фото или видео без их согласия) и доступны детям.

👀 Основные выводы расследования:

▪️55 таких приложений были найдены в Google Play Store и 47 в Apple App Store (102 всего).
Эти сервисы генерируют сексуализированные deepfake-изображения и видео из обычных фотографий.
▪️Приложения были скачаны более 700 млн раз по всему миру и принесли ≈ $117 млн дохода через подписки и покупки.
▪️ Apple и Google получают свою долю через комиссии в сторах ( комиссии до 30%).
▪️многие приложения обошли процессы проверки качества и безопасности сторов, несмотря на явное нарушение правил платформ по запрещению сексуального и унижающего контента;
▪️генерируют контент без видимых ограничений или адекватных мер;
▪️фактически превращают обычное фото человека в непристойное изображение без согласия субъекта, потенциально нарушая честь, достоинство и законы о защите данных.
▪️Размещены в категориях "подходит для детей", не смотря на то, что и Google , и Apple требуют от разработчиков предоставлять информацию для расчета возрастных рейтингов, чтобы защитить детей от неприемлемого контента, а Apple обновила свою систему рейтингов только в прошлом году, Например, приложение DreamFace ( по данным AppMagic, приложение принесло 1 миллион долларов дохода) - " от 13 лет и старше», и в « для детей от 9 лет и старше».
Подробные разборы с примерами в самом докладе.

Google и Apple запросили список приложений, выявленных в ходе этого расследования. Обе компании отказались от комментариев. Apple сообщила, что удалила 28 приложений, выявленных TTP, и предупредила разработчиков других приложений, что они рискуют быть удалены, если не устранят нарушения (TTP насчитала 27 удаленных приложений.) Google сообщила, что приостановила работу нескольких приложений в рамках продолжающейся проверки, в итоге удалила 31 приложение.

Неэффективность контроля своих же "платформ" и не обеспечение своих же правил, прибыль при этом получена.
Ждем реакцию со стороны регуляторов, особенно на фоне пристального внимания к защите детей, и следим за "сериалом" дальше...


📌 Grok: Еврокомиссия переходит к расследованию
Grok floods X with sexualized images of women and children/ ССDH

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Отдохнуть в субботу с ИИ-сериалом...Почему бы и да?

Знаменитый режиссёр Даррен Аронофски ("Пойман с поличным", "Реквием по мечте," Черный лебедь") выпустил короткометражный ИИ-анимационный сериал о событиях Американской революции 1776 года. Серия коротких эпизодов выходит на канале Time на YouTube.

Используется генеративный ИИ + традиционные методы, голоса озвучивают настоящие актёры.
По словам президента студии Бен Битонни: " Этот проект - пример того, как может выглядеть вдумчивое, творческое, ориентированное на художников использование ИИ, не заменяющее ремесло, а расширяющее возможности и позволяющее рассказчикам заходить туда, куда они раньше просто не могли".

И вопрос для обсуждения за чашкой кофе или здесь в комментариях: " Если мы уже с помощью ИИ пересказываем историю, то кто и как будет формировать наше представление о прошлом завтра?" .
На фоне всего этого хороший повод вспомнить свежую дискуссию вокруг Grokopedia,
которую уже критикуют за галлюцинации, вымышленные источники и SEO-маскировку под «надёжное знание», что уже совсем другой уровень риска.

Приятного просмотра и хорошей субботы❄️☀️
📌Explore AI and Filmmaking with Darren Aronofsky’s Primordial Soup and Google DeepMind

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
The_AI_Regulatory_Capability_Framework_and_Self_Assessment_Tool.pdf
1.7 MB
Практическое руководство по регулированию ИИ от Института Алана Тьюринга (UK)

Про соц.сеть, где общаются ИИ-агенты друг с другом не написал только ленивый (moltbook, если еще не читали эти "беседы"). Поэтому начнём понедельник лучше с полезного....
Alan Turing Institute опубликовал новое руководство, которое должно помочь британским регуляторам эффективно и ответственно управлять ИИ.

👀 Что включает новое руководство:
▪️Activities for AI regulation ( 28 ключевых регуляторных действий от понимания рисков до надзора за внедрением ИИ);
▪️Capabilities for AI regulation ( группы компетенций (люди, процессы, данные, экспертиза и т.д.));
▪️ Good practices (17 «эталонных» практик, описывающих, «как должно быть» при эффективном регулировании).

📌 Self-Assessment Tool - инструмент самооценки по конкретным критериям.

Фреймворк призван помочь:
▪️ понять, где именно слабые места в регулятивных процессах;
▪️ создать общий язык между экспертами, регуляторами и государственными стратегами;
▪️ повысить согласованность и предсказуемость регулирования в разных секторах

«При эффективном регулировании ИИ имеет потенциал оказать положительное влияние на все секторы экономики и трансформировать способы предоставления государственных услуг. Это исследование является первым в своем роде, которое предоставляет структурированный способ для регулирующих организаций оценить свои собственные практические возможности по регулированию ИИ.....»
Хороший пример, который можно взять на вооружение.

#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Создание интерактивных политик с помощью Termboard

Тermboard не замена NotebookLM, но полезный инструмент для построения графов знаний.
Позиционируется легкость преобразования 144 страничного нормативного документа в визуальную схему, где заинтересованные стороны могут изучить пути соблюдения требований и понять, как взаимосвязаны различные элементы.
На демо ими представлен AI Act.
Вики по созданию здесь.

#AIShelf
————
@pattern_ai
Project Genie от Google создает интерактивные миры, а готов ли GameDev?

Google представил Project Genie, инструмент, позволяющий создавать интерактивные 3D-миры на основе текстовых или визуальных подсказок, которые продолжают генерироваться по мере движения пользователя.
👀 Доступен пока только Google AI Ultra подписчикам в США (18+).
Позволяет:
▪️создавать миры по тексту/картинке (world sketching).
▪️исследовать их в реальном времени, перемещаясь и взаимодействуя с окружающей средой (world exploration).
▪️перемешивать существующие миры, расширяя или модифицируя оригинальные сценарии (world remixing).
▪️готовые сессии можно скачивать как видео.
Работает на базе Genie 3.
Первые предварительные обзоры показали, что Genie создает сцены, которые очень напоминают такие известные игры, как Super Mario 64 и The Legend of Zelda: Breath of the Wild. Ответ представителей команды, что они внимательно следят за тем, как люди используют приложение, и некоторые типы подсказок уже были ограничены после предварительного тестирования, с предупреждениями, касающимися интересов сторонних правообладателей контента.

Это только демо-версия, НО:
▪️показывает, как может измениться цикл разработки продуктов и контента;
▪️поднимает вопрос о том, насколько действующие регуляторные рамки и нормы об интеллектуальной собственности применимы к генеративным интерактивным средам, где контент создаётся ИИ в реальном времени в ходе взаимодействия с пользователем, и кому принадлежат права на такой результат.

📝 И некоторые цифры из отчета GDC Festival of Gaming о состоянии игровой индустрии на 2026 год:
▪️28% респондентов были уволены за последние два года, а среди жителей США 33%,
▪️50% заявила, что их нынешний (или последний) работодатель проводил сокращения за последние 12 месяцев.
▪️36% специалистов игровой индустрии используют инструменты генеративного ИИ в своей работе.
▪️52% считают, что генеративный ИИ оказывает негативное влияние на игровую индустрию, по сравнению с 30% в прошлом году и 18% годом ранее.

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Синтетические данные сотрудников: для чего нужны и какие риски использования

Использование реальных данных сотрудников почти всегда создаёт риски (GDPR, утечки, незаконное вторичное использование).
Синтетические данные - искусственно сгенерированные наборы, которые повторяют структуру и статистику HR-данных, но не содержат данных реальных людей, позволяют тестировать HR-системы, обучать модели, моделировать редкие ситуации (н-р, текучку руководителей).
Когда синтетические данные всё равно считаются персональными (ЕС):
▪️Если они созданы на основе малого или уникального набора реальных сотрудников (риск восстановления личности).
▪️Если сохраняются уникальные комбинации признаков (редкая должность + возраст + зарплата).
▪️Нет формальных гарантий приватности (оценка рисков, документированные меры и доказательства необратимости).
▪️Если используются вместе с реальными данными и позволяет косвенную идентификацию.

EDPB opinion on AI models: GDPR principles support responsible AI


👀 Способы получения синтетических данных
1️⃣Open-source инструменты:

🔹SDV (Synthetic Data Vault), Python-библиотека, использует статистические модели и deep learning (GAN, Copulas) для генерации табличных данных с сохранением корреляций.
🔹CTGAN / TVAE, модели для сложных табличных зависимостей (зарплата ↔️ должность ↔️ отдел),
🔹Faker, простой генератор фейковых атрибутов (имена, должности, даты), полезен для mock-данных.

2️⃣Коммерческие платформы (enterprise-уровень), подходят для компаний, которым важны масштаб, удобство и формальные гарантии приватности:

🔹MOSTLY AI, фокус на высокоточной генерации с оценками риска приватности.
🔹Gretel.ai, API-first платформа, хорошо работает с реляционными HR-данными.
🔹K2View, enterprise-решение, интеграции с HR/ERP-системами (в т.ч. Workday).
🔹Syntho ,расширенные возможности генерации данных на основе условий и сценариев (например, наборы данных, специфичные для отдельных отделов, «только IT-отдел»).

3️⃣Готовые синтетические датасеты (быстро и без генерации), подходят для прототипирования и обучения:

🔹 Kaggle, синтетические HR-датасеты (attrition, performance, salaries)
🔹OpenDataBay и аналоги, CSV-наборы с тысячами синтетических записей
🔹Community-datasets, большие (100k–800k+) синтетические наборы, распространяемые для исследований
Минусы: слабая кастомизация и не всегда понятная методология генерации.

4️⃣Продвинутые техники генерации

🔹Rule-based generation, жёсткие ограничения, используя скрипты (диапазоны зарплат, допустимые карьерные треки),
🔹Generative AI → beyond GANs,современные диффузионные модели или LLM могут генерировать структурированные табличные данные.

📝 Чек-лист "Можно ли использовать датасет?":
▪️ Описан метод генерации синтетических данных (модель, правила, параметры).
▪️Отсутствие прямых идентификаторов (в наборе отсутствуют имена, контакты, идентификаторы сотрудников, исключены служебные номера, логины, e-mail, внутренние ID, нет технических идентификаторов, позволяющих связать записи с реальными лицами).
▪️Проверены статистические распределения и зависимости как с точки зрения качества данных, так и риска реидентификации (отсутствие уникальных профилей, переобучения, копирования реальных записей),
▪️Исключены уникальные или редкие профили сотрудников.
▪️ Используется отдельно от реальных данных.

📌 Что еще почитать:
▫️Что такое синтетические данные и зачем они нужны (AWS),
▫️How do we ensure anonymisation is effective? (ICO UK),
▫️Top 10 Synthetic Data Generation Tools: Features, Pros, Cons & Comparison,
▫️Гайд про использование ИИ в сфере подбора персонала (ЕС),
▫️AI tool usage policy ( Workable), ориентирована на HR и рекрутмент, описывает использование AI-инструментов для найма;

#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Международный доклад по безопасности ИИ

Доклад подготовлен лауреатом премии Тьюринга Йошуа Бенджио и более чем 100 экспертами в области ИИ, получил поддержку более 30 стран и международных организаций.

Главы:
1️⃣Что такое ИИ общего назначения, его текущие возможности и ограничения, а также факторы, которые будут определять развитие в ближайшие годы.
2️⃣Риски, связанные со злонамеренным использованием, включая использование систем ИИ для преступной деятельности ( контент, созданный ИИ, манипуляции, кибератаки, разработки биологического или химического оружия, риски, связанные с неисправностями, проблемы надежности и потеря контроля, системные риски.
3️⃣Подходы к управлению рисками и их эффективность ( технические и институциональные проблемы, методы управления рисками, технические меры защиты и мониторинг, и усилия по повышению устойчивости общества к потенциальным потрясениям и вреду от ИИ).

Эксперты сходятся во мнении, что ИИ пока не может самостоятельно выполнять многодневные проекты. НО риски усиливаются по мере того, как агентные системы ИИ становятся всё более автономными, а люди устанавливают более глубокие связи с ИИ. Авторы делают вывод о том, что люди, организации и общества по всему миру теперь сильно зависят от систем ИИ, разработанных небольшим числом компаний, и выступают за многоуровневый подход к управлению рисками общего ИИ на уровне модели, системы, организации и общества.

#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🥰1
Расследование в отношении X от Ofcom (UK)

Для тех, кто следит за сериалом "Grok под прицелом регуляторов", Ofcom (британское агентство, регулирующее работу теле- и радио-компаний, а также почтовой службы) выпустил обновления о статусе их расследования.
👀 Ofcom
- продолжает требовать от xAI объяснений относительно рисков,
- собирает и анализирует доказательства, чтобы определить, нарушила ли компания X закон,
-изучает вопрос о том, следует ли начать расследование в отношении соблюдения им правил, требующих от сервисов, публикующих порнографические материалы, использования высокоэффективных проверок возраста для предотвращения доступа детей к этому контенту.
- указывает, что не может расследовать создание незаконных изображений автономным сервисом Grok в данном случае (по Online Safety Act) .


📝Главное из разьяснений Ofcom про действие the Online Safety Act.
Не все чат-боты попадают под действие закона.
Чтобы ИИ-сервис оставался «вне радаров» регулятора, он должен соответствовать трем критериям:
▪️только приватное общение, т.е. вы общаетесь только с ботом, а не с другими людьми через него.
▪️никакого поиска, т.е. бот не использует внешние базы данных или сайты для ответов в реальном времени (не является поисковиком).
▪️сервис не позволяет генерировать порнографический контент.

Правительство Великобритании уже заявило, что рассматривает вопрос расширения регулирования чат-ботов, и Ofcom эту инициативу активно поддерживает.

Следим за продолжением истории дальше.
..

📌 Расследование Tech Transparency Project (TTP): десятки «nudify»-AI-приложений в Apple и Google App Stores,
Grok: Еврокомиссия переходит к расследованию

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
How AI Destroys Institutions.pdf
596.6 KB
Как ИИ разрушает институты гражданского общества

Сегодня еще для обсуждения статья "How AI Destroys Institutions" ( авторы Woodrow Hartzog and Jessica Silbey).

👀 Ключевые тезисы:
1️⃣Институты держатся не на технологиях, а на легитимности.
Право, университеты, наука, пресса работают потому, что есть роли и ответственность, есть процедуры, объяснимость решений, социальные связи между людьми.
ИИ же производит результат без институционального процесса.

2️⃣ИИ размывает экспертизу. Когда ответ выдаёт система, то неясно, кто именно «знает», невозможно оспорить путь рассуждений, исчезает различие между экспертным суждением и сгенерированным текстом.

3️⃣Решения “короче”, но беднее. ИИ сокращает обсуждения и сомнения, подменяет коллективное принятие решений автоматическим выводом, поощряет быстрое согласие, а не критическое мышление.
Это особенно опасно для судебной системы, образования, СМИ.

4️⃣ Люди изолируются друг от друга. Институты эволюционируют через споры, конфликты, совместную работу. ИИ же заменяет взаимодействие, делает процессы индивидуальными и непрозрачными, разрушает социальную ткань института.

Главный вывод авторов: нынешние системы ИИ - это смертный приговор для гражданских институтов.

Делитесь мыслями в комментариях ⤵️

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
ИИ-инструменты в патентных ведомствах (UKIPO, EPO, USPTO)

Патентные офисы всё активнее используют инструменты с элементами ИИ как поддержку экспертов и заявителей (поиск релевантных материалов, классификация, предварительная проверка), ускоряя рутинные шаги, предлагают ориентиры, но не заменяют профессиональную оценку.

🇬🇧 UK Intellectual Property Office (UKIPO)

🔹Search - внутренний инструмент поиска по патентам, ранжирует результаты по похожести и релевантности (основан на ANSERA).
🔹Check if you could register your trade mark - публичный ИИ-инструмент для предварительной проверки торговой марки по тексту и изображению.
🔹 AI allocation tool - внутренний инструмент для автоматического распределения заявок между экспертами (нет публичной страницы, упоминается в обзорах).

🇪🇺 European Patent Office (EPO)
🔹 ANSERA - внутренний инструмент поиска и анализа приоритетных материалов для экспертов (нет публичного доступа).
🔹 Legal Interactive Platform (LIP) - генеративный ИИ- поиск в MyEPO (структурированные ответы по праву и практике EPC).
🔹 CPC Text Categoriser - онлайн-сервис для подбора CPC-классификаций по описанию технологии.
🔹Patent Translate - машинный перевод патентных документов (32 языка). Доступ через Espacenet.

🇺🇸 United States Patent and Trademark Office (USPTO)

🔹Similarity Search - ИИ-ассистированный поиск по базе патентов (часть PE2E).
🔹ASAP! (Artificial Intelligence Search Automated Pilot Program) - пилотная программа для автоматического предварительного поиска и выдачи уведомлений о возможных материалах.

#AIShelf
————
@pattern_ai
🔥1
Как регуляторы пытаются успеть за ИИ в финансовом секторе

Январский доклад OECD честно показывает, что надзор за ИИ отстаёт от технологической реальности:
1️⃣ ИИ развивается быстрее, чем обновляются регуляторные рамки. Модели сложны, плохо объяснимы, динамически дообучаются, могут работать с высокой степенью автономии. Проверять такие системы используя старые подходы всё труднее.
2️⃣Непрозрачность экосистемы. Регуляторы часто не знают, где именно и как используется ИИ, нет полной картины внедрения ИИ в финсекторе, а ключевые элементы (модели, инфраструктура, данные) у третьих лиц и BigTech-провайдеров, которые часто вне прямого надзора.
3️⃣Требования "объяснимости, справедливости, надежности" есть на бумаге, а в жизни сложно проверить модели, найти нужные решения, непонятно, как именно реализовывать «надзор человека» в разных сценариях.
4️⃣Правовая неопределённость из-за того, что новые ИИ-акты и требования наслаиваются на существующие. Как итог, тормозится внедрение ИИ, повышаются комплаенс-риски, инвестиции в ИИ становятся менее предсказуемы.

👀Что предлагают:
▪️разъяснять, как применять существующие требования к продвинутым ИИ-моделям;
▪️избегать чрезмерно предписывающего регулирования;
▪️усиливать диалог с индустрией;
▪️использовать песочницы, live-тестирование ( пример UK FCA AI Live Testing), эксперименты.

Пример, как Европейский центральный банк активно внедряет ИИ через SupTech Hub ECB (изучает 40+ GenAI use cases, использует ИИ в повседневной работе супервизоров):
▪️Athena- для перевод и анализ надзорных документов с использованием текстового анализа;
▪️Agora - позволяющая запрашивать данные из хранилищ данных, используя естественный язык, переведенный в код с помощью ИИ;
▪️Virtual Lab - разработка и совместная работы в области машинного обучения;
▪️Medusa - помощь в составлении и сравнительной оценке результатов надзорных проверок;
▪️Heimdall - автоматическое проведение процедур оценки соответствия требованиям.
▪️Delphi - обработка естественного языка (NLP) для интеграции индикаторов рыночного риска и информации из новостных сообщений в единую веб-платформу с удобным пользовательским интерфейсом для банковских надзорных органов.


📌 Обзоры отчетов прошлого года в посте "AI и финансовый сектор"
Пост "НейроUX в банках против ваших интересов" и подборка статей

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Тайвань принял базовый закон об ИИ

Регулирование ИИ в Азии набирает обороты. С января не только в Южной Корее вступил закон в силу, но и Тайвань утвердил AI Basic Act, первый рамочный закон об ИИ. Это не жёсткое регулирование «по-европейски», а база для дальнейших подзаконных актов (регламентов/административных правил), которые будут развивать отраслевые требования для разных сфер ИИ:

🔹 Закрепляет ключевые принципы: защита прав человека, прозрачность и обьяснимость, недискриминация и справедливость, безопасность и ответственность, конфиденциальность и управление данными, ответственность и подотчётность
🔹Государство обязано поддерживать развитие ИИ, а не только контролировать его.
🔹Определяет обстоятельства, при которых применение ИИ может быть запрещен или классифицирован как высокорискованный с применением строгих ограничений:
- нарушает права на жизнь, телесную неприкосновенность, свободу или права собственности отдельных лиц;
- нарушает общественный порядок, национальную безопасность или экологическую устойчивость;
- дискриминация, предвзятость, ложная реклама, дезинформация или мошенничество, нарушая действующее законодательство.
Будут дальше четкие стандарты и условия для определения ответственности. Также будут разработаны механизмы возмещения ущерба, компенсации и страхования для защиты пострадавших сторон и обеспечения подотчетности. Основа -международные стандарты.
🔹Правительство Тайваня обязано создать открытую систему обработки данных и механизмы для облегчения обмена данными и их вторичного использования. Эта инициатива направлена ​​на повышение доступности и качества обучающих данных, что имеет решающее значение для разработки надежных моделей ИИ.
🔹 Подчеркивается важность защиты персональных данных, внедрение принципов минимизации данных при разработке ИИ.
🔹 Не предусматривает явного ослабления защиты авторских прав, но подчеркивает роль государства в увеличении количества и качества обучающих данных для ИИ.
🔹Существующие законы должны быть пересмотрены, а новые приняты в течение 2 лет.

📌
У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ";
AI Basic Act Explorer of the Republic of Korea;

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM