prompt_upload_repeat-TikTok.pdf
71.2 MB
Как “агентные” ИИ-аккаунты переполняют TikTok и обходят модерацию
Исследователи AI Forensics опубликовали отчёт "Prompt. Upload. Repeat: How Agentic AI Accounts Flood TikTok with Harmful content".
AAA - это новая категория «креаторов», которые почти не используют человеческое участие. Контент генерируется и заливается автоматически, с массовым тестированием алгоритмов рекомендаций, максимальная виральность и быстрый доход.
🔍 Что показало исследование:
🔹Массовое производство контента как стратегия.
65% таких аккаунтов созданы в 2025 году. Некоторые публикуют до 11 постов в день, есть и 70 видео за сутки в одном аккаунте. Почти 80% из них это аккаунты, изначально созданные как полностью ИИ-генерируемые.
🔹 AAA массово распространяют:
- сексуализированные изображения женщин с детскими чертами,
- искажённые и нездоровые образы тела,
- ложные «новости», созданные под стилистику репортажей и документалистики,
- ксенофобские и расистские нарративы (в т.ч. антисемитские «тренды»),
- контент на стыке провокации, хайпа и манипуляции,
Многие тренды ( «mother-son», «antisemitic trend») воспроизводятся до бесконечности, что стимулирует появление новых AAA, «прыгающих» в уже раскрученные форматы.
🔹Маркировка ИИ-контента фактически не работает.
▪️55% ИИ-контента на TikTok не имеют маркировки.
▪️TikTok сам добавляет метку «AI-generated media» менее чем в 1,38% случаев. Если контент помечен, это добровольное усилие со стороны создателей.
▪️30% авторов никогда не помечают контент как ИИ-созданный.
▪️Пользователи замечают синтетичность гораздо чаще, чем сама платформа.
Это создаёт масштабный эффект обмана, особенно в политическом и «журналистском» ИИ-контенте.
🔹Монетизация: доход получают немногие, но экосистема уже работает.
Большинство AAA не попадают в Creator Rewards Program TikTok, однако:
- часть зарабатывает на промо сомнительных БАДов;
- другие на рекламе ИИ-инструментов и онлайн-курсов;
- некоторые копируют поведение человеческих инфлюенсеров, создавая «персонажей» для повышения доверия
🔹 Экосистема ИИ-виральности уже формируется.
AAA используют готовые сервисы, например Yapper.so, обещающие «массовое производство вирусного видео». Эти инструменты:
- предлагают готовые шаблоны, сюжеты, «виральные ситуации»,
- генерируют видео, включая фотореалистичных людей и “похожих на знаменитостей” без согласия,
- снижают цену производства почти до нуля, а значит стимулируют лавинообразный рост синтетического контента,
Риски:
▪️Нормализация вредного контента, алгоритмы закрепляют и масштабируют вредные паттерны.
▪️Эффект подмены человеческого контента. AI-трафик не просто «разбавляет» контент, формирует новые тренды, вытесняя реальных создателей.
▪️Манипуляция аудиторией и распространение фейков. Синтетическая «журналистика» становится неотличимой от реальной. Алгоритмы рекомендаций усиливают проблемные нарративы.
▪️Провал в маркировке ИИ-медиа. При отсутствии обязательной, унифицированной и проверяемой маркировки пользователи продолжают воспринимать ИИ-контент как человеческий.
Отчёт напрямую указывает на разрыв между масштабом автоматизированной генерации и способностью платформ обеспечивать прозрачность и безопасность.
#UXWatch
—————
@pattern_ai
Исследователи AI Forensics опубликовали отчёт "Prompt. Upload. Repeat: How Agentic AI Accounts Flood TikTok with Harmful content".
AAA - это новая категория «креаторов», которые почти не используют человеческое участие. Контент генерируется и заливается автоматически, с массовым тестированием алгоритмов рекомендаций, максимальная виральность и быстрый доход.
🔹Массовое производство контента как стратегия.
65% таких аккаунтов созданы в 2025 году. Некоторые публикуют до 11 постов в день, есть и 70 видео за сутки в одном аккаунте. Почти 80% из них это аккаунты, изначально созданные как полностью ИИ-генерируемые.
🔹 AAA массово распространяют:
- сексуализированные изображения женщин с детскими чертами,
- искажённые и нездоровые образы тела,
- ложные «новости», созданные под стилистику репортажей и документалистики,
- ксенофобские и расистские нарративы (в т.ч. антисемитские «тренды»),
- контент на стыке провокации, хайпа и манипуляции,
Многие тренды ( «mother-son», «antisemitic trend») воспроизводятся до бесконечности, что стимулирует появление новых AAA, «прыгающих» в уже раскрученные форматы.
🔹Маркировка ИИ-контента фактически не работает.
▪️55% ИИ-контента на TikTok не имеют маркировки.
▪️TikTok сам добавляет метку «AI-generated media» менее чем в 1,38% случаев. Если контент помечен, это добровольное усилие со стороны создателей.
▪️30% авторов никогда не помечают контент как ИИ-созданный.
▪️Пользователи замечают синтетичность гораздо чаще, чем сама платформа.
Это создаёт масштабный эффект обмана, особенно в политическом и «журналистском» ИИ-контенте.
🔹Монетизация: доход получают немногие, но экосистема уже работает.
Большинство AAA не попадают в Creator Rewards Program TikTok, однако:
- часть зарабатывает на промо сомнительных БАДов;
- другие на рекламе ИИ-инструментов и онлайн-курсов;
- некоторые копируют поведение человеческих инфлюенсеров, создавая «персонажей» для повышения доверия
🔹 Экосистема ИИ-виральности уже формируется.
AAA используют готовые сервисы, например Yapper.so, обещающие «массовое производство вирусного видео». Эти инструменты:
- предлагают готовые шаблоны, сюжеты, «виральные ситуации»,
- генерируют видео, включая фотореалистичных людей и “похожих на знаменитостей” без согласия,
- снижают цену производства почти до нуля, а значит стимулируют лавинообразный рост синтетического контента,
Риски:
▪️Нормализация вредного контента, алгоритмы закрепляют и масштабируют вредные паттерны.
▪️Эффект подмены человеческого контента. AI-трафик не просто «разбавляет» контент, формирует новые тренды, вытесняя реальных создателей.
▪️Манипуляция аудиторией и распространение фейков. Синтетическая «журналистика» становится неотличимой от реальной. Алгоритмы рекомендаций усиливают проблемные нарративы.
▪️Провал в маркировке ИИ-медиа. При отсутствии обязательной, унифицированной и проверяемой маркировки пользователи продолжают воспринимать ИИ-контент как человеческий.
Отчёт напрямую указывает на разрыв между масштабом автоматизированной генерации и способностью платформ обеспечивать прозрачность и безопасность.
#UXWatch
—————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Как понять, что изображение создано с помощью AI
Проведя предыдущее исследование, AI Forensic выпустили полезный гайд, как оценить вероятность того, что просматриваемый медиаконтент был создан с использованием инструментов искусственного интеллекта.
Этапы разделены на четыре ключевых направления:
▪️До изображения: признаки, характерные для ИИ;
▪️Синтетические артефакты в изображениях, созданных ИИ;
▪️Движущиеся изображения/видеоролики;
▪️Цифровое происхождение.
Даны наглядные примеры, сравнение с разных платформ. Для относительной уверенности в том, что изображение или видео созданы ИИ, рассматриваемый контент должен соответствовать более чем одной из перечисленных характеристик. Но технологии не стоят на месте...
#UXWatch #AIShelf
————
@pattern_ai
Проведя предыдущее исследование, AI Forensic выпустили полезный гайд, как оценить вероятность того, что просматриваемый медиаконтент был создан с использованием инструментов искусственного интеллекта.
Этапы разделены на четыре ключевых направления:
▪️До изображения: признаки, характерные для ИИ;
▪️Синтетические артефакты в изображениях, созданных ИИ;
▪️Движущиеся изображения/видеоролики;
▪️Цифровое происхождение.
Даны наглядные примеры, сравнение с разных платформ. Для относительной уверенности в том, что изображение или видео созданы ИИ, рассматриваемый контент должен соответствовать более чем одной из перечисленных характеристик. Но технологии не стоят на месте...
#UXWatch #AIShelf
————
@pattern_ai
👍4
ИИ, реклама и конфликт уровней власти в США: что происходит на самом деле?
На прошлой неделе в США появились две на первый взгляд противоречивые новости.
👀 С одной стороны, штат Нью-Йорк принял два закона A8887-B и A8882, призванных установить новый стандарт прозрачности в рекламе, защитить потребителей от потенциально вводящих в заблуждение цифровых материалов и усилить защиту цифрового образа человека после смерти.
▪️Любая реклама, в которой выступают ИИ-созданные персонажи, должна быть явно помечена, без мелкого шрифта, без намёков, т.е. прямое уведомление зрителя.
▪️Штрафы за сокрытие использования ИИ от $1 000 за первое нарушение до $5 000 за повторные.
▪️Вступает в силу 9 июня 2026 года.
▪️Закон A8882 требует согласия наследников для коммерческого использования имени, изображения или подобия умершего человека.
С другой стороны, Белый дом издал исполнительный указ Ensuring a National Policy Framework for Artificial Intelligence.
Его суть: не допустить, чтобы штаты «мешали» единой федеральной политике в сфере ИИ. Администрация прямо говорит о необходимости одного федерального фреймворка и допускает оспаривание законов штатов, если они считаются «избыточными» или тормозящими инновации.
🔍 Закономерный вопрос, отменяются ли сразу законы Нью-Йорка и других штатов?
Пока нет. Исполнительный указ сам по себе не аннулирует законы штатов. Но он создаёт основу для:
- давления через федеральные агентства,
- судебных споров,
- будущего федерального закона, который может вытеснить нормы штатов.
С одной стороны Штаты (38 штатов, включая Калифорнию, приняли около 100 нормативных актов, регулирующих использование ИИ, внесено более 1000 отдельных законопроектов, касающихся ИИ) пытаются закрыть конкретные риски, а с другой власть на федеральном уровне делает попытки убрать «регуляторную мозаику» и централизовать контроль над ИИ. Получаем конфликт приоритетов: защита потребителей vs. скорость инноваций.
Следим за развитием событий дальше...
📌 Предыдущие посты:
🔹Как использовать ИИ в рекламе и не нарушить закон (обзор разных юрисдикций);
🔹Новые законы в США по регулированию ИИ-компаньонов;
🔹Наши данные после смерти или "воскреснуть" с помощью ИИ;
#LawAndDisorder
————
@pattern_ai
На прошлой неделе в США появились две на первый взгляд противоречивые новости.
▪️Любая реклама, в которой выступают ИИ-созданные персонажи, должна быть явно помечена, без мелкого шрифта, без намёков, т.е. прямое уведомление зрителя.
▪️Штрафы за сокрытие использования ИИ от $1 000 за первое нарушение до $5 000 за повторные.
▪️Вступает в силу 9 июня 2026 года.
▪️Закон A8882 требует согласия наследников для коммерческого использования имени, изображения или подобия умершего человека.
С другой стороны, Белый дом издал исполнительный указ Ensuring a National Policy Framework for Artificial Intelligence.
Его суть: не допустить, чтобы штаты «мешали» единой федеральной политике в сфере ИИ. Администрация прямо говорит о необходимости одного федерального фреймворка и допускает оспаривание законов штатов, если они считаются «избыточными» или тормозящими инновации.
Пока нет. Исполнительный указ сам по себе не аннулирует законы штатов. Но он создаёт основу для:
- давления через федеральные агентства,
- судебных споров,
- будущего федерального закона, который может вытеснить нормы штатов.
С одной стороны Штаты (38 штатов, включая Калифорнию, приняли около 100 нормативных актов, регулирующих использование ИИ, внесено более 1000 отдельных законопроектов, касающихся ИИ) пытаются закрыть конкретные риски, а с другой власть на федеральном уровне делает попытки убрать «регуляторную мозаику» и централизовать контроль над ИИ. Получаем конфликт приоритетов: защита потребителей vs. скорость инноваций.
Следим за развитием событий дальше...
🔹Как использовать ИИ в рекламе и не нарушить закон (обзор разных юрисдикций);
🔹Новые законы в США по регулированию ИИ-компаньонов;
🔹Наши данные после смерти или "воскреснуть" с помощью ИИ;
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👏4
ИИ-контракты: вопросы, которые лучше задать до закрытия сделок в конце года
Ближе к концу года компании спешат закрыть сделки, утвердить подрядчиков и распределить бюджеты. В таком режиме часть вопросов остаётся за рамками обсуждения, но не потому что они неважны, а потому что «разберёмся позже».
Вопросы, которые с высокой вероятностью напомнят о себе в следующем году:
1️⃣ Что именно вы покупаете?
Речь идёт не только о функциональности, но и о степени зрелости решения. ИИ часто продаётся как «готовое решение», но по факту:
- модель может быть экспериментальной,
- качество нестабильным,
- юридические риски переложены на заказчика.
Важно понять: кто несёт риск, если модель обучена на проблемных данных или выдаёт неверные результаты.
2️⃣ Где проходит граница ответственности?
Даже при корректном договоре остаётся вопрос:
- кто отвечает за последствия рекомендаций модели,
- в каких процессах ИИ фактически влияет на решения,
- можно ли ограничить использование модели только «поддержкой», а не автоматическим принятием решений.
3️⃣ Сможете ли вы доказать корректность работы ИИ?
В 2025 году всё чаще возникал не вопрос «почему ИИ ошибся»,», а вопрос «как вы проверяли, что он работал корректно, и как можете доказать»:
- клиенту,
- регулятору,
- аудитору,
- суду.
Если у компании нет понятного механизма проверки качества и логики работы модели, защищать решение будет сложно.
4️⃣ Что происходит при ошибке модели?
Важно заранее понимать практические сценарии: как фиксируются ошибки, кто и в какие сроки обязан реагировать,есть ли механизм приостановки использования модели без штрафов и репутационных потерь.
5️⃣ Как изменятся риски при масштабировании?
Модель, безопасная в одном процессе, может стать проблемной при подключении новых данных или расширении сценариев использования. После запуска уже сложнее решить, что делать дальше.
6️⃣ Насколько вы готовы к вниманию регуляторов в 2026 год?
Регуляторы всё чаще смотрят не на текст договора, а на:
- фактическую роль ИИ в бизнес-процессах,
- наличие человеческого контроля,
- способность компании объяснить логику решений.
Даже «низкорисковый» ИИ может попасть под усиленный контроль из-за способа применения.
7️⃣ Самый важный вопрос:
📌 Примерный чек-лист для составления/проверки контрактов и примеры ИИ-инструментов.
#AIShelf
————
@pattern_ai
Ближе к концу года компании спешат закрыть сделки, утвердить подрядчиков и распределить бюджеты. В таком режиме часть вопросов остаётся за рамками обсуждения, но не потому что они неважны, а потому что «разберёмся позже».
Вопросы, которые с высокой вероятностью напомнят о себе в следующем году:
Речь идёт не только о функциональности, но и о степени зрелости решения. ИИ часто продаётся как «готовое решение», но по факту:
- модель может быть экспериментальной,
- качество нестабильным,
- юридические риски переложены на заказчика.
Важно понять: кто несёт риск, если модель обучена на проблемных данных или выдаёт неверные результаты.
Даже при корректном договоре остаётся вопрос:
- кто отвечает за последствия рекомендаций модели,
- в каких процессах ИИ фактически влияет на решения,
- можно ли ограничить использование модели только «поддержкой», а не автоматическим принятием решений.
В 2025 году всё чаще возникал не вопрос «почему ИИ ошибся»,», а вопрос «как вы проверяли, что он работал корректно, и как можете доказать»:
- клиенту,
- регулятору,
- аудитору,
- суду.
Если у компании нет понятного механизма проверки качества и логики работы модели, защищать решение будет сложно.
Важно заранее понимать практические сценарии: как фиксируются ошибки, кто и в какие сроки обязан реагировать,есть ли механизм приостановки использования модели без штрафов и репутационных потерь.
Модель, безопасная в одном процессе, может стать проблемной при подключении новых данных или расширении сценариев использования. После запуска уже сложнее решить, что делать дальше.
Регуляторы всё чаще смотрят не на текст договора, а на:
- фактическую роль ИИ в бизнес-процессах,
- наличие человеческого контроля,
- способность компании объяснить логику решений.
Даже «низкорисковый» ИИ может попасть под усиленный контроль из-за способа применения.
Если завтра ИИ станет недоступен или юридически рискованным , сможете ли вы продолжить работу без него?
Если нет, значит речь идёт не просто о сервисе, а о критической зависимости, которой нужно управлять осознанно.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
Гайды по применению AI Act от испанского регулятора
Испанское агентство по надзору за искусственным интеллектом выпустило рекомендации для компаний по применению Закона ЕС об ИИ, в рамках пилотного проекта испанской регуляторной песочницы в области ИИ:
🔹 Руководство по AI Act;
🔹Практическое руководство и примеры для понимания AI Act;
🔹 Руководство по оценке соответствия AI Act;
🔹Руководство по системам управления качеством ИИ;
🔹 Руководство по управлению рисками;
🔹Руководство по человеческому надзору;
🔹 Руководство по данным и управлению данными;
🔹Руководство по прозрачности;
🔹 Руководство по точности систем ИИ;
🔹Руководство по созданию надежного ИИ;
🔹 Руководство по кибербезопасности;
🔹 Руководство по ведению документации
🔹 Руководство по постмаркетинговомpу надзору;
🔹 Руководство по управлению инцидентами;
🔹 Руководство по технической документации;
🔹 Чек-листы.
Пока на испанском, но любой переводчик в помощь, тот же DeepL
#LawAndDisorder #AIShelf
————
@pattern_ai
Испанское агентство по надзору за искусственным интеллектом выпустило рекомендации для компаний по применению Закона ЕС об ИИ, в рамках пилотного проекта испанской регуляторной песочницы в области ИИ:
🔹 Руководство по AI Act;
🔹Практическое руководство и примеры для понимания AI Act;
🔹 Руководство по оценке соответствия AI Act;
🔹Руководство по системам управления качеством ИИ;
🔹 Руководство по управлению рисками;
🔹Руководство по человеческому надзору;
🔹 Руководство по данным и управлению данными;
🔹Руководство по прозрачности;
🔹 Руководство по точности систем ИИ;
🔹Руководство по созданию надежного ИИ;
🔹 Руководство по кибербезопасности;
🔹 Руководство по ведению документации
🔹 Руководство по постмаркетинговомpу надзору;
🔹 Руководство по управлению инцидентами;
🔹 Руководство по технической документации;
🔹 Чек-листы.
Пока на испанском, но любой переводчик в помощь, тот же DeepL
#LawAndDisorder #AIShelf
————
@pattern_ai
👍4
Советы лидерам на 2026 год от Гарвардской школы бизнеса
Начинающаяся неделя перед новогоднимм праздниками - это хороший повод посмотреть чуть дальше текущих задач.
В 2026 году успех компаний будет зависеть не столько от самих AI-технологий, сколько от того, насколько быстро организации умеют меняться.
Преподаватели Гарвардской школы бизнеса выделяют несколько ключевых тенденций, которые будут определять лидеров в следующем году:
1️⃣ "Change fitness" - новая управленческая норма
ИИ больше не эксперимент. Он становится частью повседневной работы. Лидерам важно развивать change fitness, т.е. способность команд быстро адаптироваться, тестировать новое и перестраивать процессы без паралича и сопротивления.
2️⃣ Искусственный интеллект является усилителем, а не заменой людям
Побеждают не те, кто просто автоматизирует всё подряд, а те, кто использует ИИ для усиления человеческого мышления. Лучшие решения рождаются в командах, где AI снижает стоимость экспериментов, но ключевые решения остаются за людьми.
3️⃣ Баланс компромиссов, а не «идеальный AI»
Разные типы ИИ дают разные эффекты: одни повышают стабильность и точность, другие - креативность и вариативность. Ошибкой будет искать универсальный инструмент.Ваша задача- грамотно сочетать их под конкретные цели.
4️⃣ Человеческие отношения становятся ценнее
Когда аналитика и расчёты автоматизируются, главным преимуществом остаются доверие, эмпатия и умение работать с неопределённостью. Клиенты и партнёры ценят не скорость ответа ИИ, а качество человеческого взаимодействия.
————
@pattern_ai
Начинающаяся неделя перед новогоднимм праздниками - это хороший повод посмотреть чуть дальше текущих задач.
В 2026 году успех компаний будет зависеть не столько от самих AI-технологий, сколько от того, насколько быстро организации умеют меняться.
Преподаватели Гарвардской школы бизнеса выделяют несколько ключевых тенденций, которые будут определять лидеров в следующем году:
ИИ больше не эксперимент. Он становится частью повседневной работы. Лидерам важно развивать change fitness, т.е. способность команд быстро адаптироваться, тестировать новое и перестраивать процессы без паралича и сопротивления.
Побеждают не те, кто просто автоматизирует всё подряд, а те, кто использует ИИ для усиления человеческого мышления. Лучшие решения рождаются в командах, где AI снижает стоимость экспериментов, но ключевые решения остаются за людьми.
Разные типы ИИ дают разные эффекты: одни повышают стабильность и точность, другие - креативность и вариативность. Ошибкой будет искать универсальный инструмент.Ваша задача- грамотно сочетать их под конкретные цели.
Когда аналитика и расчёты автоматизируются, главным преимуществом остаются доверие, эмпатия и умение работать с неопределённостью. Клиенты и партнёры ценят не скорость ответа ИИ, а качество человеческого взаимодействия.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
UX-тренды 2026: от экранов к интеллектуальным экосистемам
Немного про тренды, хотя еще не все отчеты здесь рассмотрели. В 2026 году по плану создание UX-дизайна превратиться в проектирование интеллектуальных экосистем, где цифровые интерфейсы и AI-агенты действуют проактивно, предвосхищая задачи и контекст пользователя (Agentic UX).
👀 Ключевые изменения:
🔹Zero UI и невидимое взаимодействие. Вместо поиска кнопок ИИ-агенты сами выполняют цепочки действий (от бронирований до покупок ) через голос, контекст и поведенческие сигналы.
🔹 Генеративные UI и гиперперсонализация.
Статичные макеты уступают динамическим интерфейсам. UI перестраивается в реальном времени под когнитивную нагрузку пользователя: упрощается при усталости и расширяется для опытных пользователей.
🔹Мультимодальность (голос, жесты, взгляд).
С ростом AR-устройств взаимодействие становится естественным. Голос, жесты и визуальный отклик работают вместе.
🔹Эффективный кроссплатформенный пользовательский опыт.
🔹Обьяснимость, этичность и доверие.
Автономные системы обязаны объяснять свои решения. Пользователь должен понимать, почему ИИ сделал выбор, и иметь возможность его скорректировать.
🔍 Примеры:
🔹Canva делает ставку на ИИ как инструмент выражения, а не унификации. Платформа прямо поощряет дизайнеров использовать AI для усиления личного стиля, а не для производства «алгоритмически одинаковых» решений.
🔹Adobe смещает фокус в сторону мультисенсорного и эмоционального дизайна. ИИ используется для поддержки культурной аутентичности и создания визуальных решений, которые считываются не только глазами, но и на уровне эмоций и контекста.
🔹Microsoft рассматривает ИИ-агентов как основу будущих цифровых экосистем ( от автономного управления безопасностью до пользовательских сценариев, где генеративный ИИ помогает людям ориентироваться в вопросах здоровья и благополучия).
🔹Prototypr фиксирует сдвиг в инструментах: прототипирование голосовых интерфейсов становится критически важным навыком для проектирования новых AI-ориентированных продуктов.
ИИ-инструменты:
▪️Lovable и v0.dev - создание полноценных, рабочих интерфейсов из текстовых промптов (Vibe Coding).
▪️ Uizard - быстрая генерация wireframe-схем и UI-дизайна на основе набросков от руки.
▪️ Galileo AI - генерация редактируемых UI-дизайнов в Figma по текстовому описанию.
▪️Synthetic Users - проведение интервью и тестов на ИИ-моделях, обученных на реальных сегментах аудитории для быстрой валидации идей.
▪️Lyssna (AI features) - автоматический анализ пользовательских тестов и тепловых карт.
▪️Relume - построение структуры сайта и копирайтинга на основе ИИ-библиотек компонентов.
Читать подробнее:
▪️Lyssna app design trends;
▪️Adobe 2026 Creative Trends report
▪️Graphic Design Trends 2026: Where AI Meets Human;
▪️What’s next in AI: 7 trends to watch in 2026 by Susanna Ray|Microsoft;
▪️UX/UI, AI и тренды, которые реально работают в 2026
#UXWatch
————
@pattern_ai
Немного про тренды, хотя еще не все отчеты здесь рассмотрели. В 2026 году по плану создание UX-дизайна превратиться в проектирование интеллектуальных экосистем, где цифровые интерфейсы и AI-агенты действуют проактивно, предвосхищая задачи и контекст пользователя (Agentic UX).
🔹Zero UI и невидимое взаимодействие. Вместо поиска кнопок ИИ-агенты сами выполняют цепочки действий (от бронирований до покупок ) через голос, контекст и поведенческие сигналы.
🔹 Генеративные UI и гиперперсонализация.
Статичные макеты уступают динамическим интерфейсам. UI перестраивается в реальном времени под когнитивную нагрузку пользователя: упрощается при усталости и расширяется для опытных пользователей.
🔹Мультимодальность (голос, жесты, взгляд).
С ростом AR-устройств взаимодействие становится естественным. Голос, жесты и визуальный отклик работают вместе.
🔹Эффективный кроссплатформенный пользовательский опыт.
🔹Обьяснимость, этичность и доверие.
Автономные системы обязаны объяснять свои решения. Пользователь должен понимать, почему ИИ сделал выбор, и иметь возможность его скорректировать.
🔹Canva делает ставку на ИИ как инструмент выражения, а не унификации. Платформа прямо поощряет дизайнеров использовать AI для усиления личного стиля, а не для производства «алгоритмически одинаковых» решений.
🔹Adobe смещает фокус в сторону мультисенсорного и эмоционального дизайна. ИИ используется для поддержки культурной аутентичности и создания визуальных решений, которые считываются не только глазами, но и на уровне эмоций и контекста.
🔹Microsoft рассматривает ИИ-агентов как основу будущих цифровых экосистем ( от автономного управления безопасностью до пользовательских сценариев, где генеративный ИИ помогает людям ориентироваться в вопросах здоровья и благополучия).
🔹Prototypr фиксирует сдвиг в инструментах: прототипирование голосовых интерфейсов становится критически важным навыком для проектирования новых AI-ориентированных продуктов.
ИИ-инструменты:
▪️Lovable и v0.dev - создание полноценных, рабочих интерфейсов из текстовых промптов (Vibe Coding).
▪️ Uizard - быстрая генерация wireframe-схем и UI-дизайна на основе набросков от руки.
▪️ Galileo AI - генерация редактируемых UI-дизайнов в Figma по текстовому описанию.
▪️Synthetic Users - проведение интервью и тестов на ИИ-моделях, обученных на реальных сегментах аудитории для быстрой валидации идей.
▪️Lyssna (AI features) - автоматический анализ пользовательских тестов и тепловых карт.
▪️Relume - построение структуры сайта и копирайтинга на основе ИИ-библиотек компонентов.
Читать подробнее:
▪️Lyssna app design trends;
▪️Adobe 2026 Creative Trends report
▪️Graphic Design Trends 2026: Where AI Meets Human;
▪️What’s next in AI: 7 trends to watch in 2026 by Susanna Ray|Microsoft;
▪️UX/UI, AI и тренды, которые реально работают в 2026
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👌1
Маркировка AI-контента или что предлагает ЕС
Вернемся к прозе новостей....
Европейская комиссия опубликовала первый проект Code of Practice по прозрачности AI-контента. Он показывает, как требования ст. 50 AI Act должны превратиться в практическую реализацию.
Для разработчиков (поставщиков AI, providers):
▪️многоуровневая маркировка: метаданные, невидимые водяные знаки, отслеживание происхождения.
▪️для открытых моделей предлагаются «структурные» водяные знаки, закодированные ещё на стадии обучения, чтобы каждый производный модуль наследовал признаки происхождения.
▪️бесплатные инструменты для проверки контента.
▪️при закрытии сервиса передача инструментов проверки властям.
Для платформ и сервисов (deployers) ключевой элемент требований это, что видит конечный пользователь:
▪️вводится различие между полностью AI‑созданным контентом и AI‑ассистированным, где даже косметические изменения (фильтры, шумоподавление), влияющие на восприятие смысла, возраста, эмоций или тона кожи, учитываются отдельно.
Для таких случаев предполагаются иконки/логотипы с двухбуквенным обозначением по стандарту Member State (ISO‑код страны, н-р DE, IT, FR) и интерактивные элементы интерфейса.
▪️в видео: постоянные значки и вступительные уведомления;
▪️в аудио: регулярные устные уведомления о вмешательстве ИИ.
▪️тексты на общественные темы маркируются, если человек не проверил их содержимое.
▪️художественные и сатирические работы маркируются мягче, но с защитой изображённых лиц.
Главные риски:
▪️техническая неопределённость, незрелые подходы, особенно для открытых моделей.
▪️пользователи могут игнорировать все эти значки и повториться «катастрофа cookie-баннеров».
▪️компании могут соблюсти требования только формально и не обеспечить реального понимания пользователем, т.к. нет чётких практических стандартов маркировки и верификации.
Сроки:
Статья 50 AI Act вступает в силу 2 августа 2026 г. вместе с большинством требований AI Act.
Cбор обратной связи по Кодексу продолжиться до 23 января 2026, второй проект ожидается к середине марта, финальная версия - к июню 2026 года.
Проект кодекса задаёт основу прозрачности, позволяет в будущем разработать и уточнить стандарты, разделяя «AI-generated» от «AI-assisted» контент, повысить доверие публики к такому контенту.
Компаниям же нужно учитывать эту неопределённость и готовить проекты «by design», чтобы потом не переделывать их полностью и не увеличивать бюджет.
#LawAndDisorder
————
@pattern_ai
Вернемся к прозе новостей....
Европейская комиссия опубликовала первый проект Code of Practice по прозрачности AI-контента. Он показывает, как требования ст. 50 AI Act должны превратиться в практическую реализацию.
Для разработчиков (поставщиков AI, providers):
▪️многоуровневая маркировка: метаданные, невидимые водяные знаки, отслеживание происхождения.
▪️для открытых моделей предлагаются «структурные» водяные знаки, закодированные ещё на стадии обучения, чтобы каждый производный модуль наследовал признаки происхождения.
▪️бесплатные инструменты для проверки контента.
▪️при закрытии сервиса передача инструментов проверки властям.
Для платформ и сервисов (deployers) ключевой элемент требований это, что видит конечный пользователь:
▪️вводится различие между полностью AI‑созданным контентом и AI‑ассистированным, где даже косметические изменения (фильтры, шумоподавление), влияющие на восприятие смысла, возраста, эмоций или тона кожи, учитываются отдельно.
Для таких случаев предполагаются иконки/логотипы с двухбуквенным обозначением по стандарту Member State (ISO‑код страны, н-р DE, IT, FR) и интерактивные элементы интерфейса.
▪️в видео: постоянные значки и вступительные уведомления;
▪️в аудио: регулярные устные уведомления о вмешательстве ИИ.
▪️тексты на общественные темы маркируются, если человек не проверил их содержимое.
▪️художественные и сатирические работы маркируются мягче, но с защитой изображённых лиц.
Главные риски:
▪️техническая неопределённость, незрелые подходы, особенно для открытых моделей.
▪️пользователи могут игнорировать все эти значки и повториться «катастрофа cookie-баннеров».
▪️компании могут соблюсти требования только формально и не обеспечить реального понимания пользователем, т.к. нет чётких практических стандартов маркировки и верификации.
Сроки:
Статья 50 AI Act вступает в силу 2 августа 2026 г. вместе с большинством требований AI Act.
Cбор обратной связи по Кодексу продолжиться до 23 января 2026, второй проект ожидается к середине марта, финальная версия - к июню 2026 года.
Проект кодекса задаёт основу прозрачности, позволяет в будущем разработать и уточнить стандарты, разделяя «AI-generated» от «AI-assisted» контент, повысить доверие публики к такому контенту.
Компаниям же нужно учитывать эту неопределённость и готовить проекты «by design», чтобы потом не переделывать их полностью и не увеличивать бюджет.
#LawAndDisorder
————
@pattern_ai
👍2
ЕС даёт шанс «сигналить» о проблемах AI до выхода на рынок
Европейская комиссия через AI Office запустила AI Act Whistleblower Tool. Это защищённый канал, где специалисты, работающие с AI‑моделями, могут конфиденциально сообщать о вредных или несоответствующих практиках, которые могут нарушать AI Act или угрожать правам, безопасности или общественному доверию.
👀 Что делает инструмент:
🔹 позволяет анонимно отправлять сообщения на любом официальном языке ЕС.
🔹есть защищённый «входящий ящик» для загрузки доказательств и переписки с AI Office, при этом личность остаётся скрытой.
🔹подача, уточнение фактов и ответы возможны без раскрытия личности.
Полная защита информаторов по Директиве ЕС о защите информаторов (Whistleblower Directive) начнёт применяться к нарушениям AI Act с 2 августа 2026 года. Некоторые случаи, связанные с безопасностью продукции, защитой потребителей, данными или информационной безопасностью, могут уже сейчас подпадать под защиту существующих правил по директиве.
Придерживайтесь добросовестных практик с самого начала. С появлением Whistleblower Tool любой специалист внутри команды сможет сигнализировать о нарушениях.
#LawAndDisorder #UXWatch
————
@pattern_ai
Европейская комиссия через AI Office запустила AI Act Whistleblower Tool. Это защищённый канал, где специалисты, работающие с AI‑моделями, могут конфиденциально сообщать о вредных или несоответствующих практиках, которые могут нарушать AI Act или угрожать правам, безопасности или общественному доверию.
🔹 позволяет анонимно отправлять сообщения на любом официальном языке ЕС.
🔹есть защищённый «входящий ящик» для загрузки доказательств и переписки с AI Office, при этом личность остаётся скрытой.
🔹подача, уточнение фактов и ответы возможны без раскрытия личности.
Полная защита информаторов по Директиве ЕС о защите информаторов (Whistleblower Directive) начнёт применяться к нарушениям AI Act с 2 августа 2026 года. Некоторые случаи, связанные с безопасностью продукции, защитой потребителей, данными или информационной безопасностью, могут уже сейчас подпадать под защиту существующих правил по директиве.
Придерживайтесь добросовестных практик с самого начала. С появлением Whistleblower Tool любой специалист внутри команды сможет сигнализировать о нарушениях.
#LawAndDisorder #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
💯1
Как персональные данные «путешествуют» через open-source AI: инструмент от CNIL
Французский регулятор CNIL вместе с LINC разработал демонстратор для изучения «генеалогии» AI-моделей в open source.
Цель: понять, как можно реализовать права на доступ, исправление или удаление персональных данных, если они использовались при обучении моделей.
👀 Что делает инструмент:
🔹показывает связи между моделями: от исходных («предки») до производных («потомки»).
🔹позволяет понять, какие модели могли «запомнить» данные конкретного человека.
🔹даёт возможность моделировать сценарии обращения за доступом, исправлением или удалением данных.
Пользователь может выбрать модель на HuggingFace и увидеть её генеалогию. Экспертный режим позволяет строить графы наследования моделей, полезные для исследователей и разработчиков.
Инструмент пока экспериментальный, помогает визуализировать и анализировать данные, но не всегда дает отправить прямой запрос на удаление.
Часто пользователи модифицируют open-source модели и выкладывают их снова, и каждая новая версия наследует данные предыдущих моделей. Понимание этих связей поможет отследить путь персональных данных и оценить, как реализовать GDPR на практике.
#AIShelf #UXWatch
————
@pattern_ai
Французский регулятор CNIL вместе с LINC разработал демонстратор для изучения «генеалогии» AI-моделей в open source.
Цель: понять, как можно реализовать права на доступ, исправление или удаление персональных данных, если они использовались при обучении моделей.
🔹показывает связи между моделями: от исходных («предки») до производных («потомки»).
🔹позволяет понять, какие модели могли «запомнить» данные конкретного человека.
🔹даёт возможность моделировать сценарии обращения за доступом, исправлением или удалением данных.
Пользователь может выбрать модель на HuggingFace и увидеть её генеалогию. Экспертный режим позволяет строить графы наследования моделей, полезные для исследователей и разработчиков.
Инструмент пока экспериментальный, помогает визуализировать и анализировать данные, но не всегда дает отправить прямой запрос на удаление.
Часто пользователи модифицируют open-source модели и выкладывают их снова, и каждая новая версия наследует данные предыдущих моделей. Понимание этих связей поможет отследить путь персональных данных и оценить, как реализовать GDPR на практике.
#AIShelf #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
A guide to Fundamental Rights Impact Assessments_Danish.pdf
1.7 MB
Гайд по FRIA от Датского института прав человека
Напомню, что Fundamental Rights Impact Assessment (FRIA) помогает выявлять и снижать риски нарушения прав человека при использовании ИИ в продуктах и сервисах.
Подробный пост был здесь.
👀 Гайд включает в себя:
▪️Критерии для содержательной оценки FRIA;
▪️Пошаговое руководство, структурированное в 5 отдельных этапов.
▪️Планирование и определение масштаба проекта;
▪️Оценка и смягчение негативных последствий для основных прав человека.
▪️Решение о развертывании и публичная отчетность;
▪️Мониторинг и анализ.
И самое главное, шаблон в виде Excel таблицы.
📌 Чем отличаются инструменты оценки воздействия AIIA, FRIA и DPIA
#LawAndDisorder #AIShelf
————
@pattern_ai
Напомню, что Fundamental Rights Impact Assessment (FRIA) помогает выявлять и снижать риски нарушения прав человека при использовании ИИ в продуктах и сервисах.
Подробный пост был здесь.
▪️Критерии для содержательной оценки FRIA;
▪️Пошаговое руководство, структурированное в 5 отдельных этапов.
▪️Планирование и определение масштаба проекта;
▪️Оценка и смягчение негативных последствий для основных прав человека.
▪️Решение о развертывании и публичная отчетность;
▪️Мониторинг и анализ.
И самое главное, шаблон в виде Excel таблицы.
#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Нью‑Йорк заставляет раскрывать персонализированные цены, установленные алгоритмами
С ноября 2025 года компании в Нью‑Йорке обязаны сообщать ( Law 349-A) , когда цена товара или услуги формируется алгоритмом на основе личных данных потребителя. Точная фраза на сайте или в приложении:
“THIS PRICE WAS SET BY AN ALGORITHM USING YOUR PERSONAL DATA.”
Речь идёт о динамическом ценообразовании: алгоритм учитывает историю покупок, устройство (Android vs iOS) или другие данные. Даже «оптимизация CX» может превратиться в скрытую дискриминацию, если, например, устройство становится косвенным индикатором дохода.
С точки зрения AI assurance (проверки и контроля ИИ на этичность, безопасность и законность) важно убедиться, что:
▪️ личные данные используются корректно;
▪️логика алгоритма объяснима;
▪️уведомление показывается каждый раз.
Пример: персонализация не должна «наказывать» лояльных клиентов или тех, кто менее чувствителен к цене.
Штрафы до $1,000 за нарушение.
Нью‑Йорк стал одной из первых юрисдикций, вводящих такие требования, и на фоне роста интереса регуляторов к алгоритмическим системам это важно помнить при расширении проектов.
📌 Подборка изменений:
Законы в США, регулирующие ИИ-компаньонов
ИИ в рекламе: новые законы Нью-Йорка
#LawAndDisorder
————
@pattern_ai
С ноября 2025 года компании в Нью‑Йорке обязаны сообщать ( Law 349-A) , когда цена товара или услуги формируется алгоритмом на основе личных данных потребителя. Точная фраза на сайте или в приложении:
“THIS PRICE WAS SET BY AN ALGORITHM USING YOUR PERSONAL DATA.”
Речь идёт о динамическом ценообразовании: алгоритм учитывает историю покупок, устройство (Android vs iOS) или другие данные. Даже «оптимизация CX» может превратиться в скрытую дискриминацию, если, например, устройство становится косвенным индикатором дохода.
С точки зрения AI assurance (проверки и контроля ИИ на этичность, безопасность и законность) важно убедиться, что:
▪️ личные данные используются корректно;
▪️логика алгоритма объяснима;
▪️уведомление показывается каждый раз.
Пример: персонализация не должна «наказывать» лояльных клиентов или тех, кто менее чувствителен к цене.
Штрафы до $1,000 за нарушение.
Нью‑Йорк стал одной из первых юрисдикций, вводящих такие требования, и на фоне роста интереса регуляторов к алгоритмическим системам это важно помнить при расширении проектов.
Законы в США, регулирующие ИИ-компаньонов
ИИ в рекламе: новые законы Нью-Йорка
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Можно ли обучать ИИ на чужих работах? Ответ немецкого суда
10 декабря 2025 года Высший земельный суд Гамбурга (OLG Hamburg, 5 U 104/24) вынес по делу Robert Kneschke v. LAION e.V первое в Германии апелляционное решение о применении исключений для интеллектуального анализа текста и данных (TDM) при обучении ИИ.
Фотограф Роберт Кнешке оспаривал включение его работ в датасет LAION 5B, использовавшийся для обучения моделей вроде Stable Diffusion. Суд подтвердил решение первой инстанции: деятельность LAION подпадает под исключения §§44b и 60d UrhG. Заявленный автором запрет на TDM был признан недействительным, поскольку не был выражен в машиночитаемой форме.
Позиция суда:
▪️ загрузка, анализ и валидация изображений для проверки image-text-пар относятся к TDM;
▪️ такие действия охватывают и этапы, предшествующие обучению модели;
▪️ исключение для научных исследований (§60d UrhG) применяется к некоммерческой исследовательской деятельности, включая создание открытых датасетов;
▪️ внутреннее использование данных не нарушает обычную коммерческую эксплуатацию произведений.
Что защищено от претензий о нарушении авторского права:
▪️ временное воспроизведение работ для автоматизированного анализа (например, сопоставление изображения и текста, фильтрация, проверка);
▪️фильтрация, проверка и подготовка датасетов для обучения ИИ;
▪️ создание и хранение датасетов в исследовательских целях;
▪️ иные внутренние технические операции без публикации контента.
Что не защищено:
▪️ публикация или распространение самих охраняемых произведений;
▪️ использование данных за пределами TDM;
▪️ результаты ИИ, воспроизводящие конкретные охраняемые работы;
▪️ интеллектуальный анализ данных при наличии действующего машиночитаемого запрета со стороны правообладателя.
Суд подчеркнул: исключения для TDM не создают общего разрешения на использование чужих работ. Они защищают только строго определённые технические стадии обучения ИИ. Дальнейшая кассация в BGH допущена, а значит спор о границах TDM в Европе продолжается.
Для правообладателей:
▪️Внедрите машиночитаемые формы отказа от участия (robots.txt, протокол резервирования TDM, метаданные).
▪️Документируйте развертывание системы с возможностью отказа от участия и храните подтверждающие документы в течение соответствующего периода времени.
▪️Постарайтесь включить в соглашения с агентствами и платформами положения, обеспечивающие соблюдение технических требований.
Для разработчиков ИИ и исследовательских организаций:
▪️Обеспечьте соблюдение обязательств по выявлению угроз с возможностью отказа от участия (ст. 53 AI Act).
▪️Поддерживайте прозрачность в отношении некоммерческого назначения, чтобы не потерять защиту, предоставляемую разделом 60d.
▪️Документируйте исследовательскую деятельность и публикуйте результаты проверки для повышения научной ценности работы.
📌 Требования защиты авторских прав для поставщиков и развертывателей по EU AI Act;
Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ?
Проект Code of Practice по прозрачности AI-контента
#LawAndDisorder
————
@pattern_ai
10 декабря 2025 года Высший земельный суд Гамбурга (OLG Hamburg, 5 U 104/24) вынес по делу Robert Kneschke v. LAION e.V первое в Германии апелляционное решение о применении исключений для интеллектуального анализа текста и данных (TDM) при обучении ИИ.
Фотограф Роберт Кнешке оспаривал включение его работ в датасет LAION 5B, использовавшийся для обучения моделей вроде Stable Diffusion. Суд подтвердил решение первой инстанции: деятельность LAION подпадает под исключения §§44b и 60d UrhG. Заявленный автором запрет на TDM был признан недействительным, поскольку не был выражен в машиночитаемой форме.
Позиция суда:
▪️ загрузка, анализ и валидация изображений для проверки image-text-пар относятся к TDM;
▪️ такие действия охватывают и этапы, предшествующие обучению модели;
▪️ исключение для научных исследований (§60d UrhG) применяется к некоммерческой исследовательской деятельности, включая создание открытых датасетов;
▪️ внутреннее использование данных не нарушает обычную коммерческую эксплуатацию произведений.
Что защищено от претензий о нарушении авторского права:
▪️ временное воспроизведение работ для автоматизированного анализа (например, сопоставление изображения и текста, фильтрация, проверка);
▪️фильтрация, проверка и подготовка датасетов для обучения ИИ;
▪️ создание и хранение датасетов в исследовательских целях;
▪️ иные внутренние технические операции без публикации контента.
Что не защищено:
▪️ публикация или распространение самих охраняемых произведений;
▪️ использование данных за пределами TDM;
▪️ результаты ИИ, воспроизводящие конкретные охраняемые работы;
▪️ интеллектуальный анализ данных при наличии действующего машиночитаемого запрета со стороны правообладателя.
Суд подчеркнул: исключения для TDM не создают общего разрешения на использование чужих работ. Они защищают только строго определённые технические стадии обучения ИИ. Дальнейшая кассация в BGH допущена, а значит спор о границах TDM в Европе продолжается.
Для правообладателей:
▪️Внедрите машиночитаемые формы отказа от участия (robots.txt, протокол резервирования TDM, метаданные).
▪️Документируйте развертывание системы с возможностью отказа от участия и храните подтверждающие документы в течение соответствующего периода времени.
▪️Постарайтесь включить в соглашения с агентствами и платформами положения, обеспечивающие соблюдение технических требований.
Для разработчиков ИИ и исследовательских организаций:
▪️Обеспечьте соблюдение обязательств по выявлению угроз с возможностью отказа от участия (ст. 53 AI Act).
▪️Поддерживайте прозрачность в отношении некоммерческого назначения, чтобы не потерять защиту, предоставляемую разделом 60d.
▪️Документируйте исследовательскую деятельность и публикуйте результаты проверки для повышения научной ценности работы.
Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ?
Проект Code of Practice по прозрачности AI-контента
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Канада запустила бета‑версию реестра ИИ
Федеральное правительство Канады опубликовало первую бета‑версию AI Register - публичного реестра ИИ‑систем, используемых в государственных структурах. Реестр доступен на портале открытых данных и показывает, какие инструменты с ИИ применяются в различных департаментах, для чего они созданы, кто их использует и откуда они взяты.
Пока это минимально жизнеспособный продукт (MVP) с базовой информацией. В реестр включено более 400 систем, от исследований и прототипов до полностью развёрнутых инструментов, включая данные о том, используются ли персональные данные и получают ли пользователи уведомления об ИИ.
Планируется, что реестр поможет анализировать, какие системы требуют оценки воздействия, где нужны механизмы контроля и как избежать скрытых проблем и тем самым способствовать прозрачности и созданию основу для AI governance в государственном секторе.
📌 Каталог Tools & Metrics for Trustworthy AI от OECD;
Список трекеров ИИ здесь.
#AIShelf
————
@pattern_ai
Федеральное правительство Канады опубликовало первую бета‑версию AI Register - публичного реестра ИИ‑систем, используемых в государственных структурах. Реестр доступен на портале открытых данных и показывает, какие инструменты с ИИ применяются в различных департаментах, для чего они созданы, кто их использует и откуда они взяты.
Пока это минимально жизнеспособный продукт (MVP) с базовой информацией. В реестр включено более 400 систем, от исследований и прототипов до полностью развёрнутых инструментов, включая данные о том, используются ли персональные данные и получают ли пользователи уведомления об ИИ.
Планируется, что реестр поможет анализировать, какие системы требуют оценки воздействия, где нужны механизмы контроля и как избежать скрытых проблем и тем самым способствовать прозрачности и созданию основу для AI governance в государственном секторе.
Список трекеров ИИ здесь.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Red Teamig AI for Social Good_Unesco.pdf
2.2 MB
Red Teaming AI: безопасный и этичный ИИ по методике UNESCO
UNESCO выпустила практический Red Teaming AI Playbook, чтобы проверять модели ИИ на скрытые ошибки, предвзятость и потенциально вредное поведение до их использования в продуктах. В нем фокус на социальных, этических и гендерных рисках, а не только на технических ошибках.
Проиллюстрированы практические шаги и примеры, как организовать Red Teaming, собирать выводы и улучшать модели, показаны промпты и варианты правильных/неправильных ответов.
Пособие делает red teaming доступным широкому кругу участников: политикам, образовательным организациям, гражданскому обществу, а не только узким техническим командам.
#AIShelf
————
@pattern_ai
UNESCO выпустила практический Red Teaming AI Playbook, чтобы проверять модели ИИ на скрытые ошибки, предвзятость и потенциально вредное поведение до их использования в продуктах. В нем фокус на социальных, этических и гендерных рисках, а не только на технических ошибках.
Проиллюстрированы практические шаги и примеры, как организовать Red Teaming, собирать выводы и улучшать модели, показаны промпты и варианты правильных/неправильных ответов.
Пособие делает red teaming доступным широкому кругу участников: политикам, образовательным организациям, гражданскому обществу, а не только узким техническим командам.
#AIShelf
————
@pattern_ai
Unesco Report-AI in Courts.pdf
891.2 KB
ИИ в судах: глобальные этические принципы от Юнеско
Документ закрепляет 15 универсальных принципов, которые защищают верховенство закона, прозрачность и фундаментальные права, задавая стандарты ответственного использования ИИ в юстиции.
Ключевые принципы:
🔹ИИ как вспомогательный инструмент. Решения остаются за человеком, ИИ лишь помогает, но не заменяет судью.
🔹 Существенный человеческий контроль . Системы работают под ясным и подотчётным контролем человека.
🔹Прозрачность и объяснимость. Решения должны быть отслеживаемыми, проверяемыми и подконтрольными.
🔹 Права человека в центре внимания. Справедливость, соблюдение процессуальных норм и защита прав участников обязательны.
🔹 Инклюзивное управление. Рекомендации разработаны с учётом мнений более 36 000 судебных специалистов из 160 стран, что обеспечивает глобальную легитимность.
Фреймворк сопровождается инструментами для повышения компетенций, помогая судьям, судам и законодателям внедрять ИИ без ущерба для независимости и доверия к судебной системе.
📌 ИИ в зале суда: правила игры;
#AIShelf #LawAndDisorder
————
@pattern_ai
Документ закрепляет 15 универсальных принципов, которые защищают верховенство закона, прозрачность и фундаментальные права, задавая стандарты ответственного использования ИИ в юстиции.
Ключевые принципы:
🔹ИИ как вспомогательный инструмент. Решения остаются за человеком, ИИ лишь помогает, но не заменяет судью.
🔹 Существенный человеческий контроль . Системы работают под ясным и подотчётным контролем человека.
🔹Прозрачность и объяснимость. Решения должны быть отслеживаемыми, проверяемыми и подконтрольными.
🔹 Права человека в центре внимания. Справедливость, соблюдение процессуальных норм и защита прав участников обязательны.
🔹 Инклюзивное управление. Рекомендации разработаны с учётом мнений более 36 000 судебных специалистов из 160 стран, что обеспечивает глобальную легитимность.
Фреймворк сопровождается инструментами для повышения компетенций, помогая судьям, судам и законодателям внедрять ИИ без ущерба для независимости и доверия к судебной системе.
📌 ИИ в зале суда: правила игры;
#AIShelf #LawAndDisorder
————
@pattern_ai
В Китае запустили первый в стране AI-суд по трудовым спорам
Как пример внедрения, в Шэньчжэне официально запустили интеллектуальную вспомогательную систему обработки дел в рамках арбитража трудовых споров ( 111 типов трудовых споров на всех этапах процесса от подачи жалобы до вынесения решения).
👀 Система интегрирует ИИ в ключевые этапы арбитражного разбирательства, используя комбинацию знаний, стандартов и логики судебного процесса, что позволяет повысить эффективность и снизить ручной труд:
▪️Автоматическая предварительная экспертиза заявлений анализирует запросы по 11 критериям и формирует рекомендации по допуску к рассмотрению.
▪️Умная медиция выявляет ключевые спорные моменты, подбирает релевантные нормы и аналогичные дела, оценивает планируемые соглашения на соответствие правовым требованиям.
▪️Автоматизированный анализ материалов дела структурирует суть споров, ключевые факты и генерирует обзорные выводы, повышая скорость обзора материалов до +50 %.
▪️Помощь в судебном разбирательстве формирует план слушания, напоминает по ключевым вопросам и предлагает дополнительные вопросы для уточнения фактов.
▪️Генерация решений помогает формировать окончательные решения и сокращает время подготовки документации практически вдвое.
▪️Сравнительный анализ осуществляет глубокую сверку арбитражных решений и судебных вердиктов по фактам, применимым нормам и итоговым последствиям, выявляя закономерности и различия.
Эффекты от внедрения:
▪️Время подготовки уменьшилось приблизительно на 50 %.
▪️Эффективность обзора материалов дела выросла примерно на 50 %.
▪️Общий цикл арбитража стал заметно короче.
#AIShelf
————
@pattern_ai
Как пример внедрения, в Шэньчжэне официально запустили интеллектуальную вспомогательную систему обработки дел в рамках арбитража трудовых споров ( 111 типов трудовых споров на всех этапах процесса от подачи жалобы до вынесения решения).
▪️Автоматическая предварительная экспертиза заявлений анализирует запросы по 11 критериям и формирует рекомендации по допуску к рассмотрению.
▪️Умная медиция выявляет ключевые спорные моменты, подбирает релевантные нормы и аналогичные дела, оценивает планируемые соглашения на соответствие правовым требованиям.
▪️Автоматизированный анализ материалов дела структурирует суть споров, ключевые факты и генерирует обзорные выводы, повышая скорость обзора материалов до +50 %.
▪️Помощь в судебном разбирательстве формирует план слушания, напоминает по ключевым вопросам и предлагает дополнительные вопросы для уточнения фактов.
▪️Генерация решений помогает формировать окончательные решения и сокращает время подготовки документации практически вдвое.
▪️Сравнительный анализ осуществляет глубокую сверку арбитражных решений и судебных вердиктов по фактам, применимым нормам и итоговым последствиям, выявляя закономерности и различия.
Эффекты от внедрения:
▪️Время подготовки уменьшилось приблизительно на 50 %.
▪️Эффективность обзора материалов дела выросла примерно на 50 %.
▪️Общий цикл арбитража стал заметно короче.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Курсы от Google по AI
1️⃣ Introduction to Generative AI. Что такое генеративный ИИ и как он работает, как создавать простые приложения ИИ с помощью инструментов Google.
2️⃣ Introduction to Large Language Models. Узнаете, где используются большие языковые модели, почему они важны и как их можно улучшить, без сложных технических терминов.
3️⃣ Introduction to Responsible AI. Как создавать ИИ этично, 7 основных принципов Google для создания справедливых, безопасных и ответственных систем ИИ.
4️⃣ Prompt Design in Vertex AI. Как писать более качественные подсказки для получения лучших результатов от ИИ, создание текста и изображений с помощью инструментов ИИ Google, практические упражнения.
5️⃣ Introduction to Image Generation. Как ИИ создает изображения с нуля.
6️⃣ Encoder-Decoder Architecture. Как ИИ переводит языки, резюмирует контент и генерирует текст.
7️⃣ Attention Mechanism. Как ИИ учится фокусироваться на важной информации в тексте и изображениях.
8️⃣ Transformer Models and BERT Model. Модели, которые изменили современный ИИ.
9️⃣ Create Image Captioning Models. Создание моделей для создания подписей к изображениям.
1️⃣ 0️⃣ Introduction to Vertex AI Studio. Демонстрации, показывающие, как идеи превращаются в работающие инструменты ИИ.
#AIShelf
————
@pattern_ai
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Курсы от Hugging Face
1️⃣ AI Agents -курс по проектированию автономных ИИ-агентов: планирование, инструменты, память, взаимодействие с внешними средами и API
2️⃣ LLM Course - как устроены большие языковые модели: токенизация, архитектура Transformer, обучение, экосистема библиотек Hugging Face.
3️⃣ Smol-course - сжатый и практичный курс для тех, у кого мало времени: быстрая ориентация в fine-tuning, адаптации моделей и работе с небольшими LLM.
4️⃣ MCP Course - создан совместно с Anthropic. Посвящён подключению LLM к внешним данным, инструментам и контекстам через MCP — ключевая тема для enterprise- и agent-решений.
5️⃣ Deep RL - полный курс по обучению с подкреплением: от базовых алгоритмов до deep RL. То, на чём обучаются роботы, игровые агенты и исследовательские модели (включая подходы уровня OpenAI).
6️⃣ ML для игр - практика применения ML и RL в геймдеве: интеллектуальные NPC, адаптивное поведение, симуляции и обучение агентов в игровых средах.
7️⃣ Robotics - курс на стыке классической робототехники и нейросетей: управление, восприятие, обучение агентов и интеграция ML-моделей в физические системы.
8️⃣ Computer Vision- всё про зрение для ИИ: классификация, детекция, сегментация, multimodal-подходы и работа с изображениями в экосистеме Transformers.
9️⃣ Audio Course-работа со звуком и речью: ASR, TTS, аудиоклассификация и speech-модели на базе Transformers.
1️⃣ 🔤 Diffusion Course - подробный гайд по диффузионным моделям: генерация изображений, кастомизация, fine-tuning и практическая работа с библиотекой Diffusers.
1️⃣ 1️⃣ Open-Source AI Cookbook - отдельно стоящая «тяжёлая артиллерия»: сборник готовых рецептов, архитектурных паттернов и кода для решения прикладных ИИ-задач.
#AIShelf
————
@pattern_ai
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
💔1
Конец года - это всегда время для рефлексии. Ответьте на несколько вопросов, чтобы в следующем году канал стал ещё полезнее.
1. Какой контент был для вас самым ценным в этом году?
Anonymous Poll
9%
Рубрика UXWatch: влияние ИИ, аналитика, тренды
55%
Рубрика LawAndDisorder: регулирование ИИ (EU AI Act, гайды регуляторов, судебные кейсы судов)
9%
Рубрика AIShelf: подборки гайдов, курсов, материалов
27%
Рубрика TalkPrompty: полезные промпты
45%
Всё читаю, сложно выбрать