Pattern AI – Telegram
Pattern AI
231 subscribers
62 photos
4 videos
35 files
179 links
Искусственный интеллект изучает нас. Мы изучаем ИИ.
Отслеживаем, как меняется регулирование ИИ.
Разбираем манипуляции, UX-паттерны и алгоритмические ловушки.
Учимся применять ИИ: осознанно, этично и с пользой.
Download Telegram
A_Practical_Guide_to_Responsible_Workforce_Transformation_The_University.pdf
1.5 MB
AI Leadership Blueprint: чек-листы, метрики и готовые шаблоны для компаний и гос.оранов от Университета Юты

Университет Юты в рамках инициативы One-U по ответственному ИИ выпустил The AI Leadership Blueprint: A Practical Guide to Responsible Workforce Transformation.

Что можно забрать полезного:
▪️фреймворки для принятия решений: как оценить готовность, риски и возможности.
▪️стратегии обучения для команд;
▪️инструменты для подсчета ROI и Sustainability;

❗️Но самое полезное, это приложения, где есть шаблоны:
▪️ ИИ политики для малого и крупного бизнеса (осторожно, слишком краткие);
▪️ метрики рисков и индикаторы эффективности;
▪️шаблон ROI;
▪️ оценка готовности команды;
▪️матрица рисков на примере госоргана.

#AIShelf
————
@pattern_ai
HOW PEOPLE USE CHATGPT.pdf
14.5 MB
Как на самом деле используют ChatGPT

Вышло масштабное исследование OpenAI, где на реальных данных показано, как ChatGPT меняет повседневность.
🔹Рост использования:
В июне 2024 пользователи отправляли ~451 млн сообщений в день.
В июне 2025 уже 2,6 млрд. Это рост в 5,8 раза за год.
🔹 Доля «нерабочих» запросов выросла с 53% до 73%.
Топ-3 темы: практические советы, поиск информации и написание текстов. Программирование составляет всего ~4%.
🔹 Почти 40% рабочих запросов связаны с письмом, причём 2/3 это редактирование и доработка текста, а не генерация с нуля.
🔹 Формат запросов:
49% «дай совет/объясни» (Asking).
40% «сделай задачу» (Doing).
11% выражение эмоций/мнений (Expressing).
Причём именно Asking растёт быстрее и оценивается пользователями выше.
🔹 Половина сообщений идёт от пользователей младше 26 лет.
🔹По оценкам, пользователям в США нужно заплатить в среднем $98, чтобы они отказались от ChatGPT на месяц.

Как защищали приватность данных при исследовании:
🔹Никто из исследователей не видел сами сообщения. Анализ шёл через автоматические классификаторы на де-идентифицированных данных
🔹 Внутренний Privacy Filter вычищал имена, контакты и прочие персональные данные.
🔹 Для анализа профессий и образования использовали Data Clean Room: только агрегированные результаты по ≥100 пользователям.
🔹 Отсев рисковых данных. В выборку не попали аккаунты <18 лет, удалённые сообщения, пользователи с opt-out или заблокированные.

#AIShelf
————
@pattern_ai
👍1
10 минут вместо 10 часов, а как честно биллинговать работу с ИИ, например юристам?

В прошлых постах мы уже разбирали, что ИИ уже умеет делать то, что раньше отнимало у юристов часы: черновики договоров, первичный юридический поиск, разбор документов при due diligence и т.п. С одной стороны это отличная новость для увеличения эффективности, а с другой стороны "головная боль" для биллинга часов, ведь количество часов уменьшилось, уменьшать счет, увеличивать количество клиентов, уведомлять ли клиента про работу с ИИ?

Что говорят регуляторы и ассоциации юристов в мире?

🔹США, ABA (Formal Opinion 512): при использовании ИИ юрист обязан учитывать правила разумности гонораров и прозрачности, оплата должна отражать реальную ценность и работу человека, а не просто «накрутку» за ИИ.Нельзя добавить строку «за использование ChatGPT» без объяснения, необходимо согласие клиента. Еще подборка здесь.
🔹Канада, Bar Association (CBA) советует юристам заранее прописывать в договоре оплачивает ли клиент подписку на ИИ-сервис (pass-through) или это входит в гонорар. Если использование ИИ сокращает время или расходы юриста, эта экономия должна быть точно отражена в любых счетах, выставляемых клиенту.
🔹Германия, BRAK Leitfaden подчеркивает в своем руководстве, что ИИ можно использовать, но адвокат не вправе взимать плату за «работу машины». Счёт должен отражать человеческое участие: проверку, адаптацию, консультацию.
🔹Франция, Conseil National des Barreaux также говорят, что использование ИИ должно быть прозрачным для клиента. В счёте нельзя «маскировать» автоматизированную работу под часы юриста. Рекомендуется переходить на пакетные и фиксированные модели для задач, где ИИ даёт реальную экономию.
🔹Согласно исследованию LexisNexis, почти половина юристов (47%) считают, что ИИ изменит систему выставления счетов юридическим фирмам за услуги (value-based, flat fee, capped fee, success fees).

Ключевые риски:
▪️Если фирма скрывает, что использовала ИИ или завышает время/стоимость, это может нарушить профессиональные правила (коммуникация с клиентом, честность о времени/затратах);
▪️Просто добавлять плату за «доступ к ИИ» без обоснования;
▪️Если ИИ-фрагмент приведёт к ошибке (галлюцинация, неправильный анализ), клиент будет требовать ответ. Фирма остаётся ответственна за результат.
▪️Использование внешних сервисов ИИ может влечь обработку клиентских данных, что влияет на их конфиденциальность.

Какие есть варианты, чтобы и клиент и фирма были довольны?

▪️Соблюдать прозрачность, объяснять, где именно применялся ИИ, какие риски, сколько времени ушло на человеческую проверку. Получать согласие клиента.
▪️Чётко указывать, оплачивает ли клиент подписку необходимой LLM или использование включается в общую ставку. Аргументировать, почему необходима оплата.
▪️Если задача автоматизирована и требует минимальной проверки человеком, выставлять счёт за человеческую проверку/экспертизу, а не за «экономию времени». Документировать время, потраченное на валидацию/редактуру.
▪️Рассмотреть другие модели, например фиксированные пакеты,value-based fee, формат capped fee и success fee воспринимаются честнее, чем просто почасовой тариф.
▪️Фиксировать, что сделал ИИ и что проверял юрист, чтобы обосновать счёт и защититься от претензий.

Давайте в комментариях обсудим, какие модели оплаты кажутся вам наиболее честными и прозрачными?

#UXWatch
————
@pattern_ai
👍1
AI in Courts - Insights from South Korea, Australia, and Singapore
Интересный вебинар, где спикеры обсуждают, как именно страны интегрируют ИИ в работу судов, какие практики помогают сделать это безопасно и этично, какие риски есть (ошибки, предвзятости, утечка данных) и как их минимизировать, показывают интерфейсы своих тулов.

#AIShelf
————
@pattern_ai
👍1
У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ"

Южная Корея еще в январе этого года приняла Закон о развитии ИИ (Basic Act on the Development of Artificial Intelligence and Establishment of Trust), который вступит в силу 22 января 2026 года.

❗️Важно, Закон имеет экстерриториальное действие, т.е. распространяется не только на действия, совершаемые в Южной Корее, но и на действия, совершаемые за рубежом и влияющие на внутренний рынок Южной Кореи или пользователей в Южной Корее ( ст. 4(1)). Это значит, что если вы предоставляете системы или услуги ИИ пользователям в Южной Корее, то будете подпадать под действие Закона, даже если у вас нет физического присутствия в стране.

👀 Закон предусматривает создание национальной инфраструктуры для ИИ:
- Национальный комитет по ИИ под председательством президента, который будет курировать политику в области ИИ.
- Центры обработки данных ИИ и кластеры для поддержки исследований и разработок.
- поддержку стартапов и малых и средних предприятий в сфере ИИ.
- развитие кадров и международное сотрудничество.


Устанавливается многоуровневый подход к регулированию ИИ.
В ст. 2 даются определения, что такое ИИ, системы ИИ, технологии ИИ.
ИИ с высоким уровнем воздействия - системы ИИ, которые могут оказать существенное влияние или создать угрозу для жизни, физической безопасности и основных прав человека, и используется в критически важных секторах, определенных в Рамочном законе об ИИ, включая энергетику, здравоохранение, эксплуатацию ядерной энергетики, анализ биометрических данных, принятие государственных решений, образование или другие области, оказывающие существенное влияние на безопасность жизни и здоровья человека и защиту основных прав, как предписано Указом Президента.


Смотрим основные требования для бизнеса.
Операторы должны обеспечить:
- предоставлять пользователям информацию о том, что продукт или услуга используют ИИ;
- обеспечивать безопасность ИИ-систем через управление рисками и отчетность перед Министерством науки и ИКТ.
- принимать меры по обеспечению надежности ИИ, включая объяснение результатов ИИ, использование данных и обеспечение защиты пользователей.
- назначать местного представителя в Корее, если компания не имеет представительства в стране.
Хотя проведение оценки воздействия ИИ не является обязательным, закон поощряет ее проведение. Государственные учреждения должны отдавать приоритет продуктам, прошедшим такую оценку.

Операторы систем с высоким уровнем воздействия (high-impact AI or AI-based products and service) должны обеспечить:
- разработку и реализацию плана управления рисками;
- в той степени, в которой это технически осуществимо, разработку и реализацию плана для предоставления объяснений результатов, генерируемых ИИ, включая ключевые критерии, используемые для получения таких результатов, и обзор обучающих данных, используемых при разработке и использовании ИИ;
- разработку и реализацию мер защиты пользователей;
- управление и надзор за ИИ с высоким уровнем воздействия;
- подготовку и хранение документов, демонстрирующих меры, принятые для обеспечения безопасности и надежности ИИ.
- провести оценку воздействия на права человека.

За нарушение этих обязательств предусмотрены штрафы до 30 миллионов вон (~20 870 долларов США) и возможность приостановки деятельности.

Сравнительная таблица EU AI Act - South Korea AI Act - Japan AI Promotion Act/ Future Privacy Forum

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔1
Может ли ИИ быть автором, что говорят законы сегодня

В каждой юрисдикции есть особенности законодательства, как защитить саму ИИ систему или результаты, созданные с помощью ИИ. В этом посте разберем, можно ли защитить выводы генеративного ИИ авторским правом? Спойлер: всё зависит от того, где вы находитесь и насколько активно вы участвовали в создании результата.

Смотрим по юрисдикциям:
🔹 США
Охрана авторским правом предоставляется только работам, где есть человеческий вклад. Если Output полностью сгенерирован машиной без значимого вмешательства человека, то защиты не будет, о чем свидетельствуют и последовательные отказы в регистрации таких произведений (Zarya of the Dawn; Théâtre D’opéra Spatial; SURYAST, Thaler v. Perlmutter).

Copyright Registration Guidance (the Copyright Office): произведения, содержащие материалы, созданные ИИ, могут быть защищены авторским правом при некоторых обстоятельствах, например, в случае «достаточно творческих» аранжировок или модификаций, созданных человеком, или произведений, сочетающих материалы, созданные ИИ и человеком. Авторы могут претендовать на защиту авторских прав только «в отношении своего собственного вклада» в такие произведения, и они должны указывать и отказываться от частей произведений, созданных ИИ, при подаче заявки на регистрацию своих авторских прав.
Подробнее еще отчет Copyright and Artificial Intelligence Part 2: Copyrightability
🔹ЕС
Резолюция Европарламента "О правах ИС в связи с развитием технологий ИИ" .
Произведения, созданные с помощью ИИ, разделяются на две категории:
1.Произведения, созданные человеком с использованием ИИ.Если человек играет значительную роль в создании произведения с помощью ИИ, такие произведения рассматриваются как созданные человеком, и авторские права принадлежат этому человеку.
2. Произведения, созданные ИИ автономно. Европейский парламент предлагает рассмотреть возможность введения новой категории ИС для таких объектов, чтобы определить их правовой статус и владельца прав.
На уровне практики национальные суды ориентируются на требование оригинальности, связанное с отпечатком личности автора.

🔹Великобритания
Про патенты:в кейсе Thaler v. Comptroller-General Верховный суд подтвердил, что машина, даже если автономна, не может быть признана изобретателем.
🔹Австралия
Продолжение с DABUS, где первоначально суд первой инстанции признал, что AI может быть заявлен как «inventor», но апелляция (Full Federal Court) это решение отменила и указала, что только человек может быть изобретателем в заявке на патент (есть разбор в многочисленных статьях, например здесь).
🔹Китай
Пекинский интернет-суд (BIC) признал изображение, созданное ИИ, произведением, используя тест из 4х элементов, и авторские права на него. Человек настраивал параметры и делал выбор/доработку и суд счёл вклад достаточным.
Changshu People’s Court также признал охрану для изображения, сгенерированного Midjourney и доработанного человеком.
Однако практика не достигла консенсуса, н-р, в кейсе Feilin v. Baidu BIC отклонил авторское право на отчёт, созданный с помощью ИИ, по причине его отсутствия.

✏️Как быть с этим творческим "вкладом"?
- выбирайте исходные данные, настройку параметров ИИ, задавайте сложный и конкретный prompt и участвуйте в отборе, редактировании, переработке результата, а не просто нажимайте кнопку «сгенерировать».
- документируйте этот вклад, какие части сделали вы, а какие ИИ, особенно если предстоит регистрация/защита прав.
- заключайте четкие договоры между всеми участниками процесса создания произведения, включая разработчиков ИИ, пользователей и других заинтересованных сторон. В этих соглашениях определите распределение прав и обязанностей, а также условия использования и распространения произведения.

Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ
читайте в посте.
Про требования защиты авторских прав для поставщиков и развертывателей по EU AI Act здесь.
WIPO Guide to Generative AI and Intellectual Property

#LawAndDisorder
————
@pattern_ai
🔥2
Как использовать ИИ в играх легально

Сначала разберем примеры, как используется ИИ:
🔹 генерация ассетов и окружения ( инструменты вроде Recraft позволяют создавать текстуры, локации по текстовым запросам, интегрируя их прямо в Unity или Unreal Engine);
🔹 динамическая музыка. Activision Blizzard запатентовала ML-систему, которая в реальном времени подстраивает саундтрек под стиль игры конкретного игрока: меняет темп и напряжённость в зависимости от движений и решений.
🔹 реалистичные NPC. ИИ используется для «живых» городов и адаптивного поведения NPC (Red Dead 2, Assassin’s Creed).
🔹тактическое поведение врагов и адаптация тактик против игрока (The Last of Us Part II, F.E.A.R.), что делает бои менее непредсказуемыми.
🔹генерация контента. Diablo и No Man’s Sky используют алгоритмы для создания уровней и событий. В результате игроки получают почти бесконечный уникальный опыт.
🔹 графика и апскейл. В GTA V применяются ИИ-инструменты для улучшения освещения и апскейла. А технология NVIDIA DLSS «дорисовывает» изображение в высоком разрешении, снижая нагрузку на железо.

👀Какие юридические риски при использовании ИИ?
1️⃣ Как защитить права на результаты ИИ генераций (для защиты нужны признаки значительного человеческого творчества, см. пост).
2️⃣Соблюдение имиджевых прав, авторских и смежных прав актёров, обвинения в недобросовестной трудовой практике (жалоба SAG-AFTRA по кейсу Fortnite / Llama Productions).
3️⃣ Нарушение авторских прав или требований регуляторов, при использовании тренировочных датасетов при обучении на контенте третьих лиц без лицензии (Disney & Universal vs Midjourney,Warner Bros. Discovery vs Midjourney, Andersen v. Stability ).
4️⃣Отказ в публикации на платформе, если нет доказательств прав на контент (см. Steam).

И пока регуляторы стараются догнать практику, площадки берут на себя роль первого проверяющего звена:
🔹Steam ввела обязанность для разработчиков раскрывать, где и как использовался ИИ (pre-generated vs live-generated). Для Live AI content разработчики должны доказать, что есть фильтры от нелегального или нарушающего авторские права контента. Платформа публикует данные на странице игры, помогая обеспечивать прозрачность для пользователей.
🔹Microsoft Store / Xbox указало, что при сабмите нужно указывать live generative AI в метаданных и предоставлять пути для репорта/модерации.
🔹Google Play, изучайте специальную политику по AI-generated content ( фокус на безопасности, прозрачности и обработке жалоб пользователей).
🔹App Store, требование соблюдения best ptactices при разработке, строгий review, требующий достоверности описаний, будьте готовы к ручной проверке функций, связанных с ИИ.

✏️Рекомендации разработчикам:
▪️сохраняйте следы «человеческого авторства», редактируйте ИИ-ассеты, добавляйте свой вклад, фиксируйте творческие решения.
▪️документируйте процесс, ведите учёт, какие ассеты сделаны с ИИ, какие данные использовались для обучения, где была человеческая доработка.
▪️проверяйте права на датасеты и модели, лицензионные соглашения, храните копии.
▪️фиксируйте в договорах, кто владеет правами на ИИ-контент, кто отвечает за возможное нарушение прав третьих лиц.
▪️учитывайте правила платформ, которые всё чаще требуют раскрытия информации про ИИ.
▪️маркируйте ИИ контент в метаданных.
▪️подготовьте план модерации и репортов (особенно при live-AI), быстрый канал для жалоб, мониторинг генерации в реальном времени, возможность отката или корректировки модели.
▪️следите за законодательством в нужных вам юрисдикциях.

#UXWatch #LawAndDisorder
———
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👌4
Как использовать ИИ в рекламе и не нарушить закон

Использование ИИ в рекламе уж точно открыло новые горизонты для креативности и эффективности. Однако важно учитывать правовые и этические аспекты, чтобы избежать нарушений и обеспечить прозрачность для потребителей.
В каждой юрисдикции есть свой микс общих, отраслевых и специальных законов, правил и кодексов рекламной практики.
Если запускаете рекламу в нескольких юрисдикциях, то необходимо проверять требования в каждой.

👀 Кратко разберем основные, которые касаются именно ИИ:

🔹Европейский Союз
▪️Требования EU AI Act, в том числе по прозрачности использования генеративных моделей ИИ, включая обязательство раскрывать источники и методы обучения.
С 2 августа 2026 года рекламодатели обязаны явно указывать, если контент был создан или изменён с использованием ИИ, за исключением случаев, когда это необходимо по закону или контент является художественным или сатирическим ( EU AI Act).
Запрещается использование ИИ для манипуляции эмоциями, обмана пользователей.
Про Emotion AI был пост раньше.
Дополнительный пул:
▪️Directive 2005/29/EC on Unfair Commercial Practices (UCPD) запрещает вводящую в заблуждение и агрессивную рекламу.
▪️Directive 2006/114/EC on Misleading and Comparative Advertising регулирует рекламу между бизнесами (B2B), включая сравнения товаров и услуг.
▪️Audiovisual Media Services Directive ( 2010/13/EU, с изменениями 2018) правила для рекламы на ТВ, стримингах, YouTube и т.п. (запрет скрытой рекламы, product placement с ограничениями, требования для рекламы алкоголя и детского контента).
▪️GDPR, без комментариев.
▪️ePrivacy Directive (2002/58/EC) , смотрим правила использования cookies и email/SMS-рекламы.
▪️EU Digital Services Act (DSA, 2022/2065) новые обязанности на онлайн-платформы и рекламные сети (прозрачность таргетинга, запрет рекламы на основе профайлинга детей, запрет использования чувствительных данных).
▪️EU Digital Markets Act (DMA, 2022/1925) ограничивает поведение крупных платформ (Google и др.), включая использование данных в рекламе.
+национальные, отраслевые и стандарты European Advertising Standards Alliance.

🔹США
Регулирование использования ИИ в рекламе осуществляется на федеральном уровне Федеральной торговой комиссией (FTC) и на уровне отдельных штатов.
FTC активно борется с обманчивыми заявлениями о "ИИ-усилении" продуктов, требуя доказательств таких утверждений.
Каждый штат также вводит свои требования, например, в штате Юта принят закон, обязывающий компании раскрывать использование ИИ при взаимодействии с пользователями, если об этом запрашивает сам пользователь.
Естественно + Lanham Act, CAN-SPAM Act, TCPA, COPPA, CCPA + законы штатов + отраслевые законы.

🔹 Китай
С 1 сентября 2025 года в Китае вступили в силу новые правила маркировки ИИ-контента, требующие явной маркировки ИИ контента.
Подробно читайте отдельный пост про требования.
+Advertisement Law of the People's Republic of China, Measures on the Administration of Internet Advertising, Interim Measures for the Management of Gen AI Services, Provisions on the Administration of Deep Synthesis Internet Information Services и т.п.

✏️ Рекомендации при запуске рекламы с ИИ:
▪️ознакомьтесь с законодательством в юрисдикциях, где вы оперируете, и соблюдайте их требования.
▪️соблюдайте требования прозрачности, всегда раскрывайте использование ИИ, особенно если это может повлиять на восприятие потребителей.
▪️избегайте использования ИИ для манипуляции или обмана потребителей, убедитесь в достоверности всех заявлений о применении ИИ в ваших рекламных материалах.
▪️помните про запрет таргета на детей, уязвимые группы, эксплуатацию образов детей.
▪️если используете deepfake-рекламу, "ИИ инфлюенсеров", то маркируйте и делайте это открыто и с юмором, а не как «реальных людей».
▪️избегайте чувствительных данных.
▪️регулярно проводите аудит рекламных материалов на соответствие законодательству и внутренним стандартам.
▪️ проводите регулярное обучение сотрудников по вопросам этики и соблюдения законодательства в области ИИ.

#UXWatch #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Бизнесу на заметку: Италия первой в ЕС вводит уголовную ответственность за преступления с использованием ИИ

Часть 1
В Италии в сентябре не только интересно проводить отпуск, но и ознакомиться с новым законом Legge 132/2025– «Disposizioni e deleghe al Governo in materia di intelligenza artificiale», который вступит в силу с 10 октября 2025.
Закон носит характер делегирующий: задаёт принципы, цели и рамки, но оставляет значительное пространство для будущих подзаконных актов и регламентов, включая те, которые свяжут национальные нормы с EU AI Act.

👀 Рассмотрим ключевые положения закона и их значение для компаний:
▪️Национальные нормы должны быть в соответствии с регламентом ЕС.
▪️ ИИ не должен противоречить человеческому достоинству, не должен дискриминировать и не должен нарушать неприкосновенность личной жизни.
▪️ Должны соблюдаться принципы прозрачности, пропорциональности, безопасности, защиты персональных данных, конфиденциальности, точности, недискриминации, гендерного равенства и устойчивости.
▪️Подчёркивается необходимость человеческого контроля за использованием ИИ;
▪️Кибербезопасность должна быть встроена во весь жизненный цикл ИИ-систем ( от обучения модели до эксплуатации). Компании обязаны применять риск-ориентированный подход, следить за устойчивостью моделей к манипуляциям и атакам.
▪️Системы ИИ должны быть доступны людям с ограниченными возможностями без дискриминации и предубеждения, в соответствии с Конвенцией ООН о правах инвалидов, т.е. необходимо помнить и об инклюзивности интерфейса продукта при его разработке.
▪️Защита несовершеннолетних, т.е. использование ИИ детьми до 14 лет требует согласия родителей. Подростки от 14 до 18 лет могут сами дать согласие, если информация о рисках и политике данных подана простым и понятным языком.
▪️При использовании ИИ в трудовых отношениях работодатель обязан:
- уведомлять о применении автоматизированных систем принятия решений (например, при найме, оценке или увольнении);
- раскрывать цели, логику, категории данных, параметры обучения и уровень точности;
- оценивать риски и консультироваться с надзорным органом по защите данных, если обработка данных может повлиять на работников;
- информировать о любых изменениях не менее чем за 24 часа до вступления их в силу;
- обеспечивать право работника запрашивать и получать разъяснения в течение 30 дней.
Создаётся наблюдательный орган (Osservatorio) по применению ИИ в сфере труда.
▪️Насчет ИС, произведение, созданное с использованием ИИ, будет защищено до тех пор, пока оно является результатом творческой деятельности человека. Таким образом, человеческий вклад имеет решающее значение, и ИИ может использоваться только в качестве вспомогательного инструмента;
▪️Отдельные нормы посвящены внедрению ИИ в судебную систему. Наприимер, решения по интерпретации закона и оценке доказательств всегда остаются за судьёй. Министерство юстиции может использовать ИИ только для организации и оптимизации административных процессов, но не для вынесения приговоров.Новые уголовные нормы и усиление ответственности.
▪️Прописывается использование ИИ в здравоохранении (поддержка диагностики, лечения, выбор терапии), НО решения должны оставаться за медицинским персоналом.
Системы должны быть надёжными, проверяемыми и обновляемыми, чтобы снижать ошибки и защищать пациентов.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Бизнесу на заметку: Италия первой в ЕС вводит уголовную ответственность за преступления с использованием ИИ
Часть 2
▪️Использованием ИИ при совершении преступлений будет рассматриваться как отягчающее обстоятельство ( увеличение наказания до 1/3).
Новые составы преступлений (например, незаконное распространение материалов, сгенерированных или изменённых с помощью ИИ с наказанием от 1 до 5 лет).
Ужесточение санкций при применении ИИ в определенных секторах экономики (например, финансовый, рыночный).
Правительству дается 12 месяцев для разработки и внедрения норм, направленных на введение отдельных уголовных правонарушений, уточнение критериев привлечения к уголовной ответственности физических лиц и к административной ответственности организаций за преступления, связанных с системами ИИ.
▪️Законом закреплены развивающие и стимулирующие меря по внедрению ИИ, подчёркивается важность ИИ для конкурентоспособности экономики, доступ к качественным данным, сотрудничество между компаниями и научно-технологическими центрами.
Закреплен перечень мер меры по обучению, распространению грамотности в ИИ, включению курсов про ИИ в систему образования.

Что нам важно:
Закон создаёт более предсказуемую среду для развития ИИ продуктов, возможности инвестирования.
Компании должны очень аккуратно относиться к генерации/манипуляции контентом, особенно в чувствительных сферах и помнить про ответственность.
Обязательна прозрачность алгоритмов, проверка обучения систем, объяснимость решений, контроль последствий.
Многие детали закона ещё должны быть прописаны через подзаконные акты, соответственно необходимо внимательно отслеживать их появление.
#LawAndDisorder
————
@pattern_ai
Как ЕС учиться измерять мощность и риски GPAI

Чтение на выходных, для тех, кто следит за развитием AI Act. Еврокомиссией опубликован ряд внешних научных исследований, которые фактически задают основу того, как можно оценивать и регулировать GPAI. Главная идея, что оценивать необходимо не только “мощность” модели, но и её влияние.
1. General-Purpose AI Model Reach as a Criterion for Systemic Risk;
2. A Framework to Categorise Modified General-Purpose AI Models as New Models Based on Behavioural Changes;
3. Training Compute Thresholds - Key Considerations for the EU AI Act - Collection of External Scientific Studies on General-Purpose AI Models under the EU AI Act;
4. A Framework for General-Purpose AI Model Categorisation;
5. A Proposal to Identify High-Impact Capabilities of General-Purpose AI Models;
6. The Role of AI Safety Benchmarks in Evaluating Systemic Risks in General-Purpose AI Models.

#AIShelf
————
@pattern_ai
1
Инструмент проверки соответствия AI Act от Еврокомиссии

Еврокомиссия представила AI Act Single Information Platform с инструментом проверки соответствия AI Act, который пока находится в стадии бета-тестирования. Отвечаете на ряд вопросов и получаете ответ о том, подпадает ли ваша модель/система под действие закона и какие требования необходимо соблюсти. Не забывайте потом про консультацию с юристом.
Отдельно там же сделан AI Act Explorer, чтобы удобно было просматривать главы закона и отдельно timeline вступления его в силу.
Также на платформе собран список национальных ресурсов от государств-членов ЕС и отдельно раздел с ресурсами ( документами, руководящими принципами и вебинарами и т.п).

Список других трекеров про ИИ в посте здесь
#AIShelf
————
@pattern_ai
Incident_report_for_serious_incidents_under_the_AI_Act_Highrisk.pdf
232.7 KB
Как превратить европейскую отчётность в инструмент доверия и качества

Еврокомиссия выпустила проект отчета и правил по статье 73 AI Act о том, как компании должны сообщать о серьёзных сбоях высокорисковых систем ИИ.
🔍 Но даже если ваш продукт не попадает под категорию «высокий риск», то эти правила могут стать ориентиром для выстраивания структуры управления ИИ и готовности к любым проверкам. Например,

▪️Что считать «серьезным инцидентом» у себя в компании.
AI Act называет «серьёзным инцидентом» случай, когда система ИИ напрямую или косвенно вызывает:
- смерть или серьёзный вред здоровью,
- сбой критической инфраструктуры (электричество, транспорт, финансы),
- нарушение основных прав человека (например, дискриминация, вторжение в частную жизнь),
- серьёзный ущерб имуществу или окружающей среде.
И даже если ваш продукт «низкорисковый», то эти критерии могут быть “красной карточкой" для вас и помогут гарантировать, что любой инцидент, который может привести к значительному ущербу или репутационному ущербу, будет рассмотрен с должной срочностью и строгостью.

▪️Создание и настройка внутренней системы “раннего предупреждения”
Инциденты редко случаются внезапно. В правилах приводятся примеры "звонков" или рутинных инцидентов, за которыми может последовать серьезный сбой: ошибки классификации, падение точности, временные отключения, непредсказуемое поведение модели.
▪️Обязанность расследования инцидентов и алгоритм действий, как действовать, если что-то пошло не так.
Обязанность расследования должна быть принята в качестве стандартной операционной процедуры для всех инцидентов, независимо от классификации риска.
Для любого продукта ИИ можно взять тот же алгоритм: что именно вывело систему из строя, было ли это прямое влияние ИИ или решение человека по его совету.
Внедрить внутреннюю политику и сохранять доказательства для для анализа и возможной экспертизы (логи, данные, версии модели, никаких апдейтов до фиксации состояния).
Далее оценить риски, принять меры, зафиксировать в реестре инцидентов. Установленные сроки помогут "держать руку на пульсе". Например, оповестить команду о серьёзном инциденте в течение 24 часов, дать 2-15 дней на расследование и первичный отчёт.

▪️Использовать шаблон как руководство для структурирования внутренней документации по инциденту и фиксировать важные детали:
- подробное описание инцидента (что, где, когда).
- сведения о подрядчике/провайдере.
- анализ причинно-следственной связи с системой ИИ (прямой или косвенной).
- информация о пострадавших сторонах и масштабах ущерба.
- немедленные и плановые корректирующие действия.
- идентификация системы и контекст.

▪️Следить за соответствием другим законам. Например, если утечка связана с персональными данными и речь идет про ЕС, то соблюдать требования GDPR. Соблюдать требования про защиту основных прав человека, вести мониторинг предвзятости модели (напимер, исключает кандидатов по полу или этнической принадлежности, завышает цены для жителей определённых районов).
Можно делать оценку влияния на права (FRIA).

🫡 Зачем тратить усилия на выполнение того, что кажется необязательным?
- формула «сообщить = помочь проекту», а не «сообщить = виноват» будет обеспечивать его дальнейшую надежность;
- меньше правовых и репутационных рисков;
- проще интеграция с другими фреймворками и проектами;
- доверие клиентов и инвесторов.

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
18+ или ChatGPT скоро “повзрослеет” и это не совсем безопасно

OpenAI официально объявила о планах разрешить эротические диалоги в ChatGPT для верифицированных совершеннолетних пользователей, начиная с декабря 2025 года. Это часть принципа «относиться к взрослым как к взрослым» и попытка сделать чат-бота «более приятным» для людей, которые не имеют проблем с психическим здоровьем.

Давайте разберемся, что это значит и какие есть подводные камни.
С одной стороны многие давно жаловались на "стерильность" и цензуру ChatGPT. Возможность вести личные или творческие диалоги (в том числе эротические) делает ИИ более "человечным" и универсальным инструментом, дает больше возможностей внутри привычного инструмента, без необходимости искать отдельные “эротические ИИ”.
С другой стороны OpenAI переходит из “безопасной зоны” к эксперименту, и критики предупреждают, что это может плохо кончиться.
«Ни один родитель не поверит, что его дети не смогут пройти возрастной контроль», - сказал Марк Кьюбан.

На конференции индустрии для взрослых TES в августе уже вовсю обсуждались сайты с AI-партнёрами, которые могут вести эротические диалоги и «раздеваться» за токены. Разработчики продолжают уверять, что ИИ-персонажи безопаснее веб-кам-бизнеса.
НО
▪️Для доступа к контенту 18+ нужно будет подтвердить возраст (возможно, загрузив фото удостоверения личности). Это значит, что OpenAI будет хранить две критически важные категории данных: ваши интимные чаты и ваши документы ( смотрим кейсы утечек данных, шантажа/мошенничества).
▪️Можно ошибочно запретить взрослому доступ или наоборот пустить подростка.
▪️Что именно считать “эротикой”? Где границы этики и законности? Какие способы предотвращения создания незаконных материалов?
▪️Есть риск, что такой режим станет инструментом “удержания” пользователей, а не инструментом полезного взаимодействия. Сильная персонализация и «игровые» элементы увеличивают вовлечённость.
▪️Риски для психического здоровья. Взаимодействие с ИИ может искажать представления о реальных отношениях, особенно у молодёжи.
▪️Как будут использоваться данные? Компания должна будет предоставить абсолютные гарантии, что эти разговоры не будут использованы для обучения модели, не будут переданы третьим лицам и будут храниться с максимально возможным уровнем шифрования и безопасности. Ведь утечка таких данных является катастрофой.

«Ящик Пандоры» открывается все быстрее...
Пользователям важно быть внимательными и понимать, какие данные они предоставляют, и где проходят границы между безопасным развлечением и потенциальной опасностью.

Предыдыдущий пост про 18+ ИИ-компаньоны и человекоподобные сервисы

#UXWatch
————
@pattern_ai
🔥1
Бесплатный курс Agentic AI от Berkeley RDI Center on Decentralization & AI

Для тех, кто любит учиться, ловите ссылку на Agentic AI MOOC.
Лекции начались 15 сентября и продляться до декабря. Приглашённые спикеры из OpenAI, NVIDIA, Microsoft, DeepMind.
Что разбирают: архитектура современных агентов, проверка агентов после обучения, оценка агентов, примеры применения ( от генерации кода и веб-автоматизации до робототехники и научных открытий). Отдельный блок будет посвящён ограничениям и рискам LLM-агентов.

#AIShelf
————
@pattern_ai
🔥1
Media is too big
VIEW IN TELEGRAM
Создание ролика в Sora 2 по мотивам релиза Gemini 2.5 Computer Use

Sora 2 в десктопной версии работает в локации США/Канада. Код приглашения можно найти, например, в тг канале в комментариях под постом здесь.
Бесплатно доступно 30 генераций в сутки по 10 сек. А дальше монтаж в вашем любимом сервисе, например Inshot, CapCut. Если хотите удалить знаки Sora, то используете соответствующий сервис, однако ж помните, что пользователей необходимо предупреждать, что сгенерировано ИИ.
Промпты, как обычно, либо сочинить самому, либо взять образцы, либо с помощью ИИ.
Мной идея была закинута в ChatGPT c запросом прописать сначала сценарии сцен и переходов, а последующей итерацией написать к ним промпты. И не забыть потом их скорректировать. Sora, например, "перевернутый мир" понимала буквально и переворачивала всю картинку. Необходимую озвучку слова и звуки также прописываете в промпте.

А что не так с Gemini 2.5 Computer Use?
Заявлено, что может взаимодействовать с интерфейсом, как человек, т.е. кликать кнопки, заполнять формы, прокручивать страницы и завершать задания прямо в браузере.
Google сам предупреждает:
AI agents that control computers introduce unique risks, including intentional misuse by users, unexpected model behavior, and prompt injections and scams in the web environment.
одель использования компьютера Gemini 2.5 может быть подвержена ошибкам и уязвимостям безопасности.
Мы рекомендуем тщательно контролировать выполнение важных задач и избегать использования модели использования компьютера для задач, связанных с принятием критически важных решений, обработкой конфиденциальных данных или действиями, где серьёзные ошибки невозможно исправить.

Неясно, как хранятся и обрабатываются эти данные. Вопросы безопасности, конфиденциальности, отсутствие прозрачного механизма предоставления разрешений создаёт проблемы, как минимум, с доверием....
#TalkPrompty #UXWatch
————
@pattern_ai
🔥1
ai-screening-tool.docx
244.7 KB
Шаблон политики в области ИИ от Австралийского правительства

Правительство Австралии опубликовали руководство и редактируемый шаблон политики в области ИИ. Шаблон содержит основные принципы, ожидания и правила разработки, внедрения и использования систем ИИ. Есть рекомендуемая структура и примеры контента, что может стать отправной точкой для разработки политики вашей организации.
Еще можно позаимствовать Руководство по внедрению ИИ, инструмент проверки ИИ (есть в формате Word), шаблон реестра ИИ (есть в формате Excel).

При использовании адаптируйте под нужды своей организации, проверяйте требования в вашем регионе, консультируйтесь со специалистами, чтобы получить реально работающие инструменты, помогающие сотрудникам понять, где и почему используются системы ИИ, какие процессы используются для управления рисками.

#AIShelf
————
@pattern_ai
Как ChatGPT Atlas меняет взаимодействие с вебом

Сегодня OpenAI представила ChatGPT Atlas, который интегрирует в браузер не только чат-бота, но и полноценный ИИ-агент. Он запоминает действия пользователя, его интересы и истории посещений, становится более персонализированным, может брать на себя рутинные задачи ( оформлять бронирования билетов, редактировать документы, делать заказы по заданию пользователя).
Доступен для macOS, релиз для Windows, iOS и Android ожидается в ближайшее время.

👀 Звучит здорово, а что с рисками использования?

▪️Может неправильно выполнить задачу. OpenAI сам предупреждает, что в сложных сценариях агент может допускать ошибки, и активно работает над улучшением надежности и скорости выполнения задач.
▪️Скрытые вредоносные инструкции;
▪️Уязвимости и новые угрозы. Компания признает, что не все угрозы могут быть предотвращены, и пользователи должны осознавать возможные риски (скрин с их страницы).
▪️Обработка данных. Хотя по умолчанию OpenAI не использует содержимое веб-страниц для обучения моделей, при включённой опции «Include web browsing» данные могут быть использованы для тренировки моделей.
▪️Безопасность детей. Для обеспечения безопасности в ChatGPT Atlas OpenAI внедрила родительский контроль, т.е. настройки, применённые в ChatGPT, автоматически действуют в Atlas.
Родители могут отключать режим агента и память браузера, чтобы ограничить взаимодействие с веб-страницами. Но опять же гарантий никто не дает.

Рекомендации для пользователей:
🔹Используйте режим инкогнито, предотвратит сохранение истории и использование данных из памяти браузера. Это и OpenAI рекомендует.
🔹Включайте агент только при необходимости.
🔹Не предоставляйте агенту доступ к чувствительной информации или аккаунтам без необходимости.
🔹Убедитесь, что ваши настройки соответствуют вашим требованиям безопасности.
🔹Регулярно проверяйте и контролируйте действия агента.
🔹Настройте родительский контроль, если дети используют ChatGPT Atlas.

Это c одной стороны новый мощный инструмент, расширяющий возможности ChatGPT, и конкурент Google. НО важно осознавать риски и принимать меры для их минимизации. Про потенциальные ловушки для пользователей в Gemini 2.5. Computer Use было в предыдущем посте.

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Еще один пример функции ИИ или троянский конь Meta Camera Roll

Не только Google и OpenAI радуют нас новинками. Meta еще с лета тестирует новую функцию под названием Camera Roll (или Meta Camera Sync), которая предлагает пользователям “вдохновляющие идеи для контента”, например, коллажи, клипы и подборки из ваших фото и видео. Естественно, что запуск начался в США и Канаде, плюс там не такое строгое регулирование.

Meta просит opt-in доступ ( судя по всему постоянный) к медиатеке устройства и загружает часть контента “в облако Meta” на постоянной основе, т.е. фото и видео, ещё не загруженные на Facebook, могут быть «просмотрены» системой и обработаны, чтобы предложить пользователю готовые к публикации идеи (коллажи, монтажи, тематические подборки) или подсказки к публикации.
Если пользователь соглашается редактировать или публиковать фото через Meta AI, этот контент может использоваться для обучения ИИ. В окне согласия также прямо сказано, что “media and facial features can be analyzed by Meta AI.”

🔍В Privacy Policy Meta термин “camera roll content” встречается больше 10 раз в разделе о данных, которые компания может собирать, анализировать и передавать третьим лицам.
Согласно документу, Meta может использовать контент с камеры устройства для:
- персонализации продуктов и улучшения алгоритмов;
- аналитики и исследований;
- обеспечения безопасности и целостности сервисов;
- обмена данными с другими компаниями Meta и партнёрами;
- инноваций для общественного блага (что бы это ни значило);
- обработки данных в соответствии с законодательством и по запросам госорганов.
В окне согласия сказано, что данные не используются для рекламы, но политика конфиденциальности допускает персонализацию и идентификацию пользователя как клиента Meta, т. е. для профилирования.

👀 Основные риски:
▪️Фоновая передача данных. Даже если пользователь не открывает приложение, фото и видео могут синхронизироваться.
▪️Объём и характер данных. Обрабатываются не только «выбранные» фото, но потенциально вся фотоплёнка устройства, включая снимки, которые не были опубликованы и имеют высокую степень приватности.
▪️Обработка биометрических данных. В тексте упоминается анализ “facial features” .
▪️Неопределённое будущее использования. Несмотря на текущие обещания, формулировка «если вы редактируете / публикуете» оставляет лазейку для расширения использования данных в будущем.
▪️ Нет прозрачного механизма удаления.
▪️Международная передача данных, если релиз фичи будет распространен на другие юрисдикции.
▪️Этические и правовые аспекты. Снимки с лицами третьих лиц (друзья, дети) могут оказаться обработаны без их явного согласия.

Также Meta подтвердила, что будет собирать данные о взаимодействии со своими инструментами ИИ для показа таргетированной рекламы в Facebook, Instagram и Threads, пока будет применяться к голосовым чатам и текстовым сообщениям, но почему бы и не выдать вам в итоге рекламу на основе фото с устройства....
Регуляторы пока молчат.

Что делать пользователям:
▪️Как вариант, не включать эту функцию. Если видите предложение “Get creative ideas with your camera roll”, то нажать Not Now.
▪️Проверить настройки Meta AI и ограничить обработку контента.
▪️Проверить права доступа приложения к фото на устройстве, ограничить доступ/ дать доступ только к выбранным фото/ вообще запретить.
▪️Хранить чувствительные данные отдельно.
▪️Следить за обновлениями политики. Meta часто меняет тексты согласий, и они могут автоматически применяться к уже загруженным данным.
Осознанный выбор это не просто дать разрешение, но знать, что именно вы разрешаете.

Продуктовым командам важно извлечь урок: любое взаимодействие с личными данными должно строиться на понятной, прямой и обратимой модели согласия, интерфейс должен содержать чёткие пояснения, сценарии реагирования, простой opt-out, контроль правовых и этических аспектов.

*Meta признана экстремистской организацией и запрещена в России.

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM