Когда ИИ увеличивает охваты, а права на результаты творчества превращают в бизнес
В предыдущем посте мы говорили про сделку Khaby Lame на $900+ млн. Ключевая ценность возникла из контроля над правами на образ, контент и способами их коммерческого использования.
✏️ Исследование EUIPO (Ведомство по интеллектуальной собственности ЕС) подтверждает это цифрами:
1️⃣ Как инфлюенсеры используют ИИ
▪️51 % инфлюенсеров в ЕС уже применяют ИИ часто или периодически (контент, кампании, аналитика).
▪️18 % пока не используют. Речь идёт о постепенной, но устойчивой интеграции.
2️⃣ Ожидания на ближайший год
▪️ 56 % ожидают улучшения показателей и упрощения организации рекламных кампаний.
▪️ 49 % понимают, что контент-стратегии придётся адаптировать к среде, насыщенной ИИ.
▪️47 % опасаются переработки и повторного использования их контента системами ИИ в интересах третьих лиц.
▪️44 % считают виртуальных инфлюенсеров источником недобросовестной конкуренции.
3️⃣ Кто выигрывает от оформленных прав
Инфлюенсеры, у которых зарегистрированы права на результаты интеллектуальной деятельности, находятся на более зрелой стадии профессионального развития:
▪️ 55 % имеют собственный бренд (против 24 % у тех, чьи права не оформлены);
▪️ 33 % управляют онлайн-магазином (против 14 %).
4️⃣ Осознание рисков
72 % знают, что ИИ может нарушать IP-права, генерируя «похожие» результаты. У nano-инфлюенсеров осознанность ниже лишь 58 %.
5️⃣ Ответственность есть, а публичного разговора нет
▪️48 % считают, что обсуждение важности соблюдения прав на результаты интеллектуальной деятельности не влияет на рост аудитории;
▪️17 % ожидают негативный эффект.
▪️При этом 96 % инфлюенсеров признают свою ответственность за влияние рекламного контента на подписчиков, а 97 % осознают риски для аудитории при продвижении неофициальных или нелегитимных товаров и контента.
❕Долгосрочный результат возникает там, где права оформлены, условия использования понятны, ИИ является инструментом усиления, а не источником утраты контроля.
📌
Как “агентные” ИИ-аккаунты переполняют TikTok и обходят модерацию;
"Красота по алгоритму" или как кейс Vogue запустил новую волну дебатов в индустрии моды;
Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ?
#AIShelf #UXWatch
————
@pattern_ai
В предыдущем посте мы говорили про сделку Khaby Lame на $900+ млн. Ключевая ценность возникла из контроля над правами на образ, контент и способами их коммерческого использования.
▪️51 % инфлюенсеров в ЕС уже применяют ИИ часто или периодически (контент, кампании, аналитика).
▪️18 % пока не используют. Речь идёт о постепенной, но устойчивой интеграции.
▪️ 56 % ожидают улучшения показателей и упрощения организации рекламных кампаний.
▪️ 49 % понимают, что контент-стратегии придётся адаптировать к среде, насыщенной ИИ.
▪️47 % опасаются переработки и повторного использования их контента системами ИИ в интересах третьих лиц.
▪️44 % считают виртуальных инфлюенсеров источником недобросовестной конкуренции.
Инфлюенсеры, у которых зарегистрированы права на результаты интеллектуальной деятельности, находятся на более зрелой стадии профессионального развития:
▪️ 55 % имеют собственный бренд (против 24 % у тех, чьи права не оформлены);
▪️ 33 % управляют онлайн-магазином (против 14 %).
72 % знают, что ИИ может нарушать IP-права, генерируя «похожие» результаты. У nano-инфлюенсеров осознанность ниже лишь 58 %.
▪️48 % считают, что обсуждение важности соблюдения прав на результаты интеллектуальной деятельности не влияет на рост аудитории;
▪️17 % ожидают негативный эффект.
▪️При этом 96 % инфлюенсеров признают свою ответственность за влияние рекламного контента на подписчиков, а 97 % осознают риски для аудитории при продвижении неофициальных или нелегитимных товаров и контента.
❕Долгосрочный результат возникает там, где права оформлены, условия использования понятны, ИИ является инструментом усиления, а не источником утраты контроля.
Как “агентные” ИИ-аккаунты переполняют TikTok и обходят модерацию;
"Красота по алгоритму" или как кейс Vogue запустил новую волну дебатов в индустрии моды;
Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ?
#AIShelf #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Зачем МакКонахи регистрирует товарные знаки
Пока EUIPO фиксирует рост тревожности инфлюенсеров из-за переработки их контента ИИ, публичные лица используют разные юридические стратегии.
Мэттью МакКонахи зарегистрировал 8 товарных знаков в США, охватывающие его голос, образ и узнаваемые фразы, включая «alright, alright, alright».
👀 Цель: защититься от несанкционированного использования личности в ИИ-контенте ( deepfake-видео, синтетической рекламы, озвучки и имитаций).
Это первый случай, когда актер использовал закон о товарных знаках для защиты своего изображения от возможного неправомерного использования ИИ.
Планируется, что такие товарные знаки позволят быстро реагировать на ситуации, где ИИ-контент создаёт впечатление его участия, одобрения или аффилированности с брендом или продуктом.
📌 Посты:
▪️Как запустить ИИ- блогера и не нарушить закон;
▪️ Чек-лист по этическим и юридическим стандартам для операторов ИИ-блогеров и ИИ-контента;
#UXWatch
————
@pattern_ai
Пока EUIPO фиксирует рост тревожности инфлюенсеров из-за переработки их контента ИИ, публичные лица используют разные юридические стратегии.
Мэттью МакКонахи зарегистрировал 8 товарных знаков в США, охватывающие его голос, образ и узнаваемые фразы, включая «alright, alright, alright».
Это первый случай, когда актер использовал закон о товарных знаках для защиты своего изображения от возможного неправомерного использования ИИ.
Планируется, что такие товарные знаки позволят быстро реагировать на ситуации, где ИИ-контент создаёт впечатление его участия, одобрения или аффилированности с брендом или продуктом.
▪️Как запустить ИИ- блогера и не нарушить закон;
▪️ Чек-лист по этическим и юридическим стандартам для операторов ИИ-блогеров и ИИ-контента;
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Kentucky_ vs_Characteer_ai_Complaint Motion and Order.pdf
4.7 MB
Кейс Kentucky vs Character. AI: дизайн AI чат -бота как предмет правовой оценки
Кентукки стал первым штатом США, который подал иск против Character. AI и ее чат-ботов из-за рисков для детей. Кентукки использует законы о защите прав потребителей и конфиденциальности данных, чтобы доказать, что небезопасный дизайн является обманной практикой.
👀 В жалобе представлены:
▪️ссылки на все известные нарушения
▪️примеры диалогов, где бот поощряет самоповреждение и суицидальные мысли у подростков;
▪️примеры сексуализированного контента и обсуждений запрещённых веществ;
▪️как возрастные ограничения легко обходились вводом фейковой даты рождения.
В пресс-релизе говорится, что десятки тысяч жителей штата Кентукки активно заходят на Character.AI, в том числе тысячи лиц моложе 18 лет, и в качестве причины указывается отсутствие на платформе проверки возраста.
Основные требования: обязать компанию Character.AI изменить свою практику и выплатить компенсацию.
🛡 Параллельно в ЕС, вчера, отмечая День защиты персональных данных, Европейских совет по защите данных (EDPB) выпустил напоминание, что защита данных детей является стратегическим приоритетом, и будет выпущено Руководство по обработке данных о детях, а также будет запущен специальный хаб “Privacy for Kids”.
📝 Мировая тенденция на лицо, речь уже не об абстрактных этических принципах и внедрении добровольных best practices, а о юридической ответственности за ваши конкретные решения:
▪️age gate носит декларативный характер и не препятствует доступу несовершеннолетних,
▪️меры безопасности формальны и не соответствуют реальным сценариям использования,
▪️риски для детей являются предсказуемым следствием продуктовых и engagement-метрик,
значит может быть квалификация как "unsafe and deceptive design" с соответствующими последствиями.
❕ Задавайте при создании продукта один из ключевых вопросов, обеспечивают ли применяемые меры фактическую защиту уязвимых пользователей или лишь создают видимость соответствия требованиям?
#UXWatch #LawAndDisorder
————
@pattern_ai
Кентукки стал первым штатом США, который подал иск против Character. AI и ее чат-ботов из-за рисков для детей. Кентукки использует законы о защите прав потребителей и конфиденциальности данных, чтобы доказать, что небезопасный дизайн является обманной практикой.
▪️ссылки на все известные нарушения
▪️примеры диалогов, где бот поощряет самоповреждение и суицидальные мысли у подростков;
▪️примеры сексуализированного контента и обсуждений запрещённых веществ;
▪️как возрастные ограничения легко обходились вводом фейковой даты рождения.
В пресс-релизе говорится, что десятки тысяч жителей штата Кентукки активно заходят на Character.AI, в том числе тысячи лиц моложе 18 лет, и в качестве причины указывается отсутствие на платформе проверки возраста.
Основные требования: обязать компанию Character.AI изменить свою практику и выплатить компенсацию.
📝 Мировая тенденция на лицо, речь уже не об абстрактных этических принципах и внедрении добровольных best practices, а о юридической ответственности за ваши конкретные решения:
▪️age gate носит декларативный характер и не препятствует доступу несовершеннолетних,
▪️меры безопасности формальны и не соответствуют реальным сценариям использования,
▪️риски для детей являются предсказуемым следствием продуктовых и engagement-метрик,
значит может быть квалификация как "unsafe and deceptive design" с соответствующими последствиями.
❕ Задавайте при создании продукта один из ключевых вопросов, обеспечивают ли применяемые меры фактическую защиту уязвимых пользователей или лишь создают видимость соответствия требованиям?
#UXWatch #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Проблема не только в Grok: десятки «nudify»-AI-приложений в Apple и Google App Stores
Новое расследование Tech Transparency Project (TTP) показывает, что проблема генерации сексуализированных изображений без согласия не ограничена только чат-ботом Grok.
Десятки приложений размещены в Google Play и Apple App Store, способных использовать ИИ для автоматического «nudify» ( снимать одежду с людей на фото или видео без их согласия) и доступны детям.
👀 Основные выводы расследования:
▪️55 таких приложений были найдены в Google Play Store и 47 в Apple App Store (102 всего).
Эти сервисы генерируют сексуализированные deepfake-изображения и видео из обычных фотографий.
▪️Приложения были скачаны более 700 млн раз по всему миру и принесли ≈ $117 млн дохода через подписки и покупки.
▪️ Apple и Google получают свою долю через комиссии в сторах ( комиссии до 30%).
▪️многие приложения обошли процессы проверки качества и безопасности сторов, несмотря на явное нарушение правил платформ по запрещению сексуального и унижающего контента;
▪️генерируют контент без видимых ограничений или адекватных мер;
▪️фактически превращают обычное фото человека в непристойное изображение без согласия субъекта, потенциально нарушая честь, достоинство и законы о защите данных.
▪️Размещены в категориях "подходит для детей", не смотря на то, что и Google , и Apple требуют от разработчиков предоставлять информацию для расчета возрастных рейтингов, чтобы защитить детей от неприемлемого контента, а Apple обновила свою систему рейтингов только в прошлом году, Например, приложение DreamFace ( по данным AppMagic, приложение принесло 1 миллион долларов дохода) - " от 13 лет и старше», и в « для детей от 9 лет и старше».
Подробные разборы с примерами в самом докладе.
Google и Apple запросили список приложений, выявленных в ходе этого расследования. Обе компании отказались от комментариев. Apple сообщила, что удалила 28 приложений, выявленных TTP, и предупредила разработчиков других приложений, что они рискуют быть удалены, если не устранят нарушения (TTP насчитала 27 удаленных приложений.) Google сообщила, что приостановила работу нескольких приложений в рамках продолжающейся проверки, в итоге удалила 31 приложение.
❕Неэффективность контроля своих же "платформ" и не обеспечение своих же правил, прибыль при этом получена.
Ждем реакцию со стороны регуляторов, особенно на фоне пристального внимания к защите детей, и следим за "сериалом" дальше...
📌 Grok: Еврокомиссия переходит к расследованию
Grok floods X with sexualized images of women and children/ ССDH
#UXWatch
————
@pattern_ai
Новое расследование Tech Transparency Project (TTP) показывает, что проблема генерации сексуализированных изображений без согласия не ограничена только чат-ботом Grok.
Десятки приложений размещены в Google Play и Apple App Store, способных использовать ИИ для автоматического «nudify» ( снимать одежду с людей на фото или видео без их согласия) и доступны детям.
▪️55 таких приложений были найдены в Google Play Store и 47 в Apple App Store (102 всего).
Эти сервисы генерируют сексуализированные deepfake-изображения и видео из обычных фотографий.
▪️Приложения были скачаны более 700 млн раз по всему миру и принесли ≈ $117 млн дохода через подписки и покупки.
▪️ Apple и Google получают свою долю через комиссии в сторах ( комиссии до 30%).
▪️многие приложения обошли процессы проверки качества и безопасности сторов, несмотря на явное нарушение правил платформ по запрещению сексуального и унижающего контента;
▪️генерируют контент без видимых ограничений или адекватных мер;
▪️фактически превращают обычное фото человека в непристойное изображение без согласия субъекта, потенциально нарушая честь, достоинство и законы о защите данных.
▪️Размещены в категориях "подходит для детей", не смотря на то, что и Google , и Apple требуют от разработчиков предоставлять информацию для расчета возрастных рейтингов, чтобы защитить детей от неприемлемого контента, а Apple обновила свою систему рейтингов только в прошлом году, Например, приложение DreamFace ( по данным AppMagic, приложение принесло 1 миллион долларов дохода) - " от 13 лет и старше», и в « для детей от 9 лет и старше».
Подробные разборы с примерами в самом докладе.
Google и Apple запросили список приложений, выявленных в ходе этого расследования. Обе компании отказались от комментариев. Apple сообщила, что удалила 28 приложений, выявленных TTP, и предупредила разработчиков других приложений, что они рискуют быть удалены, если не устранят нарушения (TTP насчитала 27 удаленных приложений.) Google сообщила, что приостановила работу нескольких приложений в рамках продолжающейся проверки, в итоге удалила 31 приложение.
❕Неэффективность контроля своих же "платформ" и не обеспечение своих же правил, прибыль при этом получена.
Ждем реакцию со стороны регуляторов, особенно на фоне пристального внимания к защите детей, и следим за "сериалом" дальше...
Grok floods X with sexualized images of women and children/ ССDH
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Отдохнуть в субботу с ИИ-сериалом...Почему бы и да?
Знаменитый режиссёр Даррен Аронофски ("Пойман с поличным", "Реквием по мечте," Черный лебедь") выпустил короткометражный ИИ-анимационный сериал о событиях Американской революции 1776 года. Серия коротких эпизодов выходит на канале Time на YouTube.
Используется генеративный ИИ + традиционные методы, голоса озвучивают настоящие актёры.
❓ И вопрос для обсуждения за чашкой кофе или здесь в комментариях: " Если мы уже с помощью ИИ пересказываем историю, то кто и как будет формировать наше представление о прошлом завтра?" .
На фоне всего этого хороший повод вспомнить свежую дискуссию вокруг Grokopedia, которую уже критикуют за галлюцинации, вымышленные источники и SEO-маскировку под «надёжное знание», что уже совсем другой уровень риска.
Приятного просмотра и хорошей субботы❄️ ☀️
📌 Explore AI and Filmmaking with Darren Aronofsky’s Primordial Soup and Google DeepMind
#UXWatch
————
@pattern_ai
Знаменитый режиссёр Даррен Аронофски ("Пойман с поличным", "Реквием по мечте," Черный лебедь") выпустил короткометражный ИИ-анимационный сериал о событиях Американской революции 1776 года. Серия коротких эпизодов выходит на канале Time на YouTube.
Используется генеративный ИИ + традиционные методы, голоса озвучивают настоящие актёры.
По словам президента студии Бен Битонни: " Этот проект - пример того, как может выглядеть вдумчивое, творческое, ориентированное на художников использование ИИ, не заменяющее ремесло, а расширяющее возможности и позволяющее рассказчикам заходить туда, куда они раньше просто не могли".
На фоне всего этого хороший повод вспомнить свежую дискуссию вокруг Grokopedia, которую уже критикуют за галлюцинации, вымышленные источники и SEO-маскировку под «надёжное знание», что уже совсем другой уровень риска.
Приятного просмотра и хорошей субботы
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
The_AI_Regulatory_Capability_Framework_and_Self_Assessment_Tool.pdf
1.7 MB
Практическое руководство по регулированию ИИ от Института Алана Тьюринга (UK)
Про соц.сеть, где общаются ИИ-агенты друг с другом не написал только ленивый (moltbook, если еще не читали эти "беседы"). Поэтому начнём понедельник лучше с полезного....
Alan Turing Institute опубликовал новое руководство, которое должно помочь британским регуляторам эффективно и ответственно управлять ИИ.
👀 Что включает новое руководство:
▪️Activities for AI regulation ( 28 ключевых регуляторных действий от понимания рисков до надзора за внедрением ИИ);
▪️Capabilities for AI regulation ( группы компетенций (люди, процессы, данные, экспертиза и т.д.));
▪️ Good practices (17 «эталонных» практик, описывающих, «как должно быть» при эффективном регулировании).
📌 Self-Assessment Tool - инструмент самооценки по конкретным критериям.
Фреймворк призван помочь:
▪️ понять, где именно слабые места в регулятивных процессах;
▪️ создать общий язык между экспертами, регуляторами и государственными стратегами;
▪️ повысить согласованность и предсказуемость регулирования в разных секторах
#AIShelf
————
@pattern_ai
Про соц.сеть, где общаются ИИ-агенты друг с другом не написал только ленивый (moltbook, если еще не читали эти "беседы"). Поэтому начнём понедельник лучше с полезного....
Alan Turing Institute опубликовал новое руководство, которое должно помочь британским регуляторам эффективно и ответственно управлять ИИ.
▪️Activities for AI regulation ( 28 ключевых регуляторных действий от понимания рисков до надзора за внедрением ИИ);
▪️Capabilities for AI regulation ( группы компетенций (люди, процессы, данные, экспертиза и т.д.));
▪️ Good practices (17 «эталонных» практик, описывающих, «как должно быть» при эффективном регулировании).
📌 Self-Assessment Tool - инструмент самооценки по конкретным критериям.
Фреймворк призван помочь:
▪️ понять, где именно слабые места в регулятивных процессах;
▪️ создать общий язык между экспертами, регуляторами и государственными стратегами;
▪️ повысить согласованность и предсказуемость регулирования в разных секторах
«При эффективном регулировании ИИ имеет потенциал оказать положительное влияние на все секторы экономики и трансформировать способы предоставления государственных услуг. Это исследование является первым в своем роде, которое предоставляет структурированный способ для регулирующих организаций оценить свои собственные практические возможности по регулированию ИИ.....»Хороший пример, который можно взять на вооружение.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Создание интерактивных политик с помощью Termboard
Тermboard не замена NotebookLM, но полезный инструмент для построения графов знаний.
Позиционируется легкость преобразования 144 страничного нормативного документа в визуальную схему, где заинтересованные стороны могут изучить пути соблюдения требований и понять, как взаимосвязаны различные элементы.
На демо ими представлен AI Act.
Вики по созданию здесь.
#AIShelf
————
@pattern_ai
Тermboard не замена NotebookLM, но полезный инструмент для построения графов знаний.
Позиционируется легкость преобразования 144 страничного нормативного документа в визуальную схему, где заинтересованные стороны могут изучить пути соблюдения требований и понять, как взаимосвязаны различные элементы.
На демо ими представлен AI Act.
Вики по созданию здесь.
#AIShelf
————
@pattern_ai
Project Genie от Google создает интерактивные миры, а готов ли GameDev?
Google представил Project Genie, инструмент, позволяющий создавать интерактивные 3D-миры на основе текстовых или визуальных подсказок, которые продолжают генерироваться по мере движения пользователя.
👀 Доступен пока только Google AI Ultra подписчикам в США (18+).
Позволяет:
▪️создавать миры по тексту/картинке (world sketching).
▪️исследовать их в реальном времени, перемещаясь и взаимодействуя с окружающей средой (world exploration).
▪️перемешивать существующие миры, расширяя или модифицируя оригинальные сценарии (world remixing).
▪️готовые сессии можно скачивать как видео.
Работает на базе Genie 3.
Первые предварительные обзоры показали, что Genie создает сцены, которые очень напоминают такие известные игры, как Super Mario 64 и The Legend of Zelda: Breath of the Wild. Ответ представителей команды, что они внимательно следят за тем, как люди используют приложение, и некоторые типы подсказок уже были ограничены после предварительного тестирования, с предупреждениями, касающимися интересов сторонних правообладателей контента.
Это только демо-версия, НО:
▪️показывает, как может измениться цикл разработки продуктов и контента;
▪️поднимает вопрос о том, насколько действующие регуляторные рамки и нормы об интеллектуальной собственности применимы к генеративным интерактивным средам, где контент создаётся ИИ в реальном времени в ходе взаимодействия с пользователем, и кому принадлежат права на такой результат.
📝 И некоторые цифры из отчета GDC Festival of Gaming о состоянии игровой индустрии на 2026 год:
▪️28% респондентов были уволены за последние два года, а среди жителей США 33%,
▪️50% заявила, что их нынешний (или последний) работодатель проводил сокращения за последние 12 месяцев.
▪️36% специалистов игровой индустрии используют инструменты генеративного ИИ в своей работе.
▪️52% считают, что генеративный ИИ оказывает негативное влияние на игровую индустрию, по сравнению с 30% в прошлом году и 18% годом ранее.
#UXWatch
————
@pattern_ai
Google представил Project Genie, инструмент, позволяющий создавать интерактивные 3D-миры на основе текстовых или визуальных подсказок, которые продолжают генерироваться по мере движения пользователя.
Позволяет:
▪️создавать миры по тексту/картинке (world sketching).
▪️исследовать их в реальном времени, перемещаясь и взаимодействуя с окружающей средой (world exploration).
▪️перемешивать существующие миры, расширяя или модифицируя оригинальные сценарии (world remixing).
▪️готовые сессии можно скачивать как видео.
Работает на базе Genie 3.
Первые предварительные обзоры показали, что Genie создает сцены, которые очень напоминают такие известные игры, как Super Mario 64 и The Legend of Zelda: Breath of the Wild. Ответ представителей команды, что они внимательно следят за тем, как люди используют приложение, и некоторые типы подсказок уже были ограничены после предварительного тестирования, с предупреждениями, касающимися интересов сторонних правообладателей контента.
Это только демо-версия, НО:
▪️показывает, как может измениться цикл разработки продуктов и контента;
▪️поднимает вопрос о том, насколько действующие регуляторные рамки и нормы об интеллектуальной собственности применимы к генеративным интерактивным средам, где контент создаётся ИИ в реальном времени в ходе взаимодействия с пользователем, и кому принадлежат права на такой результат.
📝 И некоторые цифры из отчета GDC Festival of Gaming о состоянии игровой индустрии на 2026 год:
▪️28% респондентов были уволены за последние два года, а среди жителей США 33%,
▪️50% заявила, что их нынешний (или последний) работодатель проводил сокращения за последние 12 месяцев.
▪️36% специалистов игровой индустрии используют инструменты генеративного ИИ в своей работе.
▪️52% считают, что генеративный ИИ оказывает негативное влияние на игровую индустрию, по сравнению с 30% в прошлом году и 18% годом ранее.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Синтетические данные сотрудников: для чего нужны и какие риски использования
Использование реальных данных сотрудников почти всегда создаёт риски (GDPR, утечки, незаконное вторичное использование).
Синтетические данные - искусственно сгенерированные наборы, которые повторяют структуру и статистику HR-данных, но не содержат данных реальных людей, позволяют тестировать HR-системы, обучать модели, моделировать редкие ситуации (н-р, текучку руководителей).
👀 Способы получения синтетических данных
1️⃣ Open-source инструменты:
🔹SDV (Synthetic Data Vault), Python-библиотека, использует статистические модели и deep learning (GAN, Copulas) для генерации табличных данных с сохранением корреляций.
🔹CTGAN / TVAE, модели для сложных табличных зависимостей (зарплата ↔️ должность ↔️ отдел),
🔹Faker, простой генератор фейковых атрибутов (имена, должности, даты), полезен для mock-данных.
2️⃣ Коммерческие платформы (enterprise-уровень), подходят для компаний, которым важны масштаб, удобство и формальные гарантии приватности:
🔹MOSTLY AI, фокус на высокоточной генерации с оценками риска приватности.
🔹Gretel.ai, API-first платформа, хорошо работает с реляционными HR-данными.
🔹K2View, enterprise-решение, интеграции с HR/ERP-системами (в т.ч. Workday).
🔹Syntho ,расширенные возможности генерации данных на основе условий и сценариев (например, наборы данных, специфичные для отдельных отделов, «только IT-отдел»).
3️⃣ Готовые синтетические датасеты (быстро и без генерации), подходят для прототипирования и обучения:
🔹 Kaggle, синтетические HR-датасеты (attrition, performance, salaries)
🔹OpenDataBay и аналоги, CSV-наборы с тысячами синтетических записей
🔹Community-datasets, большие (100k–800k+) синтетические наборы, распространяемые для исследований
Минусы: слабая кастомизация и не всегда понятная методология генерации.
4️⃣ Продвинутые техники генерации
🔹Rule-based generation, жёсткие ограничения, используя скрипты (диапазоны зарплат, допустимые карьерные треки),
🔹Generative AI → beyond GANs,современные диффузионные модели или LLM могут генерировать структурированные табличные данные.
📝 Чек-лист "Можно ли использовать датасет?":
▪️ Описан метод генерации синтетических данных (модель, правила, параметры).
▪️Отсутствие прямых идентификаторов (в наборе отсутствуют имена, контакты, идентификаторы сотрудников, исключены служебные номера, логины, e-mail, внутренние ID, нет технических идентификаторов, позволяющих связать записи с реальными лицами).
▪️Проверены статистические распределения и зависимости как с точки зрения качества данных, так и риска реидентификации (отсутствие уникальных профилей, переобучения, копирования реальных записей),
▪️Исключены уникальные или редкие профили сотрудников.
▪️ Используется отдельно от реальных данных.
📌 Что еще почитать:
▫️Что такое синтетические данные и зачем они нужны (AWS),
▫️How do we ensure anonymisation is effective? (ICO UK),
▫️Top 10 Synthetic Data Generation Tools: Features, Pros, Cons & Comparison,
▫️Гайд про использование ИИ в сфере подбора персонала (ЕС),
▫️AI tool usage policy ( Workable), ориентирована на HR и рекрутмент, описывает использование AI-инструментов для найма;
#AIShelf
————
@pattern_ai
Использование реальных данных сотрудников почти всегда создаёт риски (GDPR, утечки, незаконное вторичное использование).
Синтетические данные - искусственно сгенерированные наборы, которые повторяют структуру и статистику HR-данных, но не содержат данных реальных людей, позволяют тестировать HR-системы, обучать модели, моделировать редкие ситуации (н-р, текучку руководителей).
Когда синтетические данные всё равно считаются персональными (ЕС):
▪️Если они созданы на основе малого или уникального набора реальных сотрудников (риск восстановления личности).
▪️Если сохраняются уникальные комбинации признаков (редкая должность + возраст + зарплата).
▪️Нет формальных гарантий приватности (оценка рисков, документированные меры и доказательства необратимости).
▪️Если используются вместе с реальными данными и позволяет косвенную идентификацию.
EDPB opinion on AI models: GDPR principles support responsible AI
🔹SDV (Synthetic Data Vault), Python-библиотека, использует статистические модели и deep learning (GAN, Copulas) для генерации табличных данных с сохранением корреляций.
🔹CTGAN / TVAE, модели для сложных табличных зависимостей (зарплата ↔️ должность ↔️ отдел),
🔹Faker, простой генератор фейковых атрибутов (имена, должности, даты), полезен для mock-данных.
🔹MOSTLY AI, фокус на высокоточной генерации с оценками риска приватности.
🔹Gretel.ai, API-first платформа, хорошо работает с реляционными HR-данными.
🔹K2View, enterprise-решение, интеграции с HR/ERP-системами (в т.ч. Workday).
🔹Syntho ,расширенные возможности генерации данных на основе условий и сценариев (например, наборы данных, специфичные для отдельных отделов, «только IT-отдел»).
🔹 Kaggle, синтетические HR-датасеты (attrition, performance, salaries)
🔹OpenDataBay и аналоги, CSV-наборы с тысячами синтетических записей
🔹Community-datasets, большие (100k–800k+) синтетические наборы, распространяемые для исследований
Минусы: слабая кастомизация и не всегда понятная методология генерации.
🔹Rule-based generation, жёсткие ограничения, используя скрипты (диапазоны зарплат, допустимые карьерные треки),
🔹Generative AI → beyond GANs,современные диффузионные модели или LLM могут генерировать структурированные табличные данные.
📝 Чек-лист "Можно ли использовать датасет?":
▪️ Описан метод генерации синтетических данных (модель, правила, параметры).
▪️Отсутствие прямых идентификаторов (в наборе отсутствуют имена, контакты, идентификаторы сотрудников, исключены служебные номера, логины, e-mail, внутренние ID, нет технических идентификаторов, позволяющих связать записи с реальными лицами).
▪️Проверены статистические распределения и зависимости как с точки зрения качества данных, так и риска реидентификации (отсутствие уникальных профилей, переобучения, копирования реальных записей),
▪️Исключены уникальные или редкие профили сотрудников.
▪️ Используется отдельно от реальных данных.
▫️Что такое синтетические данные и зачем они нужны (AWS),
▫️How do we ensure anonymisation is effective? (ICO UK),
▫️Top 10 Synthetic Data Generation Tools: Features, Pros, Cons & Comparison,
▫️Гайд про использование ИИ в сфере подбора персонала (ЕС),
▫️AI tool usage policy ( Workable), ориентирована на HR и рекрутмент, описывает использование AI-инструментов для найма;
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Международный доклад по безопасности ИИ
Доклад подготовлен лауреатом премии Тьюринга Йошуа Бенджио и более чем 100 экспертами в области ИИ, получил поддержку более 30 стран и международных организаций.
Главы:
1️⃣ Что такое ИИ общего назначения, его текущие возможности и ограничения, а также факторы, которые будут определять развитие в ближайшие годы.
2️⃣ Риски, связанные со злонамеренным использованием, включая использование систем ИИ для преступной деятельности ( контент, созданный ИИ, манипуляции, кибератаки, разработки биологического или химического оружия, риски, связанные с неисправностями, проблемы надежности и потеря контроля, системные риски.
3️⃣ Подходы к управлению рисками и их эффективность ( технические и институциональные проблемы, методы управления рисками, технические меры защиты и мониторинг, и усилия по повышению устойчивости общества к потенциальным потрясениям и вреду от ИИ).
Эксперты сходятся во мнении, что ИИ пока не может самостоятельно выполнять многодневные проекты. НО риски усиливаются по мере того, как агентные системы ИИ становятся всё более автономными, а люди устанавливают более глубокие связи с ИИ. Авторы делают вывод о том, что люди, организации и общества по всему миру теперь сильно зависят от систем ИИ, разработанных небольшим числом компаний, и выступают за многоуровневый подход к управлению рисками общего ИИ на уровне модели, системы, организации и общества.
#AIShelf
————
@pattern_ai
Доклад подготовлен лауреатом премии Тьюринга Йошуа Бенджио и более чем 100 экспертами в области ИИ, получил поддержку более 30 стран и международных организаций.
Главы:
Эксперты сходятся во мнении, что ИИ пока не может самостоятельно выполнять многодневные проекты. НО риски усиливаются по мере того, как агентные системы ИИ становятся всё более автономными, а люди устанавливают более глубокие связи с ИИ. Авторы делают вывод о том, что люди, организации и общества по всему миру теперь сильно зависят от систем ИИ, разработанных небольшим числом компаний, и выступают за многоуровневый подход к управлению рисками общего ИИ на уровне модели, системы, организации и общества.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
International AI Safety Report
International AI Safety Report 2026 | International AI Safety Report
The second International AI Safety Report, published in February 2026, is the next iteration of the comprehensive review of latest scientific research on the capabilities and risks of general-purpose AI systems. Led by Turing Award winner Yoshua Bengio and…
🥰1
Расследование в отношении X от Ofcom (UK)
Для тех, кто следит за сериалом "Grok под прицелом регуляторов", Ofcom (британское агентство, регулирующее работу теле- и радио-компаний, а также почтовой службы) выпустил обновления о статусе их расследования.
📝Главное из разьяснений Ofcom про действие the Online Safety Act.
Не все чат-боты попадают под действие закона. Чтобы ИИ-сервис оставался «вне радаров» регулятора, он должен соответствовать трем критериям:
▪️только приватное общение, т.е. вы общаетесь только с ботом, а не с другими людьми через него.
▪️никакого поиска, т.е. бот не использует внешние базы данных или сайты для ответов в реальном времени (не является поисковиком).
▪️сервис не позволяет генерировать порнографический контент.
Правительство Великобритании уже заявило, что рассматривает вопрос расширения регулирования чат-ботов, и Ofcom эту инициативу активно поддерживает.
Следим за продолжением истории дальше...
📌 Расследование Tech Transparency Project (TTP): десятки «nudify»-AI-приложений в Apple и Google App Stores,
Grok: Еврокомиссия переходит к расследованию
#UXWatch
————
@pattern_ai
Для тех, кто следит за сериалом "Grok под прицелом регуляторов", Ofcom (британское агентство, регулирующее работу теле- и радио-компаний, а также почтовой службы) выпустил обновления о статусе их расследования.
👀 Ofcom
- продолжает требовать от xAI объяснений относительно рисков,
- собирает и анализирует доказательства, чтобы определить, нарушила ли компания X закон,
-изучает вопрос о том, следует ли начать расследование в отношении соблюдения им правил, требующих от сервисов, публикующих порнографические материалы, использования высокоэффективных проверок возраста для предотвращения доступа детей к этому контенту.
- указывает, что не может расследовать создание незаконных изображений автономным сервисом Grok в данном случае (по Online Safety Act) .
📝Главное из разьяснений Ofcom про действие the Online Safety Act.
Не все чат-боты попадают под действие закона. Чтобы ИИ-сервис оставался «вне радаров» регулятора, он должен соответствовать трем критериям:
▪️только приватное общение, т.е. вы общаетесь только с ботом, а не с другими людьми через него.
▪️никакого поиска, т.е. бот не использует внешние базы данных или сайты для ответов в реальном времени (не является поисковиком).
▪️сервис не позволяет генерировать порнографический контент.
Правительство Великобритании уже заявило, что рассматривает вопрос расширения регулирования чат-ботов, и Ofcom эту инициативу активно поддерживает.
Следим за продолжением истории дальше...
Grok: Еврокомиссия переходит к расследованию
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
How AI Destroys Institutions.pdf
596.6 KB
Как ИИ разрушает институты гражданского общества
Сегодня еще для обсуждения статья "How AI Destroys Institutions" ( авторы Woodrow Hartzog and Jessica Silbey).
👀 Ключевые тезисы:
1️⃣ Институты держатся не на технологиях, а на легитимности.
Право, университеты, наука, пресса работают потому, что есть роли и ответственность, есть процедуры, объяснимость решений, социальные связи между людьми.
ИИ же производит результат без институционального процесса.
2️⃣ ИИ размывает экспертизу. Когда ответ выдаёт система, то неясно, кто именно «знает», невозможно оспорить путь рассуждений, исчезает различие между экспертным суждением и сгенерированным текстом.
3️⃣ Решения “короче”, но беднее. ИИ сокращает обсуждения и сомнения, подменяет коллективное принятие решений автоматическим выводом, поощряет быстрое согласие, а не критическое мышление.
Это особенно опасно для судебной системы, образования, СМИ.
4️⃣ Люди изолируются друг от друга. Институты эволюционируют через споры, конфликты, совместную работу. ИИ же заменяет взаимодействие, делает процессы индивидуальными и непрозрачными, разрушает социальную ткань института.
Главный вывод авторов: нынешние системы ИИ - это смертный приговор для гражданских институтов.
Делитесь мыслями в комментариях ⤵️
#UXWatch
————
@pattern_ai
Сегодня еще для обсуждения статья "How AI Destroys Institutions" ( авторы Woodrow Hartzog and Jessica Silbey).
Право, университеты, наука, пресса работают потому, что есть роли и ответственность, есть процедуры, объяснимость решений, социальные связи между людьми.
ИИ же производит результат без институционального процесса.
Это особенно опасно для судебной системы, образования, СМИ.
Главный вывод авторов: нынешние системы ИИ - это смертный приговор для гражданских институтов.
Делитесь мыслями в комментариях ⤵️
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
ИИ-инструменты в патентных ведомствах (UKIPO, EPO, USPTO)
Патентные офисы всё активнее используют инструменты с элементами ИИ как поддержку экспертов и заявителей (поиск релевантных материалов, классификация, предварительная проверка), ускоряя рутинные шаги, предлагают ориентиры, но не заменяют профессиональную оценку.
🇬🇧 UK Intellectual Property Office (UKIPO)
🔹Search - внутренний инструмент поиска по патентам, ранжирует результаты по похожести и релевантности (основан на ANSERA).
🔹Check if you could register your trade mark - публичный ИИ-инструмент для предварительной проверки торговой марки по тексту и изображению.
🔹 AI allocation tool - внутренний инструмент для автоматического распределения заявок между экспертами (нет публичной страницы, упоминается в обзорах).
🇪🇺 European Patent Office (EPO)
🔹 ANSERA - внутренний инструмент поиска и анализа приоритетных материалов для экспертов (нет публичного доступа).
🔹 Legal Interactive Platform (LIP) - генеративный ИИ- поиск в MyEPO (структурированные ответы по праву и практике EPC).
🔹 CPC Text Categoriser - онлайн-сервис для подбора CPC-классификаций по описанию технологии.
🔹Patent Translate - машинный перевод патентных документов (32 языка). Доступ через Espacenet.
🇺🇸 United States Patent and Trademark Office (USPTO)
🔹Similarity Search - ИИ-ассистированный поиск по базе патентов (часть PE2E).
🔹ASAP! (Artificial Intelligence Search Automated Pilot Program) - пилотная программа для автоматического предварительного поиска и выдачи уведомлений о возможных материалах.
#AIShelf
————
@pattern_ai
Патентные офисы всё активнее используют инструменты с элементами ИИ как поддержку экспертов и заявителей (поиск релевантных материалов, классификация, предварительная проверка), ускоряя рутинные шаги, предлагают ориентиры, но не заменяют профессиональную оценку.
🇬🇧 UK Intellectual Property Office (UKIPO)
🔹Search - внутренний инструмент поиска по патентам, ранжирует результаты по похожести и релевантности (основан на ANSERA).
🔹Check if you could register your trade mark - публичный ИИ-инструмент для предварительной проверки торговой марки по тексту и изображению.
🔹 AI allocation tool - внутренний инструмент для автоматического распределения заявок между экспертами (нет публичной страницы, упоминается в обзорах).
🇪🇺 European Patent Office (EPO)
🔹 ANSERA - внутренний инструмент поиска и анализа приоритетных материалов для экспертов (нет публичного доступа).
🔹 Legal Interactive Platform (LIP) - генеративный ИИ- поиск в MyEPO (структурированные ответы по праву и практике EPC).
🔹 CPC Text Categoriser - онлайн-сервис для подбора CPC-классификаций по описанию технологии.
🔹Patent Translate - машинный перевод патентных документов (32 языка). Доступ через Espacenet.
🇺🇸 United States Patent and Trademark Office (USPTO)
🔹Similarity Search - ИИ-ассистированный поиск по базе патентов (часть PE2E).
🔹ASAP! (Artificial Intelligence Search Automated Pilot Program) - пилотная программа для автоматического предварительного поиска и выдачи уведомлений о возможных материалах.
#AIShelf
————
@pattern_ai
🔥1
Как регуляторы пытаются успеть за ИИ в финансовом секторе
Январский доклад OECD честно показывает, что надзор за ИИ отстаёт от технологической реальности:
1️⃣ ИИ развивается быстрее, чем обновляются регуляторные рамки. Модели сложны, плохо объяснимы, динамически дообучаются, могут работать с высокой степенью автономии. Проверять такие системы используя старые подходы всё труднее.
2️⃣ Непрозрачность экосистемы. Регуляторы часто не знают, где именно и как используется ИИ, нет полной картины внедрения ИИ в финсекторе, а ключевые элементы (модели, инфраструктура, данные) у третьих лиц и BigTech-провайдеров, которые часто вне прямого надзора.
3️⃣ Требования "объяснимости, справедливости, надежности" есть на бумаге, а в жизни сложно проверить модели, найти нужные решения, непонятно, как именно реализовывать «надзор человека» в разных сценариях.
4️⃣ Правовая неопределённость из-за того, что новые ИИ-акты и требования наслаиваются на существующие. Как итог, тормозится внедрение ИИ, повышаются комплаенс-риски, инвестиции в ИИ становятся менее предсказуемы.
👀 Что предлагают:
▪️разъяснять, как применять существующие требования к продвинутым ИИ-моделям;
▪️избегать чрезмерно предписывающего регулирования;
▪️усиливать диалог с индустрией;
▪️использовать песочницы, live-тестирование ( пример UK FCA AI Live Testing), эксперименты.
📌 Обзоры отчетов прошлого года в посте "AI и финансовый сектор"
Пост "НейроUX в банках против ваших интересов" и подборка статей
#UXWatch
————
@pattern_ai
Январский доклад OECD честно показывает, что надзор за ИИ отстаёт от технологической реальности:
▪️разъяснять, как применять существующие требования к продвинутым ИИ-моделям;
▪️избегать чрезмерно предписывающего регулирования;
▪️усиливать диалог с индустрией;
▪️использовать песочницы, live-тестирование ( пример UK FCA AI Live Testing), эксперименты.
Пример, как Европейский центральный банк активно внедряет ИИ через SupTech Hub ECB (изучает 40+ GenAI use cases, использует ИИ в повседневной работе супервизоров):
▪️Athena- для перевод и анализ надзорных документов с использованием текстового анализа;
▪️Agora - позволяющая запрашивать данные из хранилищ данных, используя естественный язык, переведенный в код с помощью ИИ;
▪️Virtual Lab - разработка и совместная работы в области машинного обучения;
▪️Medusa - помощь в составлении и сравнительной оценке результатов надзорных проверок;
▪️Heimdall - автоматическое проведение процедур оценки соответствия требованиям.
▪️Delphi - обработка естественного языка (NLP) для интеграции индикаторов рыночного риска и информации из новостных сообщений в единую веб-платформу с удобным пользовательским интерфейсом для банковских надзорных органов.
Пост "НейроUX в банках против ваших интересов" и подборка статей
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Тайвань принял базовый закон об ИИ
Регулирование ИИ в Азии набирает обороты. С января не только в Южной Корее вступил закон в силу, но и Тайвань утвердил AI Basic Act, первый рамочный закон об ИИ. Это не жёсткое регулирование «по-европейски», а база для дальнейших подзаконных актов (регламентов/административных правил), которые будут развивать отраслевые требования для разных сфер ИИ:
🔹 Закрепляет ключевые принципы: защита прав человека, прозрачность и обьяснимость, недискриминация и справедливость, безопасность и ответственность, конфиденциальность и управление данными, ответственность и подотчётность
🔹Государство обязано поддерживать развитие ИИ, а не только контролировать его.
🔹Определяет обстоятельства, при которых применение ИИ может быть запрещен или классифицирован как высокорискованный с применением строгих ограничений:
- нарушает права на жизнь, телесную неприкосновенность, свободу или права собственности отдельных лиц;
- нарушает общественный порядок, национальную безопасность или экологическую устойчивость;
- дискриминация, предвзятость, ложная реклама, дезинформация или мошенничество, нарушая действующее законодательство.
Будут дальше четкие стандарты и условия для определения ответственности. Также будут разработаны механизмы возмещения ущерба, компенсации и страхования для защиты пострадавших сторон и обеспечения подотчетности. Основа -международные стандарты.
🔹Правительство Тайваня обязано создать открытую систему обработки данных и механизмы для облегчения обмена данными и их вторичного использования. Эта инициатива направлена на повышение доступности и качества обучающих данных, что имеет решающее значение для разработки надежных моделей ИИ.
🔹 Подчеркивается важность защиты персональных данных, внедрение принципов минимизации данных при разработке ИИ.
🔹 Не предусматривает явного ослабления защиты авторских прав, но подчеркивает роль государства в увеличении количества и качества обучающих данных для ИИ.
🔹Существующие законы должны быть пересмотрены, а новые приняты в течение 2 лет.
📌
У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ";
AI Basic Act Explorer of the Republic of Korea;
#LawAndDisorder
————
@pattern_ai
Регулирование ИИ в Азии набирает обороты. С января не только в Южной Корее вступил закон в силу, но и Тайвань утвердил AI Basic Act, первый рамочный закон об ИИ. Это не жёсткое регулирование «по-европейски», а база для дальнейших подзаконных актов (регламентов/административных правил), которые будут развивать отраслевые требования для разных сфер ИИ:
🔹 Закрепляет ключевые принципы: защита прав человека, прозрачность и обьяснимость, недискриминация и справедливость, безопасность и ответственность, конфиденциальность и управление данными, ответственность и подотчётность
🔹Государство обязано поддерживать развитие ИИ, а не только контролировать его.
🔹Определяет обстоятельства, при которых применение ИИ может быть запрещен или классифицирован как высокорискованный с применением строгих ограничений:
- нарушает права на жизнь, телесную неприкосновенность, свободу или права собственности отдельных лиц;
- нарушает общественный порядок, национальную безопасность или экологическую устойчивость;
- дискриминация, предвзятость, ложная реклама, дезинформация или мошенничество, нарушая действующее законодательство.
Будут дальше четкие стандарты и условия для определения ответственности. Также будут разработаны механизмы возмещения ущерба, компенсации и страхования для защиты пострадавших сторон и обеспечения подотчетности. Основа -международные стандарты.
🔹Правительство Тайваня обязано создать открытую систему обработки данных и механизмы для облегчения обмена данными и их вторичного использования. Эта инициатива направлена на повышение доступности и качества обучающих данных, что имеет решающее значение для разработки надежных моделей ИИ.
🔹 Подчеркивается важность защиты персональных данных, внедрение принципов минимизации данных при разработке ИИ.
🔹 Не предусматривает явного ослабления защиты авторских прав, но подчеркивает роль государства в увеличении количества и качества обучающих данных для ИИ.
🔹Существующие законы должны быть пересмотрены, а новые приняты в течение 2 лет.
У вас есть юзеры из Южной Кореи? Готовьтесь к требованиям Закона "О развитии ИИ";
AI Basic Act Explorer of the Republic of Korea;
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Реклама в AI-чатах новый риск, а не новый формат
Реклама в ChatGPT перестаёт быть слухом и скоро станет реальностью.
😳 OpenAI подтверждает планы показывать рекламные сообщения в чатах для бесплатных пользователей и дешевых тарифов (ChatGPT Go) (официальный пресс-релиз).
Речь идёт не о баннерах, а о нативной рекламе внутри чата, которая будет помечена как реклама, показана рядом или под ответом, отключаема в платных версиях.
Естественно, объяснение только одно - это способ сохранить бесплатный доступ для миллионов пользователей.
И если на Super Bowl 2026 (самое дорогое рекламное место в мире, 30 сек за $8млн) OpenAI запустил телевизионный ролик “You Can Just Build Things” об инструменте Codex, то Anthropic (создатели Claude) ответил серией рекламных роликов, высмеивающих идею рекламы прямо в чатах ИИ, чтобы заявить:
В отличие от поиска или соцсетей пользователи воспринимают ИИ-чаты как диалоги доверия (кейс, когда могут стать и уликами против них). Пользователи не просто «листают контент», а задаёт вопросы очень часто личного, профессионального или чувствительного характера.
👀 Когда в такой среде появляется реклама, возникает вопрос, где граница между нейтральной помощью и коммерческим влиянием?
Это зона риска:
▪️вводящее в заблуждение представление о «объективности» ответа;
▪️ скрытые коммерческие стимулы;
▪️ потенциальные dark patterns в дизайне диалога;
▪️ снижение прозрачности принятия решений.
Исследования показывают, что даже честно помеченная реклама снижает доверие к ответам ИИ.
Поэтому публичный спор OpenAI и Anthropic не просто про маркетинг, а про то, чем ИИ является по умолчанию, помощником, очередной медиаплатформой, продавцом «между строк»?
Как вы относитесь к рекламе в личном диалоге с ИИ?Делитесь мнением в комментариях❤️
#UXWatch
————
@pattern_ai
Реклама в ChatGPT перестаёт быть слухом и скоро станет реальностью.
Речь идёт не о баннерах, а о нативной рекламе внутри чата, которая будет помечена как реклама, показана рядом или под ответом, отключаема в платных версиях.
Естественно, объяснение только одно - это способ сохранить бесплатный доступ для миллионов пользователей.
И если на Super Bowl 2026 (самое дорогое рекламное место в мире, 30 сек за $8млн) OpenAI запустил телевизионный ролик “You Can Just Build Things” об инструменте Codex, то Anthropic (создатели Claude) ответил серией рекламных роликов, высмеивающих идею рекламы прямо в чатах ИИ, чтобы заявить:
«Ads are coming to AI. But not to Claude.»
В роликах показаны абсурдные сцены, где ИИ внезапно начинает что-то продавать посреди диалога.
В отличие от поиска или соцсетей пользователи воспринимают ИИ-чаты как диалоги доверия (кейс, когда могут стать и уликами против них). Пользователи не просто «листают контент», а задаёт вопросы очень часто личного, профессионального или чувствительного характера.
Это зона риска:
▪️вводящее в заблуждение представление о «объективности» ответа;
▪️ скрытые коммерческие стимулы;
▪️ потенциальные dark patterns в дизайне диалога;
▪️ снижение прозрачности принятия решений.
Исследования показывают, что даже честно помеченная реклама снижает доверие к ответам ИИ.
Поэтому публичный спор OpenAI и Anthropic не просто про маркетинг, а про то, чем ИИ является по умолчанию, помощником, очередной медиаплатформой, продавцом «между строк»?
Как вы относитесь к рекламе в личном диалоге с ИИ?Делитесь мнением в комментариях
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
PaperBanana или диаграммы для научных работ
Исследователи Google Cloud и Пекинского университета представили PaperBanana - агентский фреймворк для генерации научных диаграмм и графиков. Во время работы система имитирует процесс создания схем, которым пользуются люди: ищет примеры, составляет план и переделывает, если получилось плохо.
PaperBanana организует совместную работу пяти специализированных агентов ( Retriever, Planner, Stylist, Visualizer и Critic ) для преобразования исходного научного контента в диаграммы и графики высокого качества, пригодные для публикации.
▪️ Retriever определяет соответствующие примеры из источников для управления последующими агентами (похожие научные статьи, референсы изображений).
▪️Planner выступает в качестве когнитивного ядра, преобразуя контекст в подробные текстовые описания.
▪️ Stylist обеспечивает соблюдение академических эстетических стандартов, синтезируя рекомендации из источников (шрифты, палитра).
▪️ Visualizer преобразует текстовые описания в визуальный вывод или исполняемый код.
▪️ Critic проверяет сгенерированные изображения/графики на соответствие исходному материалу, предоставляя обратную связь для доработки.
Примеры и результаты бенчмаркинга здесь.
Репозиторий здесь ( код и датасет обещают в течение 2 недель).
#AIShelf
————
@pattern_ai
Исследователи Google Cloud и Пекинского университета представили PaperBanana - агентский фреймворк для генерации научных диаграмм и графиков. Во время работы система имитирует процесс создания схем, которым пользуются люди: ищет примеры, составляет план и переделывает, если получилось плохо.
PaperBanana организует совместную работу пяти специализированных агентов ( Retriever, Planner, Stylist, Visualizer и Critic ) для преобразования исходного научного контента в диаграммы и графики высокого качества, пригодные для публикации.
▪️ Retriever определяет соответствующие примеры из источников для управления последующими агентами (похожие научные статьи, референсы изображений).
▪️Planner выступает в качестве когнитивного ядра, преобразуя контекст в подробные текстовые описания.
▪️ Stylist обеспечивает соблюдение академических эстетических стандартов, синтезируя рекомендации из источников (шрифты, палитра).
▪️ Visualizer преобразует текстовые описания в визуальный вывод или исполняемый код.
▪️ Critic проверяет сгенерированные изображения/графики на соответствие исходному материалу, предоставляя обратную связь для доработки.
Примеры и результаты бенчмаркинга здесь.
Репозиторий здесь ( код и датасет обещают в течение 2 недель).
#AIShelf
————
@pattern_ai
👍1
Отчет про ИИ в образовании от OECD
Организация экономического сотрудничества и развития (OECD) опубликовала отчёт Digital Education Outlook 2026, посвящённый тому, как генеративный ИИ (GenAI) трансформирует системы обучения, преподавания и управления образованием, с примерами EdTech решений, интервью с профессорами, всего 247 страниц.
👀 Основные выводы отчёта:
1️⃣ 37% учителей младшей школы школы используют ИИ в работе, причем 57% считают ИИ полезным для планирования уроков, но 72% опасаются угроз академической честности (например, списывания, выдачи работ за свои).
2️⃣ Успешное выполнение задания с помощью ИИ ≠ настоящее обучение
Если студенты используют генAI для «сокращения пути» (готовые ответы), это может поднять качество работы, но не приводит к устойчивому усвоению навыков. В условиях отказа от ИИ такие преимущества исчезают, например, на экзаменах, когда доступ к ним прекращается.
3️⃣ GenAI помогает развивать критическое мышление, творческие способности и навыки сотрудничества тогда, когда он встроен в продуманную педагогическую стратегию.
Например, в коллаборативных сценариях усиливает аргументацию и знание предмета,
в динамичных адаптивных системах позволяет создать интерактивных «умных тьюторов», которые стимулируют рефлексию и анализ.
4️⃣ ИИ не должен вытеснять учителя. Лучшие результаты достигаются, когда инструменты проектируются совместно с педагогами, и ИИ поддерживает опыт, а не заменяет его.
5️⃣ Успех в выполнении задания с помощью ИИ может быть обманчивым. Это не обязательно отражает глубокое понимание, а скорее способность эффективно использовать инструмент. Такой феномен называют «миражом ложного мастерства, т.е. поверхностные достижения маскируют слабую базу навыков и метапознания.
6️⃣ OECD рекомендует:
▪️развивать политику, гарантирующую безопасность, защиту данных, возрастную адекватность и прозрачность ИИ;
▪️инвестировать в инфраструктуру и профессиональное развитие;
▪️финансировать научно-обоснованные EdTech-решения, ориентированные на реальный образовательный эффект.
📌
ИИ в школах: урок Ирландии по безопасному внедрению;
ИИ и инклюзивное образование;
#AIShelf
————
@pattern_ai
Организация экономического сотрудничества и развития (OECD) опубликовала отчёт Digital Education Outlook 2026, посвящённый тому, как генеративный ИИ (GenAI) трансформирует системы обучения, преподавания и управления образованием, с примерами EdTech решений, интервью с профессорами, всего 247 страниц.
Потенциал ИИ огромен, но именно педагогический контекст использования определяет, получит ли система образования пользу или ущерб.
Если студенты используют генAI для «сокращения пути» (готовые ответы), это может поднять качество работы, но не приводит к устойчивому усвоению навыков. В условиях отказа от ИИ такие преимущества исчезают, например, на экзаменах, когда доступ к ним прекращается.
Например, в коллаборативных сценариях усиливает аргументацию и знание предмета,
в динамичных адаптивных системах позволяет создать интерактивных «умных тьюторов», которые стимулируют рефлексию и анализ.
▪️развивать политику, гарантирующую безопасность, защиту данных, возрастную адекватность и прозрачность ИИ;
▪️инвестировать в инфраструктуру и профессиональное развитие;
▪️финансировать научно-обоснованные EdTech-решения, ориентированные на реальный образовательный эффект.
ИИ в школах: урок Ирландии по безопасному внедрению;
ИИ и инклюзивное образование;
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Лайки от вашего имени после смерти?
И пока регуляторы обсуждают использованию цифровых данных после смерти и анализируют сервисы, рынок продолжается развиваться.
По данным Business Insider, Meta (Meta Platforms признана экстремистской, её деятельность на территории России запрещена) получила патент на систему, которая позволяет ИИ продолжать активность в аккаунте пользователя, даже если он перестал им пользоваться или умер.
Модель анализирует прошлые публикации, лайки, комментарии и стиль общения, чтобы имитировать поведение человека в соцсети. Такой ИИ мог бы отвечать на сообщения, публиковать посты и поддерживать «присутствие» профиля. Meta подчёркивает, что это не готовый продукт.
С учётом роста рынка DeathTech и сервисов «цифрового бессмертия», такие разработки уже не выглядят фантастикой. И если раньше речь шла о хранении архивов и мемориальных страницах, то теперь о потенциально автономных ИИ-версиях личности.
😳 А вопросов все больше:
▪️ Кто даёт согласие на такую «цифровую активность»?
▪️ Можно ли продолжать говорить от имени человека после его смерти?
▪️ Где граница между памятью и симуляцией?
▪️ Что, если алгоритм начнёт публиковать то, чего человек никогда бы не сказал?
📌 Наши данные после смерти или "воскреснуть" с помощью ИИ
#UXWatch
————
@pattern_ai
И пока регуляторы обсуждают использованию цифровых данных после смерти и анализируют сервисы, рынок продолжается развиваться.
По данным Business Insider, Meta (Meta Platforms признана экстремистской, её деятельность на территории России запрещена) получила патент на систему, которая позволяет ИИ продолжать активность в аккаунте пользователя, даже если он перестал им пользоваться или умер.
Модель анализирует прошлые публикации, лайки, комментарии и стиль общения, чтобы имитировать поведение человека в соцсети. Такой ИИ мог бы отвечать на сообщения, публиковать посты и поддерживать «присутствие» профиля. Meta подчёркивает, что это не готовый продукт.
С учётом роста рынка DeathTech и сервисов «цифрового бессмертия», такие разработки уже не выглядят фантастикой. И если раньше речь шла о хранении архивов и мемориальных страницах, то теперь о потенциально автономных ИИ-версиях личности.
▪️ Кто даёт согласие на такую «цифровую активность»?
▪️ Можно ли продолжать говорить от имени человека после его смерти?
▪️ Где граница между памятью и симуляцией?
▪️ Что, если алгоритм начнёт публиковать то, чего человек никогда бы не сказал?
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
uksc_2024_0131_judgment_1da6c10a83.pdf
382.5 KB
AI и патенты: кейс Emotional Perception может изменить подход к софту в Великобритании
Верховный суд Великобритании вынес решение по делу Emotional Perception AI v Comptroller General of Patents, Designs and Trade Marks. Компания долгое время пыталась запатентовать систему, где нейросеть анализирует эмоциональные характеристики музыки и подбирает похожий контент.
👀 Суд подтвердил, что ИНС действительно относится к компьютерным программам, но есть важный нюанс " исключение действует только для программы «как таковой». Если реализация требует компьютерного оборудования и система функционирует как техническая система, это может придать изобретению необходимый технический характер и позволить преодолеть первый барьер патентоспособности."
Это серьёзный сдвиг относительно теста Aerotel применяемого последние 20 лет. Он требовал выделить «реальный вклад» изобретения и проверить, не относится ли он к исключениям (алгоритмы, бизнес-методы, программы). На практике Aerotel часто блокировал патенты на ИИ и ПО ещё на ранней стадии.
Суд возвратил дело в Ведомство по интеллектуальной собственности (UKIPO) с указанием провести дополнительный «промежуточный» этап: определить, какие признаки заявки реально создают технический вклад, прежде чем оценивать новизну и изобретательский уровень, указав, что все части так называемых «принципов Данса», изложенных в деле T 154/04 (Duns Licensing Associates) и подтвержденных в деле G 1/19, должны соблюдаться судами Великобритании, за исключением последнего принципа.
Пока остаётся открытым вопрос, как именно UKIPO будет применять обозначенный судом «промежуточный этап» анализа.
Возможны два сценария:
1️⃣ Ведомство может фактически перенести прежнюю аргументацию, использовавшуюся в рамках теста Aerotel для отказа по исключениям из патентоспособности, на стадию оценки новизны и изобретательского уровня. В таком случае практическое положение заявителей существенно не изменится. Решения, ранее отклонявшиеся как непатентоспособные, будут признаваться очевидными или лишёнными новизны.
2️⃣ Как указывали сама Emotional Perception AI и участники процесса в Верховном суде, подход Aerotel нередко приводил к тому, что отдельные признаки изобретения, формально подпадающие под исключения (например, алгоритмические элементы), рассматривались изолированно и не оценивались в контексте всей системы. Новый подход допускает анализ таких признаков с точки зрения их вклада в технический характер изобретения в целом, особенно когда они реализуются на вычислительном оборудовании. Именно сочетание требования аппаратной реализации и «промежуточного этапа» может изменить практику оценки ИИ-изобретений.
❕Возможностей к получению патентов на ИИ становится больше, но автоматического признания технического эффекта по-прежнему нет.
#LawAndDisorder #AIShelf
————
@pattern_ai
Верховный суд Великобритании вынес решение по делу Emotional Perception AI v Comptroller General of Patents, Designs and Trade Marks. Компания долгое время пыталась запатентовать систему, где нейросеть анализирует эмоциональные характеристики музыки и подбирает похожий контент.
Это серьёзный сдвиг относительно теста Aerotel применяемого последние 20 лет. Он требовал выделить «реальный вклад» изобретения и проверить, не относится ли он к исключениям (алгоритмы, бизнес-методы, программы). На практике Aerotel часто блокировал патенты на ИИ и ПО ещё на ранней стадии.
Суд возвратил дело в Ведомство по интеллектуальной собственности (UKIPO) с указанием провести дополнительный «промежуточный» этап: определить, какие признаки заявки реально создают технический вклад, прежде чем оценивать новизну и изобретательский уровень, указав, что все части так называемых «принципов Данса», изложенных в деле T 154/04 (Duns Licensing Associates) и подтвержденных в деле G 1/19, должны соблюдаться судами Великобритании, за исключением последнего принципа.
Пока остаётся открытым вопрос, как именно UKIPO будет применять обозначенный судом «промежуточный этап» анализа.
Возможны два сценария:
❕Возможностей к получению патентов на ИИ становится больше, но автоматического признания технического эффекта по-прежнему нет.
#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
India.pdf
470.5 KB
Индия вводит обязательную маркировку AI-контента с 20 февраля
Правительство внесло поправки в Поправки к Правилам регулирования деятельности ИТ-посредников, которые вступают в силу 20 февраля 2026 года.
Стандартная обработка ( цветокоррекция, шумоподавление, сжатие, перевод), не входит в это определение, если она не искажает первоначальный смысл. Научные статьи, учебные материалы, PDF-файлы, презентации и гипотетические черновики с использованием иллюстративного контента также исключены.
Законодатель отделил дипфейки от обычного цифрового редактирования.
👀 Ключевые обязанности платформ:
1️⃣ Обязательная маркировка ИИ-контента. Если сервис позволяет создавать или распространять SGI, он обязан обеспечивать заметную маркировку, добавлять постоянные metadata / provenance-механизмы, внедрять уникальный идентификатор источника создания, не позволять удалять или скрывать метаданные.
Маркировка должна быть легко воспринимаемой визуально либо аудио-дисклеймером для звукового контента.
2️⃣ Платформы, позволяющие создавать SGI, должны применять разумные технические меры,
автоматические инструменты, механизмы предотвращения незаконного контента, т.е. подход AI-moderation by design, а не только реактивного удаления.
3️⃣ Требовать от пользователя декларацию, является ли контент синтетическим, технически проверять корректность декларации, используя автоматизированные инструменты для перекрестной проверки, проверяя формат, источник и характер контента, прежде чем он будет опубликован. Если контент помечен как синтетический, он должен иметь видимую предупреждающую метку. Если платформа сознательно закрывает глаза на контент, нарушающий правила, считается, что она не выполнила свои обязательства по проверке.
4️⃣ Предотвращать создание и распространение SGI, содержащего материалы о сексуальном насилии над детьми, непристойный контент, ложные электронные записи, материалы, связанные со взрывчатыми веществами, или дипфейки, искажающие личность или голос реального человека
5️⃣ Срок удаления незаконной информации сокращён с 36 часов до 3 часов после официального уведомления.
Ускорены процедуры рассмотрения жалоб (вплоть до 2 часов в отдельных случаях).
6️⃣ Обязаны предупреждать пользователей не реже одного раза в три месяца на английском языке или на любом языке (см. 8 приложение), о штрафах за неправомерное использование контента, созданного с помощью ИИ.
Поправки синхронизированы с выпущенным White paper Office of the Principal Scientific Adviser (январь 2026), продвигающим связку технических и юридических мер комлаенса.
❕Теперь при разработке ИИ-продуктов регулятор ожидает, что требования встраиваются уже на уровне архитектуры. Индия фактически закрепляет принцип, если ИИ создаёт реалистичный контент, платформа должна технически доказать его искусственное происхождение.
📌 Ваши пользователи из Индии? Смотрим новые AI Guidelines;
AI Laws and Regulations in India as of 2026.
#LawAndDisorder
————
@pattern_ai
Правительство внесло поправки в Поправки к Правилам регулирования деятельности ИТ-посредников, которые вступают в силу 20 февраля 2026 года.
Synthetically generated information (SGI) - аудио-, визуальная или аудиовизуальная информация, искусственно созданная или изменённая алгоритмами таким образом, что она выглядит реальной или неотличимой от реального человека или события.
Стандартная обработка ( цветокоррекция, шумоподавление, сжатие, перевод), не входит в это определение, если она не искажает первоначальный смысл. Научные статьи, учебные материалы, PDF-файлы, презентации и гипотетические черновики с использованием иллюстративного контента также исключены.
Законодатель отделил дипфейки от обычного цифрового редактирования.
Маркировка должна быть легко воспринимаемой визуально либо аудио-дисклеймером для звукового контента.
автоматические инструменты, механизмы предотвращения незаконного контента, т.е. подход AI-moderation by design, а не только реактивного удаления.
Ускорены процедуры рассмотрения жалоб (вплоть до 2 часов в отдельных случаях).
Поправки синхронизированы с выпущенным White paper Office of the Principal Scientific Adviser (январь 2026), продвигающим связку технических и юридических мер комлаенса.
❕Теперь при разработке ИИ-продуктов регулятор ожидает, что требования встраиваются уже на уровне архитектуры. Индия фактически закрепляет принцип, если ИИ создаёт реалистичный контент, платформа должна технически доказать его искусственное происхождение.
AI Laws and Regulations in India as of 2026.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM