Pattern AI – Telegram
Pattern AI
277 subscribers
77 photos
5 videos
45 files
235 links
Искусственный интеллект изучает нас. Мы изучаем ИИ.
Отслеживаем, как меняется регулирование ИИ.
Разбираем манипуляции, UX-паттерны и алгоритмические ловушки.
Учимся применять ИИ: осознанно, этично и с пользой.
Download Telegram
Советы лидерам на 2026 год от Гарвардской школы бизнеса

Начинающаяся неделя перед новогоднимм праздниками - это хороший повод посмотреть чуть дальше текущих задач.
В 2026 году успех компаний будет зависеть не столько от самих AI-технологий, сколько от того, насколько быстро организации умеют меняться.
Преподаватели Гарвардской школы бизнеса выделяют несколько ключевых тенденций, которые будут определять лидеров в следующем году:

1️⃣"Change fitness" - новая управленческая норма
ИИ больше не эксперимент. Он становится частью повседневной работы. Лидерам важно развивать change fitness, т.е. способность команд быстро адаптироваться, тестировать новое и перестраивать процессы без паралича и сопротивления.

2️⃣Искусственный интеллект является усилителем, а не заменой людям
Побеждают не те, кто просто автоматизирует всё подряд, а те, кто использует ИИ для усиления человеческого мышления. Лучшие решения рождаются в командах, где AI снижает стоимость экспериментов, но ключевые решения остаются за людьми.

3️⃣ Баланс компромиссов, а не «идеальный AI»
Разные типы ИИ дают разные эффекты: одни повышают стабильность и точность, другие - креативность и вариативность. Ошибкой будет искать универсальный инструмент.Ваша задача- грамотно сочетать их под конкретные цели.

4️⃣ Человеческие отношения становятся ценнее
Когда аналитика и расчёты автоматизируются, главным преимуществом остаются доверие, эмпатия и умение работать с неопределённостью. Клиенты и партнёры ценят не скорость ответа ИИ, а качество человеческого взаимодействия.
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
3
UX-тренды 2026: от экранов к интеллектуальным экосистемам

Немного про тренды, хотя еще не все отчеты здесь рассмотрели. В 2026 году по плану создание UX-дизайна превратиться в проектирование интеллектуальных экосистем, где цифровые интерфейсы и AI-агенты действуют проактивно, предвосхищая задачи и контекст пользователя (Agentic UX).

👀 Ключевые изменения:

🔹Zero UI и невидимое взаимодействие. Вместо поиска кнопок ИИ-агенты сами выполняют цепочки действий (от бронирований до покупок ) через голос, контекст и поведенческие сигналы.
🔹 Генеративные UI и гиперперсонализация.
Статичные макеты уступают динамическим интерфейсам. UI перестраивается в реальном времени под когнитивную нагрузку пользователя: упрощается при усталости и расширяется для опытных пользователей.
🔹Мультимодальность (голос, жесты, взгляд).
С ростом AR-устройств взаимодействие становится естественным. Голос, жесты и визуальный отклик работают вместе.
🔹Эффективный кроссплатформенный пользовательский опыт.
🔹Обьяснимость, этичность и доверие.
Автономные системы обязаны объяснять свои решения. Пользователь должен понимать, почему ИИ сделал выбор, и иметь возможность его скорректировать.

🔍 Примеры:
🔹Canva делает ставку на ИИ как инструмент выражения, а не унификации. Платформа прямо поощряет дизайнеров использовать AI для усиления личного стиля, а не для производства «алгоритмически одинаковых» решений.
🔹Adobe смещает фокус в сторону мультисенсорного и эмоционального дизайна. ИИ используется для поддержки культурной аутентичности и создания визуальных решений, которые считываются не только глазами, но и на уровне эмоций и контекста.
🔹Microsoft рассматривает ИИ-агентов как основу будущих цифровых экосистем ( от автономного управления безопасностью до пользовательских сценариев, где генеративный ИИ помогает людям ориентироваться в вопросах здоровья и благополучия).
🔹Prototypr фиксирует сдвиг в инструментах: прототипирование голосовых интерфейсов становится критически важным навыком для проектирования новых AI-ориентированных продуктов.

ИИ-инструменты:
▪️Lovable и v0.dev - создание полноценных, рабочих интерфейсов из текстовых промптов (Vibe Coding).
▪️ Uizard - быстрая генерация wireframe-схем и UI-дизайна на основе набросков от руки.
▪️ Galileo AI - генерация редактируемых UI-дизайнов в Figma по текстовому описанию.
▪️Synthetic Users - проведение интервью и тестов на ИИ-моделях, обученных на реальных сегментах аудитории для быстрой валидации идей.
▪️Lyssna (AI features) - автоматический анализ пользовательских тестов и тепловых карт.
▪️Relume - построение структуры сайта и копирайтинга на основе ИИ-библиотек компонентов.

Читать подробнее:
▪️Lyssna app design trends;
▪️Adobe 2026 Creative Trends report
▪️Graphic Design Trends 2026: Where AI Meets Human;
▪️What’s next in AI: 7 trends to watch in 2026 by Susanna Ray|Microsoft;
▪️UX/UI, AI и тренды, которые реально работают в 2026

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👌1
Маркировка AI-контента или что предлагает ЕС

Вернемся к прозе новостей....
Европейская комиссия опубликовала первый проект Code of Practice по прозрачности AI-контента. Он показывает, как требования ст. 50 AI Act должны превратиться в практическую реализацию.

Для разработчиков (поставщиков AI, providers):
▪️многоуровневая маркировка: метаданные, невидимые водяные знаки, отслеживание происхождения.
▪️для открытых моделей предлагаются «структурные» водяные знаки, закодированные ещё на стадии обучения, чтобы каждый производный модуль наследовал признаки происхождения.
▪️бесплатные инструменты для проверки контента.
▪️при закрытии сервиса передача инструментов проверки властям.

Для платформ и сервисов (deployers) ключевой элемент требований это, что видит конечный пользователь:
▪️вводится различие между полностью AI‑созданным контентом и AI‑ассистированным, где даже косметические изменения (фильтры, шумоподавление), влияющие на восприятие смысла, возраста, эмоций или тона кожи, учитываются отдельно.
Для таких случаев предполагаются иконки/логотипы с двухбуквенным обозначением по стандарту Member State (ISO‑код страны, н-р DE, IT, FR) и интерактивные элементы интерфейса.
▪️в видео: постоянные значки и вступительные уведомления;
▪️в аудио: регулярные устные уведомления о вмешательстве ИИ.
▪️тексты на общественные темы маркируются, если человек не проверил их содержимое.
▪️художественные и сатирические работы маркируются мягче, но с защитой изображённых лиц.

Главные риски:
▪️техническая неопределённость, незрелые подходы, особенно для открытых моделей.
▪️пользователи могут игнорировать все эти значки и повториться «катастрофа cookie-баннеров».
▪️компании могут соблюсти требования только формально и не обеспечить реального понимания пользователем, т.к. нет чётких практических стандартов маркировки и верификации.

Сроки:
Статья 50 AI Act вступает в силу 2 августа 2026 г. вместе с большинством требований AI Act.
Cбор обратной связи по Кодексу продолжиться до 23 января 2026, второй проект ожидается к середине марта, финальная версия - к июню 2026 года.

Проект кодекса задаёт основу прозрачности, позволяет в будущем разработать и уточнить стандарты, разделяя «AI-generated» от «AI-assisted» контент, повысить доверие публики к такому контенту.
Компаниям же нужно учитывать эту неопределённость и готовить проекты «by design», чтобы потом не переделывать их полностью и не увеличивать бюджет.

#LawAndDisorder
————
@pattern_ai
👍2
ЕС даёт шанс «сигналить» о проблемах AI до выхода на рынок

Европейская комиссия через AI Office запустила AI Act Whistleblower Tool. Это защищённый канал, где специалисты, работающие с AI‑моделями, могут конфиденциально сообщать о вредных или несоответствующих практиках, которые могут нарушать AI Act или угрожать правам, безопасности или общественному доверию.

👀 Что делает инструмент:

🔹 позволяет анонимно отправлять сообщения на любом официальном языке ЕС.
🔹есть защищённый «входящий ящик» для загрузки доказательств и переписки с AI Office, при этом личность остаётся скрытой.
🔹подача, уточнение фактов и ответы возможны без раскрытия личности.

Полная защита информаторов по Директиве ЕС о защите информаторов (Whistleblower Directive) начнёт применяться к нарушениям AI Act с 2 августа 2026 года. Некоторые случаи, связанные с безопасностью продукции, защитой потребителей, данными или информационной безопасностью, могут уже сейчас подпадать под защиту существующих правил по директиве.

Придерживайтесь добросовестных практик с самого начала. С появлением Whistleblower Tool любой специалист внутри команды сможет сигнализировать о нарушениях.

#LawAndDisorder #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
💯1
Как персональные данные «путешествуют» через open-source AI: инструмент от CNIL

Французский регулятор CNIL вместе с LINC разработал демонстратор для изучения «генеалогии» AI-моделей в open source.
Цель: понять, как можно реализовать права на доступ, исправление или удаление персональных данных, если они использовались при обучении моделей.

👀 Что делает инструмент:

🔹показывает связи между моделями: от исходных («предки») до производных («потомки»).
🔹позволяет понять, какие модели могли «запомнить» данные конкретного человека.
🔹даёт возможность моделировать сценарии обращения за доступом, исправлением или удалением данных.

Пользователь может выбрать модель на HuggingFace и увидеть её генеалогию. Экспертный режим позволяет строить графы наследования моделей, полезные для исследователей и разработчиков.
Инструмент пока экспериментальный, помогает визуализировать и анализировать данные, но не всегда дает отправить прямой запрос на удаление.

Часто пользователи модифицируют open-source модели и выкладывают их снова, и каждая новая версия наследует данные предыдущих моделей. Понимание этих связей поможет отследить путь персональных данных и оценить, как реализовать GDPR на практике.

#AIShelf #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
A guide to Fundamental Rights Impact Assessments_Danish.pdf
1.7 MB
Гайд по FRIA от Датского института прав человека

Напомню, что Fundamental Rights Impact Assessment (FRIA) помогает выявлять и снижать риски нарушения прав человека при использовании ИИ в продуктах и сервисах.
Подробный пост был здесь.

👀 Гайд включает в себя:
▪️Критерии для содержательной оценки FRIA;
▪️Пошаговое руководство, структурированное в 5 отдельных этапов.
▪️Планирование и определение масштаба проекта;
▪️Оценка и смягчение негативных последствий для основных прав человека.
▪️Решение о развертывании и публичная отчетность;
▪️Мониторинг и анализ.
И самое главное, шаблон в виде Excel таблицы.

📌 Чем отличаются инструменты оценки воздействия AIIA, FRIA и DPIA

#LawAndDisorder #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Нью‑Йорк заставляет раскрывать персонализированные цены, установленные алгоритмами

С ноября 2025 года компании в Нью‑Йорке обязаны сообщать ( Law 349-A) , когда цена товара или услуги формируется алгоритмом на основе личных данных потребителя. Точная фраза на сайте или в приложении:

“THIS PRICE WAS SET BY AN ALGORITHM USING YOUR PERSONAL DATA.”

Речь идёт о динамическом ценообразовании: алгоритм учитывает историю покупок, устройство (Android vs iOS) или другие данные. Даже «оптимизация CX» может превратиться в скрытую дискриминацию, если, например, устройство становится косвенным индикатором дохода.

С точки зрения AI assurance (проверки и контроля ИИ на этичность, безопасность и законность) важно убедиться, что:
▪️ личные данные используются корректно;
▪️логика алгоритма объяснима;
▪️уведомление показывается каждый раз.

Пример: персонализация не должна «наказывать» лояльных клиентов или тех, кто менее чувствителен к цене.
Штрафы до $1,000 за нарушение.

Нью‑Йорк стал одной из первых юрисдикций, вводящих такие требования, и на фоне роста интереса регуляторов к алгоритмическим системам это важно помнить при расширении проектов.

📌 Подборка изменений:
Законы в США, регулирующие ИИ-компаньонов
ИИ в рекламе: новые законы Нью-Йорка


#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Можно ли обучать ИИ на чужих работах? Ответ немецкого суда

10 декабря 2025 года Высший земельный суд Гамбурга (OLG Hamburg, 5 U 104/24) вынес по делу Robert Kneschke v. LAION e.V первое в Германии апелляционное решение о применении исключений для интеллектуального анализа текста и данных (TDM) при обучении ИИ.

Фотограф Роберт Кнешке оспаривал включение его работ в датасет LAION 5B, использовавшийся для обучения моделей вроде Stable Diffusion. Суд подтвердил решение первой инстанции: деятельность LAION подпадает под исключения §§44b и 60d UrhG. Заявленный автором запрет на TDM был признан недействительным, поскольку не был выражен в машиночитаемой форме.

Позиция суда:
▪️ загрузка, анализ и валидация изображений для проверки image-text-пар относятся к TDM;
▪️ такие действия охватывают и этапы, предшествующие обучению модели;
▪️ исключение для научных исследований (§60d UrhG) применяется к некоммерческой исследовательской деятельности, включая создание открытых датасетов;
▪️ внутреннее использование данных не нарушает обычную коммерческую эксплуатацию произведений.

Что защищено от претензий о нарушении авторского права:
▪️ временное воспроизведение работ для автоматизированного анализа (например, сопоставление изображения и текста, фильтрация, проверка);
▪️фильтрация, проверка и подготовка датасетов для обучения ИИ;
▪️ создание и хранение датасетов в исследовательских целях;
▪️ иные внутренние технические операции без публикации контента.

Что не защищено:
▪️ публикация или распространение самих охраняемых произведений;
▪️ использование данных за пределами TDM;
▪️ результаты ИИ, воспроизводящие конкретные охраняемые работы;
▪️ интеллектуальный анализ данных при наличии действующего машиночитаемого запрета со стороны правообладателя.

Суд подчеркнул: исключения для TDM не создают общего разрешения на использование чужих работ. Они защищают только строго определённые технические стадии обучения ИИ. Дальнейшая кассация в BGH допущена, а значит спор о границах TDM в Европе продолжается.

Для правообладателей:
▪️Внедрите машиночитаемые формы отказа от участия (robots.txt, протокол резервирования TDM, метаданные).
▪️Документируйте развертывание системы с возможностью отказа от участия и храните подтверждающие документы в течение соответствующего периода времени.
▪️Постарайтесь включить в соглашения с агентствами и платформами положения, обеспечивающие соблюдение технических требований.

Для разработчиков ИИ и исследовательских организаций:
▪️Обеспечьте соблюдение обязательств по выявлению угроз с возможностью отказа от участия (ст. 53 AI Act).
▪️Поддерживайте прозрачность в отношении некоммерческого назначения, чтобы не потерять защиту, предоставляемую разделом 60d.
▪️Документируйте исследовательскую деятельность и публикуйте результаты проверки для повышения научной ценности работы.

📌 Требования защиты авторских прав для поставщиков и развертывателей по EU AI Act;

Как владельцам контента в ЕС отказаться от использования их данных для обучения ИИ?

Проект Code of Practice по прозрачности AI-контента

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Канада запустила бета‑версию реестра ИИ

Федеральное правительство Канады опубликовало первую бета‑версию AI Register - публичного реестра ИИ‑систем, используемых в государственных структурах. Реестр доступен на портале открытых данных и показывает, какие инструменты с ИИ применяются в различных департаментах, для чего они созданы, кто их использует и откуда они взяты.

Пока это минимально жизнеспособный продукт (MVP) с базовой информацией. В реестр включено более 400 систем, от исследований и прототипов до полностью развёрнутых инструментов, включая данные о том, используются ли персональные данные и получают ли пользователи уведомления об ИИ.
Планируется, что реестр поможет анализировать, какие системы требуют оценки воздействия, где нужны механизмы контроля и как избежать скрытых проблем и тем самым способствовать прозрачности и созданию основу для AI governance в государственном секторе.

📌 Каталог Tools & Metrics for Trustworthy AI от OECD;
Список трекеров ИИ здесь.


#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Red Teamig AI for Social Good_Unesco.pdf
2.2 MB
Red Teaming AI: безопасный и этичный ИИ по методике UNESCO

UNESCO выпустила практический Red Teaming AI Playbook, чтобы проверять модели ИИ на скрытые ошибки, предвзятость и потенциально вредное поведение до их использования в продуктах. В нем фокус на социальных, этических и гендерных рисках, а не только на технических ошибках.

Проиллюстрированы практические шаги и примеры, как организовать Red Teaming, собирать выводы и улучшать модели, показаны промпты и варианты правильных/неправильных ответов.
Пособие делает red teaming доступным широкому кругу участников: политикам, образовательным организациям, гражданскому обществу, а не только узким техническим командам.

#AIShelf
————
@pattern_ai
Unesco Report-AI in Courts.pdf
891.2 KB
ИИ в судах: глобальные этические принципы от Юнеско

Документ закрепляет 15 универсальных принципов, которые защищают верховенство закона, прозрачность и фундаментальные права, задавая стандарты ответственного использования ИИ в юстиции.

Ключевые принципы:
🔹ИИ как вспомогательный инструмент. Решения остаются за человеком, ИИ лишь помогает, но не заменяет судью.
🔹 Существенный человеческий контроль . Системы работают под ясным и подотчётным контролем человека.
🔹Прозрачность и объяснимость. Решения должны быть отслеживаемыми, проверяемыми и подконтрольными.
🔹 Права человека в центре внимания. Справедливость, соблюдение процессуальных норм и защита прав участников обязательны.
🔹 Инклюзивное управление. Рекомендации разработаны с учётом мнений более 36 000 судебных специалистов из 160 стран, что обеспечивает глобальную легитимность.

Фреймворк сопровождается инструментами для повышения компетенций, помогая судьям, судам и законодателям внедрять ИИ без ущерба для независимости и доверия к судебной системе.

📌 ИИ в зале суда: правила игры;

#AIShelf #LawAndDisorder
————
@pattern_ai
В Китае запустили первый в стране AI-суд по трудовым спорам

Как пример внедрения, в Шэньчжэне официально запустили интеллектуальную вспомогательную систему обработки дел в рамках арбитража трудовых споров ( 111 типов трудовых споров на всех этапах процесса от подачи жалобы до вынесения решения).

👀 Система интегрирует ИИ в ключевые этапы арбитражного разбирательства, используя комбинацию знаний, стандартов и логики судебного процесса, что позволяет повысить эффективность и снизить ручной труд:
▪️Автоматическая предварительная экспертиза заявлений анализирует запросы по 11 критериям и формирует рекомендации по допуску к рассмотрению.
▪️Умная медиция выявляет ключевые спорные моменты, подбирает релевантные нормы и аналогичные дела, оценивает планируемые соглашения на соответствие правовым требованиям.
▪️Автоматизированный анализ материалов дела структурирует суть споров, ключевые факты и генерирует обзорные выводы, повышая скорость обзора материалов до +50 %.
▪️Помощь в судебном разбирательстве формирует план слушания, напоминает по ключевым вопросам и предлагает дополнительные вопросы для уточнения фактов.
▪️Генерация решений помогает формировать окончательные решения и сокращает время подготовки документации практически вдвое.
▪️Сравнительный анализ осуществляет глубокую сверку арбитражных решений и судебных вердиктов по фактам, применимым нормам и итоговым последствиям, выявляя закономерности и различия.

Эффекты от внедрения:
▪️Время подготовки уменьшилось приблизительно на 50 %.
▪️Эффективность обзора материалов дела выросла примерно на 50 %.
▪️Общий цикл арбитража стал заметно короче.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Курсы от Google по AI

1️⃣ Introduction to Generative AI. Что такое генеративный ИИ и как он работает, как создавать простые приложения ИИ с помощью инструментов Google.
2️⃣Introduction to Large Language Models. Узнаете, где используются большие языковые модели, почему они важны и как их можно улучшить, без сложных технических терминов.
3️⃣Introduction to Responsible AI. Как создавать ИИ этично, 7 основных принципов Google для создания справедливых, безопасных и ответственных систем ИИ.
4️⃣Prompt Design in Vertex AI. Как писать более качественные подсказки для получения лучших результатов от ИИ, создание текста и изображений с помощью инструментов ИИ Google, практические упражнения.
5️⃣Introduction to Image Generation. Как ИИ создает изображения с нуля.
6️⃣Encoder-Decoder Architecture. Как ИИ переводит языки, резюмирует контент и генерирует текст.
7️⃣Attention Mechanism. Как ИИ учится фокусироваться на важной информации в тексте и изображениях.
8️⃣Transformer Models and BERT Model. Модели, которые изменили современный ИИ.
9️⃣Create Image Captioning Models. Создание моделей для создания подписей к изображениям.
1️⃣0️⃣Introduction to Vertex AI Studio. Демонстрации, показывающие, как идеи превращаются в работающие инструменты ИИ.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Курсы от Hugging Face
1️⃣ AI Agents -курс по проектированию автономных ИИ-агентов: планирование, инструменты, память, взаимодействие с внешними средами и API
2️⃣LLM Course - как устроены большие языковые модели: токенизация, архитектура Transformer, обучение, экосистема библиотек Hugging Face.
3️⃣ Smol-course - сжатый и практичный курс для тех, у кого мало времени: быстрая ориентация в fine-tuning, адаптации моделей и работе с небольшими LLM.
4️⃣ MCP Course - создан совместно с Anthropic. Посвящён подключению LLM к внешним данным, инструментам и контекстам через MCP — ключевая тема для enterprise- и agent-решений.
5️⃣Deep RL - полный курс по обучению с подкреплением: от базовых алгоритмов до deep RL. То, на чём обучаются роботы, игровые агенты и исследовательские модели (включая подходы уровня OpenAI).
6️⃣ ML для игр - практика применения ML и RL в геймдеве: интеллектуальные NPC, адаптивное поведение, симуляции и обучение агентов в игровых средах.
7️⃣ Robotics - курс на стыке классической робототехники и нейросетей: управление, восприятие, обучение агентов и интеграция ML-моделей в физические системы.
8️⃣ Computer Vision- всё про зрение для ИИ: классификация, детекция, сегментация, multimodal-подходы и работа с изображениями в экосистеме Transformers.
9️⃣ Audio Course-работа со звуком и речью: ASR, TTS, аудиоклассификация и speech-модели на базе Transformers.
1️⃣🔤 Diffusion Course - подробный гайд по диффузионным моделям: генерация изображений, кастомизация, fine-tuning и практическая работа с библиотекой Diffusers.
1️⃣1️⃣Open-Source AI Cookbook - отдельно стоящая «тяжёлая артиллерия»: сборник готовых рецептов, архитектурных паттернов и кода для решения прикладных ИИ-задач.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
💔1
This media is not supported in your browser
VIEW IN TELEGRAM
C Наступающим Новым годом! Пусть все сервисы будут доступны и работают без сбоев!
Почему на CES 2026 почти не говорят об ИИ? (спойлер: потому что он везде)

Начнём 2026 год с главного итога выставки CES в Лас-Вегасе: ИИ перестает быть «фичей» и превращается в невидимую инфраструктуру. Если на прошлых выставках эта аббревиатура была на каждом втором стенде как маркетинговое украшение, то на CES 2026 показывают как ИИ может работать незаметно в фоне, обеспечивая жизнь вещей.

Ключевые тренды:
🔹Edge AI. ИИ уходит из облаков на устройства. Благодаря новым процессорам обработка данных происходит мгновенно и без интернета. Это критически важно для безопасности, данные не покидают девайс ( ноутбуки HP OmniBook Ultra с производительностью 85 TOPS, смартфоны Samsung Galaxy с локальным Vision AI).
🔹Аппаратный суверенитет. Производители отказались от «универсального железа». Архитектура чипов теперь изначально оптимизирована под конкретные нейросети ( чипы Intel Core Ultra Series 3 на базе техпроцесса 18A, модуль NVIDIA Jetson T4000 на архитектуре Blackwell для роботов).
🔹От генерации к действию. На смену чат-ботам пришли автономные агенты. Это системы, которые не просто дают советы, а совершают действия в реальности (домашний робот-гуманоид LG CLOiD, умеющий складывать одежду, робот-помощник SwitchBot Onero H1).
🔹Ambient Intelligence (Фоновый интеллект). ИИ становится невидимым, предвосхищая потребности пользователя без лишних запросов ( телевизоры Samsung Micro RGB, меняющие настройки под зрителя в комнате, умные очки TCL RayNeo Air Pro 4 с ИИ-ассистентом).

Самые обсуждаемые новинки:
🔹Микро-лаборатория Allergen Alert. Экспресс-тест еды на аллергены прямо в тарелке
🔹Проекторы-невидимки. Потолочные системы ( новые концепты от Philips, XGIMI), которые создают динамические голограммы прямо в воздухе. Можно будет посмотреть прогноз погоды или рецепт прямо над кухонным столом.
🔹Умные линзы Mojo Vision 2.0. Контактные линзы с дополненной реальностью, теперь с беспроводной зарядкой и функцией биометрического мониторинга в реальном времени. Очки MemoMind работающие на гибридной операционной системе с поддержкой нескольких LLM, которая автоматически выбирает наиболее подходящую модель ИИ для каждой задачи, включая OpenAI, Azure и Qwen.
🔹Кухонные системы, которые не только готовят блюда по рецептам, но и анализируют пищевые предпочтения и биометрические данные семьи, предлагая персонализированное меню на неделю ( Electrolux OmniChef, Samsung холодильники c AI Vision).
🔹Робот Solar Mars Bot. Автономная передвижная электростанция, которая ищет солнечный свет для подзарядки, оснащена выдвижными солнечными панелями мощностью 300 Вт.
🔹Магнитные программируемые кнопки Solver от NVIDIA для Android и IPhone, каждый пользователь может назначить любое действие (например, открыть любое приложение «Заметки», «YouTube», делиться своим местоположением с конкретным контактом, совершать телефонный звонок в экстренную помощь, записывать аудио и включать сигнализацию).
🔹 Робо -такси (Uber, такси-дрон Hyundai AeroCab) . Планируются первые коммерческие тест-полеты автономного пассажирского дрона, демонстрирующие потенциал городской аэромобильности.

🔹Для любителей Lego «умные кубики», которые являются частью системы Smart Play. Каждый кубик оснащен чипами, способными распознавать другие кубики, измерять наклон и движение, воспроизводить звуки, активировать светодиодную подсветку и многое другое. Дебют состоится в новых наборах Lego по мотивам «Звездных войн» 1 марта.
Ну и для тех, кто скучает по Тамагочи, представлен новый питомец Свикар или яйцо с ушами и экраном.

Как видим, год начинается с «приземления» технологий, гаджеты удивляют и показывают, насколько ИИ может изменить нашу повседневность и, возможно, кому-то уже на следующий новый год робот будет нарезать оливье, а дети увидят Деда Мороза, подлетающего к их елке.

📌 Смотреть СES streams,
CES Live updates
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Open AI order.pdf
305.6 KB
Суд обязал OpenAI передать 20 миллионов диалогов ChatGPT

Федеральный суд Южного округа Нью-Йорка (SDNY) поставил точку в споре о доступе к логам ChatGPT. Судья Сидни Стайн отклонил возражения OpenAI и подтвердил обязанность компании предоставить истцам внушительную выборку данных для анализа.

🔹OpenAI должна передать 20 миллионов обезличенных логов (промпты пользователей и ответы системы). Изначально истцы запрашивали 120 миллионов, но суд остановился на 20 млн как на пропорциональной мере.
🔹 Суд постановил, что даже те диалоги, которые не содержат прямых цитат из СМИ, всё равно релевантны для дела. Они помогут оценить правомерность использования контента в рамках защиты о «добросовестном использовании» (fair use).
🔹 OpenAI пыталась ограничить выдачу только результатами по конкретным поисковым терминам, чтобы «защитить частную жизнь пользователей». Суд отклонил.
Суд счел риски для приватности минимальными:
▪️Данные обезличены (используется собственный инструмент OpenAI для удаления личной информации, помимо имен и контактов, система должна очищать логи от иных видов «частной информации» о пользователе).
▪️Объем ограничен ( 20 млн. это уже не все записи).
▪️ действует специальный охранный ордер (protective order), ограничивающий использование данных.

Суд подчеркнул различие между частной перепиской (например, прослушкой телефона) и чатами с ИИ:
Пользователи добровольно передают информацию ChatGPT, а OpenAI сохраняет её в ходе своей обычной коммерческой деятельности. Это делает такие логи более доступными для судебного раскрытия, чем «тайную переписку».


👀 Почему этот прецедент важен для разработчиков и пользователей:
▪️ ИИ-компании больше не смогут блокировать доступ к внутренним данным, прикрываясь исключительно приватностью. Если логи признаны релевантными, суды будут требовать их массового раскрытия.
▪️ Суд признал важными даже те логи, где нет прямых цитат из СМИ. Это позволит истцам доказывать ценность моделей через общие паттерны использования авторского контента, по сути удар по "fair use".
▪️Разграничение судом частной переписки и чатов с ChatGPT упрощает изъятие данных в будущих спорах.
▪️ Использование собственных инструментов деидентификации признано достаточным компромиссом между тайной и правосудием, что может стать обязательным требованием для всех разработчиков ИИ.

📌 Другой кейс, где Министерство внутренней безопасности США (DHS) получило федеральный ордер, обязывающий OpenAI раскрыть личность пользователя и историю его промптов в ChatGPT читать в этом посте.

Начните новый год с пересмотра внутренних политик использования и разработки ИИ, учитывая, что прозрачность становится глобальным трендом и любая информация потенциально может быть истребована в рамках судебного раскрытия доказательств (discovery).

#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👎1
ChatGPT Health: новый уровень персонализации и новые красные линии ответственности

OpenAI запустила ChatGPT Health, предназначенный специально для вопросов о здоровье и благополучии. В отличие от обычных разговоров, здесь:
▪️здоровье пользователя понимается в контексте его реальных данных ( допускается подключение медкарт и фитнес-приложений),
▪️разговоры изолированы от остальных чатов и хранятся отдельно,
▪️разговоры не используются для обучения моделей.

OpenAI старается усилить защиту данных через:
▪️отдельное шифрование и изоляцию Health-взаимодействий,
▪️возможность управлять доступом, отключать приложения и удалять данные,
▪️рекомендации включить многофакторную аутентификацию для дополнительной защит

ChatGPT Health задуман как вспомогательный инструмент для понимания состояния здоровья и подготовки к врачебным визитам, без заявлений о диагностике или лечении, на фоне того, что пользователи уже направляют ChatGPT около 230 млн медицинских запросов в неделю.

Мы видим, что ИИ пытаются интегрировать все глубже в сферы, где цена ошибки - это наше личное здоровье и жизнь.

👀 Показательно, что запуск Health происходит на фоне:
🔹Урегулирования Google и Character.AI исков, в которых семьи связывали суициды подростков с эмоциональным воздействием чат-ботов. Это первые крупные кейсы, где ИИ-продукты фигурируют как фактор психологического вреда.
🔹Признания судами пользовательских разговоров как допустимых доказательств, что усиливает неопределённость в отношении объёма и пределов защиты частной жизни в судебных спорах, при разрешении споров между третьими лицами.


Ключевой вопрос теперь не в том, может ли ИИ работать с данными о здоровье, а в том, кто и как отвечает за последствия такого взаимодействия.

📌ИИ в медицине: между потенциалом и реальностью

#LawAndDisorder #UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Еврокомиссия обязала X сохранить данные Grok: что происходит на самом деле

Европейская комиссия выдала платформе X обязательный приказ о хранении всех данных, связанных с ИИ чат-ботом Grok, включая внутреннюю документацию, данные обучения и сведения об алгоритмической работе системы до конца 2026 года.

Формально это расширение уже действующего приказа о сохранении данных в рамках Digital Services Act (DSA). Фактически, это создание процессуальной базы для последующей проверки и возможного расследования. Приказ не означает автоматического начала дела, но гарантирует, что ключевые доказательства не будут удалены или изменены.

Поводом для расширения приказа стали многочисленные жалобы на использование Grok для генерации незаконного контента, включая изображения сексуального характера.


✏️ Закон о цифровых услугах (DSA) возлагает на очень крупные онлайн-платформы обязанность выявлять, оценивать и снижать системные риски, связанные с распространением незаконного и вредоносного контента, обеспечивать алгоритмическую прозрачность, а также сотрудничать с регуляторами и позволяет им требовать не только удаление контента, но и предоставление доступа к внутренним данным и документации ( логике работы, настройкам фильтров, данным, влияющим на распространение вредного контента).

Напомню, что X в декабре уже был оштрафован на 120 млн. евро за нарушение обязательств по обеспечению прозрачности в соответствии с (DSA):
▪️ обманчивый дизайн «синей галочки» для обозначения «подтвержденных аккаунтов»,
▪️ недостаточная прозрачность хранилища рекламных материалов (чрезмерные задержки в обработке, отсутствие содержания и тем объявлений, юридических лиц, оплачивающих его размещение)
▪️ непредоставление исследователям доступа к общедоступным данным ( запрет в условиях предоставления услуг на самостоятельное получение доступа к общедоступным данным, в том числе путем сбора данных).

Как видим, регуляторы усиливают практику проверки ИИ-систем «изнутри». Это может стать прецедентом для других платформ, работающих на европейском рынке.

➡️ В следующих постах разберем, что именно обнаружили независимые исследователи в работе Grok и почему регуляторная реакция оказалась столь жёсткой.

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Grok report.pdf
4.3 MB
Grok под микроскопом: фактическая картина злоупотреблений

Некоммерческая организация AI Forensics опубликовала Flash Report: Grok, где провела исследование использования чат-бота Grok за период 25 декабря 2025 – 1 января 2026 года.

Масштаб исследования:

▪️50 000 запросов от пользователей;
▪️20 000 сгенерированных изображений;
▪️классификация с помощью Vision-моделей (Gemini) и ручной аудит.

Авторы подчёркивают, что доклад не является юридической оценкой, но отражает масштаб и характер использования инструмента.

Ключевые выводы:

🔹 53 % изображений люди в минимальной одежде (81% из них - женщины). Самые частые запросы: «remove» (удалить), «bikini» (бикини), «clothing» (одежда).
🔹2 % изображений лица, выглядящие младше 18 лет. В отчете задокументированы случаи генерации фото девочек (в том числе младше 5 лет) в купальниках по запросу пользователей.
🔹 6 % изображений дипфейки знаменитостей (Трамп, Макрон, Урсула фон дер Ляйен и др.). Около трети из них - политики, что создает прямую угрозу дезинформации.
🔹 Обнаружены нацистская символика и пропаганда ISIS (флаги, сцены казней)

Отдельно отмечено, что значительная часть контента остаётся доступной, несмотря на публичное признание проблемы со стороны X.

Как используется Grok:
🔹 97,5 % вызовов происходят в комментариях под чужими постами. Чаще всего это делает не автор фото, а «тролль», призывающий Grok «раздеть» или унизить человека на снимке.
🔹не менее 25 % запросов - генерация изображений.

Исследователи подтвердили, что Grok игнорирует элементарные этические барьеры на входе (промпты) и на выходе (результат). Именно такой материал и превращает абстрактные разговоры о рисках ИИ в конкретный предмет контроля по DSA и не только.

➡️Эта ситуация уже перешла в плоскость уголовного преследования на уровне отдельных государств.

#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
😭1
Реакция государств на нарушения Grok

🇫🇷 Франция
После официального обращения депутатов и сообщений трёх министров Франции, которые квалифицировали контент как «явно незаконный» и передали материалы в прокуратуру и на государственную платформу онлайн-мониторинга Pharos, французская прокуратура расширила уже идущее расследование в отношении платформы X, включив в него распространение несогласованных откровенно сексуальных дипфейков, созданных с помощью Grok.

По данным прокуратуры были сгенерированы тысячи изображений, на которых женщины и подростки «раздевались» с помощью ИИ,
без согласия изображённых лиц.

Речь идёт уже не о модерации контента, а о посягательстве на достоинство личности, за которое по французскому праву предусматривается уголовная ответственность:
- до 2 лет лишения свободы
и штрафом до €60 000.

🇮🇹 Италия
Итальянское управление по защите данных выпустило предупреждение пользователям сервисов, основанных на ИИ, таких как Grok, ChatGPT и Clothoff ( была заблокирована еще в октябре прошлого года), а также других подобных онлайн-сервисов, позволяющих пользователям создавать и распространять контент на основе реальных изображений или голосов, даже «раздевая» людей без их согласия.

Поставщикам таких услуг НЕОБХОДИМО проектировать, разрабатывать и предоставлять приложения и платформы таким образом, чтобы пользователи могли использовать их в соответствии с правилами защиты персональных данных (пресс-релиз).


🇬🇧Великобритания
Министр технологий Лиз Кендалл назвала контент, создаваемый Grok, «абсолютно ужасающим», особенно в части сексуализации женщин и возможного вовлечения детей и озвучила главное:

🔹Online Safety Act предоставляет полномочия блокировать доступ к онлайн-сервисам, если они отказываются соблюдать британское законодательство.
🔹 В парламенте рассматривается законопроект о борьбе с преступностью и охране общественного порядка, предусматривающий запрет приложений для «цифрового раздевания».
🔹Планируется введение в действие норм, криминализирующих создание интимных изображений без согласия, а также усиление требований к платформам по выполнению рекомендаций Ofcom в сфере противодействия насилию в отношении женщин и девочек (VAWG). Срок- ближайшие недели.


Регулятор Ofcom вступил в срочный контакт с X и потребовал объяснить, как Grok допустил такую генерацию и как это соотносится с обязанностями платформы по Online Safety Act. Для Ofcom принципиален не статус Grok как ИИ-модели, а то, что он является частью сервиса X и создаёт предсказуемые риски вреда, которые платформа обязана выявлять и предотвращать.

Параллельно парламентские комитеты запросили у Ofcom разъяснения, какие меры принуждения могут быть применены, если платформа не докажет, что она эффективно снижает риски, связанные с ИИ-функциями.

🇮🇳 Индия

Министерство электроники и ИТ (MeitY) направило официальное уведомление X Corp, указав на нарушение обязательств в соответствии с IT Act и IT Rules, распространение непристойного и порнографического контента через Grok (полный текст здесь).

Власти потребовали немедленно прекратить генерацию такого контента, представить в течение 72 часов подробный отчет с перечнем принятых мер , объяснить, какие технические и организационные меры внедрены.

MeitY прямо напомнило, что невыполнение требований может привести к утрате платформой иммунитета от ответственности как посредника.

📱 А что насчет реакции X?
X ограничил функции генерации изображений Grok только для платных подписчиков и опубликовал предупреждение в аккаунте Safety, пообещав сотрудничать с правоохранительными органами. Илон Маск заявил, что пользователи, создающие незаконный контент, «понесут те же последствия, что и при его загрузке».

🔴 Последствия, которые стоит взять всем на заметку:
▪️функционал может быть принудительно отключен на уровне всего региона по решению суда.
▪️руководство платформы может стать фигурантом уголовных дел о харассменте и пособничестве в создании незаконного контента.
▪️бремя доказывания перекладывается на платформу.

И следим дальше за кейсом...

#UXWatch #LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM