Бизнесу на заметку: Италия первой в ЕС вводит уголовную ответственность за преступления с использованием ИИ
Часть 2
▪️Использованием ИИ при совершении преступлений будет рассматриваться как отягчающее обстоятельство ( увеличение наказания до 1/3).
Новые составы преступлений (например, незаконное распространение материалов, сгенерированных или изменённых с помощью ИИ с наказанием от 1 до 5 лет).
Ужесточение санкций при применении ИИ в определенных секторах экономики (например, финансовый, рыночный).
Правительству дается 12 месяцев для разработки и внедрения норм, направленных на введение отдельных уголовных правонарушений, уточнение критериев привлечения к уголовной ответственности физических лиц и к административной ответственности организаций за преступления, связанных с системами ИИ.
▪️Законом закреплены развивающие и стимулирующие меря по внедрению ИИ, подчёркивается важность ИИ для конкурентоспособности экономики, доступ к качественным данным, сотрудничество между компаниями и научно-технологическими центрами.
Закреплен перечень мер меры по обучению, распространению грамотности в ИИ, включению курсов про ИИ в систему образования.
Что нам важно:
Закон создаёт более предсказуемую среду для развития ИИ продуктов, возможности инвестирования.
Компании должны очень аккуратно относиться к генерации/манипуляции контентом, особенно в чувствительных сферах и помнить про ответственность.
Обязательна прозрачность алгоритмов, проверка обучения систем, объяснимость решений, контроль последствий.
Многие детали закона ещё должны быть прописаны через подзаконные акты, соответственно необходимо внимательно отслеживать их появление.
#LawAndDisorder
————
@pattern_ai
Часть 2
▪️Использованием ИИ при совершении преступлений будет рассматриваться как отягчающее обстоятельство ( увеличение наказания до 1/3).
Новые составы преступлений (например, незаконное распространение материалов, сгенерированных или изменённых с помощью ИИ с наказанием от 1 до 5 лет).
Ужесточение санкций при применении ИИ в определенных секторах экономики (например, финансовый, рыночный).
Правительству дается 12 месяцев для разработки и внедрения норм, направленных на введение отдельных уголовных правонарушений, уточнение критериев привлечения к уголовной ответственности физических лиц и к административной ответственности организаций за преступления, связанных с системами ИИ.
▪️Законом закреплены развивающие и стимулирующие меря по внедрению ИИ, подчёркивается важность ИИ для конкурентоспособности экономики, доступ к качественным данным, сотрудничество между компаниями и научно-технологическими центрами.
Закреплен перечень мер меры по обучению, распространению грамотности в ИИ, включению курсов про ИИ в систему образования.
Что нам важно:
Закон создаёт более предсказуемую среду для развития ИИ продуктов, возможности инвестирования.
Компании должны очень аккуратно относиться к генерации/манипуляции контентом, особенно в чувствительных сферах и помнить про ответственность.
Обязательна прозрачность алгоритмов, проверка обучения систем, объяснимость решений, контроль последствий.
Многие детали закона ещё должны быть прописаны через подзаконные акты, соответственно необходимо внимательно отслеживать их появление.
#LawAndDisorder
————
@pattern_ai
Как ЕС учиться измерять мощность и риски GPAI
Чтение на выходных, для тех, кто следит за развитием AI Act. Еврокомиссией опубликован ряд внешних научных исследований, которые фактически задают основу того, как можно оценивать и регулировать GPAI. Главная идея, что оценивать необходимо не только “мощность” модели, но и её влияние.
1. General-Purpose AI Model Reach as a Criterion for Systemic Risk;
2. A Framework to Categorise Modified General-Purpose AI Models as New Models Based on Behavioural Changes;
3. Training Compute Thresholds - Key Considerations for the EU AI Act - Collection of External Scientific Studies on General-Purpose AI Models under the EU AI Act;
4. A Framework for General-Purpose AI Model Categorisation;
5. A Proposal to Identify High-Impact Capabilities of General-Purpose AI Models;
6. The Role of AI Safety Benchmarks in Evaluating Systemic Risks in General-Purpose AI Models.
#AIShelf
————
@pattern_ai
Чтение на выходных, для тех, кто следит за развитием AI Act. Еврокомиссией опубликован ряд внешних научных исследований, которые фактически задают основу того, как можно оценивать и регулировать GPAI. Главная идея, что оценивать необходимо не только “мощность” модели, но и её влияние.
1. General-Purpose AI Model Reach as a Criterion for Systemic Risk;
2. A Framework to Categorise Modified General-Purpose AI Models as New Models Based on Behavioural Changes;
3. Training Compute Thresholds - Key Considerations for the EU AI Act - Collection of External Scientific Studies on General-Purpose AI Models under the EU AI Act;
4. A Framework for General-Purpose AI Model Categorisation;
5. A Proposal to Identify High-Impact Capabilities of General-Purpose AI Models;
6. The Role of AI Safety Benchmarks in Evaluating Systemic Risks in General-Purpose AI Models.
#AIShelf
————
@pattern_ai
❤1
Инструмент проверки соответствия AI Act от Еврокомиссии
Еврокомиссия представила AI Act Single Information Platform с инструментом проверки соответствия AI Act, который пока находится в стадии бета-тестирования. Отвечаете на ряд вопросов и получаете ответ о том, подпадает ли ваша модель/система под действие закона и какие требования необходимо соблюсти. Не забывайте потом про консультацию с юристом.
Отдельно там же сделан AI Act Explorer, чтобы удобно было просматривать главы закона и отдельно timeline вступления его в силу.
Также на платформе собран список национальных ресурсов от государств-членов ЕС и отдельно раздел с ресурсами ( документами, руководящими принципами и вебинарами и т.п).
Список других трекеров про ИИ в посте здесь
#AIShelf
————
@pattern_ai
Еврокомиссия представила AI Act Single Information Platform с инструментом проверки соответствия AI Act, который пока находится в стадии бета-тестирования. Отвечаете на ряд вопросов и получаете ответ о том, подпадает ли ваша модель/система под действие закона и какие требования необходимо соблюсти. Не забывайте потом про консультацию с юристом.
Отдельно там же сделан AI Act Explorer, чтобы удобно было просматривать главы закона и отдельно timeline вступления его в силу.
Также на платформе собран список национальных ресурсов от государств-членов ЕС и отдельно раздел с ресурсами ( документами, руководящими принципами и вебинарами и т.п).
Список других трекеров про ИИ в посте здесь
#AIShelf
————
@pattern_ai
Incident_report_for_serious_incidents_under_the_AI_Act_Highrisk.pdf
232.7 KB
Как превратить европейскую отчётность в инструмент доверия и качества
Еврокомиссия выпустила проект отчета и правил по статье 73 AI Act о том, как компании должны сообщать о серьёзных сбоях высокорисковых систем ИИ.
🔍 Но даже если ваш продукт не попадает под категорию «высокий риск», то эти правила могут стать ориентиром для выстраивания структуры управления ИИ и готовности к любым проверкам. Например,
▪️Что считать «серьезным инцидентом» у себя в компании.
AI Act называет «серьёзным инцидентом» случай, когда система ИИ напрямую или косвенно вызывает:
- смерть или серьёзный вред здоровью,
- сбой критической инфраструктуры (электричество, транспорт, финансы),
- нарушение основных прав человека (например, дискриминация, вторжение в частную жизнь),
- серьёзный ущерб имуществу или окружающей среде.
И даже если ваш продукт «низкорисковый», то эти критерии могут быть “красной карточкой" для вас и помогут гарантировать, что любой инцидент, который может привести к значительному ущербу или репутационному ущербу, будет рассмотрен с должной срочностью и строгостью.
▪️Создание и настройка внутренней системы “раннего предупреждения”
Инциденты редко случаются внезапно. В правилах приводятся примеры "звонков" или рутинных инцидентов, за которыми может последовать серьезный сбой: ошибки классификации, падение точности, временные отключения, непредсказуемое поведение модели.
▪️Обязанность расследования инцидентов и алгоритм действий, как действовать, если что-то пошло не так.
Обязанность расследования должна быть принята в качестве стандартной операционной процедуры для всех инцидентов, независимо от классификации риска.
Для любого продукта ИИ можно взять тот же алгоритм: что именно вывело систему из строя, было ли это прямое влияние ИИ или решение человека по его совету.
Внедрить внутреннюю политику и сохранять доказательства для для анализа и возможной экспертизы (логи, данные, версии модели, никаких апдейтов до фиксации состояния).
Далее оценить риски, принять меры, зафиксировать в реестре инцидентов. Установленные сроки помогут "держать руку на пульсе". Например, оповестить команду о серьёзном инциденте в течение 24 часов, дать 2-15 дней на расследование и первичный отчёт.
▪️Использовать шаблон как руководство для структурирования внутренней документации по инциденту и фиксировать важные детали:
- подробное описание инцидента (что, где, когда).
- сведения о подрядчике/провайдере.
- анализ причинно-следственной связи с системой ИИ (прямой или косвенной).
- информация о пострадавших сторонах и масштабах ущерба.
- немедленные и плановые корректирующие действия.
- идентификация системы и контекст.
▪️Следить за соответствием другим законам. Например, если утечка связана с персональными данными и речь идет про ЕС, то соблюдать требования GDPR. Соблюдать требования про защиту основных прав человека, вести мониторинг предвзятости модели (напимер, исключает кандидатов по полу или этнической принадлежности, завышает цены для жителей определённых районов).
Можно делать оценку влияния на права (FRIA).
🫡 Зачем тратить усилия на выполнение того, что кажется необязательным?
- формула «сообщить = помочь проекту», а не «сообщить = виноват» будет обеспечивать его дальнейшую надежность;
- меньше правовых и репутационных рисков;
- проще интеграция с другими фреймворками и проектами;
- доверие клиентов и инвесторов.
#LawAndDisorder
————
@pattern_ai
Еврокомиссия выпустила проект отчета и правил по статье 73 AI Act о том, как компании должны сообщать о серьёзных сбоях высокорисковых систем ИИ.
▪️Что считать «серьезным инцидентом» у себя в компании.
AI Act называет «серьёзным инцидентом» случай, когда система ИИ напрямую или косвенно вызывает:
- смерть или серьёзный вред здоровью,
- сбой критической инфраструктуры (электричество, транспорт, финансы),
- нарушение основных прав человека (например, дискриминация, вторжение в частную жизнь),
- серьёзный ущерб имуществу или окружающей среде.
И даже если ваш продукт «низкорисковый», то эти критерии могут быть “красной карточкой" для вас и помогут гарантировать, что любой инцидент, который может привести к значительному ущербу или репутационному ущербу, будет рассмотрен с должной срочностью и строгостью.
▪️Создание и настройка внутренней системы “раннего предупреждения”
Инциденты редко случаются внезапно. В правилах приводятся примеры "звонков" или рутинных инцидентов, за которыми может последовать серьезный сбой: ошибки классификации, падение точности, временные отключения, непредсказуемое поведение модели.
▪️Обязанность расследования инцидентов и алгоритм действий, как действовать, если что-то пошло не так.
Обязанность расследования должна быть принята в качестве стандартной операционной процедуры для всех инцидентов, независимо от классификации риска.
Для любого продукта ИИ можно взять тот же алгоритм: что именно вывело систему из строя, было ли это прямое влияние ИИ или решение человека по его совету.
Внедрить внутреннюю политику и сохранять доказательства для для анализа и возможной экспертизы (логи, данные, версии модели, никаких апдейтов до фиксации состояния).
Далее оценить риски, принять меры, зафиксировать в реестре инцидентов. Установленные сроки помогут "держать руку на пульсе". Например, оповестить команду о серьёзном инциденте в течение 24 часов, дать 2-15 дней на расследование и первичный отчёт.
▪️Использовать шаблон как руководство для структурирования внутренней документации по инциденту и фиксировать важные детали:
- подробное описание инцидента (что, где, когда).
- сведения о подрядчике/провайдере.
- анализ причинно-следственной связи с системой ИИ (прямой или косвенной).
- информация о пострадавших сторонах и масштабах ущерба.
- немедленные и плановые корректирующие действия.
- идентификация системы и контекст.
▪️Следить за соответствием другим законам. Например, если утечка связана с персональными данными и речь идет про ЕС, то соблюдать требования GDPR. Соблюдать требования про защиту основных прав человека, вести мониторинг предвзятости модели (напимер, исключает кандидатов по полу или этнической принадлежности, завышает цены для жителей определённых районов).
Можно делать оценку влияния на права (FRIA).
- формула «сообщить = помочь проекту», а не «сообщить = виноват» будет обеспечивать его дальнейшую надежность;
- меньше правовых и репутационных рисков;
- проще интеграция с другими фреймворками и проектами;
- доверие клиентов и инвесторов.
#LawAndDisorder
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
18+ или ChatGPT скоро “повзрослеет” и это не совсем безопасно
OpenAI официально объявила о планах разрешить эротические диалоги в ChatGPT для верифицированных совершеннолетних пользователей, начиная с декабря 2025 года. Это часть принципа «относиться к взрослым как к взрослым» и попытка сделать чат-бота «более приятным» для людей, которые не имеют проблем с психическим здоровьем.
Давайте разберемся, что это значит и какие есть подводные камни.
С одной стороны многие давно жаловались на "стерильность" и цензуру ChatGPT. Возможность вести личные или творческие диалоги (в том числе эротические) делает ИИ более "человечным" и универсальным инструментом, дает больше возможностей внутри привычного инструмента, без необходимости искать отдельные “эротические ИИ”.
С другой стороны OpenAI переходит из “безопасной зоны” к эксперименту, и критики предупреждают, что это может плохо кончиться.
На конференции индустрии для взрослых TES в августе уже вовсю обсуждались сайты с AI-партнёрами, которые могут вести эротические диалоги и «раздеваться» за токены. Разработчики продолжают уверять, что ИИ-персонажи безопаснее веб-кам-бизнеса.
НО
▪️Для доступа к контенту 18+ нужно будет подтвердить возраст (возможно, загрузив фото удостоверения личности). Это значит, что OpenAI будет хранить две критически важные категории данных: ваши интимные чаты и ваши документы ( смотрим кейсы утечек данных, шантажа/мошенничества).
▪️Можно ошибочно запретить взрослому доступ или наоборот пустить подростка.
▪️Что именно считать “эротикой”? Где границы этики и законности? Какие способы предотвращения создания незаконных материалов?
▪️Есть риск, что такой режим станет инструментом “удержания” пользователей, а не инструментом полезного взаимодействия. Сильная персонализация и «игровые» элементы увеличивают вовлечённость.
▪️Риски для психического здоровья. Взаимодействие с ИИ может искажать представления о реальных отношениях, особенно у молодёжи.
▪️Как будут использоваться данные? Компания должна будет предоставить абсолютные гарантии, что эти разговоры не будут использованы для обучения модели, не будут переданы третьим лицам и будут храниться с максимально возможным уровнем шифрования и безопасности. Ведь утечка таких данных является катастрофой.
«Ящик Пандоры» открывается все быстрее...
Пользователям важно быть внимательными и понимать, какие данные они предоставляют, и где проходят границы между безопасным развлечением и потенциальной опасностью.
Предыдыдущий пост про 18+ ИИ-компаньоны и человекоподобные сервисы
#UXWatch
————
@pattern_ai
OpenAI официально объявила о планах разрешить эротические диалоги в ChatGPT для верифицированных совершеннолетних пользователей, начиная с декабря 2025 года. Это часть принципа «относиться к взрослым как к взрослым» и попытка сделать чат-бота «более приятным» для людей, которые не имеют проблем с психическим здоровьем.
Давайте разберемся, что это значит и какие есть подводные камни.
С одной стороны многие давно жаловались на "стерильность" и цензуру ChatGPT. Возможность вести личные или творческие диалоги (в том числе эротические) делает ИИ более "человечным" и универсальным инструментом, дает больше возможностей внутри привычного инструмента, без необходимости искать отдельные “эротические ИИ”.
С другой стороны OpenAI переходит из “безопасной зоны” к эксперименту, и критики предупреждают, что это может плохо кончиться.
«Ни один родитель не поверит, что его дети не смогут пройти возрастной контроль», - сказал Марк Кьюбан.
На конференции индустрии для взрослых TES в августе уже вовсю обсуждались сайты с AI-партнёрами, которые могут вести эротические диалоги и «раздеваться» за токены. Разработчики продолжают уверять, что ИИ-персонажи безопаснее веб-кам-бизнеса.
НО
▪️Для доступа к контенту 18+ нужно будет подтвердить возраст (возможно, загрузив фото удостоверения личности). Это значит, что OpenAI будет хранить две критически важные категории данных: ваши интимные чаты и ваши документы ( смотрим кейсы утечек данных, шантажа/мошенничества).
▪️Можно ошибочно запретить взрослому доступ или наоборот пустить подростка.
▪️Что именно считать “эротикой”? Где границы этики и законности? Какие способы предотвращения создания незаконных материалов?
▪️Есть риск, что такой режим станет инструментом “удержания” пользователей, а не инструментом полезного взаимодействия. Сильная персонализация и «игровые» элементы увеличивают вовлечённость.
▪️Риски для психического здоровья. Взаимодействие с ИИ может искажать представления о реальных отношениях, особенно у молодёжи.
▪️Как будут использоваться данные? Компания должна будет предоставить абсолютные гарантии, что эти разговоры не будут использованы для обучения модели, не будут переданы третьим лицам и будут храниться с максимально возможным уровнем шифрования и безопасности. Ведь утечка таких данных является катастрофой.
«Ящик Пандоры» открывается все быстрее...
Пользователям важно быть внимательными и понимать, какие данные они предоставляют, и где проходят границы между безопасным развлечением и потенциальной опасностью.
Предыдыдущий пост про 18+ ИИ-компаньоны и человекоподобные сервисы
#UXWatch
————
@pattern_ai
🔥1
Бесплатный курс Agentic AI от Berkeley RDI Center on Decentralization & AI
Для тех, кто любит учиться, ловите ссылку на Agentic AI MOOC.
Лекции начались 15 сентября и продляться до декабря. Приглашённые спикеры из OpenAI, NVIDIA, Microsoft, DeepMind.
Что разбирают: архитектура современных агентов, проверка агентов после обучения, оценка агентов, примеры применения ( от генерации кода и веб-автоматизации до робототехники и научных открытий). Отдельный блок будет посвящён ограничениям и рискам LLM-агентов.
#AIShelf
————
@pattern_ai
Для тех, кто любит учиться, ловите ссылку на Agentic AI MOOC.
Лекции начались 15 сентября и продляться до декабря. Приглашённые спикеры из OpenAI, NVIDIA, Microsoft, DeepMind.
Что разбирают: архитектура современных агентов, проверка агентов после обучения, оценка агентов, примеры применения ( от генерации кода и веб-автоматизации до робототехники и научных открытий). Отдельный блок будет посвящён ограничениям и рискам LLM-агентов.
#AIShelf
————
@pattern_ai
agenticai-learning.org
Agentic AI MOOC
MOOC, Fall 2025
🔥1
Media is too big
VIEW IN TELEGRAM
Создание ролика в Sora 2 по мотивам релиза Gemini 2.5 Computer Use
Sora 2 в десктопной версии работает в локации США/Канада. Код приглашения можно найти, например, в тг канале в комментариях под постом здесь.
Бесплатно доступно 30 генераций в сутки по 10 сек. А дальше монтаж в вашем любимом сервисе, например Inshot, CapCut. Если хотите удалить знаки Sora, то используете соответствующий сервис, однако ж помните, что пользователей необходимо предупреждать, что сгенерировано ИИ.
Промпты, как обычно, либо сочинить самому, либо взять образцы, либо с помощью ИИ.
Мной идея была закинута в ChatGPT c запросом прописать сначала сценарии сцен и переходов, а последующей итерацией написать к ним промпты. И не забыть потом их скорректировать. Sora, например, "перевернутый мир" понимала буквально и переворачивала всю картинку. Необходимую озвучку слова и звуки также прописываете в промпте.
А что не так с Gemini 2.5 Computer Use?
Заявлено, что может взаимодействовать с интерфейсом, как человек, т.е. кликать кнопки, заполнять формы, прокручивать страницы и завершать задания прямо в браузере.
Неясно, как хранятся и обрабатываются эти данные. Вопросы безопасности, конфиденциальности, отсутствие прозрачного механизма предоставления разрешений создаёт проблемы, как минимум, с доверием....
#TalkPrompty #UXWatch
————
@pattern_ai
Sora 2 в десктопной версии работает в локации США/Канада. Код приглашения можно найти, например, в тг канале в комментариях под постом здесь.
Бесплатно доступно 30 генераций в сутки по 10 сек. А дальше монтаж в вашем любимом сервисе, например Inshot, CapCut. Если хотите удалить знаки Sora, то используете соответствующий сервис, однако ж помните, что пользователей необходимо предупреждать, что сгенерировано ИИ.
Промпты, как обычно, либо сочинить самому, либо взять образцы, либо с помощью ИИ.
Мной идея была закинута в ChatGPT c запросом прописать сначала сценарии сцен и переходов, а последующей итерацией написать к ним промпты. И не забыть потом их скорректировать. Sora, например, "перевернутый мир" понимала буквально и переворачивала всю картинку. Необходимую озвучку слова и звуки также прописываете в промпте.
А что не так с Gemini 2.5 Computer Use?
Заявлено, что может взаимодействовать с интерфейсом, как человек, т.е. кликать кнопки, заполнять формы, прокручивать страницы и завершать задания прямо в браузере.
Google сам предупреждает:
AI agents that control computers introduce unique risks, including intentional misuse by users, unexpected model behavior, and prompt injections and scams in the web environment.
одель использования компьютера Gemini 2.5 может быть подвержена ошибкам и уязвимостям безопасности.
Мы рекомендуем тщательно контролировать выполнение важных задач и избегать использования модели использования компьютера для задач, связанных с принятием критически важных решений, обработкой конфиденциальных данных или действиями, где серьёзные ошибки невозможно исправить.
Неясно, как хранятся и обрабатываются эти данные. Вопросы безопасности, конфиденциальности, отсутствие прозрачного механизма предоставления разрешений создаёт проблемы, как минимум, с доверием....
#TalkPrompty #UXWatch
————
@pattern_ai
🔥1
ai-screening-tool.docx
244.7 KB
Шаблон политики в области ИИ от Австралийского правительства
Правительство Австралии опубликовали руководство и редактируемый шаблон политики в области ИИ. Шаблон содержит основные принципы, ожидания и правила разработки, внедрения и использования систем ИИ. Есть рекомендуемая структура и примеры контента, что может стать отправной точкой для разработки политики вашей организации.
Еще можно позаимствовать Руководство по внедрению ИИ, инструмент проверки ИИ (есть в формате Word), шаблон реестра ИИ (есть в формате Excel).
При использовании адаптируйте под нужды своей организации, проверяйте требования в вашем регионе, консультируйтесь со специалистами, чтобы получить реально работающие инструменты, помогающие сотрудникам понять, где и почему используются системы ИИ, какие процессы используются для управления рисками.
#AIShelf
————
@pattern_ai
Правительство Австралии опубликовали руководство и редактируемый шаблон политики в области ИИ. Шаблон содержит основные принципы, ожидания и правила разработки, внедрения и использования систем ИИ. Есть рекомендуемая структура и примеры контента, что может стать отправной точкой для разработки политики вашей организации.
Еще можно позаимствовать Руководство по внедрению ИИ, инструмент проверки ИИ (есть в формате Word), шаблон реестра ИИ (есть в формате Excel).
При использовании адаптируйте под нужды своей организации, проверяйте требования в вашем регионе, консультируйтесь со специалистами, чтобы получить реально работающие инструменты, помогающие сотрудникам понять, где и почему используются системы ИИ, какие процессы используются для управления рисками.
#AIShelf
————
@pattern_ai
Как ChatGPT Atlas меняет взаимодействие с вебом
Сегодня OpenAI представила ChatGPT Atlas, который интегрирует в браузер не только чат-бота, но и полноценный ИИ-агент. Он запоминает действия пользователя, его интересы и истории посещений, становится более персонализированным, может брать на себя рутинные задачи ( оформлять бронирования билетов, редактировать документы, делать заказы по заданию пользователя).
Доступен для macOS, релиз для Windows, iOS и Android ожидается в ближайшее время.
👀 Звучит здорово, а что с рисками использования?
▪️Может неправильно выполнить задачу. OpenAI сам предупреждает, что в сложных сценариях агент может допускать ошибки, и активно работает над улучшением надежности и скорости выполнения задач.
▪️Скрытые вредоносные инструкции;
▪️Уязвимости и новые угрозы. Компания признает, что не все угрозы могут быть предотвращены, и пользователи должны осознавать возможные риски (скрин с их страницы).
▪️Обработка данных. Хотя по умолчанию OpenAI не использует содержимое веб-страниц для обучения моделей, при включённой опции «Include web browsing» данные могут быть использованы для тренировки моделей.
▪️Безопасность детей. Для обеспечения безопасности в ChatGPT Atlas OpenAI внедрила родительский контроль, т.е. настройки, применённые в ChatGPT, автоматически действуют в Atlas.
Родители могут отключать режим агента и память браузера, чтобы ограничить взаимодействие с веб-страницами. Но опять же гарантий никто не дает.
Рекомендации для пользователей:
🔹Используйте режим инкогнито, предотвратит сохранение истории и использование данных из памяти браузера. Это и OpenAI рекомендует.
🔹Включайте агент только при необходимости.
🔹Не предоставляйте агенту доступ к чувствительной информации или аккаунтам без необходимости.
🔹Убедитесь, что ваши настройки соответствуют вашим требованиям безопасности.
🔹Регулярно проверяйте и контролируйте действия агента.
🔹Настройте родительский контроль, если дети используют ChatGPT Atlas.
Это c одной стороны новый мощный инструмент, расширяющий возможности ChatGPT, и конкурент Google. НО важно осознавать риски и принимать меры для их минимизации. Про потенциальные ловушки для пользователей в Gemini 2.5. Computer Use было в предыдущем посте.
#UXWatch
————
@pattern_ai
Сегодня OpenAI представила ChatGPT Atlas, который интегрирует в браузер не только чат-бота, но и полноценный ИИ-агент. Он запоминает действия пользователя, его интересы и истории посещений, становится более персонализированным, может брать на себя рутинные задачи ( оформлять бронирования билетов, редактировать документы, делать заказы по заданию пользователя).
Доступен для macOS, релиз для Windows, iOS и Android ожидается в ближайшее время.
▪️Может неправильно выполнить задачу. OpenAI сам предупреждает, что в сложных сценариях агент может допускать ошибки, и активно работает над улучшением надежности и скорости выполнения задач.
▪️Скрытые вредоносные инструкции;
▪️Уязвимости и новые угрозы. Компания признает, что не все угрозы могут быть предотвращены, и пользователи должны осознавать возможные риски (скрин с их страницы).
▪️Обработка данных. Хотя по умолчанию OpenAI не использует содержимое веб-страниц для обучения моделей, при включённой опции «Include web browsing» данные могут быть использованы для тренировки моделей.
▪️Безопасность детей. Для обеспечения безопасности в ChatGPT Atlas OpenAI внедрила родительский контроль, т.е. настройки, применённые в ChatGPT, автоматически действуют в Atlas.
Родители могут отключать режим агента и память браузера, чтобы ограничить взаимодействие с веб-страницами. Но опять же гарантий никто не дает.
Рекомендации для пользователей:
🔹Используйте режим инкогнито, предотвратит сохранение истории и использование данных из памяти браузера. Это и OpenAI рекомендует.
🔹Включайте агент только при необходимости.
🔹Не предоставляйте агенту доступ к чувствительной информации или аккаунтам без необходимости.
🔹Убедитесь, что ваши настройки соответствуют вашим требованиям безопасности.
🔹Регулярно проверяйте и контролируйте действия агента.
🔹Настройте родительский контроль, если дети используют ChatGPT Atlas.
Это c одной стороны новый мощный инструмент, расширяющий возможности ChatGPT, и конкурент Google. НО важно осознавать риски и принимать меры для их минимизации. Про потенциальные ловушки для пользователей в Gemini 2.5. Computer Use было в предыдущем посте.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Еще один пример функции ИИ или троянский конь Meta Camera Roll
Не только Google и OpenAI радуют нас новинками. Meta еще с лета тестирует новую функцию под названием Camera Roll (или Meta Camera Sync), которая предлагает пользователям “вдохновляющие идеи для контента”, например, коллажи, клипы и подборки из ваших фото и видео. Естественно, что запуск начался в США и Канаде, плюс там не такое строгое регулирование.
Meta просит opt-in доступ ( судя по всему постоянный) к медиатеке устройства и загружает часть контента “в облако Meta” на постоянной основе, т.е. фото и видео, ещё не загруженные на Facebook, могут быть «просмотрены» системой и обработаны, чтобы предложить пользователю готовые к публикации идеи (коллажи, монтажи, тематические подборки) или подсказки к публикации.
Если пользователь соглашается редактировать или публиковать фото через Meta AI, этот контент может использоваться для обучения ИИ. В окне согласия также прямо сказано, что “media and facial features can be analyzed by Meta AI.”
🔍 В Privacy Policy Meta термин “camera roll content” встречается больше 10 раз в разделе о данных, которые компания может собирать, анализировать и передавать третьим лицам.
Согласно документу, Meta может использовать контент с камеры устройства для:
- персонализации продуктов и улучшения алгоритмов;
- аналитики и исследований;
- обеспечения безопасности и целостности сервисов;
- обмена данными с другими компаниями Meta и партнёрами;
- инноваций для общественного блага (что бы это ни значило);
- обработки данных в соответствии с законодательством и по запросам госорганов.
В окне согласия сказано, что данные не используются для рекламы, но политика конфиденциальности допускает персонализацию и идентификацию пользователя как клиента Meta, т. е. для профилирования.
👀 Основные риски:
▪️Фоновая передача данных. Даже если пользователь не открывает приложение, фото и видео могут синхронизироваться.
▪️Объём и характер данных. Обрабатываются не только «выбранные» фото, но потенциально вся фотоплёнка устройства, включая снимки, которые не были опубликованы и имеют высокую степень приватности.
▪️Обработка биометрических данных. В тексте упоминается анализ “facial features” .
▪️Неопределённое будущее использования. Несмотря на текущие обещания, формулировка «если вы редактируете / публикуете» оставляет лазейку для расширения использования данных в будущем.
▪️ Нет прозрачного механизма удаления.
▪️Международная передача данных, если релиз фичи будет распространен на другие юрисдикции.
▪️Этические и правовые аспекты. Снимки с лицами третьих лиц (друзья, дети) могут оказаться обработаны без их явного согласия.
Также Meta подтвердила, что будет собирать данные о взаимодействии со своими инструментами ИИ для показа таргетированной рекламы в Facebook, Instagram и Threads, пока будет применяться к голосовым чатам и текстовым сообщениям, но почему бы и не выдать вам в итоге рекламу на основе фото с устройства....
Регуляторы пока молчат.
Что делать пользователям:
▪️Как вариант, не включать эту функцию. Если видите предложение “Get creative ideas with your camera roll”, то нажать Not Now.
▪️Проверить настройки Meta AI и ограничить обработку контента.
▪️Проверить права доступа приложения к фото на устройстве, ограничить доступ/ дать доступ только к выбранным фото/ вообще запретить.
▪️Хранить чувствительные данные отдельно.
▪️Следить за обновлениями политики. Meta часто меняет тексты согласий, и они могут автоматически применяться к уже загруженным данным.
Осознанный выбор это не просто дать разрешение, но знать, что именно вы разрешаете.
Продуктовым командам важно извлечь урок: любое взаимодействие с личными данными должно строиться на понятной, прямой и обратимой модели согласия, интерфейс должен содержать чёткие пояснения, сценарии реагирования, простой opt-out, контроль правовых и этических аспектов.
*Meta признана экстремистской организацией и запрещена в России.
#UXWatch
————
@pattern_ai
Не только Google и OpenAI радуют нас новинками. Meta еще с лета тестирует новую функцию под названием Camera Roll (или Meta Camera Sync), которая предлагает пользователям “вдохновляющие идеи для контента”, например, коллажи, клипы и подборки из ваших фото и видео. Естественно, что запуск начался в США и Канаде, плюс там не такое строгое регулирование.
Meta просит opt-in доступ ( судя по всему постоянный) к медиатеке устройства и загружает часть контента “в облако Meta” на постоянной основе, т.е. фото и видео, ещё не загруженные на Facebook, могут быть «просмотрены» системой и обработаны, чтобы предложить пользователю готовые к публикации идеи (коллажи, монтажи, тематические подборки) или подсказки к публикации.
Если пользователь соглашается редактировать или публиковать фото через Meta AI, этот контент может использоваться для обучения ИИ. В окне согласия также прямо сказано, что “media and facial features can be analyzed by Meta AI.”
Согласно документу, Meta может использовать контент с камеры устройства для:
- персонализации продуктов и улучшения алгоритмов;
- аналитики и исследований;
- обеспечения безопасности и целостности сервисов;
- обмена данными с другими компаниями Meta и партнёрами;
- инноваций для общественного блага (что бы это ни значило);
- обработки данных в соответствии с законодательством и по запросам госорганов.
В окне согласия сказано, что данные не используются для рекламы, но политика конфиденциальности допускает персонализацию и идентификацию пользователя как клиента Meta, т. е. для профилирования.
▪️Фоновая передача данных. Даже если пользователь не открывает приложение, фото и видео могут синхронизироваться.
▪️Объём и характер данных. Обрабатываются не только «выбранные» фото, но потенциально вся фотоплёнка устройства, включая снимки, которые не были опубликованы и имеют высокую степень приватности.
▪️Обработка биометрических данных. В тексте упоминается анализ “facial features” .
▪️Неопределённое будущее использования. Несмотря на текущие обещания, формулировка «если вы редактируете / публикуете» оставляет лазейку для расширения использования данных в будущем.
▪️ Нет прозрачного механизма удаления.
▪️Международная передача данных, если релиз фичи будет распространен на другие юрисдикции.
▪️Этические и правовые аспекты. Снимки с лицами третьих лиц (друзья, дети) могут оказаться обработаны без их явного согласия.
Также Meta подтвердила, что будет собирать данные о взаимодействии со своими инструментами ИИ для показа таргетированной рекламы в Facebook, Instagram и Threads, пока будет применяться к голосовым чатам и текстовым сообщениям, но почему бы и не выдать вам в итоге рекламу на основе фото с устройства....
Регуляторы пока молчат.
Что делать пользователям:
▪️Как вариант, не включать эту функцию. Если видите предложение “Get creative ideas with your camera roll”, то нажать Not Now.
▪️Проверить настройки Meta AI и ограничить обработку контента.
▪️Проверить права доступа приложения к фото на устройстве, ограничить доступ/ дать доступ только к выбранным фото/ вообще запретить.
▪️Хранить чувствительные данные отдельно.
▪️Следить за обновлениями политики. Meta часто меняет тексты согласий, и они могут автоматически применяться к уже загруженным данным.
Осознанный выбор это не просто дать разрешение, но знать, что именно вы разрешаете.
Продуктовым командам важно извлечь урок: любое взаимодействие с личными данными должно строиться на понятной, прямой и обратимой модели согласия, интерфейс должен содержать чёткие пояснения, сценарии реагирования, простой opt-out, контроль правовых и этических аспектов.
*Meta признана экстремистской организацией и запрещена в России.
#UXWatch
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Обучающие гайды по ИИ от Google, Perplexity и OpenAI
Google
🔹Новая Skills Boost платформа с почти 3 000 бесплатных курсов по нейросетям, машинному обучению и данным.
🔹Learn essential AI skills курсы для новичков.
🔹AI Literacy Notebook коллекция материалов, преимущественно от Google for Education, посвященных обучению ИИ, его ответственному использованию, и связанных с ним инструментов.
Perplexity
🔹Новый гайд Perplexity at Work: A Guide to Getting More Done принципы, промпты, примеры автоматизации.
🔹Perplexity Encyclopedia материалы о том, как применять тулы для исследований, учебы, дизайна и т.п.
🔹Resource Hub вебинары, обучающие материалы для бизнеса и research-команд.
OpenAI
🔹Новый Sora 2 Prompting Guide о том, как создавать видео, советы и примеры промптов.
🔹OpenAI Academy, обучающая площадка с материалами для специалистов и тех, кто хочет понять ИИ-инструменты.
🔹Tutorials пошаговое руководство, примеры кода, советы по использованию.
🔹A practical guide to building agents для тех, кто хочет разрабатывать ИИ-агентов/ассистентов.
🔹Документация по prompt engineering, как правильно формулировать запросы к моделям.
#AIShelf #TalkPrompty
————
@pattern_ai
🔹Новая Skills Boost платформа с почти 3 000 бесплатных курсов по нейросетям, машинному обучению и данным.
🔹Learn essential AI skills курсы для новичков.
🔹AI Literacy Notebook коллекция материалов, преимущественно от Google for Education, посвященных обучению ИИ, его ответственному использованию, и связанных с ним инструментов.
Perplexity
🔹Новый гайд Perplexity at Work: A Guide to Getting More Done принципы, промпты, примеры автоматизации.
🔹Perplexity Encyclopedia материалы о том, как применять тулы для исследований, учебы, дизайна и т.п.
🔹Resource Hub вебинары, обучающие материалы для бизнеса и research-команд.
OpenAI
🔹Новый Sora 2 Prompting Guide о том, как создавать видео, советы и примеры промптов.
🔹OpenAI Academy, обучающая площадка с материалами для специалистов и тех, кто хочет понять ИИ-инструменты.
🔹Tutorials пошаговое руководство, примеры кода, советы по использованию.
🔹A practical guide to building agents для тех, кто хочет разрабатывать ИИ-агентов/ассистентов.
🔹Документация по prompt engineering, как правильно формулировать запросы к моделям.
#AIShelf #TalkPrompty
————
@pattern_ai
65+ Use cases AI agent .pdf
59.1 MB
65 сценариев использования ИИ-агентов от Stack AI
В whitepaper рассмотрены более 65 практических сценариев использования ИИ-агентов в разных сферах (страхование, финансы, образование и т.д.) с примерами workflow и результатами. Можно посмотреть идеи по автоматизация ваших процессов.
И не забудьте посчитать выгоду, возможно уже работающий специалист будет выгоднее, чем внедрение автоматизации, ведь кейсы и обьемы задач у всех разные.
#AIShelf
————
@pattern_ai
В whitepaper рассмотрены более 65 практических сценариев использования ИИ-агентов в разных сферах (страхование, финансы, образование и т.д.) с примерами workflow и результатами. Можно посмотреть идеи по автоматизация ваших процессов.
И не забудьте посчитать выгоду, возможно уже работающий специалист будет выгоднее, чем внедрение автоматизации, ведь кейсы и обьемы задач у всех разные.
#AIShelf
————
@pattern_ai
This media is not supported in your browser
VIEW IN TELEGRAM
Для любителей котиков
AI Deepfakes Order.pdf
911.8 KB
Deepfake в суде или как ИИ уничтожил дело Mendones v. Cushman & Wakefield
Высший суд Калифорнии, округ Аламеда впервые прекратил дело из-за deepfake-доказательств.
Истцы подали ходатайство о вынесении решения в порядке упрощенного судопроизводства (motion for summary judgment) и представили несколько видео, фотографий и скриншотов сообщений, представленных в качестве свидетельских показаний или признаний.
Судья Виктория Колаковски заподозрила фальсификацию: лица без мимики, речь не совпадает с движением губ, некоторые “записанные” свидетели, как выяснилось, давно умерли, а в метаданных GPS-координаты,телефонные номера и “музыкальные жанры”.
Само решение интересно изучить,т.к. это пример судебного анализа и сопоставления доказательств.
Суд признал нарушение ст. 128.7 Гражданского процессуального кодекса Калифорнии, которая требует от сторон подтверждения того, что их заявления имеют доказательную базу и не представлены в ненадлежащих целях, также сослался на положения УK Калифорнии о лжесвидетельстве (ст. 118) и подделке документов (ст. 470) и окончательно прекратил производства по делу.
Суд отказался передавать материалы в прокуратуру, но прямо предупредил:
Почему это важно для нас?
Это первое известное решение, где deepfake стал основанием для закрытия дела. Суд признал, что у судов нет инструментов для проверки подлинности цифровых файлов, а ответственность лежит на сторонах и юристах.
Новые технологии создают и новые вызовы для судебной системы, ведь судьи вынуждены самостоятельно проводить “техническую экспертизу” доказательств, и нет единых процедур проверки AI-контента и стандартов аутентичности, что может привести к
подрыву доверия к судебному процессу и росту нагрузки на суды.
Что делать юристам, чтобы не попасть в схожие ситуации:
▪️ сохранять оригиналы и метаданные;
▪️ раскрывать использование ИИ;
▪️ вводить внутренние AI-правила для юристов.
Рекомендации клиентам:
▪️проверяйте источник любого видео или фото, особенно если его прислал “свидетель” или контрагент.
▪️не используйте AI-генераторы для “улучшения” материалов, которые могут попасть в суд или аудит.
▪️ храните оригиналы файлов и историю переписок, теперь и метаданные могут решить исход дела.
▪️будьте готовы подтвердить подлинность (суды всё чаще будут требовать доказательства, что контент не создан ИИ).
▪️ спрашивайте юриста, как безопасно использовать AI-инструменты в вашей компании.
Как считаете, кто должен отличить настоящее видео от подделки, если от этого зависит судьба дела, например, суд, эксперты или какой-то ИИ-инструмент, и чья это будет ответственность?
#LawAndDisorder
————
@pattern_ai
Высший суд Калифорнии, округ Аламеда впервые прекратил дело из-за deepfake-доказательств.
Истцы подали ходатайство о вынесении решения в порядке упрощенного судопроизводства (motion for summary judgment) и представили несколько видео, фотографий и скриншотов сообщений, представленных в качестве свидетельских показаний или признаний.
Судья Виктория Колаковски заподозрила фальсификацию: лица без мимики, речь не совпадает с движением губ, некоторые “записанные” свидетели, как выяснилось, давно умерли, а в метаданных GPS-координаты,телефонные номера и “музыкальные жанры”.
Само решение интересно изучить,т.к. это пример судебного анализа и сопоставления доказательств.
Суд признал нарушение ст. 128.7 Гражданского процессуального кодекса Калифорнии, которая требует от сторон подтверждения того, что их заявления имеют доказательную базу и не представлены в ненадлежащих целях, также сослался на положения УK Калифорнии о лжесвидетельстве (ст. 118) и подделке документов (ст. 470) и окончательно прекратил производства по делу.
Суд отказался передавать материалы в прокуратуру, но прямо предупредил:
“Используйте генеративный ИИ в суде с величайшей осторожностью.”
Почему это важно для нас?
Это первое известное решение, где deepfake стал основанием для закрытия дела. Суд признал, что у судов нет инструментов для проверки подлинности цифровых файлов, а ответственность лежит на сторонах и юристах.
Новые технологии создают и новые вызовы для судебной системы, ведь судьи вынуждены самостоятельно проводить “техническую экспертизу” доказательств, и нет единых процедур проверки AI-контента и стандартов аутентичности, что может привести к
подрыву доверия к судебному процессу и росту нагрузки на суды.
Что делать юристам, чтобы не попасть в схожие ситуации:
▪️ сохранять оригиналы и метаданные;
▪️ раскрывать использование ИИ;
▪️ вводить внутренние AI-правила для юристов.
Рекомендации клиентам:
▪️проверяйте источник любого видео или фото, особенно если его прислал “свидетель” или контрагент.
▪️не используйте AI-генераторы для “улучшения” материалов, которые могут попасть в суд или аудит.
▪️ храните оригиналы файлов и историю переписок, теперь и метаданные могут решить исход дела.
▪️будьте готовы подтвердить подлинность (суды всё чаще будут требовать доказательства, что контент не создан ИИ).
▪️ спрашивайте юриста, как безопасно использовать AI-инструменты в вашей компании.
Как считаете, кто должен отличить настоящее видео от подделки, если от этого зависит судьба дела, например, суд, эксперты или какой-то ИИ-инструмент, и чья это будет ответственность?
#LawAndDisorder
————
@pattern_ai
👏3
Report_How Are AI Developers Managing Risks_Hiroshima.pdf
2.9 MB
Как разработчики ИИ управляют рисками: первый сводный отчёт по Хиросимскому процессу
Опубликован отчёт “How Are AI Developers Managing Risks?”, обобщающий первые отчёты компаний в рамках Hiroshima AI Process Reporting Framework (HAIP).
Фреймворк был запущен в начале 2025 года как первый международный добровольный механизм отчётности для организаций, создающих передовые ИИ-системы.
Как использовать отчеты компаний для своих целей, разбирала в этом посте.
Сводный отчёт охватывает 20 организаций ( технологические и телеком-компании, исследовательские институты) из 7 стран (Япония (7), США (6), Германия, Канада, Корея и Румыния).
✏️ Ключевые выводы:
🔹 Оценка рисков. Компании выстраивают подходы на основе Принципов ОЭСР по ИИ и компонентов AI Act, фреймворки NIST. Используются как количественные метрики, так и экспертная оценка на всех стадиях жизненного цикла системы.
🔹Тестирование и безопасность. Распространены методы red teaming (симуляции атак), многоуровневые стратегии безопасности, zero-trust-архитектуры, фильтрация данных, настройка и модерация выходов модели. Некоторые организации вводят пороговые значения риска, после которых включаются дополнительные защитные меры.
🔹 Прозрачность. Потребительские компании чаще публикуют model cards и отчёты о прозрачности. B2B раскрывают сведения через контракты.Обмениваются данными в основном с исследователями и регулирующими органами.
🔹Управление. Большинство интегрируют риски ИИ в общие системы корпоративного управления и качества, создают команды по реагированию на инциденты, делятся кейсами через блоги и кросс-отраслевые инициативы.
🔹Происхождение контента. Инструменты маркировки вроде watermarking пока на пилотной стадии (используются крупными игроками участниками инициатив C2PA и NIST Synthetic Content Taskforce).
🔹Безопасность и исследование. Приоритеты исследований: дезинформация, кибербезопасность, смещения и справедливость моделей; активно развиваются партнёрства с гос- и академическими структурами.
🔹Общественные цели. Многие применяют ИИ для задач здравоохранения, образования, инклюзии и климата, в том числе разрабатывают энергоэффективные модели и программы цифровой грамотности.
Этот отчет HAIP демонстрирует, что добровольная международная отчётность может стать эффективным инструментом ответственного управления ИИ, помогая организациям обмениваться практиками, повышать интерпретируемость, устойчивость и подотчётность систем.
#AIShelf
————
@pattern_ai
Опубликован отчёт “How Are AI Developers Managing Risks?”, обобщающий первые отчёты компаний в рамках Hiroshima AI Process Reporting Framework (HAIP).
Фреймворк был запущен в начале 2025 года как первый международный добровольный механизм отчётности для организаций, создающих передовые ИИ-системы.
Как использовать отчеты компаний для своих целей, разбирала в этом посте.
Сводный отчёт охватывает 20 организаций ( технологические и телеком-компании, исследовательские институты) из 7 стран (Япония (7), США (6), Германия, Канада, Корея и Румыния).
✏️ Ключевые выводы:
🔹 Оценка рисков. Компании выстраивают подходы на основе Принципов ОЭСР по ИИ и компонентов AI Act, фреймворки NIST. Используются как количественные метрики, так и экспертная оценка на всех стадиях жизненного цикла системы.
🔹Тестирование и безопасность. Распространены методы red teaming (симуляции атак), многоуровневые стратегии безопасности, zero-trust-архитектуры, фильтрация данных, настройка и модерация выходов модели. Некоторые организации вводят пороговые значения риска, после которых включаются дополнительные защитные меры.
🔹 Прозрачность. Потребительские компании чаще публикуют model cards и отчёты о прозрачности. B2B раскрывают сведения через контракты.Обмениваются данными в основном с исследователями и регулирующими органами.
🔹Управление. Большинство интегрируют риски ИИ в общие системы корпоративного управления и качества, создают команды по реагированию на инциденты, делятся кейсами через блоги и кросс-отраслевые инициативы.
🔹Происхождение контента. Инструменты маркировки вроде watermarking пока на пилотной стадии (используются крупными игроками участниками инициатив C2PA и NIST Synthetic Content Taskforce).
🔹Безопасность и исследование. Приоритеты исследований: дезинформация, кибербезопасность, смещения и справедливость моделей; активно развиваются партнёрства с гос- и академическими структурами.
🔹Общественные цели. Многие применяют ИИ для задач здравоохранения, образования, инклюзии и климата, в том числе разрабатывают энергоэффективные модели и программы цифровой грамотности.
Этот отчет HAIP демонстрирует, что добровольная международная отчётность может стать эффективным инструментом ответственного управления ИИ, помогая организациям обмениваться практиками, повышать интерпретируемость, устойчивость и подотчётность систем.
#AIShelf
————
@pattern_ai
Ireland' Guidance on AI in Schools.pdf
700.2 KB
ИИ в школах: урок Ирландии по безопасному внедрению
Министерство образования и молодежи Ирландии выпустило руководство по использованию ИИ в школах. Можно брать за практический навигатор для директоров, учителей и школьных IT‑администраторов.
👀 Посмотрим основные тезисы:
🔹Учитель остаётся в центре. ИИ - это инструмент, а не замена. Решения о внедрении технологий должны приниматься педагогами с учётом учебных целей и этических стандартов.
🔹 Любое использование ИИ должно учитывать конфиденциальность данных учащихся и предотвращать любые риски, связанные с алгоритмическими ошибками или предвзятостью моделей.
🔹 Документ рекомендует включать ИИ в школьную программу так, чтобы это развивало цифровую грамотность всех учеников, а не только тех, кто «уже в теме».
🔹И, главное, что руководство является "живым документом", т.е. будет обновляться по мере появления новых технологий и международных рекомендаций (например, от UNESCO или Европейского союза).
🔹В конце полезные примеры использования и перечень вопросов, на которые стоит ответить до внедрения ИИ в школьный процесс.
Отмечу, что помимо руководств (пост здесь), существуют наборы инструментов, такие как TeachAI, которые помогают школам и педагогам разрабатывать собственные политики по ИИ, учитывая и риски, и возможности. Это делает процесс более практичным и адаптируемым под конкретную школу.
#AIShelf
————
@pattern_ai
Министерство образования и молодежи Ирландии выпустило руководство по использованию ИИ в школах. Можно брать за практический навигатор для директоров, учителей и школьных IT‑администраторов.
🔹Учитель остаётся в центре. ИИ - это инструмент, а не замена. Решения о внедрении технологий должны приниматься педагогами с учётом учебных целей и этических стандартов.
🔹 Любое использование ИИ должно учитывать конфиденциальность данных учащихся и предотвращать любые риски, связанные с алгоритмическими ошибками или предвзятостью моделей.
🔹 Документ рекомендует включать ИИ в школьную программу так, чтобы это развивало цифровую грамотность всех учеников, а не только тех, кто «уже в теме».
🔹И, главное, что руководство является "живым документом", т.е. будет обновляться по мере появления новых технологий и международных рекомендаций (например, от UNESCO или Европейского союза).
🔹В конце полезные примеры использования и перечень вопросов, на которые стоит ответить до внедрения ИИ в школьный процесс.
Отмечу, что помимо руководств (пост здесь), существуют наборы инструментов, такие как TeachAI, которые помогают школам и педагогам разрабатывать собственные политики по ИИ, учитывая и риски, и возможности. Это делает процесс более практичным и адаптируемым под конкретную школу.
#AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
AI and Learning Differences.pdf
4 MB
ИИ и инклюзивное образование
ИИ также может расширять возможности учеников с особенностями в обучении, если правильно его использовать, что продемонстрировал, проведенный Stanford AI + Learning Differences Hackathon и выпущенный whitepaper по его итогам.
👀 Часть выводов:
🔹 Ключевой принцип “Start Together”: разрабатывать технологии вместе с учениками, педагогами и семьями, особенно с теми, кто имеет опыт обучения учеников с особенностями. Если ученики и их учителя участвуют в создании и тестировании ИИ‑решений, то технологии работают как помощник, а не как «черный ящик», который никто не понимает.
🔹Каждый ученик уникален. ИИ может адаптировать уроки под скорость и стиль обучения, давать подсказки и выбирать методику подачи материала для каждого ученика, но только если дизайн инструментов учитывает реальные потребности учащихся. Это делает обучение доступным и интересным для тех, кому стандартные методы даются сложнее.
🔹Инклюзивные ИИ‑системы требуют безопасного обращения с данными. Никаких компромиссов с конфиденциальностью и прозрачностью алгоритмов.
🔹Разработчикам рекомендуют:
- проверять обучающие данные на репрезентативность и исключать предвзятость;
- справедливо вознаграждать участников, делящихся своим опытом;
- строить продукты, которые эмоционально резонируют и реально улучшают процесс обучения.
Исследователям: объединять количественные и качественные методы, проводить длительные наблюдения и работать в партнёрстве со школами.
Политикам: создавать программы финансирования, которые поддерживают инклюзивные инновации и делают технологии доступными для всех.Исключение «одного подхода для всех».
Примеры уже существующих решений:
🔹 Alongside - цифровая платформа для поддержки ментального здоровья учеников 4–12 классов.
Создана совместно с подростками и клиницистами, доступна на 37 языках, работает 24/7.
После трёх месяцев использования 76% учеников из группы высокого риска перестали сообщать о суицидальных мыслях.
Платформа клинически валидирована и соответствует FERPA и COPPA.
🔹 Ellis - ИИ-помощник для учителей, который подбирает персонализированные стратегии для конкретных учеников. Помогает педагогам экономить время и уверенно работать с разнообразными образовательными потребностями. 89% учителей отметили улучшение индивидуального планирования.
🔹 Mursion - симуляционная среда, где педагоги тренируются решать реальные ситуации (конфликты, коммуникация с родителями, управление классом) через взаимодействие с AI-аватарами. Это безопасный способ развивать навыки лидерства и эмпатии до выхода «в поле».
Почитать:
▪️The Impact of Artificial Intelligence on Inclusive Education: A Systematic Review by Verónica-Alexandra Melo-López, Andrea Basantes-Andrade and other
#UXWatch #AIShelf
————
@pattern_ai
ИИ также может расширять возможности учеников с особенностями в обучении, если правильно его использовать, что продемонстрировал, проведенный Stanford AI + Learning Differences Hackathon и выпущенный whitepaper по его итогам.
🔹 Ключевой принцип “Start Together”: разрабатывать технологии вместе с учениками, педагогами и семьями, особенно с теми, кто имеет опыт обучения учеников с особенностями. Если ученики и их учителя участвуют в создании и тестировании ИИ‑решений, то технологии работают как помощник, а не как «черный ящик», который никто не понимает.
🔹Каждый ученик уникален. ИИ может адаптировать уроки под скорость и стиль обучения, давать подсказки и выбирать методику подачи материала для каждого ученика, но только если дизайн инструментов учитывает реальные потребности учащихся. Это делает обучение доступным и интересным для тех, кому стандартные методы даются сложнее.
🔹Инклюзивные ИИ‑системы требуют безопасного обращения с данными. Никаких компромиссов с конфиденциальностью и прозрачностью алгоритмов.
🔹Разработчикам рекомендуют:
- проверять обучающие данные на репрезентативность и исключать предвзятость;
- справедливо вознаграждать участников, делящихся своим опытом;
- строить продукты, которые эмоционально резонируют и реально улучшают процесс обучения.
Исследователям: объединять количественные и качественные методы, проводить длительные наблюдения и работать в партнёрстве со школами.
Политикам: создавать программы финансирования, которые поддерживают инклюзивные инновации и делают технологии доступными для всех.Исключение «одного подхода для всех».
Примеры уже существующих решений:
🔹 Alongside - цифровая платформа для поддержки ментального здоровья учеников 4–12 классов.
Создана совместно с подростками и клиницистами, доступна на 37 языках, работает 24/7.
После трёх месяцев использования 76% учеников из группы высокого риска перестали сообщать о суицидальных мыслях.
Платформа клинически валидирована и соответствует FERPA и COPPA.
🔹 Ellis - ИИ-помощник для учителей, который подбирает персонализированные стратегии для конкретных учеников. Помогает педагогам экономить время и уверенно работать с разнообразными образовательными потребностями. 89% учителей отметили улучшение индивидуального планирования.
🔹 Mursion - симуляционная среда, где педагоги тренируются решать реальные ситуации (конфликты, коммуникация с родителями, управление классом) через взаимодействие с AI-аватарами. Это безопасный способ развивать навыки лидерства и эмпатии до выхода «в поле».
Почитать:
▪️The Impact of Artificial Intelligence on Inclusive Education: A Systematic Review by Verónica-Alexandra Melo-López, Andrea Basantes-Andrade and other
#UXWatch #AIShelf
————
@pattern_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI раскрыла тревожную статистику об эмоциональной зависимости от ChatGPT
OpenAI опубликовала данные, которые показывают, как глубоко ИИ уже встроился в человеческое поведение.
По внутреннему исследованию компании, около 0,15 % активных пользователей ChatGPT каждую неделю ведут разговоры, в которых видны признаки суицидальных мыслей или намерений.
При еженедельной аудитории более 800 миллионов пользователей это более 1,2 миллиона человек. Ещё 0,07 % показывают признаки психоза или мании.
В ответ OpenAI запустила программу с участием 170 психиатров и психологов, чтобы улучшить реакцию модели на критические ситуации. Обновлённый ChatGPT теперь корректно отвечает на подобные запросы в 91 % случаев, тогда как прежние версии делали это только в ~77 %.
Эти цифры показывают, что ИИ становится не просто инструментом, а участником эмоциональной жизни. Пользователи всё чаще обращаются к модели не ради информации, а за поддержкой, советом или пониманием.
Такое слияние когнитивных и эмоциональных функций является ключом к новому феномену, который исследователи называют co-adaptation или взаимное приспособление человека и ИИ.
О том, как именно это взаимодействие перестраивает поведение людей и общества разберем в следующем посте «Как ИИ меняет поведение людей и наоборот».
Подробнее о том, как Emotion AI превращает ваши эмоции в + 20 CTR для компании и как ИИ учится управлять вашими решениями смотрите в предыдущих постах.
#UXWatch
————
@pattern_ai
OpenAI опубликовала данные, которые показывают, как глубоко ИИ уже встроился в человеческое поведение.
По внутреннему исследованию компании, около 0,15 % активных пользователей ChatGPT каждую неделю ведут разговоры, в которых видны признаки суицидальных мыслей или намерений.
При еженедельной аудитории более 800 миллионов пользователей это более 1,2 миллиона человек. Ещё 0,07 % показывают признаки психоза или мании.
В ответ OpenAI запустила программу с участием 170 психиатров и психологов, чтобы улучшить реакцию модели на критические ситуации. Обновлённый ChatGPT теперь корректно отвечает на подобные запросы в 91 % случаев, тогда как прежние версии делали это только в ~77 %.
Эти цифры показывают, что ИИ становится не просто инструментом, а участником эмоциональной жизни. Пользователи всё чаще обращаются к модели не ради информации, а за поддержкой, советом или пониманием.
Такое слияние когнитивных и эмоциональных функций является ключом к новому феномену, который исследователи называют co-adaptation или взаимное приспособление человека и ИИ.
О том, как именно это взаимодействие перестраивает поведение людей и общества разберем в следующем посте «Как ИИ меняет поведение людей и наоборот».
Подробнее о том, как Emotion AI превращает ваши эмоции в + 20 CTR для компании и как ИИ учится управлять вашими решениями смотрите в предыдущих постах.
#UXWatch
————
@pattern_ai
Как ИИ меняет поведение людей и наоборот
Behavioural Insights Team выпустила доклад на 107 страниц "AI & Human Behaviour: Augment, Adopt, Align, Adapt" о том, как ИИ не просто помогает нам, а меняет саму структуру человеческих решений.
Начиная со всем известной статистики, что расходы на ИИ достигнут $644 млрд в 2025 году, а 1 из 4 компаний уже использует ИИ как минимум в одной бизнес-функции; половина взрослых в США испробовали хотя бы одну большую языковую модель (LLM), авторы говорят о том, что за всеми техно-фантазиями скрывается игнорирование человеческого поведения и показывают, как бихевиоральная наука может усилить ИИ, что особенно актуально на фоне последнего исследования OpenAI.
Исследователи выделили четыре A вызова:
🔹 Augment. Не просто сделать ИИ умнее, а сделать его лучше взаимодействующим с людьми. Например, дизайнеры используют Copilot для генерации идей и экономии времени, сохраняя творческий контроль, т.е. ИИ может стать «когнитивным напарником», если человек остаётся главным в процессе.
🔹 Adopt.Почему люди и организации принимают или отказываются от ИИ. Дело не только в технологии, но в мотивации, способностях и доверии. Например, исследование YouTube показало, что авторы адаптируют стиль и темы под рекомендации системы, копируя логику алгоритма ('meticulous', 'delve', 'realm' and 'adept' стали использоваться чаще после выхода ChatGPT). Поведенческая пластичность становится новой нормой.
🔹 Align . Обучение ИИ человеческим ценностям, устройству человеческой психики. Например, команды исследуют, как встроить принципы “value alignment”, чтобы чат-боты не усиливали предвзятость и давали этично согласованные ответы. В эксперименте по дебатам о контроле над оружием (≈1500 участников в США) ИИ предлагал мягкие переформулировки. Например, вместо “Gun control advocates don’t understand the Constitution” - “I think we interpret the Constitution differently.” В результате участники чаще чувствовали себя услышанными и вели конструктивный диалог.
🔹 Adapt. Как должно эволюционировать общество, когда ИИ становится частью нашей среды. Ведь уже не только ИИ, но и мы меняем привычки ради него. Пользователи учатся писать “prompt-языком”, чтобы получить «нужный ответ», а маркетологи оптимизируют креативы под алгоритмы TikTok и Instagram.
🔹Предлагается метакогнитивный контроллер (resource-rational): управляет портфелем методов рассуждения, экономит ресурсы, т.е. не «пережёвывает» простые задачи и не бросает сложные. Это можно поощрять через meta-reinforcement learning и тренировки метакогнитивных навыков (например, принятие перспективы).
🔹Говорится о перспектива нейросимволического подхода: гибрид нейронных сетей и символической логики, где создаётся цикл (символическая проверка улучшает нейронные интуиции, а интуиции помогают символике искать решения быстрее).
Один из ключевых инсайтов доклада: ИИ не просто инструмент, он становится новым актором поведения, влияние идёт в обе стороны. Алгоритмы формируют наше поведение, а человеческие паттерны обучают их в ответ.
Для того, чтобы ИИ действительно работал в интересах человека, исследователи призывают объединять поведенческую науку, дизайн решений и регулирование, т.е. разработка должна строиться на понимании психологии и социальных эффектов алгоритмов, а тестировать ИИ-решения необходимо не только на точность, но и на влияние на выбор, восприятие и доверие пользователя.
Примеры для команд:
▪️При принятии ИИ учитывайте мотивацию (зачем?), способности (могу ли я?) и доверие (доверяю ли я?).
▪️При проектировании ИИ-продукта, думайте о метакогниции: ИИ должен помогать человеку не просто сделать шаг, а выбрать правильный шаг.
▪️При проектировании взаимодействия учитывайте, что ИИ может влиять на наше мышление, укрепляя привычки, предвзятости, стиль общения.
Дополнительно почитать:
▪️Empirical evidence of Large Language Model’s influence on human spoken communication by Hiromu Yakura and others
#UXWatch
————
@pattern_ai
Behavioural Insights Team выпустила доклад на 107 страниц "AI & Human Behaviour: Augment, Adopt, Align, Adapt" о том, как ИИ не просто помогает нам, а меняет саму структуру человеческих решений.
Начиная со всем известной статистики, что расходы на ИИ достигнут $644 млрд в 2025 году, а 1 из 4 компаний уже использует ИИ как минимум в одной бизнес-функции; половина взрослых в США испробовали хотя бы одну большую языковую модель (LLM), авторы говорят о том, что за всеми техно-фантазиями скрывается игнорирование человеческого поведения и показывают, как бихевиоральная наука может усилить ИИ, что особенно актуально на фоне последнего исследования OpenAI.
Исследователи выделили четыре A вызова:
🔹 Augment. Не просто сделать ИИ умнее, а сделать его лучше взаимодействующим с людьми. Например, дизайнеры используют Copilot для генерации идей и экономии времени, сохраняя творческий контроль, т.е. ИИ может стать «когнитивным напарником», если человек остаётся главным в процессе.
🔹 Adopt.Почему люди и организации принимают или отказываются от ИИ. Дело не только в технологии, но в мотивации, способностях и доверии. Например, исследование YouTube показало, что авторы адаптируют стиль и темы под рекомендации системы, копируя логику алгоритма ('meticulous', 'delve', 'realm' and 'adept' стали использоваться чаще после выхода ChatGPT). Поведенческая пластичность становится новой нормой.
🔹 Align . Обучение ИИ человеческим ценностям, устройству человеческой психики. Например, команды исследуют, как встроить принципы “value alignment”, чтобы чат-боты не усиливали предвзятость и давали этично согласованные ответы. В эксперименте по дебатам о контроле над оружием (≈1500 участников в США) ИИ предлагал мягкие переформулировки. Например, вместо “Gun control advocates don’t understand the Constitution” - “I think we interpret the Constitution differently.” В результате участники чаще чувствовали себя услышанными и вели конструктивный диалог.
🔹 Adapt. Как должно эволюционировать общество, когда ИИ становится частью нашей среды. Ведь уже не только ИИ, но и мы меняем привычки ради него. Пользователи учатся писать “prompt-языком”, чтобы получить «нужный ответ», а маркетологи оптимизируют креативы под алгоритмы TikTok и Instagram.
🔹Предлагается метакогнитивный контроллер (resource-rational): управляет портфелем методов рассуждения, экономит ресурсы, т.е. не «пережёвывает» простые задачи и не бросает сложные. Это можно поощрять через meta-reinforcement learning и тренировки метакогнитивных навыков (например, принятие перспективы).
🔹Говорится о перспектива нейросимволического подхода: гибрид нейронных сетей и символической логики, где создаётся цикл (символическая проверка улучшает нейронные интуиции, а интуиции помогают символике искать решения быстрее).
Один из ключевых инсайтов доклада: ИИ не просто инструмент, он становится новым актором поведения, влияние идёт в обе стороны. Алгоритмы формируют наше поведение, а человеческие паттерны обучают их в ответ.
Для того, чтобы ИИ действительно работал в интересах человека, исследователи призывают объединять поведенческую науку, дизайн решений и регулирование, т.е. разработка должна строиться на понимании психологии и социальных эффектов алгоритмов, а тестировать ИИ-решения необходимо не только на точность, но и на влияние на выбор, восприятие и доверие пользователя.
Примеры для команд:
▪️При принятии ИИ учитывайте мотивацию (зачем?), способности (могу ли я?) и доверие (доверяю ли я?).
▪️При проектировании ИИ-продукта, думайте о метакогниции: ИИ должен помогать человеку не просто сделать шаг, а выбрать правильный шаг.
▪️При проектировании взаимодействия учитывайте, что ИИ может влиять на наше мышление, укрепляя привычки, предвзятости, стиль общения.
Дополнительно почитать:
▪️Empirical evidence of Large Language Model’s influence on human spoken communication by Hiromu Yakura and others
#UXWatch
————
@pattern_ai
❤1