Artificial Intelligence_ risk, regulation, personal data.pdf
21.4 MB
А в продолжение темы AI и рисков приватности подготовили инфографику "Artificial Intelligence: risk, regulation, personal data", где вы найдете:
🔹 Статистику о распространенности AI и доверии к нему в современном мире,
🔹 классификацию AI рисков European Commission,
🔹 информацию о том, что значит этика в рамках использования «технологии будущего»,
🔹 какие есть законодательства по регулированию AI.
При преимуществах технологий AI, их интегрированность в различные сферы жизни волнует как экспертов, так и обычных пользователей. Какие вызовы ждут нас на пути повсеместного использования AI? Какие законы регулируют использование AI?
Ответы на эти и многие другие вопросы по теме искусственного интеллекта вы можете получить на нашем новом курсе «Искусственный интеллект: основы управления рисками, регулирование и персональные данные», который стартует уже 5 марта. За 24 часа обучения вы полностью погрузитесь в мир AI и сформируете целостную картину того, какое место в нем занимает data privacy.
🔹 Статистику о распространенности AI и доверии к нему в современном мире,
🔹 классификацию AI рисков European Commission,
🔹 информацию о том, что значит этика в рамках использования «технологии будущего»,
🔹 какие есть законодательства по регулированию AI.
При преимуществах технологий AI, их интегрированность в различные сферы жизни волнует как экспертов, так и обычных пользователей. Какие вызовы ждут нас на пути повсеместного использования AI? Какие законы регулируют использование AI?
Ответы на эти и многие другие вопросы по теме искусственного интеллекта вы можете получить на нашем новом курсе «Искусственный интеллект: основы управления рисками, регулирование и персональные данные», который стартует уже 5 марта. За 24 часа обучения вы полностью погрузитесь в мир AI и сформируете целостную картину того, какое место в нем занимает data privacy.
🔥6👏1
Privacy is about Love ❤️
Это не просто слова, а лейтмотив всей сферы защиты данных, который красной нитью проходит через работу privacy-специалистов ✨
Мы стремимся создать мир, в котором права пользователей не нарушаются, а персональные данные находятся под надежной защитой, ведь каждый достоин любви и заботы в online-пространстве ❤️ 💻
Сфера приватности укрепляет доверие, дает возможность самостоятельно принимать решения, выражать свои мысли и общаться с любимыми, не опасаясь вторжения.
Собрали для вас ситуации, в которых как никогда проявляется любовь в сфере приватности ❤️
Это не просто слова, а лейтмотив всей сферы защиты данных, который красной нитью проходит через работу privacy-специалистов ✨
Мы стремимся создать мир, в котором права пользователей не нарушаются, а персональные данные находятся под надежной защитой, ведь каждый достоин любви и заботы в online-пространстве ❤️ 💻
Сфера приватности укрепляет доверие, дает возможность самостоятельно принимать решения, выражать свои мысли и общаться с любимыми, не опасаясь вторжения.
Собрали для вас ситуации, в которых как никогда проявляется любовь в сфере приватности ❤️
❤8
В продолжение темы заботы о персональных данных в online-пространстве мы поговорим о том, как преодолеть сложности использования AI с точки зрения приватности 🧐
Соблюдение баланса между использованием искусственного интеллекта (AI) и защитой персональных данных ставит перед экспертами огромное количество вопросов. Сегодня рассмотрим ключевые проблемы с точки зрения приватности, которые возникают при использовании AI, а также предложим возможные стратегии их преодоления.
💡 Прозрачность
В контексте AI прозрачность заключается в раскрытии информации об используемых сервисах AI, описании их логики, о доступе к структуре алгоритмов и к самим наборам данных, которые используются для обучения алгоритмов. Прозрачность - это ключевой аспект приватности, однако выполнение этого требования затруднительно. Общее уведомление об применении искусственного интеллекта дает субъектам данных мало информации о том, какие риски влечет использование их информации. Кроме того, алгоритмы AI осложняют наше восприятие описанной логики автоматизированного решения.
Перед компаниями стоит четкая задача - предоставить информацию о логике алгоритмов. При этом необходимо помнить, что она должна быть в понятной и легкодоступной форме. Вместо того чтобы давать детальную техническую информацию о внутреннем устройстве алгоритма, можно сосредоточиться на главных аспектах об обработке. Например, категории необходимых данных, ожидаемый результат и возможные последствия. Так компании могут повысить прозрачность, не перегружая пользователей техническими терминами.
Кроме того, понимание контекста играет важную роль в эффективном объяснении решений AI. Каждой группе субъектов данных может потребоваться разный уровень детализации объяснений действия алгоритмов. Такие факторы, как контекст решения, область применения и тип данных, влияют на то, какую информацию об обработке человек ожидает получить или считает полезной. Подробнее типы объяснений в зависимости от контекста мы описывали выше.
🖋 Оценка рисков
Сегодня надзорные органы часто включают использование данных AI в список тех обработок, для которых обязательно проведение Data Protection Impact Assessment (DPIA). Поэтому лучше провести процедуру DPIA, даже если надзорный орган страны контролера данных пока еще не внес обработку в этот список.
В процессе DPIA важно оценить необходимость и соразмерность обработки данных. Простое наличие доступа к технологии AI не является достаточным основанием для ее использования. Компании должны оценить, является ли искусственный интеллект необходимым для достижения их целей и существуют ли менее интрузивные альтернативы.
Для каждой обработки риски варьируются, что затрудняет установление универсальных критериев для их оценки. Однако есть общие закономерности, которых придерживаются надзорные органы. В контексте DPIA регуляторы рекомендуют включать в оценку не только риск для безопасности самих данных, но и последствия такого нарушения для других прав человека (например, риск возможной дискриминации).
Среди рисков использования AI следует учитывать:
🔹 Риски для субъектов данных, возникающие в результате потенциального неправомерного использования данных, которые содержатся в обучающих наборах данных, особенно в случае утечки данных.
🔹 Риск автоматической дискриминации, который может возникнуть из-за предубеждений, заложенных в системы AI в процессе разработки, и привести к неравным результатам для определенных групп.
🔹 Риск создания ложного контента о реальных людях. Это значительно в случае генеративных систем AI, что может нанести ущерб репутации людей.
🔹 Риск автоматизированного принятия решений, который обусловлен предвзятостью или отсутствием прозрачности. Это может привести к несправедливым или неточным результатам.
🔹 Риск потери пользователями контроля над своими данными. Особенно в контексте крупномасштабного сбора данных путем веб-скрейпинга.
Автор: Анастасия Вербанович, CIPP/E, GDPR DPP, GDPR Consultant
Stay tuned ➡️
Соблюдение баланса между использованием искусственного интеллекта (AI) и защитой персональных данных ставит перед экспертами огромное количество вопросов. Сегодня рассмотрим ключевые проблемы с точки зрения приватности, которые возникают при использовании AI, а также предложим возможные стратегии их преодоления.
💡 Прозрачность
В контексте AI прозрачность заключается в раскрытии информации об используемых сервисах AI, описании их логики, о доступе к структуре алгоритмов и к самим наборам данных, которые используются для обучения алгоритмов. Прозрачность - это ключевой аспект приватности, однако выполнение этого требования затруднительно. Общее уведомление об применении искусственного интеллекта дает субъектам данных мало информации о том, какие риски влечет использование их информации. Кроме того, алгоритмы AI осложняют наше восприятие описанной логики автоматизированного решения.
Перед компаниями стоит четкая задача - предоставить информацию о логике алгоритмов. При этом необходимо помнить, что она должна быть в понятной и легкодоступной форме. Вместо того чтобы давать детальную техническую информацию о внутреннем устройстве алгоритма, можно сосредоточиться на главных аспектах об обработке. Например, категории необходимых данных, ожидаемый результат и возможные последствия. Так компании могут повысить прозрачность, не перегружая пользователей техническими терминами.
Кроме того, понимание контекста играет важную роль в эффективном объяснении решений AI. Каждой группе субъектов данных может потребоваться разный уровень детализации объяснений действия алгоритмов. Такие факторы, как контекст решения, область применения и тип данных, влияют на то, какую информацию об обработке человек ожидает получить или считает полезной. Подробнее типы объяснений в зависимости от контекста мы описывали выше.
🖋 Оценка рисков
Сегодня надзорные органы часто включают использование данных AI в список тех обработок, для которых обязательно проведение Data Protection Impact Assessment (DPIA). Поэтому лучше провести процедуру DPIA, даже если надзорный орган страны контролера данных пока еще не внес обработку в этот список.
В процессе DPIA важно оценить необходимость и соразмерность обработки данных. Простое наличие доступа к технологии AI не является достаточным основанием для ее использования. Компании должны оценить, является ли искусственный интеллект необходимым для достижения их целей и существуют ли менее интрузивные альтернативы.
Для каждой обработки риски варьируются, что затрудняет установление универсальных критериев для их оценки. Однако есть общие закономерности, которых придерживаются надзорные органы. В контексте DPIA регуляторы рекомендуют включать в оценку не только риск для безопасности самих данных, но и последствия такого нарушения для других прав человека (например, риск возможной дискриминации).
Среди рисков использования AI следует учитывать:
🔹 Риски для субъектов данных, возникающие в результате потенциального неправомерного использования данных, которые содержатся в обучающих наборах данных, особенно в случае утечки данных.
🔹 Риск автоматической дискриминации, который может возникнуть из-за предубеждений, заложенных в системы AI в процессе разработки, и привести к неравным результатам для определенных групп.
🔹 Риск создания ложного контента о реальных людях. Это значительно в случае генеративных систем AI, что может нанести ущерб репутации людей.
🔹 Риск автоматизированного принятия решений, который обусловлен предвзятостью или отсутствием прозрачности. Это может привести к несправедливым или неточным результатам.
🔹 Риск потери пользователями контроля над своими данными. Особенно в контексте крупномасштабного сбора данных путем веб-скрейпинга.
Автор: Анастасия Вербанович, CIPP/E, GDPR DPP, GDPR Consultant
Stay tuned ➡️
❤9👍4
Коллеги, вчера мы начали разбирать, как преодолеть сложности использования искусственного интеллекта с точки зрения защиты персональных данных. А сегодня мы рассмотрим меры по снижению рисков ⬇️
Для снижения вероятности рисков предпринимается ряд технических и организационных мер.
Технические меры:
1️⃣ Использование синтетических данных для минимизации раскрытия персональной информации.
2️⃣ Применение таких подходов, как дифференцированная приватность (differential privacy).
3️⃣ Меры, доступные на стадии разработки. Например, использование федеративного обучения (federated learning) для обеспечения защиты данных.
4️⃣ Настройка системы таким образом, чтобы она извлекала необходимую информацию для различных типов объяснений использования AI. Будет полезно понять, как в систему попадают персональные данные и на каких этапах, а также как долго они обрабатываются. В общем, все детали обработки, которые необходимы для составления реестра обработок.
5️⃣ Логирование действий с персональными данными.
6️⃣ Ограничение доступа к наборам данных в соответствии с потребностью конкретной должности.
7️⃣ Ограничение доступа к данным со стороны процессоров / субпроцессоров и иных получателей данных.
Организационные меры:
1️⃣ Изначальный сбор данных с учетом возможности проинформировать субъектов данных. То, как компания собирает и предварительно обрабатывает данные, используемые AI, влияет на способ информирования об обработке. Поэтому необходимо заранее продумать, сможете ли вы уведомить людей, чьи данные попадут в сервис с искусственным интеллектом.
2️⃣ Обучение сотрудников защите персональных данных. Они должны понимать, что такое персональные данные, почему они требуют особой защиты и как это реализуется на практике.
3️⃣ Разработка внутренних политик (политика по информационной безопасности, политика по защите персональных данных и так далее).
4️⃣ Регулярное проведение аудита для выявления и устранения предвзятости или ошибок, которые могут привести к дискриминации определенных лиц или групп.
Автор: Анастасия Вербанович, CIPP/E, GDPR DPP, GDPR Consultant
#ai
Для снижения вероятности рисков предпринимается ряд технических и организационных мер.
Технические меры:
1️⃣ Использование синтетических данных для минимизации раскрытия персональной информации.
2️⃣ Применение таких подходов, как дифференцированная приватность (differential privacy).
3️⃣ Меры, доступные на стадии разработки. Например, использование федеративного обучения (federated learning) для обеспечения защиты данных.
4️⃣ Настройка системы таким образом, чтобы она извлекала необходимую информацию для различных типов объяснений использования AI. Будет полезно понять, как в систему попадают персональные данные и на каких этапах, а также как долго они обрабатываются. В общем, все детали обработки, которые необходимы для составления реестра обработок.
5️⃣ Логирование действий с персональными данными.
6️⃣ Ограничение доступа к наборам данных в соответствии с потребностью конкретной должности.
7️⃣ Ограничение доступа к данным со стороны процессоров / субпроцессоров и иных получателей данных.
Организационные меры:
1️⃣ Изначальный сбор данных с учетом возможности проинформировать субъектов данных. То, как компания собирает и предварительно обрабатывает данные, используемые AI, влияет на способ информирования об обработке. Поэтому необходимо заранее продумать, сможете ли вы уведомить людей, чьи данные попадут в сервис с искусственным интеллектом.
2️⃣ Обучение сотрудников защите персональных данных. Они должны понимать, что такое персональные данные, почему они требуют особой защиты и как это реализуется на практике.
3️⃣ Разработка внутренних политик (политика по информационной безопасности, политика по защите персональных данных и так далее).
4️⃣ Регулярное проведение аудита для выявления и устранения предвзятости или ошибок, которые могут привести к дискриминации определенных лиц или групп.
Автор: Анастасия Вербанович, CIPP/E, GDPR DPP, GDPR Consultant
#ai
👍7❤3
📣 Спешим напомнить, что бесплатный вебинар «Компетенции для проведения DPIA» с privacy-экспертом и основателем Data Privacy Office Сергеем Воронкевичем, CIPP/E, CIPM, CIPT, MBA, FIP, пройдет уже сегодня, 15 февраля, в 18:00 (GMT+3).
Мы разберем лучшие практики и советы по совершенствованию компетенций в области защиты данных, выделим типичные ошибки и недостатки в проведении DPIA и многое другое. Вы также сможете задать спикеру любые интересующие вас вопросы.
👉🏻 Если вы еще не зарегистрировались, то у вас есть возможность сделать это здесь. Ждем вас!
P.S. После регистрации вам придет email c ссылкой для подключения в Zoom.
#webinar
Мы разберем лучшие практики и советы по совершенствованию компетенций в области защиты данных, выделим типичные ошибки и недостатки в проведении DPIA и многое другое. Вы также сможете задать спикеру любые интересующие вас вопросы.
👉🏻 Если вы еще не зарегистрировались, то у вас есть возможность сделать это здесь. Ждем вас!
P.S. После регистрации вам придет email c ссылкой для подключения в Zoom.
#webinar
🔥5
💡 Коллеги, уже через 30 минут стартует вебинар «Компетенции для проведения DPIA».
У вас все еще есть последний шанс зарегистрироваться. Присоединяйтесь!
☝🏻Напоминаем, что после регистрации вам придет email c ссылкой для подключения в Zoom.
У вас все еще есть последний шанс зарегистрироваться. Присоединяйтесь!
☝🏻Напоминаем, что после регистрации вам придет email c ссылкой для подключения в Zoom.
👍4
🔥 Новый выпуск подкаста «ПРО приватность»
Об искусственном интеллекте было сказано уже немало, но далеко не все. В этом эпизоде вместе с тренером нашего нового курса и экспертом в сфере AI и приватности Александром Тюлькановым мы поговорили на тему «Приватность & AI: регулирование искусственного интеллекта».
Какие темы мы затронули?
🔹 Основы регулирования искусственного интеллекта.
🔹 Исторические аспекты возникновения AI Act.
И это лишь малая часть 🚀
Спикеры:
🎙 Александр Тюльканов, CIPP/E, Foundations of Independent Audit of AI Systems, RPPA Privacy Evangelist.
🎙 Сергей Воронкевич, CIPP/E, CIPM, CIPT, MBA, FIP. Основатель Data Privacy Office, тренер и ведущий консультант.
Скажем по секрету, одного часа не хватит, чтобы охватить даже малую часть мира AI и приватности. Поэтому напоминаем о новом курсе «Искусственный интеллект: регулирование, основы управления рисками, персональные данные», старт которого уже 5 марта. Обучение не ограничено исключительно персональными данными. Вы разберете, как строится регулирование AI, какие риски он создает для пользователей и многое другое.
👉🏻 Узнать больше деталей можно на сайте или у нашего менеджера Антона.
P.S. Напомним, что на прошлой неделе на подкасте «Приватность & AI: почему прайвасисты занимаются регулированием искусственного интеллекта» вместе с тренером курса Денисом Садовниковым, CIPP/E, CIPM, FIP, GDPR DPP, GDPR DPM, мы обсудили, как связаны приватность и искусственный интеллект, как дальнейшее развитие AI повлияет на сферу защиты персональных данных и многое другое.
#podcast
Об искусственном интеллекте было сказано уже немало, но далеко не все. В этом эпизоде вместе с тренером нашего нового курса и экспертом в сфере AI и приватности Александром Тюлькановым мы поговорили на тему «Приватность & AI: регулирование искусственного интеллекта».
Какие темы мы затронули?
🔹 Основы регулирования искусственного интеллекта.
🔹 Исторические аспекты возникновения AI Act.
И это лишь малая часть 🚀
Спикеры:
🎙 Александр Тюльканов, CIPP/E, Foundations of Independent Audit of AI Systems, RPPA Privacy Evangelist.
🎙 Сергей Воронкевич, CIPP/E, CIPM, CIPT, MBA, FIP. Основатель Data Privacy Office, тренер и ведущий консультант.
Скажем по секрету, одного часа не хватит, чтобы охватить даже малую часть мира AI и приватности. Поэтому напоминаем о новом курсе «Искусственный интеллект: регулирование, основы управления рисками, персональные данные», старт которого уже 5 марта. Обучение не ограничено исключительно персональными данными. Вы разберете, как строится регулирование AI, какие риски он создает для пользователей и многое другое.
👉🏻 Узнать больше деталей можно на сайте или у нашего менеджера Антона.
P.S. Напомним, что на прошлой неделе на подкасте «Приватность & AI: почему прайвасисты занимаются регулированием искусственного интеллекта» вместе с тренером курса Денисом Садовниковым, CIPP/E, CIPM, FIP, GDPR DPP, GDPR DPM, мы обсудили, как связаны приватность и искусственный интеллект, как дальнейшее развитие AI повлияет на сферу защиты персональных данных и многое другое.
#podcast
❤8
Коллеги, время от времени мы делимся открытыми вакансиями наших клиентов на позиции privacy-специалистов. У вас есть возможность попробовать себя в роли тренера по защите персональных данных.
К нам обратилась компания, которая проводит обучающие курсы и в поисках тренера для регулярных лекций на 2024 год по защите персональных данных для сотрудников автоконцернов. Для нас, как компании, бюджет слишком мал. Однако для одиночного специалиста это может быть интересно.
Детали:
🔹 Обучение по ФЗ-152.
🔹 Формат: очно в Москве 2 раза в месяц по 1.5 часа.
🔹 Оплата: 7 000 RUB за лекцию.
📩 За подробностями, пожалуйста, напишите нашему менеджеру Антону.
К нам обратилась компания, которая проводит обучающие курсы и в поисках тренера для регулярных лекций на 2024 год по защите персональных данных для сотрудников автоконцернов. Для нас, как компании, бюджет слишком мал. Однако для одиночного специалиста это может быть интересно.
Детали:
🔹 Обучение по ФЗ-152.
🔹 Формат: очно в Москве 2 раза в месяц по 1.5 часа.
🔹 Оплата: 7 000 RUB за лекцию.
📩 За подробностями, пожалуйста, напишите нашему менеджеру Антону.
❤2👏1
Подводим выводы недели DPIA 🧐
В течение всей этой недели мы активно погружались в тему оценки privacy-рисков.
Во время марафона с Юлией Богдановой, CIPP/E, GDPR DPP, GDPR DPM, Privacy by Design, поговорили об оценке рисков и разработке мер по их предотвращению, а на вебинаре с Сергеем Воронкевичем, CIPP/E, CIPM, CIPT, MBA, FIP, погрузились в тему компетенций, которые необходимы для проведения DPIA.
Напомним, DPIA (Data Protection Impact Assessment) - процедура, которая помогает идентифицировать процессы с наиболее высокими рисками для субъектов данных и снизить их с помощью защитных мер. Это не только обязательный элемент соблюдения GDPR, но и полезный инструмент для повышения доверия клиентов и партнеров и оптимизации бизнес-процессов.
Ух, и насыщенная выдалась неделя 💯
Собрали для вас основные выводы по теме оценки рисков 👇🏻
В течение всей этой недели мы активно погружались в тему оценки privacy-рисков.
Во время марафона с Юлией Богдановой, CIPP/E, GDPR DPP, GDPR DPM, Privacy by Design, поговорили об оценке рисков и разработке мер по их предотвращению, а на вебинаре с Сергеем Воронкевичем, CIPP/E, CIPM, CIPT, MBA, FIP, погрузились в тему компетенций, которые необходимы для проведения DPIA.
Напомним, DPIA (Data Protection Impact Assessment) - процедура, которая помогает идентифицировать процессы с наиболее высокими рисками для субъектов данных и снизить их с помощью защитных мер. Это не только обязательный элемент соблюдения GDPR, но и полезный инструмент для повышения доверия клиентов и партнеров и оптимизации бизнес-процессов.
DPIA - это вершина айсберга защиты персональных данных, но в то же время хорошая возможность уйти от чек-листов к ситуационной оценке рисков.
Ух, и насыщенная выдалась неделя 💯
Собрали для вас основные выводы по теме оценки рисков 👇🏻
❤6