ПРО приватность | Data Privacy Office – Telegram
ПРО приватность | Data Privacy Office
1.79K subscribers
754 photos
53 videos
19 files
838 links
Data Privacy Office — консалтинг и тренинги по защите персональных данных.

Рассказываем о GDPR и национальных законах, о приватности в системах ИИ и современных технологиях.

Больше о нас: https://clck.ru/3MgnRv

Наш менеджер: @TonyPodStark
Download Telegram
Утечка персональных данных — это не абстрактное понятие из новостей про крупные компании. Это — наша реальность.

Но что о них знают ваши близкие? В ваших силах сделать так, чтобы не только вы, но и ваши родные знали больше о приватности. Для этого мы подготовили статью «Что делать, если персональные данные утекли в сеть?».

📌 В ней рассказали:

🔹 Как проверить, попадали данные в утечки или нет?
🔹 Что делать, если личная информация утекла в сеть?
🔹 Какие права есть у владельца данных?
🔹 Как защитить свои данные от утечки?

Перешлите эту статью своим близким. Для вас — минута времени, для них — большая польза.

Сделаем приватность доступнее вместе 💚

#Privacy_For_Everyone
6🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🏆74🔥2
В среду, 25 сентября, прошла открытая лекция «Технические и организационные меры обеспечения защиты данных» ⚙️

Делимся краткой выжимкой из всего полезного, что было на ней, в карточках ⬆️

Спасибо нашим спикерам — Юлии Богдановой, CIPP/E, CIPP/US, GDPR DPP, GDPR DPM, Strategic Privacy by Design и Дмитрию Филатову, CIPP/E, CIPT, GDPR DPP, GDPR DPM, FIP — за этот ивент.

Спасибо слушателям лекции за вовлеченность, вопросы и обсуждение кейса. Вы — настоящие privacy-чемпионы 🏆

Следите за обновлениями в этом канале, чтобы не пропустить другие наши образовательные ивенты!

#events
83👍2👏1🏆1👨‍💻1
💡 Почему AI/ML инженерам важно соблюдать AI Compliance: разберем реальный кейс

AI/ML инженеры создают модели, оптимизируют алгоритмы и внедряют AI для решения сложных задач. Однако с развитием технологий растет и потребность понимать и соблюдать нормативные требования и стандарты. AI Compliance — это важный элемент успеха любой AI системы. Рассмотрим реальный кейс, который объяснит, почему AI Compliance критически важен.

📌 Кейс — Влияние алгоритмов TikTok на психическое здоровье детей (2023 год)

TikTok оказался в центре внимания из-за алгоритмов, которые усиливают негативное влияние на психическое здоровье подростков. Алгоритмы рекомендаций TikTok продвигали контент, связанный с самоповреждением и депрессией, что вызвало критику и судебные иски. Платформу обвинили в том, что она недостаточно защищает уязвимых пользователей и способствует развитию зависимости, создавая замкнутый круг негативного контента вокруг пользователей.

📌 Роль AI/ML инженеров в AI Compliance

AI/ML инженеры, которые работают над алгоритмами TikTok, играют ключевую роль в разработке систем. Давайте рассмотрим их ключевые функции:

🔹 Обучение моделей на сбалансированных данных

Важно обучать модели на данных, которые не только отражают разнообразие пользователей, но и минимизируют предвзятости.

Обязательное условие — сбор данных, которые представляют различные возрастные группы, культурные контексты и уровни психического здоровья, а также использование например аугментации данных и других техник для обеспечения сбалансированности.

🔹 Разработка алгоритмов, способных распознавать и блокировать вредоносный контент

Инженеры должны внедрять фильтры и механизмы обнаружения, которые автоматически распознают контент, связанный с самоповреждением, депрессией и другими рисками для психического здоровья.

Обязательное условие — использование моделей, обученных на проверенных данных, и постоянной адаптации алгоритмов на основе обратной связи и мониторинга.

🔹 Проведение тестирования на наличие предвзятости или негативного воздействия

Регулярное тестирование моделей на предвзятость и анализ их влияния на пользователей — это ключевой аспект AI Compliance.

Обязательное условие — использование метрик и инструментов для оценки справедливости алгоритмов и их потенциального воздействия, особенно на уязвимые группы, такие как подростки.

🔹 Внедрение механизмов, которые проверяют контент на соответствие нормативным требованиям

Инженеры должны разрабатывать и интегрировать механизмы, которые автоматически проверяют контент и алгоритмы на соответствие требованиям регуляторов, например GDPR.

Обязательное условие — создание систем для постоянного мониторинга и обновления алгоритмов в соответствии с изменениями в законодательстве.

📌 Практическое значение для AI/ML инженеров

🔹 Оценка воздействия и управление рисками

Внедрение методов оценки воздействия на права человека (Human Rights Impact Assessment, HRIA) помогает AI/ML инженерам идентифицировать потенциальные риски, связанные с их моделями. Это особенно важно для систем, которые взаимодействуют с уязвимыми группами пользователей, такими как дети и подростки. Оценка воздействия должна быть интегрирована на каждом этапе разработки — от планирования до внедрения и мониторинга.

🔹 Сотрудничество с мультидисциплинарными командами

AI/ML инженеры должны активно сотрудничать с юристами, специалистами по защите данных и профессионалами в других областях. Это поможет обеспечить внедрение всех необходимых аспектов AI Compliance в процесс разработки.

🔹 Улучшение пользовательского опыта и доверия

Регулярное тестирование алгоритмов помогает не только соответствовать нормативным требованиям, но и улучшает пользовательский опыт. Пользователи больше доверяют платформам, которые демонстрируют ответственность и заботу о их благополучии.
👍2
📌 AI Compliance — это не просто о том, чтобы соответствовать нормативным требованиям. Это о создании AI систем, которые уважают права пользователей, обеспечивают безопасность и доверие, и способствуют ответственному развитию технологий. Для AI/ML инженеров это означает знать о том, что сделать на каждом этапе разработки, чтобы система была AI Compliant. Это не только поможет защитить компанию от юридических проблем, но и создаст более безопасные и эффективные продукты, которые приносят реальную пользу пользователям.

Автор: Ксения Рычкова, BI & Consulting Leader.

#opinion
👍73❤‍🔥2
Традиционно на нашем канале — свежие privacy-новости ✍🏻

🔹 Афера с мошенничеством от имени немецкого надзорного органа BfDI.
🔹 Аккредитация первого органа по сертификации GDPR в Австрии.

#news
6👍1
📌 Представьте, что вы разработчик искусственного интеллекта. Вы хотите создать этичную модель, которая не будет отвечать на потенциально опасные или неприемлемые запросы.

Как бы вы подошли к решению этой задачи?
Вернемся ко вчерашнему вопросу об этичном поведении ИИ.

Правильный ответ — вариант B: Обучать модель только на этичных примерах и ответах.
 
Давайте разберем, почему другие варианты менее эффективны.
 
📌 Вариант A — Встроить этические правила в архитектуру модели.
 
Хотя эта идея кажется привлекательной, на практике она сталкивается с серьезными ограничениями.
 
Современные нейросети сложны. Они содержат миллиарды параметров и множество слоев. Невозможно напрямую «закодировать» этические правила в веса нейронов. Разработчики не могут предсказать, какие параметры нужно установить для достижения желаемого этичного поведения. С другой стороны, даже если бы это было возможно, нет гарантии, что эти параметры останутся неизменными в процессе обучения.
 
📌 Вариант C — Невозможно контролировать из-за постоянной адаптации.
 
Это утверждение основано на распространенном заблуждении, что все нейросети непрерывно обучаются.
Однако большинство публично доступных языковых моделей (например, GPT-3, GPT-4) не продолжают обучаться в процессе взаимодействия с пользователями. Их обучение завершается до выпуска, и веса модели остаются фиксированными. Пользователи не могут «переубедить» или изменить базовое поведение модели своими запросами.
 
📌 Почему вариант B является наиболее вероятным.
 
🔹 Контроль над обучающими данными: Разработчики могут тщательно отбирать и фильтровать обучающий материал, исключая неэтичный контент.
🔹 Формирование желаемого поведения: При обучении на этичных примерах модель усваивает паттерны корректных ответов и реакций.
🔹 Масштабируемость: Этот подход можно применять к моделям разного размера и архитектуры.
🔹 Гибкость: При необходимости можно закончить обучение модели на новых этичных примерах, уточняя ее поведение.
🔹 Прозрачность: Легче объяснить и обосновать этичное поведение модели, зная, на каких данных она обучалась.
 
Однако важно отметить: даже этот метод не гарантирует абсолютно этичного поведения ИИ в любой ситуации. Модель будет предсказуемо реагировать лишь в тех ситуациях, на которых она обучалась. Необходимо сочетать его с другими подходами, такими как постобработка ответов, использование фильтров и постоянный мониторинг работы системы.

Автор: Елена Алисейчик, GDPR DPP, GDPR DPM, DPT, CIPP/E.

#opinion
7👍3🔥1
Нет времени объяснять, вам просто нужно увидеть наши мемы про курс Global Data Privacy Manager 👀

#courses
😁4🏆4❤‍🔥2🔥2