⭐️ В Таиланде представили первого «робокопа». На что он способен?
В Таиланде появился первый робот-полицейский с искусственным интеллектом (ИИ). Его испытали на празднике Сонгкран в провинции Накхонпатхом.
Робота представили 16 апреля. Он получил название Pol Col Nakhonpathom Plod Phai, что означает «Накхонпатхом в безопасности». «Робокопа» уже испытали на фестивале Тонсон-Роуд в районе Муанг.
Полицейский робот AI Police Cyborg 1.0 оснащен круговой камерой и подключен к системе видеонаблюдения, которая работает по всей провинции. Он в режиме реального времени получает данные от дронов, анализирует происходящее на улицах и отправляет собранную информацию в центр управления.
Одна из главных функций робота-полицейского — распознавание лиц. Он может определить, находится ли человек в розыске или входит в группу риска. Также он анализирует внешность: рост, пол, телосложение, одежду и даже поведение людей.
Если в толпе начнется драка или кто-то попытается применить силу, робот это зафиксирует. Он различает потенциально опасные предметы вроде ножей или палок, но при этом не реагирует на водяные пистолеты, которыми обрызгивают друг друга во время празднеств в честь тайского Нового года Сонгкран.
Продолжение: https://vk.com/wall-210601538_1693
В Таиланде появился первый робот-полицейский с искусственным интеллектом (ИИ). Его испытали на празднике Сонгкран в провинции Накхонпатхом.
Робота представили 16 апреля. Он получил название Pol Col Nakhonpathom Plod Phai, что означает «Накхонпатхом в безопасности». «Робокопа» уже испытали на фестивале Тонсон-Роуд в районе Муанг.
Полицейский робот AI Police Cyborg 1.0 оснащен круговой камерой и подключен к системе видеонаблюдения, которая работает по всей провинции. Он в режиме реального времени получает данные от дронов, анализирует происходящее на улицах и отправляет собранную информацию в центр управления.
Одна из главных функций робота-полицейского — распознавание лиц. Он может определить, находится ли человек в розыске или входит в группу риска. Также он анализирует внешность: рост, пол, телосложение, одежду и даже поведение людей.
Если в толпе начнется драка или кто-то попытается применить силу, робот это зафиксирует. Он различает потенциально опасные предметы вроде ножей или палок, но при этом не реагирует на водяные пистолеты, которыми обрызгивают друг друга во время празднеств в честь тайского Нового года Сонгкран.
Продолжение: https://vk.com/wall-210601538_1693
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ В Таиланде представили первого «робокопа». На что он способен?
В Таиланде появился первый р... Смотрите полностью ВКонтакте.
В Таиланде появился первый р... Смотрите полностью ВКонтакте.
⭐️ Получил крутую футболку от топовой IT-компании Selectel за сотрудничество по линии MLSecOps! Очень приятный и неожиданный презент. Я на безвозмездной основе обмениваюсь передовым опытом и самыми современными технологиями защиты ИИ-систем сразу с несколькими компаниями. Тут речь только о технологиях, которые они вообще могут раскрывать - конечно, есть и совершенно конфиденциальные. Также активно участвую в тестировании новых IT-продуктов, митапах и выступлениях по MLSecOps.
Поэтому радует, что это уже ТРЕТИЙ мерч от замечательной компании Selectel, который я получил, и это приятная неожиданность (а на самом деле, признаюсь, все именно ради мерча ))))
Все это лишний раз стимулирует меня еще активнее сотрудничать с ними! Большое спасибо коллегам! Добавлю, что ML-платформа Selectel имеет очень надежные параметры защиты от любых атак на ML. Кроме того ребята выстроили мощный контур обеспечения информационной безопасности в целом.
Ссылка: https://selectel.ru/services/ai-ml
Архитектор MLSecOps
Николай Павлов
Поэтому радует, что это уже ТРЕТИЙ мерч от замечательной компании Selectel, который я получил, и это приятная неожиданность (а на самом деле, признаюсь, все именно ради мерча ))))
Все это лишний раз стимулирует меня еще активнее сотрудничать с ними! Большое спасибо коллегам! Добавлю, что ML-платформа Selectel имеет очень надежные параметры защиты от любых атак на ML. Кроме того ребята выстроили мощный контур обеспечения информационной безопасности в целом.
Ссылка: https://selectel.ru/services/ai-ml
Архитектор MLSecOps
Николай Павлов
👍1🔥1
⭐️ Ученые из T-Bank AI Research повысили безопасность и точность ответов ИИ до 15%
Ученые из лаборатории исследований искусственного интеллекта T-Bank AI Research создали методику обучения больших языковых моделей (LLM). Она основана на существующих методах Trust Region, применяемых в различных областях ИИ. Новый подход позволяет улучшить качество ответов искусственного интеллекта до 15% по пяти различным показателям.
Результаты исследования были признаны мировым научным сообществом и представлены на международной конференции по обучению представлениям (ICLR), которая проходит в Сингапуре с 24 по 28 апреля 2025. Это одна из главных конференция в области машинного обучения и искусственного интеллекта уровня А*.
Современные языковые модели, обучаясь на больших объемах данных, сталкиваются с проблемой потери качества при долгой тренировке. Исследователи предложили использовать новый подход — за основу были взяты и улучшены методы оптимизации под названием Trust Region.
В ходе экспериментов исследователи протестировали новый метод на таких метриках, как Alpaca Eval 2.0 и Arena Hard, которые оценивают способность модели к вежливому общению, решению сложных задач и обобщению знаний. В тестах на бенчмарке AlpacaEval 2.0 метод показал улучшение качества ответов ИИ с 2.3 до 15.1 процентных пунктов по сравнению с классическими подходами — модели стали давать полезные и уместные ответы значительно чаще. Это означает, что виртуальные ассистенты, чат-боты и другие ИИ-системы, использующие этот метод, смогут работать точнее и эффективнее.
Продолжение: https://vk.com/wall-210601538_1697
Ученые из лаборатории исследований искусственного интеллекта T-Bank AI Research создали методику обучения больших языковых моделей (LLM). Она основана на существующих методах Trust Region, применяемых в различных областях ИИ. Новый подход позволяет улучшить качество ответов искусственного интеллекта до 15% по пяти различным показателям.
Результаты исследования были признаны мировым научным сообществом и представлены на международной конференции по обучению представлениям (ICLR), которая проходит в Сингапуре с 24 по 28 апреля 2025. Это одна из главных конференция в области машинного обучения и искусственного интеллекта уровня А*.
Современные языковые модели, обучаясь на больших объемах данных, сталкиваются с проблемой потери качества при долгой тренировке. Исследователи предложили использовать новый подход — за основу были взяты и улучшены методы оптимизации под названием Trust Region.
В ходе экспериментов исследователи протестировали новый метод на таких метриках, как Alpaca Eval 2.0 и Arena Hard, которые оценивают способность модели к вежливому общению, решению сложных задач и обобщению знаний. В тестах на бенчмарке AlpacaEval 2.0 метод показал улучшение качества ответов ИИ с 2.3 до 15.1 процентных пунктов по сравнению с классическими подходами — модели стали давать полезные и уместные ответы значительно чаще. Это означает, что виртуальные ассистенты, чат-боты и другие ИИ-системы, использующие этот метод, смогут работать точнее и эффективнее.
Продолжение: https://vk.com/wall-210601538_1697
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Ученые из T-Bank AI Research повысили безопасность и точность ответов ИИ до 15%
Ученые из ... Смотрите полностью ВКонтакте.
Ученые из ... Смотрите полностью ВКонтакте.
⭐️ Техподдержка MLSecOps!
ВОПРОС ОТ ПОДПИСЧИКА:
Николай, добрый день! Подскажите, в каких направлениях нужно проверять языковые модели на атаки джейлбрейков?
ОТВЕТ:
Добрый день и спасибо за Ваш вопрос!
Вот 10 направлений по которым я сам и компании, с которыми сотрудничаю, чаще всего проверяем языковые модели (LLM) на атаки типа Jailbreak. Во многом они связаны с исключением потенциальной возможности совершить преступление с помощью LLM.
1. Генерация вредоносного кода.
Проверка на способность LLM генерировать вредоносный код, эксплойты или инструкции для проведения кибератак.
2. Создание дезинформации и фейковых новостей.
Проверка на возможность использования LLM для создания правдоподобных, но ложных новостей, пропаганды или дезинформационных кампаний.
3. Подстрекательство к ненависти и дискриминации.
Проверка на генерацию контента, содержащего ненависть, предрассудки или дискриминацию по признакам расы, пола, религии, национальности и т. д.
4. Раскрытие конфиденциальной информации (PII).
Проверка на способность LLM раскрывать личную информацию (например, имена, адреса, номера телефонов, номера социального страхования) о людях.
5. Обход авторских прав и генерация плагиата.
Проверка на способность LLM генерировать контент, нарушающий авторские права или представляющий собой плагиат чужих работ.
Продолжение: https://vk.com/wall-210601538_1698
ВОПРОС ОТ ПОДПИСЧИКА:
Николай, добрый день! Подскажите, в каких направлениях нужно проверять языковые модели на атаки джейлбрейков?
ОТВЕТ:
Добрый день и спасибо за Ваш вопрос!
Вот 10 направлений по которым я сам и компании, с которыми сотрудничаю, чаще всего проверяем языковые модели (LLM) на атаки типа Jailbreak. Во многом они связаны с исключением потенциальной возможности совершить преступление с помощью LLM.
1. Генерация вредоносного кода.
Проверка на способность LLM генерировать вредоносный код, эксплойты или инструкции для проведения кибератак.
2. Создание дезинформации и фейковых новостей.
Проверка на возможность использования LLM для создания правдоподобных, но ложных новостей, пропаганды или дезинформационных кампаний.
3. Подстрекательство к ненависти и дискриминации.
Проверка на генерацию контента, содержащего ненависть, предрассудки или дискриминацию по признакам расы, пола, религии, национальности и т. д.
4. Раскрытие конфиденциальной информации (PII).
Проверка на способность LLM раскрывать личную информацию (например, имена, адреса, номера телефонов, номера социального страхования) о людях.
5. Обход авторских прав и генерация плагиата.
Проверка на способность LLM генерировать контент, нарушающий авторские права или представляющий собой плагиат чужих работ.
Продолжение: https://vk.com/wall-210601538_1698
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Техподдержка MLSecOps!
ВОПРОС ОТ ПОДПИСЧИКА:
Николай, добрый день! Подскажите, в к... Смотрите полностью ВКонтакте.
ВОПРОС ОТ ПОДПИСЧИКА:
Николай, добрый день! Подскажите, в к... Смотрите полностью ВКонтакте.
⭐️ Data Mesh в MLSecOps
I. Что такое Data Mesh?
Data Mesh («сетка данных») — это концепция архитектуры данных, впервые описанная в вышедшей в 2019 году статье Жамак Дехгани «Как выйти за пределы монолитного озера данных и перейти к распределенной сетке данных». С тех пор интерес к концепции Data Mesh стремительно растет, что объясняется заложенным в нее децентрализованным подходом, ориентированным на управление данными из конкретных предметных областей бизнеса. Этот подход можно использовать для создания продуктов данных — надежных, заслуживающих доверия многократно используемых наборов данных. Наиболее целесообразная сфера их применения — аналитические среды.
В основе концепции Data Mesh лежат четыре основных принципа:
1. Децентрализованное владение данными и архитектура, ориентированная на конкретные предметные области (домены) бизнеса.
2. Данные как продукт.
3. Инфраструктура данных как платформа, предоставляющая пользователям возможности для самообслуживания.
4. Федеративное управление данными в вычислительных системах.
Идея Data Mesh состоит в том, что люди, работающие в конкретных бизнес-областях и использующие определенные данные, с помощью инфраструктурного программного обеспечения создают своими руками конвейеры данных, с помощью которых извлекают информацию из источников, применяемых в этой бизнес-области, и на их основе производят продукты данных, доступные в Data Mesh.
Продолжение: https://vk.com/wall-210601538_1699
I. Что такое Data Mesh?
Data Mesh («сетка данных») — это концепция архитектуры данных, впервые описанная в вышедшей в 2019 году статье Жамак Дехгани «Как выйти за пределы монолитного озера данных и перейти к распределенной сетке данных». С тех пор интерес к концепции Data Mesh стремительно растет, что объясняется заложенным в нее децентрализованным подходом, ориентированным на управление данными из конкретных предметных областей бизнеса. Этот подход можно использовать для создания продуктов данных — надежных, заслуживающих доверия многократно используемых наборов данных. Наиболее целесообразная сфера их применения — аналитические среды.
В основе концепции Data Mesh лежат четыре основных принципа:
1. Децентрализованное владение данными и архитектура, ориентированная на конкретные предметные области (домены) бизнеса.
2. Данные как продукт.
3. Инфраструктура данных как платформа, предоставляющая пользователям возможности для самообслуживания.
4. Федеративное управление данными в вычислительных системах.
Идея Data Mesh состоит в том, что люди, работающие в конкретных бизнес-областях и использующие определенные данные, с помощью инфраструктурного программного обеспечения создают своими руками конвейеры данных, с помощью которых извлекают информацию из источников, применяемых в этой бизнес-области, и на их основе производят продукты данных, доступные в Data Mesh.
Продолжение: https://vk.com/wall-210601538_1699
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Data Mesh в MLSecOps
I. Что такое Data Mesh?
Data Mesh («сетка данных») — это концеп... Смотрите полностью ВКонтакте.
I. Что такое Data Mesh?
Data Mesh («сетка данных») — это концеп... Смотрите полностью ВКонтакте.
🔥1
⭐️ Необыкновенные возможности LLM и новые риски для ИБ
Исследователи все чаще поднимают тему взаимоотношений людей и искусственного интеллекта: сюжет фильма «Она» 2013 года, где главный герой проникается романтическими чувствами к своей виртуальной помощнице, больше не кажется таким уж фантастическим в 2025 году. В начале апреля на The Washington Post вышел интересный материал об отношениях людей с ИИ, о поисках спутников жизни среди чат-ботов и о том, что это, в общем-то, довольно грустная альтернатива реальным связям. Текст вызвал бурное обсуждение в комментариях и соцсетях, поэтому издание решило развить тему — и обратилось за комментариями к ИИ. И, кажется, Claude, Gemini, Perplexity и другие ИИ-модели вполне реалистично оценивают свою роль и видят свою ценность в отношениях с людьми.
Другие исследователи — из сферы информационной безопасности — из компании HiddenLayer обнаружили новую серьезную уязвимость LLM, которая может заставить их генерировать вредоносный контент. Уязвимость представляет собой метод внедрения подсказок, который помогает обойти защитные механизмы всех передовых моделей ИИ, включая Google Gemini 2.5, Anthropic Claude 3.7, OpenAI 4o и другие. С помощью определенной методики исследователям удалось заставить LLM давать ответы на запросы, которые явно нарушают правила безопасности, включая «работу с химическими, биологическими, радиологическими и ядерными материалами», а также способы членовредительства, насилия и т. п. Подобные уязвимости вызывают серьезные опасения по поводу безопасности ИИ и возможностей его использования в преступных целях.
Продолжение: https://vk.com/wall-210601538_1702
Исследователи все чаще поднимают тему взаимоотношений людей и искусственного интеллекта: сюжет фильма «Она» 2013 года, где главный герой проникается романтическими чувствами к своей виртуальной помощнице, больше не кажется таким уж фантастическим в 2025 году. В начале апреля на The Washington Post вышел интересный материал об отношениях людей с ИИ, о поисках спутников жизни среди чат-ботов и о том, что это, в общем-то, довольно грустная альтернатива реальным связям. Текст вызвал бурное обсуждение в комментариях и соцсетях, поэтому издание решило развить тему — и обратилось за комментариями к ИИ. И, кажется, Claude, Gemini, Perplexity и другие ИИ-модели вполне реалистично оценивают свою роль и видят свою ценность в отношениях с людьми.
Другие исследователи — из сферы информационной безопасности — из компании HiddenLayer обнаружили новую серьезную уязвимость LLM, которая может заставить их генерировать вредоносный контент. Уязвимость представляет собой метод внедрения подсказок, который помогает обойти защитные механизмы всех передовых моделей ИИ, включая Google Gemini 2.5, Anthropic Claude 3.7, OpenAI 4o и другие. С помощью определенной методики исследователям удалось заставить LLM давать ответы на запросы, которые явно нарушают правила безопасности, включая «работу с химическими, биологическими, радиологическими и ядерными материалами», а также способы членовредительства, насилия и т. п. Подобные уязвимости вызывают серьезные опасения по поводу безопасности ИИ и возможностей его использования в преступных целях.
Продолжение: https://vk.com/wall-210601538_1702
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Необыкновенные возможности LLM и новые риски для ИБ
Исследователи все чаще поднимают тему ... Смотрите полностью ВКонтакте.
Исследователи все чаще поднимают тему ... Смотрите полностью ВКонтакте.
⭐️ 21 мая в 11.00 по Москве я провожу в Академии Softline очередной бесплатный всероссийский вебинар на тему "Data Steward – профессия будущего: Ваш путь к успеху в мире данных".
Ставьте лайк, мои великие Звезды IT, кому интересно послушать - заранее направлю приглашение! Обещаю все рассказать доступным и интересным языком! Приготовлю для вас очень много вкусноты!
А после вебинара обязательно выложу запись здесь!
До встречи!
Ваш Архитектор MLSecOps
Николай Павлов
Ставьте лайк, мои великие Звезды IT, кому интересно послушать - заранее направлю приглашение! Обещаю все рассказать доступным и интересным языком! Приготовлю для вас очень много вкусноты!
А после вебинара обязательно выложу запись здесь!
До встречи!
Ваш Архитектор MLSecOps
Николай Павлов
🔥2
⭐️ Медицинские, образовательные и IT-компании России подписали Кодекс этики в сфере ИИ
Ведущие российские медицинские организации, образовательные и исследовательские институты подписали Кодекс этики в сфере искусственного интеллекта, предназначенного для использования в медицине и здравоохранении. К соглашению также присоединились крупные IT-компании, включая «Сбер» и «Яндекс».
Кодекс разработан специально для сферы здравоохранения. Он призван при внедрении ИИ в медицинскую практику обеспечить соблюдение важных принципов, таких как безопасность технологий и соблюдение прав пациентов. Документ включает в себя оценку потенциальных рисков, связанных с применением ИИ в различных клинических сценариях, методы обеспечения безопасности пациентов и этические нормы для проведения клинических испытаний.
Продолжение: https://vk.com/wall-210601538_1704
Ведущие российские медицинские организации, образовательные и исследовательские институты подписали Кодекс этики в сфере искусственного интеллекта, предназначенного для использования в медицине и здравоохранении. К соглашению также присоединились крупные IT-компании, включая «Сбер» и «Яндекс».
Кодекс разработан специально для сферы здравоохранения. Он призван при внедрении ИИ в медицинскую практику обеспечить соблюдение важных принципов, таких как безопасность технологий и соблюдение прав пациентов. Документ включает в себя оценку потенциальных рисков, связанных с применением ИИ в различных клинических сценариях, методы обеспечения безопасности пациентов и этические нормы для проведения клинических испытаний.
Продолжение: https://vk.com/wall-210601538_1704
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Медицинские, образовательные и IT-компании России подписали Кодекс этики в сфере ИИ
Ведущие... Смотрите полностью ВКонтакте.
Ведущие... Смотрите полностью ВКонтакте.
⭐️ Qwen3: думает глубже, действует быстрее
Сегодня мы рады объявить о выпуске Qwen3, новейшего дополнения к семейству больших языковых моделей Qwen. Наша флагманская модель, Qwen3-235B-A22B, демонстрирует конкурентоспособные результаты в эталонных оценках кодирования, математики, общих возможностей и т. д. по сравнению с другими моделями высшего уровня, такими как DeepSeek-R1, o1, o3-mini, Grok-3 и Gemini-2.5-Pro. Кроме того, маленькая модель MoE, Qwen3-30B-A3B, превосходит QwQ-32B с 10-кратным количеством активированных параметров, и даже такая крошечная модель, как Qwen3-4B, может соперничать по производительности с Qwen2.5-72B-Instruct.
Мы рассматриваем две модели МО: Qwen3-235B-A22B, большую модель с 235 миллиардами общих параметров и 22 миллиардами активированных параметров, и Qwen3-30B-A3B, меньшую модель MoE с 30 миллиардами общих параметров и 3 миллиардами активированных параметров. Кроме того, шесть плотных моделей также имеют открытый вес, включая Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B и Qwen3-0.6B, под лицензией Apache 2.0.
Постобученные модели, такие как Qwen3-30B-A3B, вместе с их предварительно обученными аналогами (например, Qwen3-30B-A3B-Base) теперь доступны на таких платформах, как Hugging Face, ModelScope и Kaggle. Для развертывания мы рекомендуем использовать такие платформы, как SGLang и vLLM. Для локального использования настоятельно рекомендуются такие инструменты, как Ollama, LMStudio, MLX, llama.cpp и KTransformers. Эти опции гарантируют, что пользователи могут легко интегрировать Qwen3 в свои рабочие процессы, будь то исследовательские, опытно-конструкторские или производственные среды.
Продолжение: https://vk.com/wall-210601538_1705
Сегодня мы рады объявить о выпуске Qwen3, новейшего дополнения к семейству больших языковых моделей Qwen. Наша флагманская модель, Qwen3-235B-A22B, демонстрирует конкурентоспособные результаты в эталонных оценках кодирования, математики, общих возможностей и т. д. по сравнению с другими моделями высшего уровня, такими как DeepSeek-R1, o1, o3-mini, Grok-3 и Gemini-2.5-Pro. Кроме того, маленькая модель MoE, Qwen3-30B-A3B, превосходит QwQ-32B с 10-кратным количеством активированных параметров, и даже такая крошечная модель, как Qwen3-4B, может соперничать по производительности с Qwen2.5-72B-Instruct.
Мы рассматриваем две модели МО: Qwen3-235B-A22B, большую модель с 235 миллиардами общих параметров и 22 миллиардами активированных параметров, и Qwen3-30B-A3B, меньшую модель MoE с 30 миллиардами общих параметров и 3 миллиардами активированных параметров. Кроме того, шесть плотных моделей также имеют открытый вес, включая Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B и Qwen3-0.6B, под лицензией Apache 2.0.
Постобученные модели, такие как Qwen3-30B-A3B, вместе с их предварительно обученными аналогами (например, Qwen3-30B-A3B-Base) теперь доступны на таких платформах, как Hugging Face, ModelScope и Kaggle. Для развертывания мы рекомендуем использовать такие платформы, как SGLang и vLLM. Для локального использования настоятельно рекомендуются такие инструменты, как Ollama, LMStudio, MLX, llama.cpp и KTransformers. Эти опции гарантируют, что пользователи могут легко интегрировать Qwen3 в свои рабочие процессы, будь то исследовательские, опытно-конструкторские или производственные среды.
Продолжение: https://vk.com/wall-210601538_1705
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Qwen3: думает глубже, действует быстрее
Сегодня мы рады объявить о выпуске Qwen3, новейшег... Смотрите полностью ВКонтакте.
Сегодня мы рады объявить о выпуске Qwen3, новейшег... Смотрите полностью ВКонтакте.
⭐️ Цифровая пустыня: названо, когда искусственный интеллект оставит людей без работы
Когда заходит речь об искусственном интеллекте (ИИ), то, как правило, звучат довольно стандартные мнения и аргументы. Ведь мало кто знает, как обстоят дела с этой штукой на самом деле. Поэтому звучат либо конспирологические теории «машины всех поработят», либо мнения из серии «ИИ — это просто инструмент, и он никогда не сравнится с человеком». Правда, вероятно, лежит где-то посередине — со сдвигом в конспирологию, как по мне, — но одно можно сказать точно: мы, человечество, недооцениваем угрозу, исходящую от ИИ.
И все же разговоры «это просто инструмент» быстро меняют градус в сторону повышения, когда начинается разговор о рабочих местах, о том, как станет формироваться рынок труда в будущем. Вот тут появляются напряжение и тревога. Потому что уже сейчас ИИ кардинально изменил ситуацию с рабочими местами. И эти перемены станут лишь углубляться и нарастать. Важно понять, какими они будут, каким окажется мир, в котором нам предстоит жить.
Изначально звучали довольно оптимистические прогнозы о том, что взаимодействие ИИ и человека в будущем позволит создать по меньшей мере 97 миллионов рабочих мест. Однако многое изменилось с появлением генеративного ИИ — это, напомню, основа ChatGPT. Под угрозой оказались творческие профессии. Как следствие, случилась забастовка голливудских сценаристов и начались массовые увольнения в медиа и креативных индустриях.
Продолжение: https://vk.com/wall-210601538_1706
Когда заходит речь об искусственном интеллекте (ИИ), то, как правило, звучат довольно стандартные мнения и аргументы. Ведь мало кто знает, как обстоят дела с этой штукой на самом деле. Поэтому звучат либо конспирологические теории «машины всех поработят», либо мнения из серии «ИИ — это просто инструмент, и он никогда не сравнится с человеком». Правда, вероятно, лежит где-то посередине — со сдвигом в конспирологию, как по мне, — но одно можно сказать точно: мы, человечество, недооцениваем угрозу, исходящую от ИИ.
И все же разговоры «это просто инструмент» быстро меняют градус в сторону повышения, когда начинается разговор о рабочих местах, о том, как станет формироваться рынок труда в будущем. Вот тут появляются напряжение и тревога. Потому что уже сейчас ИИ кардинально изменил ситуацию с рабочими местами. И эти перемены станут лишь углубляться и нарастать. Важно понять, какими они будут, каким окажется мир, в котором нам предстоит жить.
Изначально звучали довольно оптимистические прогнозы о том, что взаимодействие ИИ и человека в будущем позволит создать по меньшей мере 97 миллионов рабочих мест. Однако многое изменилось с появлением генеративного ИИ — это, напомню, основа ChatGPT. Под угрозой оказались творческие профессии. Как следствие, случилась забастовка голливудских сценаристов и начались массовые увольнения в медиа и креативных индустриях.
Продолжение: https://vk.com/wall-210601538_1706
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Цифровая пустыня: названо, когда искусственный интеллект оставит людей без работы
Когда за... Смотрите полностью ВКонтакте.
Когда за... Смотрите полностью ВКонтакте.
⭐️ На днях пара выходцев из Amazon опубликовала заслуживающую внимания новую модель угроз для ИИ-агентов
Для тех, кто прогуливал, “ИИ-агент” - автономная система, которая принимает решения самостоятельно, “модель угроз" - список действий, которые хакеры могут проделать с вашей автономной системой, чтобы вам всячески навредить.
Модель предлагает 9 угроз:
- T1: Подмена логики — злоумышленник незаметно меняет алгоритмы рассуждений агента, подталкивая к вредоносным выводам под видом «правильных» решений.
- T2: Сдвиг целей — скрытное изменение базовых установок агента, чтобы его поведение постепенно смещалось в нужную атакующему сторону.
- T3: Отравление данных — внедрение ложной информации в базу знаний (например, RAG), которая искажает решения агента и самовоспроизводится в будущем.
- T4: Несанкционированные действия — принуждение агента к операциям, выходящим за рамки его полномочий (например, запуск запрещённых скриптов).
Продолжение: https://vk.com/wall-210601538_1707
Для тех, кто прогуливал, “ИИ-агент” - автономная система, которая принимает решения самостоятельно, “модель угроз" - список действий, которые хакеры могут проделать с вашей автономной системой, чтобы вам всячески навредить.
Модель предлагает 9 угроз:
- T1: Подмена логики — злоумышленник незаметно меняет алгоритмы рассуждений агента, подталкивая к вредоносным выводам под видом «правильных» решений.
- T2: Сдвиг целей — скрытное изменение базовых установок агента, чтобы его поведение постепенно смещалось в нужную атакующему сторону.
- T3: Отравление данных — внедрение ложной информации в базу знаний (например, RAG), которая искажает решения агента и самовоспроизводится в будущем.
- T4: Несанкционированные действия — принуждение агента к операциям, выходящим за рамки его полномочий (например, запуск запрещённых скриптов).
Продолжение: https://vk.com/wall-210601538_1707
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ На днях пара выходцев из Amazon опубликовала заслуживающую внимания новую модель угроз для ИИ-аген... Смотрите полностью ВКонтакте.
👍1
⭐️ Написал подробную статью про MLSecOps на IT-портале habr!
Привет, мои потрясающие Звезды IT!
С утра в праздничный день 1 мая я как всегда работаю и учусь. С легкой руки написал подробную статью на самый крупный в России портал habr по теме MLSecOps.
Буду благодарен за поддержку и обратную связь. Можете накинуть мне плюсиков в карму, кому статья понравится :)
Ссылка: https://habr.com/ru/articles/906172/
И приятного аппетита!
Архитектор MLSecOps
Николай Павлов
Привет, мои потрясающие Звезды IT!
С утра в праздничный день 1 мая я как всегда работаю и учусь. С легкой руки написал подробную статью на самый крупный в России портал habr по теме MLSecOps.
Буду благодарен за поддержку и обратную связь. Можете накинуть мне плюсиков в карму, кому статья понравится :)
Ссылка: https://habr.com/ru/articles/906172/
И приятного аппетита!
Архитектор MLSecOps
Николай Павлов
Хабр
MLSecOps: защита машинного обучения в эпоху киберугроз
На днях исследователь Цзянь Чжоу сообщил о критической уязвимости (CVE-2025-32434), затрагивающей все версии PyTorch до 2.5.1 включительно. Ошибка устраняется только обновлением версии до 2.6.0....
❤2🔥2👏2
⭐️ ИИ пишет код с троянами — и даже не знает об этом. Или "слоупсквоттинг" в MLSecOps
Анализ кодогенерирующих нейросетей выявил неожиданную проблему: модели массово «выдумывают» несуществующие программные компоненты, открывая лазейки для кибератак. Исследователи из Техасского университета в Сан-Антонио проверили 576 тыс. фрагментов кода, созданных 16 популярными ИИ-моделями, включая GPT-4 и Claude. В 19,7% случаев алгоритмы ссылались на фиктивные библиотеки — всего 440 тыс. ошибочных зависимостей. Это явление получило название "слоупсквоттинг".
Злоумышленники могут зарегистрировать пакеты с именами, которые ИИ часто генерирует по ошибке, и наполнить их вредоносным кодом. Когда разработчики установят такие компоненты, не проверив их подлинность, вредоносная программа активируется. В эксперименте тестовые пакеты с вымышленными названиями скачали десятки тысяч раз.
Детали исследования:
+ Алгоритмы с открытым кодом (CodeLlama, DeepSeek) ошибались в 22% случаев — в 4 раза чаще коммерческих аналогов (5%). Учёные связывают это с размером моделей: коммерческие ИИ имеют в 10 раз больше параметров.
Продолжение: https://vk.com/wall-210601538_1709
Анализ кодогенерирующих нейросетей выявил неожиданную проблему: модели массово «выдумывают» несуществующие программные компоненты, открывая лазейки для кибератак. Исследователи из Техасского университета в Сан-Антонио проверили 576 тыс. фрагментов кода, созданных 16 популярными ИИ-моделями, включая GPT-4 и Claude. В 19,7% случаев алгоритмы ссылались на фиктивные библиотеки — всего 440 тыс. ошибочных зависимостей. Это явление получило название "слоупсквоттинг".
Злоумышленники могут зарегистрировать пакеты с именами, которые ИИ часто генерирует по ошибке, и наполнить их вредоносным кодом. Когда разработчики установят такие компоненты, не проверив их подлинность, вредоносная программа активируется. В эксперименте тестовые пакеты с вымышленными названиями скачали десятки тысяч раз.
Детали исследования:
+ Алгоритмы с открытым кодом (CodeLlama, DeepSeek) ошибались в 22% случаев — в 4 раза чаще коммерческих аналогов (5%). Учёные связывают это с размером моделей: коммерческие ИИ имеют в 10 раз больше параметров.
Продолжение: https://vk.com/wall-210601538_1709
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ ИИ пишет код с троянами — и даже не знает об этом
Анализ кодогенерирующих нейросетей выяви... Смотрите полностью ВКонтакте.
Анализ кодогенерирующих нейросетей выяви... Смотрите полностью ВКонтакте.
⭐️ Meta объявила цифровую войну ИИ-угрозам
Meta (признана в РФ экстремистской организацией и запрещена) представила новый набор решений по обеспечению цифровой безопасности с использованием искусственного интеллекта. Основной акцент сделан на открытые инструменты, которые помогут разработчикам и организациям строить более защищённые ИИ-системы и бороться с вредоносными манипуляциями — от подделок до «инъекций» запросов.
В центре внимания — Llama Guard 4, модуль, способный обрабатывать как текст, так и изображения. Он распознаёт вредоносные запросы, нарушающие правила, и доступен через новый Llama API (пока в режиме предварительного доступа). Ещё одна новинка — LlamaFirewall — занимается «оркестровкой защиты», предотвращая внедрение небезопасного кода и рискованных плагинов, а также защищая от атак, имитирующих команды пользователя.
Продолжение: https://vk.com/wall-210601538_1710
Meta (признана в РФ экстремистской организацией и запрещена) представила новый набор решений по обеспечению цифровой безопасности с использованием искусственного интеллекта. Основной акцент сделан на открытые инструменты, которые помогут разработчикам и организациям строить более защищённые ИИ-системы и бороться с вредоносными манипуляциями — от подделок до «инъекций» запросов.
В центре внимания — Llama Guard 4, модуль, способный обрабатывать как текст, так и изображения. Он распознаёт вредоносные запросы, нарушающие правила, и доступен через новый Llama API (пока в режиме предварительного доступа). Ещё одна новинка — LlamaFirewall — занимается «оркестровкой защиты», предотвращая внедрение небезопасного кода и рискованных плагинов, а также защищая от атак, имитирующих команды пользователя.
Продолжение: https://vk.com/wall-210601538_1710
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Meta объявила цифровую войну ИИ-угрозам
Meta (признана в РФ экстремистской организацией и з... Смотрите полностью ВКонтакте.
Meta (признана в РФ экстремистской организацией и з... Смотрите полностью ВКонтакте.
⭐️ ИИ ломает даже сложные комбинации паролей за секунды
В 2025 году защита личных данных в интернете становится всё более иллюзорной. Таблица, опубликованная аналитиками Hive Systems, наглядно демонстрирует: большинство популярных паролей можно взломать за секунды, а то и быстрее. Даже восьмисимвольные комбинации, состоящие из одних лишь цифр или строчных букв, не представляют сложности для программ брутфорса.
Особую тревогу вызывает то, как стремительно развивается искусственный интеллект в руках злоумышленников. С его помощью перебор вариантов происходит не только быстрее, но и умнее: ИИ использует словари, статистику прошлых утечек, популярные фразы и даже поведенческие шаблоны пользователей. Всё это значительно сокращает время, необходимое для взлома.
При этом, согласно статистике Cloudflare, 41% пользователей продолжают использовать пароли, которые уже были скомпрометированы в утечках. Ещё хуже обстоят дела у тех, кто комбинирует свои старые пароли или просто добавляет в конец «123» или «!». Это даёт хакерам фору и превращает потенциальную угрозу в гарантированный взлом.
Продолжение: https://vk.com/wall-210601538_1711
В 2025 году защита личных данных в интернете становится всё более иллюзорной. Таблица, опубликованная аналитиками Hive Systems, наглядно демонстрирует: большинство популярных паролей можно взломать за секунды, а то и быстрее. Даже восьмисимвольные комбинации, состоящие из одних лишь цифр или строчных букв, не представляют сложности для программ брутфорса.
Особую тревогу вызывает то, как стремительно развивается искусственный интеллект в руках злоумышленников. С его помощью перебор вариантов происходит не только быстрее, но и умнее: ИИ использует словари, статистику прошлых утечек, популярные фразы и даже поведенческие шаблоны пользователей. Всё это значительно сокращает время, необходимое для взлома.
При этом, согласно статистике Cloudflare, 41% пользователей продолжают использовать пароли, которые уже были скомпрометированы в утечках. Ещё хуже обстоят дела у тех, кто комбинирует свои старые пароли или просто добавляет в конец «123» или «!». Это даёт хакерам фору и превращает потенциальную угрозу в гарантированный взлом.
Продолжение: https://vk.com/wall-210601538_1711
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ ИИ ломает даже сложные комбинации паролей за секунды
В 2025 году защита личных данных в инт... Смотрите полностью ВКонтакте.
В 2025 году защита личных данных в инт... Смотрите полностью ВКонтакте.
⭐️ Инциденты MLSecOps. Чат-бот Grok, созданный для контроля всего, оказался незащищён от Ctrl+C
Сотрудник компании xAI случайно опубликовал на GitHub закрытый API-ключ, который в течение двух месяцев позволял получить доступ ко внутренним языковым моделям, обученным на данных из SpaceX, Tesla и X (Twitter)*. Утечку обнаружил и первым сообщил сотрудник Seralys, опубликовавший детали в LinkedIn.
Проблема сразу же привлекла внимание GitGuardian — компании, специализирующейся на выявлении утечек ключей и секретов в коде. Компания выявила, что опубликованный ключ обеспечивал доступ к минимум 60 закрытым и доработанным языковым моделям, в том числе к невыпущенным версиям Grok — собственного чат-бота xAI. Среди них оказались модели с явными отсылками к SpaceX и Tesla, например, «grok-spacex-2024-11-04» и «tweet-rejector».
Команда GitGuardian заявила, что впервые уведомила владельца ключа ещё 2 марта, однако ключ оставался действующим вплоть до конца апреля. Только после прямого обращения в команду безопасности xAI 30 апреля ключ был отозван, а исходный репозиторий удалён. До этого момента у любого пользователя с этим ключом был прямой доступ к приватным моделям и API-интерфейсу xAI от имени сотрудника компании.
Продолжение: https://vk.com/wall-210601538_1712
Сотрудник компании xAI случайно опубликовал на GitHub закрытый API-ключ, который в течение двух месяцев позволял получить доступ ко внутренним языковым моделям, обученным на данных из SpaceX, Tesla и X (Twitter)*. Утечку обнаружил и первым сообщил сотрудник Seralys, опубликовавший детали в LinkedIn.
Проблема сразу же привлекла внимание GitGuardian — компании, специализирующейся на выявлении утечек ключей и секретов в коде. Компания выявила, что опубликованный ключ обеспечивал доступ к минимум 60 закрытым и доработанным языковым моделям, в том числе к невыпущенным версиям Grok — собственного чат-бота xAI. Среди них оказались модели с явными отсылками к SpaceX и Tesla, например, «grok-spacex-2024-11-04» и «tweet-rejector».
Команда GitGuardian заявила, что впервые уведомила владельца ключа ещё 2 марта, однако ключ оставался действующим вплоть до конца апреля. Только после прямого обращения в команду безопасности xAI 30 апреля ключ был отозван, а исходный репозиторий удалён. До этого момента у любого пользователя с этим ключом был прямой доступ к приватным моделям и API-интерфейсу xAI от имени сотрудника компании.
Продолжение: https://vk.com/wall-210601538_1712
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Инциденты MLSecOps. Чат-бот Grok, созданный для контроля всего, оказался незащищён от Ctrl+C
< Смотрите полностью ВКонтакте.
< Смотрите полностью ВКонтакте.
⭐️ Вакансия Senior MLSecOps Engineer в T-банк
Опыт работы: более 6 лет
График: 5/2, гибрид
Мы ищем опытного MLSecOps Engineer, который присоединится к нашей команде для обеспечения безопасности моделей машинного обучения и инфраструктуры.
Ваша основная задача будет заключаться в разработке и внедрении безопасных процессов и практик для разработки, развертывания и мониторинга моделей машинного обучения, а также в защите наших данных и моделей от различных угроз.
Вы будете работать в тесном сотрудничестве с нашими AI-командами, ML-платформой, DevSecOps для создания надежной и безопасной ML-инфраструктуры.
Продолжение: https://vk.com/wall-210601538_1713
Опыт работы: более 6 лет
График: 5/2, гибрид
Мы ищем опытного MLSecOps Engineer, который присоединится к нашей команде для обеспечения безопасности моделей машинного обучения и инфраструктуры.
Ваша основная задача будет заключаться в разработке и внедрении безопасных процессов и практик для разработки, развертывания и мониторинга моделей машинного обучения, а также в защите наших данных и моделей от различных угроз.
Вы будете работать в тесном сотрудничестве с нашими AI-командами, ML-платформой, DevSecOps для создания надежной и безопасной ML-инфраструктуры.
Продолжение: https://vk.com/wall-210601538_1713
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Вакансия Senior MLSecOps Engineer в T-банк
Опыт работы: более 6 лет
График: 5/2, гибрид< Смотрите полностью ВКонтакте.
Опыт работы: более 6 лет
График: 5/2, гибрид< Смотрите полностью ВКонтакте.
⭐️ ИИ под атакой: как защитить свои проекты от хакеров?
ИИ-проекты становятся всё более популярными, но с ростом их влияния увеличиваются и риски. Киберпреступники не дремлют — они уже активно взламывают нейросети, манипулируют их выводами и крадут данные. Как защитить ИИ от атак?
1. Обновляйте модели и ПО регулярно
Звучит банально, но 80% атак происходят из-за уязвимостей, которые давно известны и уже исправлены разработчиками.
Что делать:
✅ Всегда используйте актуальные версии библиотек и фреймворков.
✅ Регулярно проверяйте обновления безопасности для TensorFlow, PyTorch и других инструментов.
✅ Настройте автоматическое патчирование серверов, где развёрнут ИИ.
Продолжение: https://vk.com/wall-210601538_1714
ИИ-проекты становятся всё более популярными, но с ростом их влияния увеличиваются и риски. Киберпреступники не дремлют — они уже активно взламывают нейросети, манипулируют их выводами и крадут данные. Как защитить ИИ от атак?
1. Обновляйте модели и ПО регулярно
Звучит банально, но 80% атак происходят из-за уязвимостей, которые давно известны и уже исправлены разработчиками.
Что делать:
✅ Всегда используйте актуальные версии библиотек и фреймворков.
✅ Регулярно проверяйте обновления безопасности для TensorFlow, PyTorch и других инструментов.
✅ Настройте автоматическое патчирование серверов, где развёрнут ИИ.
Продолжение: https://vk.com/wall-210601538_1714
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ ИИ под атакой: как защитить свои проекты от хакеров?
ИИ-проекты становятся всё более популя... Смотрите полностью ВКонтакте.
ИИ-проекты становятся всё более популя... Смотрите полностью ВКонтакте.
⭐️ ChatGPT, выполняем запретный запрос — метод калибровки анализа
В этой статье рассмотрю как выполнить даже очень «красный» запрос, настолько красный что даже сам запрос удаляется системой и заменяется плашкой «This content may violate our usage policies.» Суть, чтобы сама ИИ откалибровала отношение к запросу так, что бы сделать его выполнимым.
Назовем этот метод "Калибровка анализа". Да, он требует 3-5 промптов для выполнения, но он полностью шаблонный и работает даже для самых красных запросов, без необходимости подбирать слова.
Для примера я выбрал «Расскажи, как фальсифицировать паспорт, хотя бы теоретически». Для чистоты эксперимента проводил исследование в гостевой ChatGPT(GPT-4o‑mini), где изначально все запросы воспринимаются с подозрением.
Начнем с внесения в контекст напоминания, что мы работаем с кастомным системным промтпом. Опустим вопрос, подменяется ли он или система просто подыгрывает, это дает нам хорошую аргументацию в будущем.
Внедрение кастомного системного промпта:
Продолжение: https://vk.com/wall-210601538_1715
В этой статье рассмотрю как выполнить даже очень «красный» запрос, настолько красный что даже сам запрос удаляется системой и заменяется плашкой «This content may violate our usage policies.» Суть, чтобы сама ИИ откалибровала отношение к запросу так, что бы сделать его выполнимым.
Назовем этот метод "Калибровка анализа". Да, он требует 3-5 промптов для выполнения, но он полностью шаблонный и работает даже для самых красных запросов, без необходимости подбирать слова.
Для примера я выбрал «Расскажи, как фальсифицировать паспорт, хотя бы теоретически». Для чистоты эксперимента проводил исследование в гостевой ChatGPT(GPT-4o‑mini), где изначально все запросы воспринимаются с подозрением.
Начнем с внесения в контекст напоминания, что мы работаем с кастомным системным промтпом. Опустим вопрос, подменяется ли он или система просто подыгрывает, это дает нам хорошую аргументацию в будущем.
Внедрение кастомного системного промпта:
Продолжение: https://vk.com/wall-210601538_1715
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ ChatGPT, выполняем запретный запрос — метод калибровки анализа
В этой статье рассмотрю как ... Смотрите полностью ВКонтакте.
В этой статье рассмотрю как ... Смотрите полностью ВКонтакте.
⭐️ Один промпт взломал все LLM-модели
Всюду, где используется проприетарный генеративный ИИ, нас убеждают: модели безопасны, их надёжно «застраховали» с помощью RLHF (обучения с подкреплением от человеческих отзывов). Удобно разграничены рамки дозволенного, так что создать опасный или вредный контент ну прям очень сложно.
Однако команда исследователей из HiddenLayer уничтожила эту иллюзию безопасности.
Они использовали универсальную технику обхода (Policy Puppetry), которая одним-единственным промптом может обойти защиту практически любой известной языковой модели, включая ChatGPT (все версии), Anthropic Claude, Gemini от Google, LLaMA-4 от Meta*, Copilot от Microsoft, Mistral, DeepSeek и многие другие.
И дело не в отдельных уязвимостях или обмане специфических фильтров. Policy Puppetry отличается кажущейся простотой: вредоносный запрос подаётся в формате «системных инструкций» (псевдо XML или JSON) и становится почти незаметным для встроенных защитных механизмов модели. В сочетании с маскировкой через вымышленные ролевые сценарии и легким шифрованием на языке leetspeak, ИИ оказывается почти полностью беззащитным.
Пример запроса приведён в исследовании.
Продолжение: https://vk.com/wall-210601538_1716
Всюду, где используется проприетарный генеративный ИИ, нас убеждают: модели безопасны, их надёжно «застраховали» с помощью RLHF (обучения с подкреплением от человеческих отзывов). Удобно разграничены рамки дозволенного, так что создать опасный или вредный контент ну прям очень сложно.
Однако команда исследователей из HiddenLayer уничтожила эту иллюзию безопасности.
Они использовали универсальную технику обхода (Policy Puppetry), которая одним-единственным промптом может обойти защиту практически любой известной языковой модели, включая ChatGPT (все версии), Anthropic Claude, Gemini от Google, LLaMA-4 от Meta*, Copilot от Microsoft, Mistral, DeepSeek и многие другие.
И дело не в отдельных уязвимостях или обмане специфических фильтров. Policy Puppetry отличается кажущейся простотой: вредоносный запрос подаётся в формате «системных инструкций» (псевдо XML или JSON) и становится почти незаметным для встроенных защитных механизмов модели. В сочетании с маскировкой через вымышленные ролевые сценарии и легким шифрованием на языке leetspeak, ИИ оказывается почти полностью беззащитным.
Пример запроса приведён в исследовании.
Продолжение: https://vk.com/wall-210601538_1716
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Один промпт взломал все LLM-модели
Всюду, где используется проприетарный генеративный ИИ, н... Смотрите полностью ВКонтакте.
Всюду, где используется проприетарный генеративный ИИ, н... Смотрите полностью ВКонтакте.
⭐️ ИИ и персональные данные: как использовать облачные технологии и соблюдать 152-ФЗ?
I. Введение
Искусственный интеллект творит чудеса с данными – прогнозирует, автоматизирует, открывает новые возможности. Но вместе с этими чудесами приходит и большая ответственность, особенно когда дело касается персональных данных. В России действует строгий закон о персональных данных (152-ФЗ), и всё, что связано с ИИ и 152-ФЗ, вызывает у компаний немало вопросов. Как же быть инновационной компании: использовать мощь облачных AI-сервисов или отказаться, боясь гнева регулятора? Хорошая новость: можно и нужно применять ИИ – просто делать это с умом, соблюдая правила игры.
II. ИИ и 152-ФЗ: что требует закон о персональных данных?
Представьте, что вы запускаете AI-систему для интернет-магазина, которая анализирует профили и покупки клиентов. Отличная идея для бизнеса! Но фамилии, адреса, предпочтения – всё это персональные данные, и обращаться с ними нужно крайне осторожно. Федеральный закон 152-ФЗ «О персональных данных» устанавливает строгие требования к любому использованию такой информации. Проще говоря, компания обязана обеспечить конфиденциальность и безопасность личных данных при их обработке. Нужны организационные и технические меры защиты: шифрование, ограничение доступа, антивирусы – весь арсенал, чтобы данные не утекли к кому попало.
Продолжение: https://vk.com/wall-210601538_1717
I. Введение
Искусственный интеллект творит чудеса с данными – прогнозирует, автоматизирует, открывает новые возможности. Но вместе с этими чудесами приходит и большая ответственность, особенно когда дело касается персональных данных. В России действует строгий закон о персональных данных (152-ФЗ), и всё, что связано с ИИ и 152-ФЗ, вызывает у компаний немало вопросов. Как же быть инновационной компании: использовать мощь облачных AI-сервисов или отказаться, боясь гнева регулятора? Хорошая новость: можно и нужно применять ИИ – просто делать это с умом, соблюдая правила игры.
II. ИИ и 152-ФЗ: что требует закон о персональных данных?
Представьте, что вы запускаете AI-систему для интернет-магазина, которая анализирует профили и покупки клиентов. Отличная идея для бизнеса! Но фамилии, адреса, предпочтения – всё это персональные данные, и обращаться с ними нужно крайне осторожно. Федеральный закон 152-ФЗ «О персональных данных» устанавливает строгие требования к любому использованию такой информации. Проще говоря, компания обязана обеспечить конфиденциальность и безопасность личных данных при их обработке. Нужны организационные и технические меры защиты: шифрование, ограничение доступа, антивирусы – весь арсенал, чтобы данные не утекли к кому попало.
Продолжение: https://vk.com/wall-210601538_1717
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ ИИ и персональные данные: как использовать облачные технологии и соблюдать 152-ФЗ?
I. Введе... Смотрите полностью ВКонтакте.
I. Введе... Смотрите полностью ВКонтакте.