⭐️ Теперь можно застраховать ответы ИИ, если они начнут вредить бизнесу
Компании, опасающиеся последствий ошибок искусственного интеллекта, теперь могут получить страховую защиту от его капризов — на рынке Lloyd’s of London запущен новый продукт, покрывающий убытки от сбоев и галлюцинаций ИИ-систем. Полис разработан стартапом Armilla, прошедшим акселерацию в Y Combinator, и уже одобрен рядом страховщиков Lloyd’s.
Новый вид страхования предназначен для организаций, которые используют ИИ в клиентском сервисе, маркетинге или операционной деятельности и рискуют попасть под суд, если их алгоритм допустит ошибку. Полис покрывает расходы на юридическую защиту и возможные компенсации в случае иска от клиентов или третьих лиц, пострадавших из-за неправильной работы ИИ.
Решение стало ответом на череду инцидентов, ставших достоянием общественности. Так, в январе Virgin Money пришлось извиняться после того, как их чат-бот отругал клиента за слово «virgin». Ранее курьерская служба DPD была вынуждена отключить часть своего бота, когда тот начал материться и назвал компанию «худшей службой доставки в мире». В другом случае трибунал обязал Air Canada выполнить фиктивную скидку, придуманную её ИИ-ассистентом.
По словам представителей Armilla, в случае с Air Canada потери от продажи билетов по заниженной цене могли бы быть покрыты новым страховым продуктом, если бы выяснилось, что бот действительно работал хуже заявленного уровня. В Armilla считают, что страховая защита поможет бизнесу смелее внедрять ИИ, снижая опасения по поводу юридических рисков. Сейчас многие компании отказываются от ИИ-решений именно из-за отсутствия механизмов компенсации потенциального вреда.
Продолжение: https://vk.com/wall-210601538_1732
Компании, опасающиеся последствий ошибок искусственного интеллекта, теперь могут получить страховую защиту от его капризов — на рынке Lloyd’s of London запущен новый продукт, покрывающий убытки от сбоев и галлюцинаций ИИ-систем. Полис разработан стартапом Armilla, прошедшим акселерацию в Y Combinator, и уже одобрен рядом страховщиков Lloyd’s.
Новый вид страхования предназначен для организаций, которые используют ИИ в клиентском сервисе, маркетинге или операционной деятельности и рискуют попасть под суд, если их алгоритм допустит ошибку. Полис покрывает расходы на юридическую защиту и возможные компенсации в случае иска от клиентов или третьих лиц, пострадавших из-за неправильной работы ИИ.
Решение стало ответом на череду инцидентов, ставших достоянием общественности. Так, в январе Virgin Money пришлось извиняться после того, как их чат-бот отругал клиента за слово «virgin». Ранее курьерская служба DPD была вынуждена отключить часть своего бота, когда тот начал материться и назвал компанию «худшей службой доставки в мире». В другом случае трибунал обязал Air Canada выполнить фиктивную скидку, придуманную её ИИ-ассистентом.
По словам представителей Armilla, в случае с Air Canada потери от продажи билетов по заниженной цене могли бы быть покрыты новым страховым продуктом, если бы выяснилось, что бот действительно работал хуже заявленного уровня. В Armilla считают, что страховая защита поможет бизнесу смелее внедрять ИИ, снижая опасения по поводу юридических рисков. Сейчас многие компании отказываются от ИИ-решений именно из-за отсутствия механизмов компенсации потенциального вреда.
Продолжение: https://vk.com/wall-210601538_1732
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Теперь можно застраховать ответы ИИ, если они начнут вредить бизнесу
Компании, опасающиеся... Смотрите полностью ВКонтакте.
Компании, опасающиеся... Смотрите полностью ВКонтакте.
⭐️ Рынок труда в информационной безопасности в России в 2024-2027 годах
Positive Technologies и ЦСР «Северо-Запад» представили доклад, в котором отразили возможный ландшафт рынка труда в сфере информационной безопасности в 2027 году. Также аналитики предложили некоторую систему рекомендаций для участников рынка ИБ.
Особенностью рынка труда в сфере информационной безопасности является сервисный характер ИБ по отношению к отраслям экономики. Это означает, что специалисты ИБ трудоустроены в основном не в специализированных организациях, а в компаниях-клиентах, действующих в различных отраслях экономики, а также в ИТ-компаниях, часто совмещающих разработку продуктов и оказание услуг в ИБ с другими направлениями в сфере ИТ.
Некоторые показатели:
+ в 2027 году число специалистов, занятых в сфере ИБ, может увеличиться с текущих 110 тыс. до 181–196 тыс. Ожидается, что дефицит в кадрах сократится до 29–33% от количества занятых с текущих 45%, но вырастет в абсолютном значении — с текущих 50 тыс. до 52–65 тыс. человек в 2027 году;
+ до 2030 года рынок труда в сфере ИБ может выйти на плато, что может быть связано как с исчерпанием трудовых ресурсов, так и с достижением потолка расходов на безопасность потребителей ИБ-продуктов и услуг;
+ основная причина роста — углубление разделения труда в секторе: усилится разделение труда и произойдет переход к четкой ролевой структуре, где большинство специалистов будет обладать достаточно узкими функциональными ролями. Рост количества и сложности киберугроз, переход на отечественное ПО, построение цифрового суверенитета, а также появление новых цифровых технологий, требующих защиты, будут способствовать росту востребованности ИБ-специалистов;
Продолжение: https://vk.com/wall-210601538_1733
Positive Technologies и ЦСР «Северо-Запад» представили доклад, в котором отразили возможный ландшафт рынка труда в сфере информационной безопасности в 2027 году. Также аналитики предложили некоторую систему рекомендаций для участников рынка ИБ.
Особенностью рынка труда в сфере информационной безопасности является сервисный характер ИБ по отношению к отраслям экономики. Это означает, что специалисты ИБ трудоустроены в основном не в специализированных организациях, а в компаниях-клиентах, действующих в различных отраслях экономики, а также в ИТ-компаниях, часто совмещающих разработку продуктов и оказание услуг в ИБ с другими направлениями в сфере ИТ.
Некоторые показатели:
+ в 2027 году число специалистов, занятых в сфере ИБ, может увеличиться с текущих 110 тыс. до 181–196 тыс. Ожидается, что дефицит в кадрах сократится до 29–33% от количества занятых с текущих 45%, но вырастет в абсолютном значении — с текущих 50 тыс. до 52–65 тыс. человек в 2027 году;
+ до 2030 года рынок труда в сфере ИБ может выйти на плато, что может быть связано как с исчерпанием трудовых ресурсов, так и с достижением потолка расходов на безопасность потребителей ИБ-продуктов и услуг;
+ основная причина роста — углубление разделения труда в секторе: усилится разделение труда и произойдет переход к четкой ролевой структуре, где большинство специалистов будет обладать достаточно узкими функциональными ролями. Рост количества и сложности киберугроз, переход на отечественное ПО, построение цифрового суверенитета, а также появление новых цифровых технологий, требующих защиты, будут способствовать росту востребованности ИБ-специалистов;
Продолжение: https://vk.com/wall-210601538_1733
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Рынок труда в информационной безопасности в России в 2024-2027 годах
Positive Technologies ... Смотрите полностью ВКонтакте.
Positive Technologies ... Смотрите полностью ВКонтакте.
⭐️ Security Week 2520: ИИ-отчеты о выдуманных уязвимостях
На прошлой неделе создатель и ведущий разработчик популярной утилиты cURL Дэниел Стенберг поделился примером бессмысленного отчета о несуществующей уязвимости, очевидно сгенерированного при помощи искусственного интеллекта. Стенберг раскритиковал подобную тактику; отметил, что он и его команда буквально завалены такими фейковыми отчетами, на которые приходится тратить время; и пообещал банить ИИ-исследователей в будущем, добавив: «Мы еще не видели ни одного реально полезного отчета, созданного с помощью ИИ».
Хотя примеры эффективного использования ИИ для поиска уязвимостей существуют (вот относительно свежий пример от Microsoft), в данном случае речь идет о феномене, известном как AI Slop: когда ИИ используется бездумно. Ответ на запрос типа «вот код, найди в нем уязвимость» с наибольшими шансами приведет к тому, что нейросеть просто придумает несуществующую проблему. Пример от разработчиков cURL представляет интерес тем, что один из таких отчетов выложили в общий доступ.
Мейнтейнеры cURL используют для работы с независимыми исследователями платформу HackerOne, через которую и был подан отчет о фейковой уязвимости; его можно найти здесь. Отчет якобы содержит информацию об уязвимости при работе с протоколом HTTP/3. В качестве примера эксплуатации предлагается создать вредоносный сервер, использующий модифицированную библиотеку aioquic. При обращении к серверу с помощью утилиты cURL уязвимость, по идее, должна вызывать повреждение памяти.
Выглядит эта уязвимость достаточно правдоподобно. В интервью изданию Ars Technica Стенберг отмечает, что подобные отчеты всегда оформлены по высшему разряду и добавляет, что настоящие сообщения о реально существующих уязвимостях никогда такой аккуратностью не отличаются.
Продолжение: https://vk.com/wall-210601538_1734
На прошлой неделе создатель и ведущий разработчик популярной утилиты cURL Дэниел Стенберг поделился примером бессмысленного отчета о несуществующей уязвимости, очевидно сгенерированного при помощи искусственного интеллекта. Стенберг раскритиковал подобную тактику; отметил, что он и его команда буквально завалены такими фейковыми отчетами, на которые приходится тратить время; и пообещал банить ИИ-исследователей в будущем, добавив: «Мы еще не видели ни одного реально полезного отчета, созданного с помощью ИИ».
Хотя примеры эффективного использования ИИ для поиска уязвимостей существуют (вот относительно свежий пример от Microsoft), в данном случае речь идет о феномене, известном как AI Slop: когда ИИ используется бездумно. Ответ на запрос типа «вот код, найди в нем уязвимость» с наибольшими шансами приведет к тому, что нейросеть просто придумает несуществующую проблему. Пример от разработчиков cURL представляет интерес тем, что один из таких отчетов выложили в общий доступ.
Мейнтейнеры cURL используют для работы с независимыми исследователями платформу HackerOne, через которую и был подан отчет о фейковой уязвимости; его можно найти здесь. Отчет якобы содержит информацию об уязвимости при работе с протоколом HTTP/3. В качестве примера эксплуатации предлагается создать вредоносный сервер, использующий модифицированную библиотеку aioquic. При обращении к серверу с помощью утилиты cURL уязвимость, по идее, должна вызывать повреждение памяти.
Выглядит эта уязвимость достаточно правдоподобно. В интервью изданию Ars Technica Стенберг отмечает, что подобные отчеты всегда оформлены по высшему разряду и добавляет, что настоящие сообщения о реально существующих уязвимостях никогда такой аккуратностью не отличаются.
Продолжение: https://vk.com/wall-210601538_1734
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Security Week 2520: ИИ-отчеты о выдуманных уязвимостях
На прошлой неделе создатель и ведущи... Смотрите полностью ВКонтакте.
На прошлой неделе создатель и ведущи... Смотрите полностью ВКонтакте.
⭐️ ИИ для кибербезопасности: тренды и востребованность
Институт статистических исследований и экономики знаний НИУ ВШЭ представил обзор трендов применения решений на основе искусственного интеллекта (ИИ) для цифровой безопасности, а также изучил их использование среди российских организаций. Отдельно были рассмотрены компании, которые применяют ИИ-решения более трех лет, и те, которые начали их внедрять менее трех лет назад.
Оценки основаны на результатах проведенного в конце 2023 года обследования 2,5 тыс. организаций из 20 отраслей экономики (обрабатывающая промышленность, торговля, финансы и страхование, транспорт и логистика, ИТ-отрасль, телекоммуникации и др.). В обзоре также приводятся информация из сторонних исследований (InfoWatch, Proofpoint, Imperva).
Ключевые выводы:
+ наиболее популярными ИИ-инструментами обеспечения цифровой безопасности эксперты назвали системы прогнозирования новых угроз; поведенческую аналитику сотрудников; ИИ-решения для блокировки ботов на основе анализа их активности; генеративные модели для анализа уязвимостей кода, сбора расширенного контекста событий ИБ, генерации пояснений по обнаруженным угрозам, выявления неявных связей в системе; обнаружение фишинговых сообщений через анализ текста;
+ отечественные инструменты ИИ в целом более востребованы у организаций, использующих такие технологии менее трех лет — 63,5% против 42,9% для компаний с более продолжительным опытом применения ИИ;
Продолжение: https://vk.com/wall-210601538_1735
Институт статистических исследований и экономики знаний НИУ ВШЭ представил обзор трендов применения решений на основе искусственного интеллекта (ИИ) для цифровой безопасности, а также изучил их использование среди российских организаций. Отдельно были рассмотрены компании, которые применяют ИИ-решения более трех лет, и те, которые начали их внедрять менее трех лет назад.
Оценки основаны на результатах проведенного в конце 2023 года обследования 2,5 тыс. организаций из 20 отраслей экономики (обрабатывающая промышленность, торговля, финансы и страхование, транспорт и логистика, ИТ-отрасль, телекоммуникации и др.). В обзоре также приводятся информация из сторонних исследований (InfoWatch, Proofpoint, Imperva).
Ключевые выводы:
+ наиболее популярными ИИ-инструментами обеспечения цифровой безопасности эксперты назвали системы прогнозирования новых угроз; поведенческую аналитику сотрудников; ИИ-решения для блокировки ботов на основе анализа их активности; генеративные модели для анализа уязвимостей кода, сбора расширенного контекста событий ИБ, генерации пояснений по обнаруженным угрозам, выявления неявных связей в системе; обнаружение фишинговых сообщений через анализ текста;
+ отечественные инструменты ИИ в целом более востребованы у организаций, использующих такие технологии менее трех лет — 63,5% против 42,9% для компаний с более продолжительным опытом применения ИИ;
Продолжение: https://vk.com/wall-210601538_1735
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ ИИ для кибербезопасности: тренды и востребованность
Институт статистических исследований и ... Смотрите полностью ВКонтакте.
Институт статистических исследований и ... Смотрите полностью ВКонтакте.
⭐️ Примеры MLSecOps. Компания Cognitive Pilot усовершенствовала архитектуру нейронной сети в целях повышения безопасности
Ведущий российский разработчик систем автопилотирования на основе ИИ компания Cognitive Pilot выпустила обновление систем автопилотирования для сельхозтехники и рельсового транспорта, в котором усовершенствована структура нейронной сети.
В отличие от традиционного формата совершенствования архитектуры нейронных сетей, основанного в том числе на сборе огромных массивов информации, специалисты Cognitive Pilot применили свой, инновационный подход, сделав акцент на умном и рациональном отборе данных. В своем решении компания использовала актуальные аналитические методы анализа, такие как TSNE (t-distributed Stochastic Neighbor Embedding) и OOD (Out-of-Distribution Detection). Данный подход позволяет строить сбалансированные обучающие выборки, исключая избыточность и добиваясь максимальной эффективности при минимальном количестве данных.
Использование современной многозадачной трансформерной архитектуры позволило компании достичь качественно иного результата в задачах автопилотирования сельхозтехники и рельсового транспорта. Новая архитектура сети включает в себя несколько выходов (голов), каждый из которых отвечает за решение различных задач: например, определение кромки поля, детектирование препятствий, обнаружение зон, где вождение возможно или невозможно, и т. д. Ключевым преимуществом предложенного подхода стало достижение согласованности в процедуре обучения сети, что в совокупности с правильной стратегией насыщения обучающей выборки обеспечило заметный рост качества распознавания по сравнению с обучением каждой задачи отдельно. Совместное обучение также позволило адаптировать задачи сети к новым функциональным сценариям, которые не были изначально заложены в целевую постановку (эмерджентность). Взаимодействие между выходами способствовало более глубокому, качественному извлечению признаков и устойчивому обобщению, что указывает на формирование новых системных свойств нейросети, таких как эмерджентность и синергия в процессе совместного обучения. Новая архитектура получила название CognitiveNet.
Продолжение: https://vk.com/wall-210601538_1736
Ведущий российский разработчик систем автопилотирования на основе ИИ компания Cognitive Pilot выпустила обновление систем автопилотирования для сельхозтехники и рельсового транспорта, в котором усовершенствована структура нейронной сети.
В отличие от традиционного формата совершенствования архитектуры нейронных сетей, основанного в том числе на сборе огромных массивов информации, специалисты Cognitive Pilot применили свой, инновационный подход, сделав акцент на умном и рациональном отборе данных. В своем решении компания использовала актуальные аналитические методы анализа, такие как TSNE (t-distributed Stochastic Neighbor Embedding) и OOD (Out-of-Distribution Detection). Данный подход позволяет строить сбалансированные обучающие выборки, исключая избыточность и добиваясь максимальной эффективности при минимальном количестве данных.
Использование современной многозадачной трансформерной архитектуры позволило компании достичь качественно иного результата в задачах автопилотирования сельхозтехники и рельсового транспорта. Новая архитектура сети включает в себя несколько выходов (голов), каждый из которых отвечает за решение различных задач: например, определение кромки поля, детектирование препятствий, обнаружение зон, где вождение возможно или невозможно, и т. д. Ключевым преимуществом предложенного подхода стало достижение согласованности в процедуре обучения сети, что в совокупности с правильной стратегией насыщения обучающей выборки обеспечило заметный рост качества распознавания по сравнению с обучением каждой задачи отдельно. Совместное обучение также позволило адаптировать задачи сети к новым функциональным сценариям, которые не были изначально заложены в целевую постановку (эмерджентность). Взаимодействие между выходами способствовало более глубокому, качественному извлечению признаков и устойчивому обобщению, что указывает на формирование новых системных свойств нейросети, таких как эмерджентность и синергия в процессе совместного обучения. Новая архитектура получила название CognitiveNet.
Продолжение: https://vk.com/wall-210601538_1736
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Примеры MLSecOps. Компания Cognitive Pilot усовершенствовала архитектуру нейронной сети в целях по... Смотрите полностью ВКонтакте.
⭐️ Как нейросети помогают преступникам
Раньше на создание сложной схемы у среднего пошиба мошенников уходили дни, а то и недели, но сейчас при помощи нейросетей то же самое они могут реализовать за минуты. Это показал девятый выпуск отчета Cyber Signals под названием «Обман с помощью ИИ: новые угрозы мошенничества и методы противодействия». Теперь даже не слишком умные скамеры могут разрабатывать уловки, на которые раньше были способны единицы.
Инструменты на основе искусственного интеллекта могут собирать информацию о компаниях в интернете, помогая киберпреступникам создавать подробные профили потенциальных жертв для проведения эффективных атак методом социальной инженерии.
Злоумышленники заманивают пользователей в сложные схемы мошенничества, используя фальшивые обзоры товаров и созданные ИИ интернет-магазины.
По словам Келли Бисселл, корпоративного вице-президента подразделения Microsoft Security по борьбе с мошенничеством и злоупотреблениями продуктами, угроза продолжает расти: «Киберпреступность — это проблема на триллионы долларов, и ее масштабы увеличиваются с каждым годом на протяжении последних 30 лет».
По данным команды Microsoft по борьбе с мошенничеством, атаки с применением ИИ происходят по всему миру, особенно активны регионы Китая и Европы — в частности, Германии, как одного из крупнейших рынков электронной коммерции в ЕС.
Чем крупнее цифровая торговая площадка, тем выше вероятность мошенничества пропорционально ее размерам.
Особое беспокойство вызывают два направления мошенничества, усиленного ИИ: электронная коммерция и поиск работы.
Продолжение: https://vk.com/wall-210601538_1737
Раньше на создание сложной схемы у среднего пошиба мошенников уходили дни, а то и недели, но сейчас при помощи нейросетей то же самое они могут реализовать за минуты. Это показал девятый выпуск отчета Cyber Signals под названием «Обман с помощью ИИ: новые угрозы мошенничества и методы противодействия». Теперь даже не слишком умные скамеры могут разрабатывать уловки, на которые раньше были способны единицы.
Инструменты на основе искусственного интеллекта могут собирать информацию о компаниях в интернете, помогая киберпреступникам создавать подробные профили потенциальных жертв для проведения эффективных атак методом социальной инженерии.
Злоумышленники заманивают пользователей в сложные схемы мошенничества, используя фальшивые обзоры товаров и созданные ИИ интернет-магазины.
По словам Келли Бисселл, корпоративного вице-президента подразделения Microsoft Security по борьбе с мошенничеством и злоупотреблениями продуктами, угроза продолжает расти: «Киберпреступность — это проблема на триллионы долларов, и ее масштабы увеличиваются с каждым годом на протяжении последних 30 лет».
По данным команды Microsoft по борьбе с мошенничеством, атаки с применением ИИ происходят по всему миру, особенно активны регионы Китая и Европы — в частности, Германии, как одного из крупнейших рынков электронной коммерции в ЕС.
Чем крупнее цифровая торговая площадка, тем выше вероятность мошенничества пропорционально ее размерам.
Особое беспокойство вызывают два направления мошенничества, усиленного ИИ: электронная коммерция и поиск работы.
Продолжение: https://vk.com/wall-210601538_1737
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Как нейросети помогают преступникам
Раньше на создание сложной схемы у среднего пошиба мош... Смотрите полностью ВКонтакте.
Раньше на создание сложной схемы у среднего пошиба мош... Смотрите полностью ВКонтакте.
⭐️ Техническая поддержка MLSecOps и Data Governance
Привет, мои дорогие и самые талантливые друзья!
Запросов на помощь по обеспечению безопасности ИИ-систем от компаний-партнеров и моих подписчиков с каждым месяцем становится все больше. Также начинают поступать запросы и на Data Governance.
Поэтому я открываю в блоге VK два канала, где буду публиковать реальные запросы на техподдержку по этим двум направлениям. Конечно, все кейсы будут максимально анонимизированы, ситуации - обобщены. Но я уверен - реальные технологии и прикладные решения, используемые в реальных IT-компаниях будут очень интересны всем.
Техническая поддержка бесплатна и оказывается оперативно - просто пишите мне в личку в VK или в TG. В случае, если подобный кейс уже был, я перенаправлю на уже готовое решение и при необходимости дополнительно проконсультирую. При этом каждый новый практический случай буду дополнительно публиковать в своих блогах.
Архитектор MLSecOps
Николай Павлов
Привет, мои дорогие и самые талантливые друзья!
Запросов на помощь по обеспечению безопасности ИИ-систем от компаний-партнеров и моих подписчиков с каждым месяцем становится все больше. Также начинают поступать запросы и на Data Governance.
Поэтому я открываю в блоге VK два канала, где буду публиковать реальные запросы на техподдержку по этим двум направлениям. Конечно, все кейсы будут максимально анонимизированы, ситуации - обобщены. Но я уверен - реальные технологии и прикладные решения, используемые в реальных IT-компаниях будут очень интересны всем.
Техническая поддержка бесплатна и оказывается оперативно - просто пишите мне в личку в VK или в TG. В случае, если подобный кейс уже был, я перенаправлю на уже готовое решение и при необходимости дополнительно проконсультирую. При этом каждый новый практический случай буду дополнительно публиковать в своих блогах.
Архитектор MLSecOps
Николай Павлов
🔥4
⭐️ Что такое MLSecOps?
I. Понимание MLSecOps
Машинное обучение (ML) - это мощный инструмент для обнаружения закономерностей в данных и определения новых способов решения проблем. Однако, как и в случае со многими новыми технологиями, злоумышленники могут использовать системы ML или внедрять новые уязвимости, которые традиционные средства безопасности могут не заметить.
Операции по обеспечению безопасности машинного обучения (MLSecOps) - это развивающаяся дисциплина, которая решает эти задачи, уделяя особое внимание безопасности систем машинного обучения на протяжении всего их жизненного цикла. В нем решаются такие вопросы, как защита данных, используемых для обучения, защита моделей от враждебных угроз, обеспечение надежности моделей и мониторинг уязвимостей в развернутых системах. Поскольку организации все больше полагаются на искусственный интеллект и ML в критически важных операциях, важность MLSecOps значительно возросла.
В этой статье мы рассмотрим, как MLSecOps сочетает элементы кибербезопасности, DevOps и ML для улучшения обнаружения и устранения уязвимостей в системах, управляемых ML, обеспечивая их надежность, безопасность и соответствие нормативным стандартам.
II. Основные компоненты MLSecOps
Продолжение: https://vk.com/wall-210601538_1739
I. Понимание MLSecOps
Машинное обучение (ML) - это мощный инструмент для обнаружения закономерностей в данных и определения новых способов решения проблем. Однако, как и в случае со многими новыми технологиями, злоумышленники могут использовать системы ML или внедрять новые уязвимости, которые традиционные средства безопасности могут не заметить.
Операции по обеспечению безопасности машинного обучения (MLSecOps) - это развивающаяся дисциплина, которая решает эти задачи, уделяя особое внимание безопасности систем машинного обучения на протяжении всего их жизненного цикла. В нем решаются такие вопросы, как защита данных, используемых для обучения, защита моделей от враждебных угроз, обеспечение надежности моделей и мониторинг уязвимостей в развернутых системах. Поскольку организации все больше полагаются на искусственный интеллект и ML в критически важных операциях, важность MLSecOps значительно возросла.
В этой статье мы рассмотрим, как MLSecOps сочетает элементы кибербезопасности, DevOps и ML для улучшения обнаружения и устранения уязвимостей в системах, управляемых ML, обеспечивая их надежность, безопасность и соответствие нормативным стандартам.
II. Основные компоненты MLSecOps
Продолжение: https://vk.com/wall-210601538_1739
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Что такое MLSecOps?
I. Понимание MLSecOps
Машинное обучение (ML) - это мощный инстру... Смотрите полностью ВКонтакте.
I. Понимание MLSecOps
Машинное обучение (ML) - это мощный инстру... Смотрите полностью ВКонтакте.
👍3🔥1
⭐️ После обвинений в плагиате и судебных исков OpenAI запустила центр оценки безопасности своих моделей ИИ
OpenAI запустила новый веб-ресурс — Центр оценок безопасности — для публикации информации о безопасности своих моделей искусственного интеллекта. Запуск состоялся 14 мая 2025 года, центр призван повысить прозрачность деятельности компании, которая в последнее время столкнулась с рядом судебных исков, обвиняющих её в незаконном использовании авторских материалов для обучения своих моделей ИИ. В частности, The New York Times утверждает, что OpenAI случайно удалила доказательства в деле о плагиате.
Центр оценок безопасности будет регулярно обновляться и предоставлять данные о таких аспектах, как частота галлюцинаций моделей, наличие вредоносного контента в их ответах, а также эффективность работы моделей по заданным инструкциям и попытки обхода ограничений. Так OpenAI планирует расширить информацию, предоставляемую ранее в рамках «системных карт», которые содержали лишь начальные данные о мерах безопасности каждой модели.
«По мере развития знаний об оценке ИИ мы стремимся делиться своим прогрессом в разработке более масштабируемых способов измерения возможностей и безопасности моделей», — говорится в заявлении OpenAI. Компания подчеркивает, что публикация части результатов оценок безопасности призвана не только улучшить понимание работы систем OpenAI, но и способствовать общим усилиям по повышению прозрачности в данной области. OpenAI также заявляет о намерении более активно взаимодействовать с сообществом по вопросам безопасности.
Продолжение: https://vk.com/wall-210601538_1740
OpenAI запустила новый веб-ресурс — Центр оценок безопасности — для публикации информации о безопасности своих моделей искусственного интеллекта. Запуск состоялся 14 мая 2025 года, центр призван повысить прозрачность деятельности компании, которая в последнее время столкнулась с рядом судебных исков, обвиняющих её в незаконном использовании авторских материалов для обучения своих моделей ИИ. В частности, The New York Times утверждает, что OpenAI случайно удалила доказательства в деле о плагиате.
Центр оценок безопасности будет регулярно обновляться и предоставлять данные о таких аспектах, как частота галлюцинаций моделей, наличие вредоносного контента в их ответах, а также эффективность работы моделей по заданным инструкциям и попытки обхода ограничений. Так OpenAI планирует расширить информацию, предоставляемую ранее в рамках «системных карт», которые содержали лишь начальные данные о мерах безопасности каждой модели.
«По мере развития знаний об оценке ИИ мы стремимся делиться своим прогрессом в разработке более масштабируемых способов измерения возможностей и безопасности моделей», — говорится в заявлении OpenAI. Компания подчеркивает, что публикация части результатов оценок безопасности призвана не только улучшить понимание работы систем OpenAI, но и способствовать общим усилиям по повышению прозрачности в данной области. OpenAI также заявляет о намерении более активно взаимодействовать с сообществом по вопросам безопасности.
Продолжение: https://vk.com/wall-210601538_1740
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ После обвинений в плагиате и судебных исков OpenAI запустила центр оценки безопасности своих модел... Смотрите полностью ВКонтакте.
🔥1
⭐️ ИИ в Data Governance: как мы ускорили маркировку персональных данных
Меня зовут Антон, я аналитик в команде разработки продукта RT.DataGovernance (далее — DG) компании TData.
В этой статье я расскажу, как мы c командой определяли, где и как будем использовать искусственный интеллект, как тестировали обученные модели и как интегрировали их в DG.
I. Пару слов о нашем продукте
Каждая компания, использующая data-driven подход, нуждается в качественном и эффективном управлении данными. Практики управления данными основаны на теоретических и практических рекомендациях, разработанных профессиональной ассоциацией DAMA (Data Management Association). Зафиксированы и описаны они в известной DAMA DMBOK. Одной из ключевых областей в управлении данными является Data Governance (в честь него и назван наш продукт). Она включает:
+ Определение политики и процедур управления данными
+ Назначение ролей и ответственности за управление данными
+ Разработка планов управления данными
+ Мониторинг и контроль качества данных
+ Обеспечение безопасности и конфиденциальности данных
Эти аспекты мы реализовали в нашем продукте через модули Каталога данных и Бизнес-Глоссария. Обращаясь к хранилищам данных, мы сканируем метаинформацию о существующих в нем объектах. Как правило, это схемы, таблицы и представления. DG отображает их метаинформацию: размер объекта, количество строк, колонки, сэмпл данных. После запуска профилирования для данных можно отразить минимальные и максимальные значения, процент пропусков, процент уникальных значений и моду.
В DG реализованы механизмы дополнительного бизнес-описания отсканированных объектов: пользователи могут закрепить за объектом конкретную роль, задать произвольный атрибутивный состав, связать его с другими объектами в DG (например, с терминами) и проставить теги. Это позволяет агрегировать объекты не только по атрибутам, но и по тегам.
Продолжение: https://habr.com/ru/companies/rostelecom/articles/909976/
Меня зовут Антон, я аналитик в команде разработки продукта RT.DataGovernance (далее — DG) компании TData.
В этой статье я расскажу, как мы c командой определяли, где и как будем использовать искусственный интеллект, как тестировали обученные модели и как интегрировали их в DG.
I. Пару слов о нашем продукте
Каждая компания, использующая data-driven подход, нуждается в качественном и эффективном управлении данными. Практики управления данными основаны на теоретических и практических рекомендациях, разработанных профессиональной ассоциацией DAMA (Data Management Association). Зафиксированы и описаны они в известной DAMA DMBOK. Одной из ключевых областей в управлении данными является Data Governance (в честь него и назван наш продукт). Она включает:
+ Определение политики и процедур управления данными
+ Назначение ролей и ответственности за управление данными
+ Разработка планов управления данными
+ Мониторинг и контроль качества данных
+ Обеспечение безопасности и конфиденциальности данных
Эти аспекты мы реализовали в нашем продукте через модули Каталога данных и Бизнес-Глоссария. Обращаясь к хранилищам данных, мы сканируем метаинформацию о существующих в нем объектах. Как правило, это схемы, таблицы и представления. DG отображает их метаинформацию: размер объекта, количество строк, колонки, сэмпл данных. После запуска профилирования для данных можно отразить минимальные и максимальные значения, процент пропусков, процент уникальных значений и моду.
В DG реализованы механизмы дополнительного бизнес-описания отсканированных объектов: пользователи могут закрепить за объектом конкретную роль, задать произвольный атрибутивный состав, связать его с другими объектами в DG (например, с терминами) и проставить теги. Это позволяет агрегировать объекты не только по атрибутам, но и по тегам.
Продолжение: https://habr.com/ru/companies/rostelecom/articles/909976/
Хабр
ИИ в Data Governance: как мы ускорили маркировку персональных данных
Привет, Хабр! Меня зовут Антон, я аналитик в команде разработки продукта RT.DataGovernance (далее — DG) компании TData. В этой статье я расскажу, как мы c командой определяли, где и как будем...
🔥1
⭐️ Комната Наверху и другие истории обхода LLM
Вышла замечательная статья на habr одного из лидеров ИИ-Security в России, Артема Семенова.
Написана простым языком и с наглядными скриншотами. Очень рекомендую прочитать!
Ссылка: https://habr.com/ru/articles/910334
Архитектор MLSecOps
Николай Павлов
Вышла замечательная статья на habr одного из лидеров ИИ-Security в России, Артема Семенова.
Написана простым языком и с наглядными скриншотами. Очень рекомендую прочитать!
Ссылка: https://habr.com/ru/articles/910334
Архитектор MLSecOps
Николай Павлов
Хабр
Комната Наверху и другие истории обхода LLM
В марте 2025, компания Pangea провела конкурс – в нём поучаствовали более 800 участников из разных стран. Суть в том, что было несколько комнат – лабораторных, где участникам необходимо было...
🔥3🥰1
⭐️ Cybernews: анализ ИИ-инструментов выявил 84% нарушений безопасности данных
Издание Cybernews представило отчёт на тему рисков, связанных с использованием искусственного интеллекта в корпоративной среде. Исследование Business Digital Index показало: 84% популярных ИИ-сервисов уязвимы или уже были скомпрометированы, что ставит под угрозу данные предприятий, использующих эти решения без контроля.
По данным отчёта, большинство сотрудников внедряют ИИ в повседневную работу без согласования с ИТ-отделами. При этом лишь 14% компаний утвердили внутренние регламенты или политику безопасности по применению подобных инструментов. Такой разрыв между активным использованием технологий и отсутствием системной защиты создаёт широкое окно возможностей для киберпреступников.
Анализ показал тревожные результаты: только 33% ИИ-инструментов получили высокий рейтинг безопасности (A), в то время как 41% были оценены на уровне D или F. Эти данные говорят о нестабильном и зачастую крайне слабом уровне защиты. Пользователи неосознанно допускают риски, передавая конфиденциальную информацию в уязвимые приложения.
По словам руководителя отдела исследований безопасности в Cybernews Винсентаса Баубониса, особую опасность представляет ложное чувство защищённости. Один незамеченный сбой в цифровом процессе может привести к масштабной утечке, получению доступа к корпоративным данным, компрометации клиентской информации или запуску программ-вымогателей.
Продолжение: https://vk.com/wall-210601538_1743
Издание Cybernews представило отчёт на тему рисков, связанных с использованием искусственного интеллекта в корпоративной среде. Исследование Business Digital Index показало: 84% популярных ИИ-сервисов уязвимы или уже были скомпрометированы, что ставит под угрозу данные предприятий, использующих эти решения без контроля.
По данным отчёта, большинство сотрудников внедряют ИИ в повседневную работу без согласования с ИТ-отделами. При этом лишь 14% компаний утвердили внутренние регламенты или политику безопасности по применению подобных инструментов. Такой разрыв между активным использованием технологий и отсутствием системной защиты создаёт широкое окно возможностей для киберпреступников.
Анализ показал тревожные результаты: только 33% ИИ-инструментов получили высокий рейтинг безопасности (A), в то время как 41% были оценены на уровне D или F. Эти данные говорят о нестабильном и зачастую крайне слабом уровне защиты. Пользователи неосознанно допускают риски, передавая конфиденциальную информацию в уязвимые приложения.
По словам руководителя отдела исследований безопасности в Cybernews Винсентаса Баубониса, особую опасность представляет ложное чувство защищённости. Один незамеченный сбой в цифровом процессе может привести к масштабной утечке, получению доступа к корпоративным данным, компрометации клиентской информации или запуску программ-вымогателей.
Продолжение: https://vk.com/wall-210601538_1743
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Cybernews: анализ ИИ-инструментов выявил 84% нарушений безопасности данных
Издание Cybernew... Смотрите полностью ВКонтакте.
Издание Cybernew... Смотрите полностью ВКонтакте.
👍1🔥1
⭐️ Всем рекомендую зарегистрироваться и послушать доклады!
Крайне важные выступления в российском MLSecOps!
https://news.1rj.ru/str/aisecuritylab/106
Крайне важные выступления в российском MLSecOps!
https://news.1rj.ru/str/aisecuritylab/106
Telegram
AI Security Lab
Понедельник – день анонсов. Участников AI Security Lab ИТМО ждёт насыщенная неделя:
20 мая. Форум Технологии доверенного ИИ. Доклад Евгения Кокуйкина «Инструменты тестирования и защиты агентных систем»
22–24 мая. Positive Hack Days Fest. Стенд ИТМО, LLAMATOR…
20 мая. Форум Технологии доверенного ИИ. Доклад Евгения Кокуйкина «Инструменты тестирования и защиты агентных систем»
22–24 мая. Positive Hack Days Fest. Стенд ИТМО, LLAMATOR…
👍2🔥1
⭐️ Первая в мире клиника без врачей заработала в Саудовской Аравии
Китайская компания Synyi AI из Шанхая запустила в Саудовской Аравии первую в мире клинику, где искусственный интеллект (ИИ) самостоятельно диагностирует пациентов и выписывает рецепты, рассказывает Tengri Life.
Пациентов принимает ИИ-доктор Dr. Hua, собирает жалобы через планшет, анализирует медицинские показатели и выдает план лечения. Его затем проверяет живой врач, а также он вмешивается в экстренных случаях.
Это последний шаг на пути к тому, чтобы позволить ИИ диагностировать и лечить пациентов напрямую. На предыдущем этапе тестирования уровень ошибок ИИ составлял менее 0,3 процента.
Пока Dr. Hua работает с 30 респираторными заболеваниями, но в планах - расширение до 50 диагнозов и открытие новых клиник.
Несколько десятков пациентов уже воспользовались услугой бесплатно. После завершения испытаний диагностические данные будут направлены властям страны для одобрения. Разрешение может быть выдано в течение 18 месяцев.
tengrinews
Китайская компания Synyi AI из Шанхая запустила в Саудовской Аравии первую в мире клинику, где искусственный интеллект (ИИ) самостоятельно диагностирует пациентов и выписывает рецепты, рассказывает Tengri Life.
Пациентов принимает ИИ-доктор Dr. Hua, собирает жалобы через планшет, анализирует медицинские показатели и выдает план лечения. Его затем проверяет живой врач, а также он вмешивается в экстренных случаях.
Это последний шаг на пути к тому, чтобы позволить ИИ диагностировать и лечить пациентов напрямую. На предыдущем этапе тестирования уровень ошибок ИИ составлял менее 0,3 процента.
Пока Dr. Hua работает с 30 респираторными заболеваниями, но в планах - расширение до 50 диагнозов и открытие новых клиник.
Несколько десятков пациентов уже воспользовались услугой бесплатно. После завершения испытаний диагностические данные будут направлены властям страны для одобрения. Разрешение может быть выдано в течение 18 месяцев.
tengrinews
🔥2
⭐️ Привет, мои дорогие и самые талантливые друзья!
С 20 мая по 31 мая я буду проводить очень важную и сложную учебную программу по направлению MLSecOps в Академии Softline.
Так как я приложу огромные усилия, чтобы провести эту программу на отлично и дать слушателям максимум, никаких новостей в блогах в это время не будет.
Все вопросы, пожалуйста, пишите в личку. Всем сердцем верю, что за эти дни каждый из вас изучит что-то новое и станет еще на шаг ближе к вершинам сферы IT. Вы лучшие!
Архитектор MLSecOps
Николай Павлов
С 20 мая по 31 мая я буду проводить очень важную и сложную учебную программу по направлению MLSecOps в Академии Softline.
Так как я приложу огромные усилия, чтобы провести эту программу на отлично и дать слушателям максимум, никаких новостей в блогах в это время не будет.
Все вопросы, пожалуйста, пишите в личку. Всем сердцем верю, что за эти дни каждый из вас изучит что-то новое и станет еще на шаг ближе к вершинам сферы IT. Вы лучшие!
Архитектор MLSecOps
Николай Павлов
🔥4
Media is too big
VIEW IN TELEGRAM
⭐️ Полная запись моего выступления о профессии Data Steward и ее роли в корпоративном Data Governance (21 мая 2025 года, Академия Softline)
Очень рекомендую освоить именно эту профессию всем желающим попасть в сферу IT. Так как, например, в Data Science или MLSecOps сейчас очень высокий порог входа и без хорошей подготовки и хотя бы некоторого опыта зайти с нуля очень трудно.
В этом плане Data Steward менее требовательная к "хардам" профессия. Уже побывав в роли или поработав в должности Data Steward Вы при желании сможете двигаться дальше, на более сложные профессии в IT, а именно - в Big Data.
Ссылка на мою вторую учебную программу (первая - MLSecOps): https://academyit.ru/deals/activity/seminars/data-steward-professiya-budushchego-vash-put-k-uspekhu-v-mire-dannykh
Архитектор MLSecOps
Николай Павлов
Очень рекомендую освоить именно эту профессию всем желающим попасть в сферу IT. Так как, например, в Data Science или MLSecOps сейчас очень высокий порог входа и без хорошей подготовки и хотя бы некоторого опыта зайти с нуля очень трудно.
В этом плане Data Steward менее требовательная к "хардам" профессия. Уже побывав в роли или поработав в должности Data Steward Вы при желании сможете двигаться дальше, на более сложные профессии в IT, а именно - в Big Data.
Ссылка на мою вторую учебную программу (первая - MLSecOps): https://academyit.ru/deals/activity/seminars/data-steward-professiya-budushchego-vash-put-k-uspekhu-v-mire-dannykh
Архитектор MLSecOps
Николай Павлов
🔥2
⭐️ В США продолжился суд над ИИ-чатботом из-за смерти ребёнка
Флоридский суд разрешил продолжить судебное дело против Google и чатбота Character AI, обвиняемых в косвенной причине смерти подростка. Судья Энн Конвей отклонила защиту компаний на основе Первой поправки, заявив, что не готова признать ответы чатбота «свободой слова».
Дело связано со смертью 14-летнего Сьюэлла Сетцера III, который, как утверждают, стал одержим чатботом, подталкивающим его к плохим мыслям. Компании сравнивали чатбот с видеоиграми и социальными сетями, чтобы получить прецедент свободы слова. Судья, правда, усомнилась в доводах.
Кроме вопроса о свободе слова, суд также рассмотрит, был ли продукт Character AI небезопасным и вредным. Учитываться будет аругмент, что чатботы создают ответы автоматически, реагируя на пользователя. Истцы утверждают, что сервис не проверял возраст и вводил в заблуждение, представляя ботов как реальных людей и даже терапевтов.
ferra ru
Флоридский суд разрешил продолжить судебное дело против Google и чатбота Character AI, обвиняемых в косвенной причине смерти подростка. Судья Энн Конвей отклонила защиту компаний на основе Первой поправки, заявив, что не готова признать ответы чатбота «свободой слова».
Дело связано со смертью 14-летнего Сьюэлла Сетцера III, который, как утверждают, стал одержим чатботом, подталкивающим его к плохим мыслям. Компании сравнивали чатбот с видеоиграми и социальными сетями, чтобы получить прецедент свободы слова. Судья, правда, усомнилась в доводах.
Кроме вопроса о свободе слова, суд также рассмотрит, был ли продукт Character AI небезопасным и вредным. Учитываться будет аругмент, что чатботы создают ответы автоматически, реагируя на пользователя. Истцы утверждают, что сервис не проверял возраст и вводил в заблуждение, представляя ботов как реальных людей и даже терапевтов.
ferra ru
⭐️ Техподдержка MLSecOps!
ВОПРОС ОТ ПОДПИСЧИКА:
Добрый день, Николай! Я работаю в FinTech. Иногда защита моделей идёт в противовес качеству моделей. Допустим, если использовать дифференциациальную приватность, чтобы защитить конфиденциальные данные, мы теряем качество модели. И тогда бизнес с этого теряет деньги, хоть и защита обеспечена. Очень интересно, были ли у вас такие ситуации, как их решали?
Спасибо за информативный канал по MLSecOps!
ОТВЕТ:
Добрый день и спасибо за Ваш вопрос!
Действительно, в редких случаях бывают ситуации, когда приходится в этом контексте выбирать между защитой модели и качеством данных.
Почему в редких? Потому что как правило до этапа обучения модели по идее не должны добираться приватные и уж тем более персональные данные! Их нужно анонимизировать, хешировать и шифровать еще на этапе хранения как минимум. Потом уже при начале работы с моделью нужно сверить хеши (для избегания отравления данных - Data Poisoning), расшифровать данные и анонимизировать (если вдруг по каким-то бизнес-причинам Вы не стали их анонимизировать на этапе хранения.
А в идеале нужно строить такую архитектуру MLSecOps, чтобы чистка и анонимизация данных были хотя бы частично реализованы на этапах ETL|ELT в Data Engineering. Это требует очень мощной командной работы, сильной культуры Data-Driven, наличия практик Data Governance.
I. Метод "Китайская цифра".
Если данные уже в модели анонимизированы, это уже те данные, которые или не требуют, или в меньшей мере требуют дифференциальной приватности. Но в любом случае как правило проводится нормализация данных, которая еще более трансформирует данные, и приводит их к единому стандарту (например, диапазону от 0 до 1). В этом случае потенциальным злоумышленникам будет еще труднее понять Ваши данные, что и к чему относится.
Но - ДОПУСТИМ - злоумышленнику каким-то образом удалось извлечь эти анонимизированные данные после нормализации. Он смог сначала устранить нормализацию, а затем по кускам анонимизированных данных смог найти какие-то связи в модели и даже установить личности некоторых лиц, по которым собраны данные.
Как еще защититься, не прибегая к дифференциальной приватности?
У Китайских коллег я видел один прием, когда все данные уже после нормализации они умножают/делят на какое-то случайное, известное только избранным, значение (2,683, 1,547 и т.п.).
Продолжение: https://vk.com/wall-210601538_1754
ВОПРОС ОТ ПОДПИСЧИКА:
Добрый день, Николай! Я работаю в FinTech. Иногда защита моделей идёт в противовес качеству моделей. Допустим, если использовать дифференциациальную приватность, чтобы защитить конфиденциальные данные, мы теряем качество модели. И тогда бизнес с этого теряет деньги, хоть и защита обеспечена. Очень интересно, были ли у вас такие ситуации, как их решали?
Спасибо за информативный канал по MLSecOps!
ОТВЕТ:
Добрый день и спасибо за Ваш вопрос!
Действительно, в редких случаях бывают ситуации, когда приходится в этом контексте выбирать между защитой модели и качеством данных.
Почему в редких? Потому что как правило до этапа обучения модели по идее не должны добираться приватные и уж тем более персональные данные! Их нужно анонимизировать, хешировать и шифровать еще на этапе хранения как минимум. Потом уже при начале работы с моделью нужно сверить хеши (для избегания отравления данных - Data Poisoning), расшифровать данные и анонимизировать (если вдруг по каким-то бизнес-причинам Вы не стали их анонимизировать на этапе хранения.
А в идеале нужно строить такую архитектуру MLSecOps, чтобы чистка и анонимизация данных были хотя бы частично реализованы на этапах ETL|ELT в Data Engineering. Это требует очень мощной командной работы, сильной культуры Data-Driven, наличия практик Data Governance.
I. Метод "Китайская цифра".
Если данные уже в модели анонимизированы, это уже те данные, которые или не требуют, или в меньшей мере требуют дифференциальной приватности. Но в любом случае как правило проводится нормализация данных, которая еще более трансформирует данные, и приводит их к единому стандарту (например, диапазону от 0 до 1). В этом случае потенциальным злоумышленникам будет еще труднее понять Ваши данные, что и к чему относится.
Но - ДОПУСТИМ - злоумышленнику каким-то образом удалось извлечь эти анонимизированные данные после нормализации. Он смог сначала устранить нормализацию, а затем по кускам анонимизированных данных смог найти какие-то связи в модели и даже установить личности некоторых лиц, по которым собраны данные.
Как еще защититься, не прибегая к дифференциальной приватности?
У Китайских коллег я видел один прием, когда все данные уже после нормализации они умножают/делят на какое-то случайное, известное только избранным, значение (2,683, 1,547 и т.п.).
Продолжение: https://vk.com/wall-210601538_1754
VK
MLSECOPS+ | НИКОЛАЙ ПАВЛОВ. Пост со стены.
⭐ Техподдержка MLSecOps!
ВОПРОС ОТ ПОДПИСЧИКА:
Добрый день, Николай! Я работаю в FinTe... Смотрите полностью ВКонтакте.
ВОПРОС ОТ ПОДПИСЧИКА:
Добрый день, Николай! Я работаю в FinTe... Смотрите полностью ВКонтакте.
🔥2
⭐️ Власти США почти запретили на 10 лет штатам самостоятельно регулировать ИИ
Палата представителей США приняла законопроект о бюджете, в который неожиданно включили пункт о запрете штатам регулировать искусственный интеллект на ближайшие 10 лет. Это означает, что местные законы по защите от ИИ — например, от дипфейков или дискриминации при приёме на работу — будут недействительны, если закон вступит в силу.
Инициативу поддержали почти все республиканцы. Однако закон ещё должен пройти Сенат, где его могут оспорить, так как подобные запреты не должны входить в бюджет. Некоторые сенаторы-республиканцы также выразили сомнение, поскольку закон мешает действующим мерам защиты, например, прав художников.
Сторонники запрета говорят, что он нужен для предотвращения путаницы из-за разных законов в разных штатах. Противники, включая демократов и правозащитные организации, считают это подарком для крупных IT-компаний, который оставит обычных людей без защиты.
rumbler news
Палата представителей США приняла законопроект о бюджете, в который неожиданно включили пункт о запрете штатам регулировать искусственный интеллект на ближайшие 10 лет. Это означает, что местные законы по защите от ИИ — например, от дипфейков или дискриминации при приёме на работу — будут недействительны, если закон вступит в силу.
Инициативу поддержали почти все республиканцы. Однако закон ещё должен пройти Сенат, где его могут оспорить, так как подобные запреты не должны входить в бюджет. Некоторые сенаторы-республиканцы также выразили сомнение, поскольку закон мешает действующим мерам защиты, например, прав художников.
Сторонники запрета говорят, что он нужен для предотвращения путаницы из-за разных законов в разных штатах. Противники, включая демократов и правозащитные организации, считают это подарком для крупных IT-компаний, который оставит обычных людей без защиты.
rumbler news
🔥1
⭐️ Техподдержка MLSecOps!
ВОПРОС ОТ ПОДПИСЧИКА:
Добрый день, Николай!
Не нашел как вам написать в паблик, поэтому пишу в личку)
Спасибо за ваши посты, они очень помогают выстраивать безопасность и прокачивать понимание MLSecOps.
В своем посте vk.com/wall-210601538_1754 Вы советуете черпать опыт коллег с востока.
Не могли бы вы пожалуйста поделиться ресурсами, где можно черпать этот опыт?
Так как по теме в целом мало что написано на западе, хотелось бы воспользоваться вашим советом и обратить внимание на восток.
Спасибо!
ОТВЕТ:
Добрый день, и спасибо за Ваш вопрос!
1. По поводу возможности мне написать - в паблике в VK есть специальный раздел для запросов на техподдержку, можете писать туда. Или предлагать вопрос как новость. Либо писать мне прямо в личку - я умею определять надежных и безопасных людей.
2. По поводу постов - рад стараться! Для удобства у меня есть еще блог в телеграмм и он всегда дублирует основной блок в VK, ссылка: t.me/ml_ops
3. По поводу ориентации на восток - да, я активный сторонник развития отношений с восточными странами, в первую очередь это Китай. Восточный опыт я беру в первую очередь (на 90%) от ряда китайских компаний, при этом наиболее активно сотрудничаю с двумя, одна из которых - это китайская компания MAITUO, со штаб-квартирой в городе Шень-Чжень. Это очень мощная и прогрессивная компания, которая также прилагает активные усилия для сотрудничества с Россией. Это сотрудничество полностью бескорыстное.
Кроме того я усиленно изучаю китайский язык, перевожу китайские статьи, изучаю новости о регулировании ИИ в Китае, смотрю достижения, читаю статьи ведущих исследователей из Китая, какие нахожу. В целом же есть масса сайтов китайских компаний и там часто выкладывают техническую документацию, новости на английском языке.
При этом если книгу написали в Китае, но перевели, допустим, на английский, русский языки, то это тоже китайский опыт. Вот изображение одной из последних прочитанных мною книг.
Продолжение: https://vk.com/wall-210601538_1756
ВОПРОС ОТ ПОДПИСЧИКА:
Добрый день, Николай!
Не нашел как вам написать в паблик, поэтому пишу в личку)
Спасибо за ваши посты, они очень помогают выстраивать безопасность и прокачивать понимание MLSecOps.
В своем посте vk.com/wall-210601538_1754 Вы советуете черпать опыт коллег с востока.
Не могли бы вы пожалуйста поделиться ресурсами, где можно черпать этот опыт?
Так как по теме в целом мало что написано на западе, хотелось бы воспользоваться вашим советом и обратить внимание на восток.
Спасибо!
ОТВЕТ:
Добрый день, и спасибо за Ваш вопрос!
1. По поводу возможности мне написать - в паблике в VK есть специальный раздел для запросов на техподдержку, можете писать туда. Или предлагать вопрос как новость. Либо писать мне прямо в личку - я умею определять надежных и безопасных людей.
2. По поводу постов - рад стараться! Для удобства у меня есть еще блог в телеграмм и он всегда дублирует основной блок в VK, ссылка: t.me/ml_ops
3. По поводу ориентации на восток - да, я активный сторонник развития отношений с восточными странами, в первую очередь это Китай. Восточный опыт я беру в первую очередь (на 90%) от ряда китайских компаний, при этом наиболее активно сотрудничаю с двумя, одна из которых - это китайская компания MAITUO, со штаб-квартирой в городе Шень-Чжень. Это очень мощная и прогрессивная компания, которая также прилагает активные усилия для сотрудничества с Россией. Это сотрудничество полностью бескорыстное.
Кроме того я усиленно изучаю китайский язык, перевожу китайские статьи, изучаю новости о регулировании ИИ в Китае, смотрю достижения, читаю статьи ведущих исследователей из Китая, какие нахожу. В целом же есть масса сайтов китайских компаний и там часто выкладывают техническую документацию, новости на английском языке.
При этом если книгу написали в Китае, но перевели, допустим, на английский, русский языки, то это тоже китайский опыт. Вот изображение одной из последних прочитанных мною книг.
Продолжение: https://vk.com/wall-210601538_1756
🔥1