MLSecOps | AI Governance | IT Trends – Telegram
MLSecOps | AI Governance | IT Trends
924 subscribers
98 photos
2 videos
3 files
406 links
Канал для друзей и коллег с целью ежедневного развития в направлениях MLSecOps и AI Governance.
Свежие новости, перспективные вакансии, IT-тренды и лучшие учебные программы в сфере ИИ.
Download Telegram
⭐️ Security Week 2520: ИИ-отчеты о выдуманных уязвимостях

На прошлой неделе создатель и ведущий разработчик популярной утилиты cURL Дэниел Стенберг поделился примером бессмысленного отчета о несуществующей уязвимости, очевидно сгенерированного при помощи искусственного интеллекта. Стенберг раскритиковал подобную тактику; отметил, что он и его команда буквально завалены такими фейковыми отчетами, на которые приходится тратить время; и пообещал банить ИИ-исследователей в будущем, добавив: «Мы еще не видели ни одного реально полезного отчета, созданного с помощью ИИ».

Хотя примеры эффективного использования ИИ для поиска уязвимостей существуют (вот относительно свежий пример от Microsoft), в данном случае речь идет о феномене, известном как AI Slop: когда ИИ используется бездумно. Ответ на запрос типа «вот код, найди в нем уязвимость» с наибольшими шансами приведет к тому, что нейросеть просто придумает несуществующую проблему. Пример от разработчиков cURL представляет интерес тем, что один из таких отчетов выложили в общий доступ.

Мейнтейнеры cURL используют для работы с независимыми исследователями платформу HackerOne, через которую и был подан отчет о фейковой уязвимости; его можно найти здесь. Отчет якобы содержит информацию об уязвимости при работе с протоколом HTTP/3. В качестве примера эксплуатации предлагается создать вредоносный сервер, использующий модифицированную библиотеку aioquic. При обращении к серверу с помощью утилиты cURL уязвимость, по идее, должна вызывать повреждение памяти.

Выглядит эта уязвимость достаточно правдоподобно. В интервью изданию Ars Technica Стенберг отмечает, что подобные отчеты всегда оформлены по высшему разряду и добавляет, что настоящие сообщения о реально существующих уязвимостях никогда такой аккуратностью не отличаются.

Продолжение: https://vk.com/wall-210601538_1734
⭐️ ИИ для кибербезопасности: тренды и востребованность

Институт статистических исследований и экономики знаний НИУ ВШЭ представил обзор трендов применения решений на основе искусственного интеллекта (ИИ) для цифровой безопасности, а также изучил их использование среди российских организаций. Отдельно были рассмотрены компании, которые применяют ИИ-решения более трех лет, и те, которые начали их внедрять менее трех лет назад.

Оценки основаны на результатах проведенного в конце 2023 года обследования 2,5 тыс. организаций из 20 отраслей экономики (обрабатывающая промышленность, торговля, финансы и страхование, транспорт и логистика, ИТ-отрасль, телекоммуникации и др.). В обзоре также приводятся информация из сторонних исследований (InfoWatch, Proofpoint, Imperva).

Ключевые выводы:

+ наиболее популярными ИИ-инструментами обеспечения цифровой безопасности эксперты назвали системы прогнозирования новых угроз; поведенческую аналитику сотрудников; ИИ-решения для блокировки ботов на основе анализа их активности; генеративные модели для анализа уязвимостей кода, сбора расширенного контекста событий ИБ, генерации пояснений по обнаруженным угрозам, выявления неявных связей в системе; обнаружение фишинговых сообщений через анализ текста;

+ отечественные инструменты ИИ в целом более востребованы у организаций, использующих такие технологии менее трех лет — 63,5% против 42,9% для компаний с более продолжительным опытом применения ИИ;

Продолжение: https://vk.com/wall-210601538_1735
⭐️ Примеры MLSecOps. Компания Cognitive Pilot усовершенствовала архитектуру нейронной сети в целях повышения безопасности

Ведущий российский разработчик систем автопилотирования на основе ИИ компания Cognitive Pilot выпустила обновление систем автопилотирования для сельхозтехники и рельсового транспорта, в котором усовершенствована структура нейронной сети.

В отличие от традиционного формата совершенствования архитектуры нейронных сетей, основанного в том числе на сборе огромных массивов информации, специалисты Cognitive Pilot применили свой, инновационный подход, сделав акцент на умном и рациональном отборе данных. В своем решении компания использовала актуальные аналитические методы анализа, такие как TSNE (t-distributed Stochastic Neighbor Embedding) и OOD (Out-of-Distribution Detection). Данный подход позволяет строить сбалансированные обучающие выборки, исключая избыточность и добиваясь максимальной эффективности при минимальном количестве данных.

Использование современной многозадачной трансформерной архитектуры позволило компании достичь качественно иного результата в задачах автопилотирования сельхозтехники и рельсового транспорта. Новая архитектура сети включает в себя несколько выходов (голов), каждый из которых отвечает за решение различных задач: например, определение кромки поля, детектирование препятствий, обнаружение зон, где вождение возможно или невозможно, и т. д. Ключевым преимуществом предложенного подхода стало достижение согласованности в процедуре обучения сети, что в совокупности с правильной стратегией насыщения обучающей выборки обеспечило заметный рост качества распознавания по сравнению с обучением каждой задачи отдельно. Совместное обучение также позволило адаптировать задачи сети к новым функциональным сценариям, которые не были изначально заложены в целевую постановку (эмерджентность). Взаимодействие между выходами способствовало более глубокому, качественному извлечению признаков и устойчивому обобщению, что указывает на формирование новых системных свойств нейросети, таких как эмерджентность и синергия в процессе совместного обучения. Новая архитектура получила название CognitiveNet.

Продолжение: https://vk.com/wall-210601538_1736
⭐️ Как нейросети помогают преступникам

Раньше на создание сложной схемы у среднего пошиба мошенников уходили дни, а то и недели, но сейчас при помощи нейросетей то же самое они могут реализовать за минуты. Это показал девятый выпуск отчета Cyber Signals под названием «Обман с помощью ИИ: новые угрозы мошенничества и методы противодействия». Теперь даже не слишком умные скамеры могут разрабатывать уловки, на которые раньше были способны единицы.

Инструменты на основе искусственного интеллекта могут собирать информацию о компаниях в интернете, помогая киберпреступникам создавать подробные профили потенциальных жертв для проведения эффективных атак методом социальной инженерии.

Злоумышленники заманивают пользователей в сложные схемы мошенничества, используя фальшивые обзоры товаров и созданные ИИ интернет-магазины.

По словам Келли Бисселл, корпоративного вице-президента подразделения Microsoft Security по борьбе с мошенничеством и злоупотреблениями продуктами, угроза продолжает расти: «Киберпреступность — это проблема на триллионы долларов, и ее масштабы увеличиваются с каждым годом на протяжении последних 30 лет».

По данным команды Microsoft по борьбе с мошенничеством, атаки с применением ИИ происходят по всему миру, особенно активны регионы Китая и Европы — в частности, Германии, как одного из крупнейших рынков электронной коммерции в ЕС.

Чем крупнее цифровая торговая площадка, тем выше вероятность мошенничества пропорционально ее размерам.

Особое беспокойство вызывают два направления мошенничества, усиленного ИИ: электронная коммерция и поиск работы.

Продолжение: https://vk.com/wall-210601538_1737
⭐️ Техническая поддержка MLSecOps и Data Governance

Привет, мои дорогие и самые талантливые друзья!

Запросов на помощь по обеспечению безопасности ИИ-систем от компаний-партнеров и моих подписчиков с каждым месяцем становится все больше. Также начинают поступать запросы и на Data Governance.

Поэтому я открываю в блоге VK два канала, где буду публиковать реальные запросы на техподдержку по этим двум направлениям. Конечно, все кейсы будут максимально анонимизированы, ситуации - обобщены. Но я уверен - реальные технологии и прикладные решения, используемые в реальных IT-компаниях будут очень интересны всем.

Техническая поддержка бесплатна и оказывается оперативно - просто пишите мне в личку в VK или в TG. В случае, если подобный кейс уже был, я перенаправлю на уже готовое решение и при необходимости дополнительно проконсультирую. При этом каждый новый практический случай буду дополнительно публиковать в своих блогах.

Архитектор MLSecOps
Николай Павлов
🔥4
⭐️ Что такое MLSecOps?

I. Понимание MLSecOps

Машинное обучение (ML) - это мощный инструмент для обнаружения закономерностей в данных и определения новых способов решения проблем. Однако, как и в случае со многими новыми технологиями, злоумышленники могут использовать системы ML или внедрять новые уязвимости, которые традиционные средства безопасности могут не заметить.

Операции по обеспечению безопасности машинного обучения (MLSecOps) - это развивающаяся дисциплина, которая решает эти задачи, уделяя особое внимание безопасности систем машинного обучения на протяжении всего их жизненного цикла. В нем решаются такие вопросы, как защита данных, используемых для обучения, защита моделей от враждебных угроз, обеспечение надежности моделей и мониторинг уязвимостей в развернутых системах. Поскольку организации все больше полагаются на искусственный интеллект и ML в критически важных операциях, важность MLSecOps значительно возросла.

В этой статье мы рассмотрим, как MLSecOps сочетает элементы кибербезопасности, DevOps и ML для улучшения обнаружения и устранения уязвимостей в системах, управляемых ML, обеспечивая их надежность, безопасность и соответствие нормативным стандартам.

II. Основные компоненты MLSecOps

Продолжение: https://vk.com/wall-210601538_1739
👍3🔥1
⭐️ После обвинений в плагиате и судебных исков OpenAI запустила центр оценки безопасности своих моделей ИИ

OpenAI запустила новый веб-ресурс — Центр оценок безопасности — для публикации информации о безопасности своих моделей искусственного интеллекта. Запуск состоялся 14 мая 2025 года, центр призван повысить прозрачность деятельности компании, которая в последнее время столкнулась с рядом судебных исков, обвиняющих её в незаконном использовании авторских материалов для обучения своих моделей ИИ. В частности, The New York Times утверждает, что OpenAI случайно удалила доказательства в деле о плагиате.

Центр оценок безопасности будет регулярно обновляться и предоставлять данные о таких аспектах, как частота галлюцинаций моделей, наличие вредоносного контента в их ответах, а также эффективность работы моделей по заданным инструкциям и попытки обхода ограничений. Так OpenAI планирует расширить информацию, предоставляемую ранее в рамках «системных карт», которые содержали лишь начальные данные о мерах безопасности каждой модели.

«По мере развития знаний об оценке ИИ мы стремимся делиться своим прогрессом в разработке более масштабируемых способов измерения возможностей и безопасности моделей», — говорится в заявлении OpenAI. Компания подчеркивает, что публикация части результатов оценок безопасности призвана не только улучшить понимание работы систем OpenAI, но и способствовать общим усилиям по повышению прозрачности в данной области. OpenAI также заявляет о намерении более активно взаимодействовать с сообществом по вопросам безопасности.

Продолжение: https://vk.com/wall-210601538_1740
🔥1
⭐️ ИИ в Data Governance: как мы ускорили маркировку персональных данных

Меня зовут Антон, я аналитик в команде разработки продукта RT.DataGovernance (далее — DG) компании TData.

В этой статье я расскажу, как мы c командой определяли, где и как будем использовать искусственный интеллект, как тестировали обученные модели и как интегрировали их в DG.

I. Пару слов о нашем продукте

Каждая компания, использующая data-driven подход, нуждается в качественном и эффективном управлении данными. Практики управления данными основаны на теоретических и практических рекомендациях, разработанных профессиональной ассоциацией DAMA (Data Management Association). Зафиксированы и описаны они в известной DAMA DMBOK. Одной из ключевых областей в управлении данными является Data Governance (в честь него и назван наш продукт). Она включает:

+ Определение политики и процедур управления данными
+ Назначение ролей и ответственности за управление данными
+ Разработка планов управления данными
+ Мониторинг и контроль качества данных
+ Обеспечение безопасности и конфиденциальности данных

Эти аспекты мы реализовали в нашем продукте через модули Каталога данных и Бизнес-Глоссария. Обращаясь к хранилищам данных, мы сканируем метаинформацию о существующих в нем объектах. Как правило, это схемы, таблицы и представления. DG отображает их метаинформацию: размер объекта, количество строк, колонки, сэмпл данных. После запуска профилирования для данных можно отразить минимальные и максимальные значения, процент пропусков, процент уникальных значений и моду.

В DG реализованы механизмы дополнительного бизнес-описания отсканированных объектов: пользователи могут закрепить за объектом конкретную роль, задать произвольный атрибутивный состав, связать его с другими объектами в DG (например, с терминами) и проставить теги. Это позволяет агрегировать объекты не только по атрибутам, но и по тегам.

Продолжение: https://habr.com/ru/companies/rostelecom/articles/909976/
🔥1
⭐️ Комната Наверху и другие истории обхода LLM

Вышла замечательная статья на habr одного из лидеров ИИ-Security в России, Артема Семенова.
Написана простым языком и с наглядными скриншотами. Очень рекомендую прочитать!

Ссылка: https://habr.com/ru/articles/910334

Архитектор MLSecOps
Николай Павлов
🔥3🥰1
⭐️ Cybernews: анализ ИИ-инструментов выявил 84% нарушений безопасности данных

Издание Cybernews представило отчёт на тему рисков, связанных с использованием искусственного интеллекта в корпоративной среде. Исследование Business Digital Index показало: 84% популярных ИИ-сервисов уязвимы или уже были скомпрометированы, что ставит под угрозу данные предприятий, использующих эти решения без контроля.

По данным отчёта, большинство сотрудников внедряют ИИ в повседневную работу без согласования с ИТ-отделами. При этом лишь 14% компаний утвердили внутренние регламенты или политику безопасности по применению подобных инструментов. Такой разрыв между активным использованием технологий и отсутствием системной защиты создаёт широкое окно возможностей для киберпреступников.

Анализ показал тревожные результаты: только 33% ИИ-инструментов получили высокий рейтинг безопасности (A), в то время как 41% были оценены на уровне D или F. Эти данные говорят о нестабильном и зачастую крайне слабом уровне защиты. Пользователи неосознанно допускают риски, передавая конфиденциальную информацию в уязвимые приложения.

По словам руководителя отдела исследований безопасности в Cybernews Винсентаса Баубониса, особую опасность представляет ложное чувство защищённости. Один незамеченный сбой в цифровом процессе может привести к масштабной утечке, получению доступа к корпоративным данным, компрометации клиентской информации или запуску программ-вымогателей.

Продолжение: https://vk.com/wall-210601538_1743
👍1🔥1
⭐️ Первая в мире клиника без врачей заработала в Саудовской Аравии

Китайская компания Synyi AI из Шанхая запустила в Саудовской Аравии первую в мире клинику, где искусственный интеллект (ИИ) самостоятельно диагностирует пациентов и выписывает рецепты, рассказывает Tengri Life.

Пациентов принимает ИИ-доктор Dr. Hua, собирает жалобы через планшет, анализирует медицинские показатели и выдает план лечения. Его затем проверяет живой врач, а также он вмешивается в экстренных случаях.

Это последний шаг на пути к тому, чтобы позволить ИИ диагностировать и лечить пациентов напрямую. На предыдущем этапе тестирования уровень ошибок ИИ составлял менее 0,3 процента.

Пока Dr. Hua работает с 30 респираторными заболеваниями, но в планах - расширение до 50 диагнозов и открытие новых клиник.

Несколько десятков пациентов уже воспользовались услугой бесплатно. После завершения испытаний диагностические данные будут направлены властям страны для одобрения. Разрешение может быть выдано в течение 18 месяцев.

tengrinews
🔥2
⭐️ Привет, мои дорогие и самые талантливые друзья!

С 20 мая по 31 мая я буду проводить очень важную и сложную учебную программу по направлению MLSecOps в Академии Softline.

Так как я приложу огромные усилия, чтобы провести эту программу на отлично и дать слушателям максимум, никаких новостей в блогах в это время не будет.

Все вопросы, пожалуйста, пишите в личку. Всем сердцем верю, что за эти дни каждый из вас изучит что-то новое и станет еще на шаг ближе к вершинам сферы IT. Вы лучшие!

Архитектор MLSecOps
Николай Павлов
🔥4
Media is too big
VIEW IN TELEGRAM
⭐️ Полная запись моего выступления о профессии Data Steward и ее роли в корпоративном Data Governance (21 мая 2025 года, Академия Softline)

Очень рекомендую освоить именно эту профессию всем желающим попасть в сферу IT. Так как, например, в Data Science или MLSecOps сейчас очень высокий порог входа и без хорошей подготовки и хотя бы некоторого опыта зайти с нуля очень трудно.

В этом плане Data Steward менее требовательная к "хардам" профессия. Уже побывав в роли или поработав в должности Data Steward Вы при желании сможете двигаться дальше, на более сложные профессии в IT, а именно - в Big Data.

Ссылка на мою вторую учебную программу (первая - MLSecOps): https://academyit.ru/deals/activity/seminars/data-steward-professiya-budushchego-vash-put-k-uspekhu-v-mire-dannykh

Архитектор MLSecOps
Николай Павлов
🔥2
⭐️ В США продолжился суд над ИИ-чатботом из-за смерти ребёнка

Флоридский суд разрешил продолжить судебное дело против Google и чатбота Character AI, обвиняемых в косвенной причине смерти подростка. Судья Энн Конвей отклонила защиту компаний на основе Первой поправки, заявив, что не готова признать ответы чатбота «свободой слова».

Дело связано со смертью 14-летнего Сьюэлла Сетцера III, который, как утверждают, стал одержим чатботом, подталкивающим его к плохим мыслям. Компании сравнивали чатбот с видеоиграми и социальными сетями, чтобы получить прецедент свободы слова. Судья, правда, усомнилась в доводах.

Кроме вопроса о свободе слова, суд также рассмотрит, был ли продукт Character AI небезопасным и вредным. Учитываться будет аругмент, что чатботы создают ответы автоматически, реагируя на пользователя. Истцы утверждают, что сервис не проверял возраст и вводил в заблуждение, представляя ботов как реальных людей и даже терапевтов.

ferra ru
⭐️ Техподдержка MLSecOps!

ВОПРОС ОТ ПОДПИСЧИКА:

Добрый день, Николай! Я работаю в FinTech. Иногда защита моделей идёт в противовес качеству моделей. Допустим, если использовать дифференциациальную приватность, чтобы защитить конфиденциальные данные, мы теряем качество модели. И тогда бизнес с этого теряет деньги, хоть и защита обеспечена. Очень интересно, были ли у вас такие ситуации, как их решали?

Спасибо за информативный канал по MLSecOps!

ОТВЕТ:

Добрый день и спасибо за Ваш вопрос!

Действительно, в редких случаях бывают ситуации, когда приходится в этом контексте выбирать между защитой модели и качеством данных.

Почему в редких? Потому что как правило до этапа обучения модели по идее не должны добираться приватные и уж тем более персональные данные! Их нужно анонимизировать, хешировать и шифровать еще на этапе хранения как минимум. Потом уже при начале работы с моделью нужно сверить хеши (для избегания отравления данных - Data Poisoning), расшифровать данные и анонимизировать (если вдруг по каким-то бизнес-причинам Вы не стали их анонимизировать на этапе хранения.

А в идеале нужно строить такую архитектуру MLSecOps, чтобы чистка и анонимизация данных были хотя бы частично реализованы на этапах ETL|ELT в Data Engineering. Это требует очень мощной командной работы, сильной культуры Data-Driven, наличия практик Data Governance.

I. Метод "Китайская цифра".

Если данные уже в модели анонимизированы, это уже те данные, которые или не требуют, или в меньшей мере требуют дифференциальной приватности. Но в любом случае как правило проводится нормализация данных, которая еще более трансформирует данные, и приводит их к единому стандарту (например, диапазону от 0 до 1). В этом случае потенциальным злоумышленникам будет еще труднее понять Ваши данные, что и к чему относится.

Но - ДОПУСТИМ - злоумышленнику каким-то образом удалось извлечь эти анонимизированные данные после нормализации. Он смог сначала устранить нормализацию, а затем по кускам анонимизированных данных смог найти какие-то связи в модели и даже установить личности некоторых лиц, по которым собраны данные.

Как еще защититься, не прибегая к дифференциальной приватности?

У Китайских коллег я видел один прием, когда все данные уже после нормализации они умножают/делят на какое-то случайное, известное только избранным, значение (2,683, 1,547 и т.п.).

Продолжение: https://vk.com/wall-210601538_1754
🔥2
⭐️ Власти США почти запретили на 10 лет штатам самостоятельно регулировать ИИ

Палата представителей США приняла законопроект о бюджете, в который неожиданно включили пункт о запрете штатам регулировать искусственный интеллект на ближайшие 10 лет. Это означает, что местные законы по защите от ИИ — например, от дипфейков или дискриминации при приёме на работу — будут недействительны, если закон вступит в силу.

Инициативу поддержали почти все республиканцы. Однако закон ещё должен пройти Сенат, где его могут оспорить, так как подобные запреты не должны входить в бюджет. Некоторые сенаторы-республиканцы также выразили сомнение, поскольку закон мешает действующим мерам защиты, например, прав художников.

Сторонники запрета говорят, что он нужен для предотвращения путаницы из-за разных законов в разных штатах. Противники, включая демократов и правозащитные организации, считают это подарком для крупных IT-компаний, который оставит обычных людей без защиты.

rumbler news
🔥1
⭐️ Техподдержка MLSecOps!

ВОПРОС ОТ ПОДПИСЧИКА:

Добрый день, Николай!
Не нашел как вам написать в паблик, поэтому пишу в личку)

Спасибо за ваши посты, они очень помогают выстраивать безопасность и прокачивать понимание MLSecOps.

В своем посте vk.com/wall-210601538_1754 Вы советуете черпать опыт коллег с востока.

Не могли бы вы пожалуйста поделиться ресурсами, где можно черпать этот опыт?
Так как по теме в целом мало что написано на западе, хотелось бы воспользоваться вашим советом и обратить внимание на восток.

Спасибо!

ОТВЕТ:

Добрый день, и спасибо за Ваш вопрос!

1. По поводу возможности мне написать - в паблике в VK есть специальный раздел для запросов на техподдержку, можете писать туда. Или предлагать вопрос как новость. Либо писать мне прямо в личку - я умею определять надежных и безопасных людей.

2. По поводу постов - рад стараться! Для удобства у меня есть еще блог в телеграмм и он всегда дублирует основной блок в VK, ссылка: t.me/ml_ops

3. По поводу ориентации на восток - да, я активный сторонник развития отношений с восточными странами, в первую очередь это Китай. Восточный опыт я беру в первую очередь (на 90%) от ряда китайских компаний, при этом наиболее активно сотрудничаю с двумя, одна из которых - это китайская компания MAITUO, со штаб-квартирой в городе Шень-Чжень. Это очень мощная и прогрессивная компания, которая также прилагает активные усилия для сотрудничества с Россией. Это сотрудничество полностью бескорыстное.

Кроме того я усиленно изучаю китайский язык, перевожу китайские статьи, изучаю новости о регулировании ИИ в Китае, смотрю достижения, читаю статьи ведущих исследователей из Китая, какие нахожу. В целом же есть масса сайтов китайских компаний и там часто выкладывают техническую документацию, новости на английском языке.

При этом если книгу написали в Китае, но перевели, допустим, на английский, русский языки, то это тоже китайский опыт. Вот изображение одной из последних прочитанных мною книг.

Продолжение: https://vk.com/wall-210601538_1756
🔥1
⭐️ Вот и завершилась наша первая корпоративная программа по основам MLSecOps в Академии Softline! Она была сложной, но интересной! Получил несколько приятных, позитивных отзывов, предложений по сотрудничеству! Спасибо за это! Я обязательно все реализую. Не прощаюсь с дорогими слушателями, пишите, буду рад. Кто не успел сохранить - ссылка на вебинар 1 июня про защиту LLM от Raft Security: https://aisecuritylab.timepad.ru/event/3387493

Архитектор MLSecOps
Николай Павлов
🔥2
⭐️ Первая в мире книга по MLSecOps

Привет, мои дорогие друзья!

Первая в мире книга непосредственно про MLSecOps называется "Securing the AI Enterprise: DevOps, MLOps, and MLSecOps Explained" от автора Edgardo Fernandez Climent. Она анонсирована 4 октября 2024 года на английском языке.

Эта книга — подробное и авторитетное руководство для ИТ-специалистов, которые работают с внедрением и защитой систем искусственного интеллекта (ИИ) в корпоративной среде. Авторы рассказывают, как обеспечить безопасность ИИ-систем на всех этапах их жизненного цикла, от разработки до запуска в производство и последующего сопровождения.

Книга объясняет, как традиционные практики DevOps, созданные для разработки обычного программного обеспечения, адаптировать под специфические требования машинного обучения (MLOps) и, особенно, безопасности машинного обучения (MLSecOps).

Ссылка для скачивания в формате .epub:
https://disk.yandex.ru/i/wpl_C__fp2gAhA

Ссылка для скачивания в формате .pdf:
https://disk.yandex.ru/i/c4-WDIUrbLZ4lQ

Желаю приятного чтения!

Архитектор MLSecOps
Николай Павлов
👍2