Forwarded from Похек AI (Сергей Зыбнев)
MLSecOps + DevSecOps: как защищать Agentic AI
#MLSecOps #AgenticAI #DevSecOps #security
Пока мы обсуждали prompt injection в chatbot'ах, индустрия перешла к агентным AI-системам. Агенты действуют автономно, используют инструменты, запоминают контекст между сессиями. И старые подходы к безопасности здесь не работают.
♾️ Почему нужны оба подхода♾️
DevSecOps защищает код, API, базы данных - классические software-уязвимости. MLSecOps фокусируется на AI-специфичных рисках: prompt injection, model poisoning, adversarial attacks.
Проблема: Agentic AI - это гибрид. Агент одновременно использует ML-модели и вызывает API, работает с БД, выполняет код. Только DevSecOps пропустит prompt injection. Только MLSecOps пропустит SQL injection в интеграциях.
Уникальные угрозы агентных систем
➡️ Error Propagation (Каскадные ошибки)
Если один агент в цепочке ошибся - эта ошибка становится входными данными для следующего. Palo Alto приводит пример: банковский AI неверно интерпретировал историю транзакций - заморозил легитимные аккаунты. Ошибка усилилась через связанные системы.
➡️ Prompt Injection → Code Execution
Атакующий через injection заставляет агента выполнить вредоносный API-вызов или shell-команду. Агент имеет credentials - атака получает реальный impact.
➡️ Lateral Movement
Компрометация одного агента открывает доступ к другим системам через его интеграции и credentials.
♾️ 5 слоёв Defence-in-Depth♾️
▪️ Data Security: валидация training data, access controls
▪️ Model Security: guardrails, защита от adversarial attacks
▪️ Agent Logic Security: least privilege, secure decision-making
▪️ API/Integration Security: аутентификация всех соединений, input/output validation
▪️ Action Execution Security: мониторинг действий, approval workflows для high-risk операций
♾️ Практические рекомендации♾️
➡️ Семантический анализ input'ов - детект манипулятивных запросов
➡️ Action logging + anomaly detection
➡️ Contextual permissions - права зависят от контекста запроса
➡️ Human-in-the-loop для критичных операций (но осторожно - AAI10 Approval Fatigue)
♾️ Что изменилось в 2024-2025♾️
Рынок MLSecOps взорвался: Palo Alto купил Protect AI, Cisco приобрёл Robust Intelligence за $400M, F5 - CalypsoAI. Появились стандарты: OWASP LLM Top 10 2025, OpenSSF MLSecOps Whitepaper, MITRE ATLAS.
Ключевой сдвиг - от "AI как feature" к "AI как критическая инфраструктура". Соответственно меняются и требования к безопасности.
MLSecOps и DevSecOps должны работать вместе. MLBOM (Machine Learning Bill of Materials)* + SBOM. Shift-left для ML-пайплайнов. Прозрачность и трассируемость всей цепочки.
🔗 Источники:
- Palo Alto - Securing Agentic AI
- OWASP Agentic AI Top 10
* дада, снова новый термин выдумали
🌚 @poxek_ai
#MLSecOps #AgenticAI #DevSecOps #security
Пока мы обсуждали prompt injection в chatbot'ах, индустрия перешла к агентным AI-системам. Агенты действуют автономно, используют инструменты, запоминают контекст между сессиями. И старые подходы к безопасности здесь не работают.
DevSecOps защищает код, API, базы данных - классические software-уязвимости. MLSecOps фокусируется на AI-специфичных рисках: prompt injection, model poisoning, adversarial attacks.
Проблема: Agentic AI - это гибрид. Агент одновременно использует ML-модели и вызывает API, работает с БД, выполняет код. Только DevSecOps пропустит prompt injection. Только MLSecOps пропустит SQL injection в интеграциях.
Уникальные угрозы агентных систем
Если один агент в цепочке ошибся - эта ошибка становится входными данными для следующего. Palo Alto приводит пример: банковский AI неверно интерпретировал историю транзакций - заморозил легитимные аккаунты. Ошибка усилилась через связанные системы.
Атакующий через injection заставляет агента выполнить вредоносный API-вызов или shell-команду. Агент имеет credentials - атака получает реальный impact.
Компрометация одного агента открывает доступ к другим системам через его интеграции и credentials.
Рынок MLSecOps взорвался: Palo Alto купил Protect AI, Cisco приобрёл Robust Intelligence за $400M, F5 - CalypsoAI. Появились стандарты: OWASP LLM Top 10 2025, OpenSSF MLSecOps Whitepaper, MITRE ATLAS.
Ключевой сдвиг - от "AI как feature" к "AI как критическая инфраструктура". Соответственно меняются и требования к безопасности.
MLSecOps и DevSecOps должны работать вместе. MLBOM (Machine Learning Bill of Materials)* + SBOM. Shift-left для ML-пайплайнов. Прозрачность и трассируемость всей цепочки.
- Palo Alto - Securing Agentic AI
- OWASP Agentic AI Top 10
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥3
⭐️ Регуляторные документы РФ по безопасности ИИ - с чем мы вступаем в 2026 год
Привет, мои дорогие друзья и самые талантливые коллеги!
Сегодня вышел очень хороший материал от Бориса Захира про нормативно-правовое регулирование безопасности ИИ в России - не могу обойти это стороной. Вообще уже не первый раз замечаю, что Борис уделает этой теме живое внимание и время, за что ему спасибо. Нормативно-правовое регулирование безопасности ИИ - это как раз-таки скорее направление AI Governance, и в то же самое время оно напрямую относится и к MLSecOps.
В начале статьи разбирается Указ Президента РФ от 10 октября 2019 г. №490 "О развитии искусственного интеллекта в Российской Федерации" (с изменениями и дополнениями от 15.02.24), безусловно, этот указ важен.
Действительно в нем довольно много интересных моментов в том числе проработано и повышение уровня компетенций в области искусственного интеллекта и уровня информированности граждан о технологиях искусственного интеллекта, и даже есть моменты про отказоустойчивость ИИ-систем.
При этом автор справедливо указывает, что главное регуляторное событие 2025 года в безопасности ИИ в России - это Приказ ФСТЭК №117 (от 11.04.2025, который вступает в силу уже 01.03.2026).
То есть остался ровно месяц до этого момента. Дружно готовимся, стелим соломку. Здесь я не буду вдаваться в детали, а конечно уже рекомендую прямо сейчас перейти по ссылке и прочитать эту ценную статью целиком:
https://habr.com/ru/articles/986800
Global MLSecOps & AI Governance Architect
Николай Павлов
Привет, мои дорогие друзья и самые талантливые коллеги!
Сегодня вышел очень хороший материал от Бориса Захира про нормативно-правовое регулирование безопасности ИИ в России - не могу обойти это стороной. Вообще уже не первый раз замечаю, что Борис уделает этой теме живое внимание и время, за что ему спасибо. Нормативно-правовое регулирование безопасности ИИ - это как раз-таки скорее направление AI Governance, и в то же самое время оно напрямую относится и к MLSecOps.
В начале статьи разбирается Указ Президента РФ от 10 октября 2019 г. №490 "О развитии искусственного интеллекта в Российской Федерации" (с изменениями и дополнениями от 15.02.24), безусловно, этот указ важен.
Действительно в нем довольно много интересных моментов в том числе проработано и повышение уровня компетенций в области искусственного интеллекта и уровня информированности граждан о технологиях искусственного интеллекта, и даже есть моменты про отказоустойчивость ИИ-систем.
При этом автор справедливо указывает, что главное регуляторное событие 2025 года в безопасности ИИ в России - это Приказ ФСТЭК №117 (от 11.04.2025, который вступает в силу уже 01.03.2026).
То есть остался ровно месяц до этого момента. Дружно готовимся, стелим соломку. Здесь я не буду вдаваться в детали, а конечно уже рекомендую прямо сейчас перейти по ссылке и прочитать эту ценную статью целиком:
https://habr.com/ru/articles/986800
Global MLSecOps & AI Governance Architect
Николай Павлов
Хабр
Регуляторные документы РФ по безопасности ИИ — с чем мы вступаем в 2026 год
Что было интересного в 2025 году по безопасности ИИ? Помимо развития решений по безопасности AI-агентов и их протоколов, в том числе гардрейлов, и также появления фреймворков, для российского рынка...
🤝4🔥2
⭐️ Пентест по кнопке: это уже реальность (Владислав Лапиков и Роман Лебедь)
Пропустил замечательное выступление известных профессионалов из Т-банка Романа Лебедя и Владислава Лапикова. Исправляюсь, публикую сейчас (лучше поздно, чем никогда!).
Ребята рассказывают про безопасность ML, какие подходы к построению атакующих агентов работают на практике, а какие - нет, как формировать метрики и бенчмарки для их оценки и как подходить к внедрению. Все основано на реальном опыте и экспериментах, масса новых моментов.
Будет и про Safeliner - интересную новаторскую разработку, которая может представлять большой интерес для всех российских (да и зарубежных) MLSecOps.
Ссылка на выступление, приятного просмотра: https://vkvideo.ru/video-172362100_456239265
Global MLSecOps & AI Governance Architect
Николай Павлов
Пропустил замечательное выступление известных профессионалов из Т-банка Романа Лебедя и Владислава Лапикова. Исправляюсь, публикую сейчас (лучше поздно, чем никогда!).
Ребята рассказывают про безопасность ML, какие подходы к построению атакующих агентов работают на практике, а какие - нет, как формировать метрики и бенчмарки для их оценки и как подходить к внедрению. Все основано на реальном опыте и экспериментах, масса новых моментов.
Будет и про Safeliner - интересную новаторскую разработку, которая может представлять большой интерес для всех российских (да и зарубежных) MLSecOps.
Ссылка на выступление, приятного просмотра: https://vkvideo.ru/video-172362100_456239265
Global MLSecOps & AI Governance Architect
Николай Павлов
VK Видео
Владислав Лапиков и Роман Лебедь. Пентест по кнопке - это уже реальность
Слушатель узнает, какие подходы к построению атакующих агентов работают на практике, а какие — нет, как формировать метрики и бенчмарки для их оценки и как подходить к внедрению. Все основано на реальном опыте и экспериментах.
🔥5
⭐️ Тренды: чего ждет ИТ-рынок за горизонтом 2026 года
1. Начнется волна массовых внедрений мультиагентных систем ИИ-помощников
50% опрошенных считают, что российские компании будут массово внедрять мультиагентные системы ИИ-помощников в 2027-2028 гг., так как пока зрелость технологий, данных и корпоративных процессов оставляет желать лучшего. 36% делают более оптимистичный прогноз и считают, что массовые внедрения можно ожидать уже в 2026 г.
Эксперты отмечают, что в 2025-2026 гг. рынок подбирается к агентной логике: мультиагентные ИИ-помощники уже точечно используют в различных сценариях, например, для поддержки пользователей, документооборота, аналитики, внутренних процессов.
Но 2026-й будет, скорее, переходным, а через год-два уже появятся более комплексные системы, которые действительно позволят экономить время сотрудников. Массовый характер же внедрения приобретут, когда на рынке будет представлено много готовых решений и компаний-интеграторов.
«Массовое внедрение в ближайшие 1–2 года сдерживается дефицитом квалифицированных кадров в области разработки и сопровождения таких систем, — подчеркивает операционный директор компании SimbirSoft Дмитрий Петерсон. — Тем не менее, растущий спрос будет стимулировать переквалификацию специалистов из смежных областей».
В ближайшие год-два мультиагентные системы будут развиваться в формате пилотов и экспериментальных проектов, а ключевые решения по-прежнему останутся за специалистами. Сдерживает процесс внедрения и то, что мультиагентные системы требуют зрелой ИТ-архитектуры, единой событийной шины и систем MDM (для управления мастер-данными), и большинство компаний к этому придут не раньше 2027 г.
«Сейчас компании больше сфокусированы на подготовке своей ИТ-инфраструктуры для внедрения ИИ-инструментов. В 2026 г. фокус будет на генеративном искуственном интеллекте и ИИ-агентах. Массовое внедрение мультиагентных систем начнется с 2027–2028 годов»...
Продолжение: https://vk.com/wall-210601538_1993
1. Начнется волна массовых внедрений мультиагентных систем ИИ-помощников
50% опрошенных считают, что российские компании будут массово внедрять мультиагентные системы ИИ-помощников в 2027-2028 гг., так как пока зрелость технологий, данных и корпоративных процессов оставляет желать лучшего. 36% делают более оптимистичный прогноз и считают, что массовые внедрения можно ожидать уже в 2026 г.
Эксперты отмечают, что в 2025-2026 гг. рынок подбирается к агентной логике: мультиагентные ИИ-помощники уже точечно используют в различных сценариях, например, для поддержки пользователей, документооборота, аналитики, внутренних процессов.
Но 2026-й будет, скорее, переходным, а через год-два уже появятся более комплексные системы, которые действительно позволят экономить время сотрудников. Массовый характер же внедрения приобретут, когда на рынке будет представлено много готовых решений и компаний-интеграторов.
«Массовое внедрение в ближайшие 1–2 года сдерживается дефицитом квалифицированных кадров в области разработки и сопровождения таких систем, — подчеркивает операционный директор компании SimbirSoft Дмитрий Петерсон. — Тем не менее, растущий спрос будет стимулировать переквалификацию специалистов из смежных областей».
В ближайшие год-два мультиагентные системы будут развиваться в формате пилотов и экспериментальных проектов, а ключевые решения по-прежнему останутся за специалистами. Сдерживает процесс внедрения и то, что мультиагентные системы требуют зрелой ИТ-архитектуры, единой событийной шины и систем MDM (для управления мастер-данными), и большинство компаний к этому придут не раньше 2027 г.
«Сейчас компании больше сфокусированы на подготовке своей ИТ-инфраструктуры для внедрения ИИ-инструментов. В 2026 г. фокус будет на генеративном искуственном интеллекте и ИИ-агентах. Массовое внедрение мультиагентных систем начнется с 2027–2028 годов»...
Продолжение: https://vk.com/wall-210601538_1993
VK
MLSECOPS | AI GOVERNANCE | IT TRENDS. Пост со стены.
⭐ Тренды: чего ждет ИТ-рынок за горизонтом 2026 года
1. Начнется волна массовых внедрений мул... Смотрите полностью ВКонтакте.
1. Начнется волна массовых внедрений мул... Смотрите полностью ВКонтакте.
🔥5❤1
⭐️ Запускаем пятый поток учебной программы по MLSecOps с международным участием!
В декабре успешно завершился четвертый поток корпоративной учебной программы "MLSecOps. Обеспечение безопасности и отказоустойчивости систем машинного обучения" в Академии Softline. В 2025 году программа вышла на Международный уровень (страны СНГ). От слушателей регулярно поступают позитивные отзывы, при этом программа непрерывно обновляется, по мере накопления опыта и стремительного развития направления MLSecOps в России и в мире.
В рамках обучения слушатели проводят аудит ИИ-систем своих компаний, что помогает многим улучшить безопасность и отказоустойчивость прямо в процессе обучения. Для отдельных компаний потенциальный экономический эффект от такого аудита превысил 3 млн. рублей за 2025 год.
По заявкам новых слушателей c 10 февраля мы запускаем новый поток этой обучающей программы и приглашаем всех желающих!
Сильные стороны программы:
1. Опора на передовой опыт обеспечения безопасности ИИ-систем китайских компаний из Гуань-Чжоу и Шень-Чженя.
2. Привлечение к проведению программы топовых экспертов-разработчиков самых передовых российских инструментов HIVETRACE, HIVETRACE RED и LLAMATOR - Евгения Кокуйкина и Тимура Низамова.
3. Бесплатная техническая поддержка всех слушателей программы по вопросам безопасности и отказоустойчивости ИИ-систем в процессе и после проведения программы бессрочно.
4. Реализуется базовый аудит MLSecOps в компаниях слушателей программы силами самих слушателей при поддержке опытного эксперта. Все практические задания программы ориентированы на улучшение безопасности и отказоустойчивости ИИ-систем в компаниях, где работают слушатели и по итогам все желающие формулируют рекомендации по улучшению, практические меры, создавая реальную пользу для бизнеса, оцененную в денежном эквиваленте на основе оценки рисков.
5. Направление MLSecOps - крайне обширное, перспективное и стремительно растущее по экспоненте и большинство российских компаний имеющих ИИ-системы уже столкнулись с необходимостью введения такой должности или роли в ближайший год. Особенно компании из сферы FinTech.
6. Программа согласуется с российскими ГОСТ для ИИ и особенно актуальна сейчас, когда с 1 марта вступает в силу 117 Приказ ФСТЭК и будет разобрано, как соблюдать эти требования. Автор программы принимает участие в разработке ГОСТ и других регламентов в сфере безопасности и отказоустойчивости ИИ-систем в России.
Более подробная информация и возможность записаться по ссылке (смотреть без включенного VPN):
https://academyit.ru/courses/mlsecops/
Дополнительная ссылка:
https://edu.softline.com/vendors/akademiya-ayti/osnovy-mlsecops-obespechenie-bezopasnosti-sistem-mashinnogo-obucheniya/
Московские работодатели могут вернуть до 95% затрат на обучение персонала по данной учебной программе.
Архитектор MLSecOps
Николай Павлов
В декабре успешно завершился четвертый поток корпоративной учебной программы "MLSecOps. Обеспечение безопасности и отказоустойчивости систем машинного обучения" в Академии Softline. В 2025 году программа вышла на Международный уровень (страны СНГ). От слушателей регулярно поступают позитивные отзывы, при этом программа непрерывно обновляется, по мере накопления опыта и стремительного развития направления MLSecOps в России и в мире.
В рамках обучения слушатели проводят аудит ИИ-систем своих компаний, что помогает многим улучшить безопасность и отказоустойчивость прямо в процессе обучения. Для отдельных компаний потенциальный экономический эффект от такого аудита превысил 3 млн. рублей за 2025 год.
По заявкам новых слушателей c 10 февраля мы запускаем новый поток этой обучающей программы и приглашаем всех желающих!
Сильные стороны программы:
1. Опора на передовой опыт обеспечения безопасности ИИ-систем китайских компаний из Гуань-Чжоу и Шень-Чженя.
2. Привлечение к проведению программы топовых экспертов-разработчиков самых передовых российских инструментов HIVETRACE, HIVETRACE RED и LLAMATOR - Евгения Кокуйкина и Тимура Низамова.
3. Бесплатная техническая поддержка всех слушателей программы по вопросам безопасности и отказоустойчивости ИИ-систем в процессе и после проведения программы бессрочно.
4. Реализуется базовый аудит MLSecOps в компаниях слушателей программы силами самих слушателей при поддержке опытного эксперта. Все практические задания программы ориентированы на улучшение безопасности и отказоустойчивости ИИ-систем в компаниях, где работают слушатели и по итогам все желающие формулируют рекомендации по улучшению, практические меры, создавая реальную пользу для бизнеса, оцененную в денежном эквиваленте на основе оценки рисков.
5. Направление MLSecOps - крайне обширное, перспективное и стремительно растущее по экспоненте и большинство российских компаний имеющих ИИ-системы уже столкнулись с необходимостью введения такой должности или роли в ближайший год. Особенно компании из сферы FinTech.
6. Программа согласуется с российскими ГОСТ для ИИ и особенно актуальна сейчас, когда с 1 марта вступает в силу 117 Приказ ФСТЭК и будет разобрано, как соблюдать эти требования. Автор программы принимает участие в разработке ГОСТ и других регламентов в сфере безопасности и отказоустойчивости ИИ-систем в России.
Более подробная информация и возможность записаться по ссылке (смотреть без включенного VPN):
https://academyit.ru/courses/mlsecops/
Дополнительная ссылка:
https://edu.softline.com/vendors/akademiya-ayti/osnovy-mlsecops-obespechenie-bezopasnosti-sistem-mashinnogo-obucheniya/
Московские работодатели могут вернуть до 95% затрат на обучение персонала по данной учебной программе.
Архитектор MLSecOps
Николай Павлов
Softline
Курс Академия АйТи | Основы MLSecOps. Обеспечение безопасности систем машинного обучения | MLSecOps — УЦ Softline
Лидер на рынке корпоративного обучения. Более 20 лет опыта работы. Широкая сеть из 25 представительств в крупнейших городах РФ и СНГ. Более 300 тысяч подготовленных IT-специалистов.
🔥3❤2
⭐️ Первые вакансии по AI Governance в России
Привет, мои дорогие друзья и талантливые коллеги!
Обратил внимание, что на HeadHunter уже появляются первые вакансии, где звучит AI Governance. Как и пул вакансий по MLSecOps 2 года назад, сейчас это пока единичные истории, однако к концу 2026 году, уверен, это число вырастет от 5 до 10 раз.
Описание пока очень общее - и это правильно, так как AI Governance только-только зарождается, много будет изменений.
Например, самостоятельное ведение проектов c заказчиками по внедрению практик Data и AI Governance - от диагностики текущего состояния до реализации целевых инициатив. То есть желательно понимание всех методов AI Governance на протяжении всего жизненного цикла ML.
Пока что AI Governance в основном ассоциируют с Data Governance и в меньшей мере с MLSecOps, что в принципе объяснимо - в обеспечение AI Governance в первую очередь входит понимание всех компонентов AI архитектуры, оценка рисков и активное внедрение, масштабирование применения AI.
Большой акцент делают на подготовке технической документации, а также важна коммуникативная часть по развитию отношений с партнерами и клиентами (что характерно и для позиции Data Steward в Data Governance).
В общем и целом радует, что направление запускается, обрисовываются его контуры. Ожидаю лавинообразного роста здесь с 2026 по 2030 годы.
Пример одной из вакансий: https://hh.ru/vacancy/129341064
Global MLSecOps & AI Governance Architect
Николай Павлов
Привет, мои дорогие друзья и талантливые коллеги!
Обратил внимание, что на HeadHunter уже появляются первые вакансии, где звучит AI Governance. Как и пул вакансий по MLSecOps 2 года назад, сейчас это пока единичные истории, однако к концу 2026 году, уверен, это число вырастет от 5 до 10 раз.
Описание пока очень общее - и это правильно, так как AI Governance только-только зарождается, много будет изменений.
Например, самостоятельное ведение проектов c заказчиками по внедрению практик Data и AI Governance - от диагностики текущего состояния до реализации целевых инициатив. То есть желательно понимание всех методов AI Governance на протяжении всего жизненного цикла ML.
Пока что AI Governance в основном ассоциируют с Data Governance и в меньшей мере с MLSecOps, что в принципе объяснимо - в обеспечение AI Governance в первую очередь входит понимание всех компонентов AI архитектуры, оценка рисков и активное внедрение, масштабирование применения AI.
Большой акцент делают на подготовке технической документации, а также важна коммуникативная часть по развитию отношений с партнерами и клиентами (что характерно и для позиции Data Steward в Data Governance).
В общем и целом радует, что направление запускается, обрисовываются его контуры. Ожидаю лавинообразного роста здесь с 2026 по 2030 годы.
Пример одной из вакансий: https://hh.ru/vacancy/129341064
Global MLSecOps & AI Governance Architect
Николай Павлов
hh.ru
Вакансия Data&AI Governance Эксперт (команда Data&AI Strategy) в Москве, работа в компании Axenix (ранее Accenture)
Зарплата: не указана. Москва. Требуемый опыт: 3–6 лет. Полная. Дата публикации: 13.01.2026.
🔥5
⭐️ 5 IT-трендов, которые определят развитие бизнеса в 2026 году
В 2026 году российский IT-рынок продолжит рост и может приблизиться к 4,5 трлн ₽. При этом компании меняют подход к инвестициям: выбирают решения с быстрым и измеримым эффектом. Например, вкладывают в развитие AI-проектов, масштабирование IT-инфраструктуры или создание собственных разработок.
Чтобы понять, как изменится IT-сфера в ближайшие годы, рассмотрим пять ключевых технологических направлений, которые определят развитие индустрии. Расскажем, чего ждать в 2026 году, и объясним, что это значит для бизнеса.
1. Искусственный интеллект и машинное обучение: от генерации картинок к AI-агентам
Еще несколько лет назад искусственный интеллект воспринимался многими как инструмент для генерации картинок или написания текстов. Сегодня он становится фундаментом бизнес-процессов и переходит от вспомогательных функций к самостоятельному выполнению сложных задач.
Масштабы использования ИИ впечатляют: согласно исследованию McKinsey Technology Trends Outlook 2025, доля компаний, применяющих ИИ в своей работе, выросла до 78%. В России объем рынка искусственного интеллекта тоже растет стремительно и может достичь 500 млрд ₽ в 2026 году.
Одним из направлений развития ИИ в 2026 году станет внедрение AI-агентов. Такие системы анализируют данные, принимают решения и выполняют комплексные задачи без постоянного контроля. Исследование ВШЭ показывает, что 59% российских компаний рассматривают возможности внедрения AI-агентов.
В отличие от обычных чат-ботов или генеративных моделей, AI-агенты работают по принципу «получить задачу — спланировать решение — выполнить». Вот конкретные примеры AI-агентов, которые бизнес может внедрить:
+ Аналитические агенты. Автоматически анализируют продажи за месяц, выявляют аномалии и формируют рекомендации для руководства.
+ Клиентский сервис. Функционирует как команда специализированных агентов, где один консультирует клиентов, другой оформляет продажи, третий обновляет карточки товаров.
+ Агенты прогнозирования спроса. Обрабатывают большие массивы данных и помогают бизнесу принимать обоснованные решения по закупкам и ассортименту.
Несмотря на активное развитие технологий, финансовая эффективность ИИ вызывает вопросы. По данным NANDA, только 5% компаний полностью окупили инвестиции в ИИ. Это связано с тем, что уровень автономности AI-агентов все еще ограничен: системы могут допускать ошибки в реальных сценариях.
Продолжение: https://vk.com/wall-210601538_1996
В 2026 году российский IT-рынок продолжит рост и может приблизиться к 4,5 трлн ₽. При этом компании меняют подход к инвестициям: выбирают решения с быстрым и измеримым эффектом. Например, вкладывают в развитие AI-проектов, масштабирование IT-инфраструктуры или создание собственных разработок.
Чтобы понять, как изменится IT-сфера в ближайшие годы, рассмотрим пять ключевых технологических направлений, которые определят развитие индустрии. Расскажем, чего ждать в 2026 году, и объясним, что это значит для бизнеса.
1. Искусственный интеллект и машинное обучение: от генерации картинок к AI-агентам
Еще несколько лет назад искусственный интеллект воспринимался многими как инструмент для генерации картинок или написания текстов. Сегодня он становится фундаментом бизнес-процессов и переходит от вспомогательных функций к самостоятельному выполнению сложных задач.
Масштабы использования ИИ впечатляют: согласно исследованию McKinsey Technology Trends Outlook 2025, доля компаний, применяющих ИИ в своей работе, выросла до 78%. В России объем рынка искусственного интеллекта тоже растет стремительно и может достичь 500 млрд ₽ в 2026 году.
Одним из направлений развития ИИ в 2026 году станет внедрение AI-агентов. Такие системы анализируют данные, принимают решения и выполняют комплексные задачи без постоянного контроля. Исследование ВШЭ показывает, что 59% российских компаний рассматривают возможности внедрения AI-агентов.
В отличие от обычных чат-ботов или генеративных моделей, AI-агенты работают по принципу «получить задачу — спланировать решение — выполнить». Вот конкретные примеры AI-агентов, которые бизнес может внедрить:
+ Аналитические агенты. Автоматически анализируют продажи за месяц, выявляют аномалии и формируют рекомендации для руководства.
+ Клиентский сервис. Функционирует как команда специализированных агентов, где один консультирует клиентов, другой оформляет продажи, третий обновляет карточки товаров.
+ Агенты прогнозирования спроса. Обрабатывают большие массивы данных и помогают бизнесу принимать обоснованные решения по закупкам и ассортименту.
Несмотря на активное развитие технологий, финансовая эффективность ИИ вызывает вопросы. По данным NANDA, только 5% компаний полностью окупили инвестиции в ИИ. Это связано с тем, что уровень автономности AI-агентов все еще ограничен: системы могут допускать ошибки в реальных сценариях.
Продолжение: https://vk.com/wall-210601538_1996
VK
MLSECOPS | AI GOVERNANCE | IT TRENDS. Пост со стены.
⭐ 5 IT-трендов, которые определят развитие бизнеса в 2026 году
В 2026 году российский IT-рыно... Смотрите полностью ВКонтакте.
В 2026 году российский IT-рыно... Смотрите полностью ВКонтакте.
🔥4
⭐️ Регуляторика разработки безопасного ПО в России
Привет, мои замечательные друзья и самые лучшие коллеги!
Наконец-то добрался до интересного цикла статей от Альбины Аскеровой из Swordfish Security по регуляторике разработки безопасного программного обеспечения (РБПО).
Этот цикл написан доступным языком, в позитивном стиле, крайне доходчиво и последовательно. Цикл статей имеет историческую последовательность, и я рекомендую начинать с самой ранней статьи, чтобы освежить память.
Радует, что автор не только описала текущую ситуацию по нормативке в РБПО, но и где-то сделала прогнозы, отразила свое экспертное видение. Здорово, что последняя статья описывает и 117 приказ ФСТЭК, его влияние на безопасную разработку ПО, в том числе и на безопасность ИИ-систем.
Итак, в этот зимний вечер четверга дружно переходим по ссылке и актуализируем наши знания:
https://habr.com/ru/users/AlbinaAskerova/articles/
Все эти статьи очень важны для DevSecOps, MLSecOps, разработчиков ПО в целом, специалистов ИБ, CISO и других специалистов, в работе которых требуются знания регуляторики РБПО.
Global MLSecOps & AI Governance Architect
Николай Павлов
Привет, мои замечательные друзья и самые лучшие коллеги!
Наконец-то добрался до интересного цикла статей от Альбины Аскеровой из Swordfish Security по регуляторике разработки безопасного программного обеспечения (РБПО).
Этот цикл написан доступным языком, в позитивном стиле, крайне доходчиво и последовательно. Цикл статей имеет историческую последовательность, и я рекомендую начинать с самой ранней статьи, чтобы освежить память.
Радует, что автор не только описала текущую ситуацию по нормативке в РБПО, но и где-то сделала прогнозы, отразила свое экспертное видение. Здорово, что последняя статья описывает и 117 приказ ФСТЭК, его влияние на безопасную разработку ПО, в том числе и на безопасность ИИ-систем.
Итак, в этот зимний вечер четверга дружно переходим по ссылке и актуализируем наши знания:
https://habr.com/ru/users/AlbinaAskerova/articles/
Все эти статьи очень важны для DevSecOps, MLSecOps, разработчиков ПО в целом, специалистов ИБ, CISO и других специалистов, в работе которых требуются знания регуляторики РБПО.
Global MLSecOps & AI Governance Architect
Николай Павлов
Хабр
Статьи / Профиль AlbinaAskerova
🔥5❤2
⭐️ Правительство проработает проект по регулированию ИИ
Правительство РФ прорабатывает законопроект по регулированию искусственного интеллекта (ИИ), будут определены критерии "российской" нейросети (что считать российской моделью), авторское право, маркировка ИИ-контента, права, обязанности и ответственность разработчиков и пользователей, рассказали журналистам в аппарате вице-премьера РФ Дмитрия Григоренко.
"На площадке правительства прорабатывается рамочный законопроект, направленный на регулирование ИИ. Предварительно определены ключевые направления регулирования, которым будет уделено особое внимание: критерии "российского" ИИ; права, обязанности и ответственность; маркировка ИИ-контента; авторское право", - сообщили там.
Кроме того, будет уделено внимание использованию ИИ в отраслях, а также формированию понятийного аппарата, чтобы устранить неоднозначность трактовок.
Там объяснили, что ключевой задачей является предотвратить риски от применения ИИ в "чувствительных" сферах, где цена ошибки особенно высока. В числе таких сфер: здравоохранение, судопроизводство, общественная безопасность, образование. При этом распространять требования к ИИ на коммерческий сектор, за исключением объектов критической инфраструктуры, пока не планируется. Очень важно предотвратить использование ИИ для совершения преступлений и признать использование технологии отягчающим обстоятельством при совершении правонарушений.
"Применение искусственного интеллекта становится все более массовым. Все острее встает вопрос о необходимости введения прозрачных "правил игры". В вопросе регулирования ИИ важно сохранять баланс. С одной стороны, стоит задача – предотвратить возможные риски применения ИИ в тех сферах, где цена ошибки слишком высока. С другой стороны, важно не приостановить развитие технологии, не "задушить" ее правилами", - сообщил Григоренко. Его слова приводятся аппаратом.
Он отметил, что правительство предлагает придерживаться гибкого подхода. Например, предотвратить использование ИИ для совершения преступлений и признать использование технологии отягчающим обстоятельством при совершении правонарушений. Это важно прежде всего для защиты интересов граждан.
Законопроект по регулированию искусственного интеллекта может быть представлен в правительство России уже до конца февраля.
РИА Новости
Правительство РФ прорабатывает законопроект по регулированию искусственного интеллекта (ИИ), будут определены критерии "российской" нейросети (что считать российской моделью), авторское право, маркировка ИИ-контента, права, обязанности и ответственность разработчиков и пользователей, рассказали журналистам в аппарате вице-премьера РФ Дмитрия Григоренко.
"На площадке правительства прорабатывается рамочный законопроект, направленный на регулирование ИИ. Предварительно определены ключевые направления регулирования, которым будет уделено особое внимание: критерии "российского" ИИ; права, обязанности и ответственность; маркировка ИИ-контента; авторское право", - сообщили там.
Кроме того, будет уделено внимание использованию ИИ в отраслях, а также формированию понятийного аппарата, чтобы устранить неоднозначность трактовок.
Там объяснили, что ключевой задачей является предотвратить риски от применения ИИ в "чувствительных" сферах, где цена ошибки особенно высока. В числе таких сфер: здравоохранение, судопроизводство, общественная безопасность, образование. При этом распространять требования к ИИ на коммерческий сектор, за исключением объектов критической инфраструктуры, пока не планируется. Очень важно предотвратить использование ИИ для совершения преступлений и признать использование технологии отягчающим обстоятельством при совершении правонарушений.
"Применение искусственного интеллекта становится все более массовым. Все острее встает вопрос о необходимости введения прозрачных "правил игры". В вопросе регулирования ИИ важно сохранять баланс. С одной стороны, стоит задача – предотвратить возможные риски применения ИИ в тех сферах, где цена ошибки слишком высока. С другой стороны, важно не приостановить развитие технологии, не "задушить" ее правилами", - сообщил Григоренко. Его слова приводятся аппаратом.
Он отметил, что правительство предлагает придерживаться гибкого подхода. Например, предотвратить использование ИИ для совершения преступлений и признать использование технологии отягчающим обстоятельством при совершении правонарушений. Это важно прежде всего для защиты интересов граждан.
Законопроект по регулированию искусственного интеллекта может быть представлен в правительство России уже до конца февраля.
РИА Новости
🔥3
⭐️ Обеспечение безопасности рабочих нагрузок машинного обучения в облачной инфраструктуре
Внедрение систем машинного обучения в производственные среды становится стандартной практикой для множества организаций. Однако специфика архитектуры и жизненного цикла таких систем создаёт угрозы, выходящие за рамки традиционных подходов к безопасности приложений. Модели машинного обучения представляют собой сжатые представления знаний, обладающие самостоятельной ценностью: их кража или компрометация может привести к утрате конкурентных преимуществ, интеллектуальной собственности или доверия пользователей. Эффективная защита требует интеграции принципов безопасности на всех этапах конвейера машинного обучения — от подготовки данных до развертывания и мониторинга в эксплуатации.
Специфические угрозы рабочим нагрузкам машинного обучения
Традиционные модели информационной безопасности фокусируются на защите исходного кода, учётных данных и персональных данных. Системы машинного обучения расширяют спектр ценных активов за счёт обучающих наборов, предварительно обученных моделей и конвейеров обработки признаков. Атака методом отравления данных позволяет злоумышленнику внедрить вредоносные образцы в обучающий корпус, что приводит к целенаправленному искажению поведения модели без прямого доступа к инфраструктуре. Экспериментальные исследования демонстрируют, что даже доли процента отравленных данных способны вызывать устойчивые ошибки классификации с потенциальными бизнес-последствиями.
Компрометация репозиториев моделей представляет собой подтверждённый вектор атаки. Инциденты, связанные с внедрением версий моделей, содержащих скрытые бэкдоры, подчёркивают уязвимость цепочек поставок машинного обучения. Такие модифицированные артефакты могут демонстрировать корректное поведение при тестировании, активируя вредоносную функциональность только при получении специфических входных шаблонов. Параллельно сохраняется риск несанкционированного извлечения весов моделей через уязвимые интерфейсы вывода, что экономически выгодно ввиду высокой стоимости их переобучения.
Инфраструктурные уязвимости усугубляют перечисленные риски. Рабочие нагрузки машинного обучения часто размещаются на вычислительных ресурсах с ускорителями (GPU, TPU), развёртывание которых опережает применение мер защиты. Неконтролируемый доступ к средам разработки, таким как серверы Jupyter Notebook, или незащищённые интерфейсы управления могут предоставить злоумышленнику доступ к конфиденциальным данным, скриптам обучения и учётным данным облачных сервисов.
Продолжение: https://vk.com/wall-210601538_2000
Внедрение систем машинного обучения в производственные среды становится стандартной практикой для множества организаций. Однако специфика архитектуры и жизненного цикла таких систем создаёт угрозы, выходящие за рамки традиционных подходов к безопасности приложений. Модели машинного обучения представляют собой сжатые представления знаний, обладающие самостоятельной ценностью: их кража или компрометация может привести к утрате конкурентных преимуществ, интеллектуальной собственности или доверия пользователей. Эффективная защита требует интеграции принципов безопасности на всех этапах конвейера машинного обучения — от подготовки данных до развертывания и мониторинга в эксплуатации.
Специфические угрозы рабочим нагрузкам машинного обучения
Традиционные модели информационной безопасности фокусируются на защите исходного кода, учётных данных и персональных данных. Системы машинного обучения расширяют спектр ценных активов за счёт обучающих наборов, предварительно обученных моделей и конвейеров обработки признаков. Атака методом отравления данных позволяет злоумышленнику внедрить вредоносные образцы в обучающий корпус, что приводит к целенаправленному искажению поведения модели без прямого доступа к инфраструктуре. Экспериментальные исследования демонстрируют, что даже доли процента отравленных данных способны вызывать устойчивые ошибки классификации с потенциальными бизнес-последствиями.
Компрометация репозиториев моделей представляет собой подтверждённый вектор атаки. Инциденты, связанные с внедрением версий моделей, содержащих скрытые бэкдоры, подчёркивают уязвимость цепочек поставок машинного обучения. Такие модифицированные артефакты могут демонстрировать корректное поведение при тестировании, активируя вредоносную функциональность только при получении специфических входных шаблонов. Параллельно сохраняется риск несанкционированного извлечения весов моделей через уязвимые интерфейсы вывода, что экономически выгодно ввиду высокой стоимости их переобучения.
Инфраструктурные уязвимости усугубляют перечисленные риски. Рабочие нагрузки машинного обучения часто размещаются на вычислительных ресурсах с ускорителями (GPU, TPU), развёртывание которых опережает применение мер защиты. Неконтролируемый доступ к средам разработки, таким как серверы Jupyter Notebook, или незащищённые интерфейсы управления могут предоставить злоумышленнику доступ к конфиденциальным данным, скриптам обучения и учётным данным облачных сервисов.
Продолжение: https://vk.com/wall-210601538_2000
VK
MLSECOPS | AI GOVERNANCE | IT TRENDS. Пост со стены.
⭐ Обеспечение безопасности рабочих нагрузок машинного обучения в облачной инфраструктуре
Внед... Смотрите полностью ВКонтакте.
Внед... Смотрите полностью ВКонтакте.
🔥2
⭐️ Gartner определила ключевые тренды в кибербезопасности на 2026 год
Хаотичное развитие искусственного интеллекта, геополитическая напряжённость, регуляторная нестабильность и стремительный рост киберугроз — основные факторы, формирующие ключевые тренды в кибербезопасности на 2026 год, говорится в отчёте компании Gartner.
«Руководители по кибербезопасности сегодня работают в неизведанной среде: все эти факторы сходятся одновременно и проверяют на прочность их команды в условиях постоянных изменений, — отмечает Алекс Майклс, директор-аналитик Gartner. — Это требует новых подходов к управлению киберрисками, устойчивости и распределению ресурсов».
Gartner выделяет шесть трендов, которые существенно повлияют на управление, защиту новых цифровых пространств и массовое внедрение ИИ.
Тренд 1. Агентный ИИ требует усиленного контроля
Агентный ИИ (автономные ИИ-агенты) всё активнее используется сотрудниками и разработчиками, создавая новые поверхности атак. No-code/low-code платформы и так называемый «vibe coding» ускоряют распространение неуправляемых ИИ-агентов, небезопасного кода и рисков нарушения регуляторных требований.
Gartner рекомендует выстраивать жёсткое управление: выявлять разрешённые и неразрешённые ИИ-агенты, внедрять строгие политики контроля и сценарии реагирования на инциденты.
Тренд 2. Регуляторная нестабильность усиливает фокус на устойчивости
Геополитические изменения и новые регуляторные требования делают кибербезопасность критическим бизнес-риском. Регуляторы всё чаще возлагают личную ответственность за нарушения на советы директоров и топ-менеджеров.
Компании рискуют столкнуться с крупными штрафами, потерей бизнеса и репутационным ущербом. Gartner советует формализовать взаимодействие между ИТ, юристами и бизнесом, внедрять стандартизированные контрольные рамки и учитывать требования по суверенитету данных.
Тренд 3. Постквантовая криптография переходит от теории к практике
Gartner прогнозирует, что к 2030 году квантовые компьютеры сделают традиционную асимметричную криптографию небезопасной. Поэтому уже сейчас нужно переходить на постквантовые алгоритмы.
Продолжение: https://vk.com/wall-210601538_2001
Хаотичное развитие искусственного интеллекта, геополитическая напряжённость, регуляторная нестабильность и стремительный рост киберугроз — основные факторы, формирующие ключевые тренды в кибербезопасности на 2026 год, говорится в отчёте компании Gartner.
«Руководители по кибербезопасности сегодня работают в неизведанной среде: все эти факторы сходятся одновременно и проверяют на прочность их команды в условиях постоянных изменений, — отмечает Алекс Майклс, директор-аналитик Gartner. — Это требует новых подходов к управлению киберрисками, устойчивости и распределению ресурсов».
Gartner выделяет шесть трендов, которые существенно повлияют на управление, защиту новых цифровых пространств и массовое внедрение ИИ.
Тренд 1. Агентный ИИ требует усиленного контроля
Агентный ИИ (автономные ИИ-агенты) всё активнее используется сотрудниками и разработчиками, создавая новые поверхности атак. No-code/low-code платформы и так называемый «vibe coding» ускоряют распространение неуправляемых ИИ-агентов, небезопасного кода и рисков нарушения регуляторных требований.
Gartner рекомендует выстраивать жёсткое управление: выявлять разрешённые и неразрешённые ИИ-агенты, внедрять строгие политики контроля и сценарии реагирования на инциденты.
Тренд 2. Регуляторная нестабильность усиливает фокус на устойчивости
Геополитические изменения и новые регуляторные требования делают кибербезопасность критическим бизнес-риском. Регуляторы всё чаще возлагают личную ответственность за нарушения на советы директоров и топ-менеджеров.
Компании рискуют столкнуться с крупными штрафами, потерей бизнеса и репутационным ущербом. Gartner советует формализовать взаимодействие между ИТ, юристами и бизнесом, внедрять стандартизированные контрольные рамки и учитывать требования по суверенитету данных.
Тренд 3. Постквантовая криптография переходит от теории к практике
Gartner прогнозирует, что к 2030 году квантовые компьютеры сделают традиционную асимметричную криптографию небезопасной. Поэтому уже сейчас нужно переходить на постквантовые алгоритмы.
Продолжение: https://vk.com/wall-210601538_2001
VK
MLSECOPS | AI GOVERNANCE | IT TRENDS. Пост со стены.
⭐ Gartner определила ключевые тренды в кибербезопасности на 2026 год
Хаотичное развитие искус... Смотрите полностью ВКонтакте.
Хаотичное развитие искус... Смотрите полностью ВКонтакте.
🔥2
⭐️ Data Governance – культура обеспечения качества и безопасности данных
17 февраля с 15:00 до 17:15 по Москве приглашаю на большой бесплатный мастер-класс в Академии Softline для специалистов, работающих с данными и использующих ИИ-системы в рабочих процессах.
За два с лишним часа мы рассмотрим вопросы обеспечения качества данных, построения эффективной архитектуры данных в целях развития Data Governance, а также обсудим ключевые принципы безопасной разработки и использования ИИ-систем в контуре современной организации.
Покажу важнейшие тренды, сделаю прогнозы о том, что ждет IT-сферу в 2026 году. Расскажу про принципиально новое направление AI Governance, как оно связано с MLSecOps, в чем отличие AI Governance от Data Governance и какие у него перспективы. Объясню как стать таким специалистом. Расскажу и про текущее состояние MLSecOps в России, текущие особенности этого направления, требования регуляторов и что уже изменилось за 2025 год. А также отвечу на вопросы онлайн.
Как обычно буду рад друзьям, коллегам и всем желающим!
Ссылка для регистрации: https://academyit.ru/deals/activity/events/data-governance-kultura-obespecheniya-kachestva-i-bezopasnosti-dannykh/?utm_source=blog&utm_medium=mlsecops_plus&utm_campaign=mk170226
Global MLSecOps & AI Governance Architect
Николай Павлов
17 февраля с 15:00 до 17:15 по Москве приглашаю на большой бесплатный мастер-класс в Академии Softline для специалистов, работающих с данными и использующих ИИ-системы в рабочих процессах.
За два с лишним часа мы рассмотрим вопросы обеспечения качества данных, построения эффективной архитектуры данных в целях развития Data Governance, а также обсудим ключевые принципы безопасной разработки и использования ИИ-систем в контуре современной организации.
Покажу важнейшие тренды, сделаю прогнозы о том, что ждет IT-сферу в 2026 году. Расскажу про принципиально новое направление AI Governance, как оно связано с MLSecOps, в чем отличие AI Governance от Data Governance и какие у него перспективы. Объясню как стать таким специалистом. Расскажу и про текущее состояние MLSecOps в России, текущие особенности этого направления, требования регуляторов и что уже изменилось за 2025 год. А также отвечу на вопросы онлайн.
Как обычно буду рад друзьям, коллегам и всем желающим!
Ссылка для регистрации: https://academyit.ru/deals/activity/events/data-governance-kultura-obespecheniya-kachestva-i-bezopasnosti-dannykh/?utm_source=blog&utm_medium=mlsecops_plus&utm_campaign=mk170226
Global MLSecOps & AI Governance Architect
Николай Павлов
❤1🔥1