Forwarded from Ассоциация ФинТех
74% финтех-компаний концентрируют защитные меры на этапе подготовки данных и тестирования моделей, а 60% – уже внедряют комплексные меры по защите своих ИИ-систем.
В число наиболее распространенных практик входят регулярный мониторинг и аудит работы моделей, активное тестирование на уязвимости, обязательное обучение сотрудников основам AI Security, разработка внутренних стандартов и политик безопасности. Такие данные приводятся в совместном исследовании Ассоциации ФинТех и ГК Swordfish Security.
81% компаний российского финтеха определяют машинное обучение (ML) и большие языковые модели (LLM) как ядро своих ИИ-стратегий. При этом, более 25% респондентов уже несколько раз столкнулись с инцидентами безопасности, связанными с атаками на ИИ-системы. 75% финтех-организаций выделяют утечку конфиденциальных данных в качестве ключевой угрозы безопасности при использовании ИИ, 62% — применяют гибридный подход к оценке результатов и выводов в работе с ИИ-решениями и только 12% респондентов внедряют системную оценку этических рисков ИИ.
Исследование показывает, что участники финтех-рынка планируют уделять больше внедрению практик AI Security. Так, 88% респондентов сообщили, что в 2026 году намерены работать над повышение осведомленности и обучением сотрудников в этой области, 75% займутся разработкой внутренней политики по AI Security, 63% займутся интеграцией инструментов защиты, а 62% — проведением аудита или тестирования ИИ-систем.
🗣 Руководитель управления стратегии, исследований и аналитики Ассоциации ФинТех Марианна Данилина: Современная стратегия AI Security строится на постоянном развитии компетенций сотрудников и формировании культуры осведомленности на всех уровнях организации. И хотя ИИ автоматизирует многие процессы, в том числе в кибербезопасности, все-таки роль специалистов ИБ станет в будущем еще значительнее, трансформируясь с фокусом на ИИ. Взаимное проникновение между ИИ и безопасностью изменит роль руководителя ИБ «у штурвала»: именно он задаст курс, примет ключевые решения для безопасной и корректной работы решений на базе ИИ.
🗣 Директор по стратегии и генеральный партнер Swordfish Security Юрий Сергеев: Разработка безопасного ПО трансформируется в связи с развитием искусственного интеллекта. AI открывает как новые возможности для ускорения всех процессов, так и форсировано формирует новые угрозы для людей и организаций. Высокая ценность ИИ очевидна, но вместе с тем растет запрос на его защиту и кибербезопасность. AI Security – новый виток развития проектирования ИИ, при котором меры безопасности интегрированы в его архитектуру и программный код.
В число наиболее распространенных практик входят регулярный мониторинг и аудит работы моделей, активное тестирование на уязвимости, обязательное обучение сотрудников основам AI Security, разработка внутренних стандартов и политик безопасности. Такие данные приводятся в совместном исследовании Ассоциации ФинТех и ГК Swordfish Security.
81% компаний российского финтеха определяют машинное обучение (ML) и большие языковые модели (LLM) как ядро своих ИИ-стратегий. При этом, более 25% респондентов уже несколько раз столкнулись с инцидентами безопасности, связанными с атаками на ИИ-системы. 75% финтех-организаций выделяют утечку конфиденциальных данных в качестве ключевой угрозы безопасности при использовании ИИ, 62% — применяют гибридный подход к оценке результатов и выводов в работе с ИИ-решениями и только 12% респондентов внедряют системную оценку этических рисков ИИ.
Исследование показывает, что участники финтех-рынка планируют уделять больше внедрению практик AI Security. Так, 88% респондентов сообщили, что в 2026 году намерены работать над повышение осведомленности и обучением сотрудников в этой области, 75% займутся разработкой внутренней политики по AI Security, 63% займутся интеграцией инструментов защиты, а 62% — проведением аудита или тестирования ИИ-систем.
🗣 Руководитель управления стратегии, исследований и аналитики Ассоциации ФинТех Марианна Данилина: Современная стратегия AI Security строится на постоянном развитии компетенций сотрудников и формировании культуры осведомленности на всех уровнях организации. И хотя ИИ автоматизирует многие процессы, в том числе в кибербезопасности, все-таки роль специалистов ИБ станет в будущем еще значительнее, трансформируясь с фокусом на ИИ. Взаимное проникновение между ИИ и безопасностью изменит роль руководителя ИБ «у штурвала»: именно он задаст курс, примет ключевые решения для безопасной и корректной работы решений на базе ИИ.
🗣 Директор по стратегии и генеральный партнер Swordfish Security Юрий Сергеев: Разработка безопасного ПО трансформируется в связи с развитием искусственного интеллекта. AI открывает как новые возможности для ускорения всех процессов, так и форсировано формирует новые угрозы для людей и организаций. Высокая ценность ИИ очевидна, но вместе с тем растет запрос на его защиту и кибербезопасность. AI Security – новый виток развития проектирования ИИ, при котором меры безопасности интегрированы в его архитектуру и программный код.
ISACARuSec
Вебинар расскажет про основные итоги года в области Kubernetes и его безопасности. Авторы это основатели конференции по безопасности контейнеров Бекон и разработчик продукта по безопасности контейнеров. Хороший способ обновить свои знания, что случилось за…
У Luntry и Дмитрия Евдокимова получился хороший вебинар про безопасность k8s в 2025 и прогноз на 2026.
Ключевые моменты:
1. В 2025 году 3 мажорных релиза k8s 1.33, 1.34, 1.35. Происходит плавное уменьшение количества мажорных релизов k8s в год, ранее было до 4, в новом году, скорее всего, будет 2-3.
2. Обновился CIS Benchmark до 1.12 - правки в основном касаются криптоалгоритмов и исправлению опечаток.
3. В 1.33 в general availability вышла функциональность Usernamespaces в Pod. Есть непростые предварительные требования, но этот функционал позволяет существенно митигировать риск запуска контейнеров под рутом за счет выделения отдельного UID. Т.е. если ваш контейр работает под рутом, он больше не рут на хостовой ОС.
4. Появилась поддержка Validating Admission Policy (VAP) в сторонних продуктах Kyverno и Gatekeeper. Mutating Admission Policy (MAP) перешла в бету в 1.34.
5. Развитие поддержки функционала Network policy для CNI Calico и Antrea. в Cilium в стадии обсуждения.
6. Отказ от поддержки Ingress NGNIX в пользу GatewayApi. Дата завершения поддержки Ingress NGNIX февраль 2026. У Gatewayapi есть доп функции безопасности типа ролевой модели.
7. Распространение концепции Shift Down Security, в виде нового документа от SIG . Ключевая идея в выносе вопросов ИБ и ИТ из команд разработки в отдельные юниты отвечающие за безопасность и функционал платформы, в юнитах разработки оставлять только саму реализацию бизнес функционала. Например создать группу\отдел облачной безопасности.
8. ФСТЭК: 5 новых угроз в БДУ УБИ.223-УБИ.227, информационное сообщение по защите контейнеризации в составе средств защиты информации.
9. Появление и рост площадок Cloud native k8sday.ru и https://yandex.cloud/ru/blog/aot.
10. Ключевые уязвимости в k8s в 2025 : 4 уязвимости Ingress NGINX (1-9.8 RCE), 3 уязвимости побег из контейнера в runc, 3 в NVIDIA container toolkit, 2 - в NVIDIA CUDA Driver.
11.Безопасность кластеров ML\AI в k8s тренд 2025 и 2026 годов. Продублирую презентацию из Бекон 2025 ниже.
12. 3 релиза продукта Luntry в 2026 г. Выпуск карты безопасности K8s. Проведение конференции по безопасности k8s Бекон2025 и планирование Бекон 2026.
Саму презентацию вебинара коллеги обещали в ближайшие дни опубликовать. Ниже пара интресных слайдов с вебинара и презентация с Бекон 2025 про безопасность ИИ в k8s.
Ключевые моменты:
1. В 2025 году 3 мажорных релиза k8s 1.33, 1.34, 1.35. Происходит плавное уменьшение количества мажорных релизов k8s в год, ранее было до 4, в новом году, скорее всего, будет 2-3.
2. Обновился CIS Benchmark до 1.12 - правки в основном касаются криптоалгоритмов и исправлению опечаток.
3. В 1.33 в general availability вышла функциональность Usernamespaces в Pod. Есть непростые предварительные требования, но этот функционал позволяет существенно митигировать риск запуска контейнеров под рутом за счет выделения отдельного UID. Т.е. если ваш контейр работает под рутом, он больше не рут на хостовой ОС.
4. Появилась поддержка Validating Admission Policy (VAP) в сторонних продуктах Kyverno и Gatekeeper. Mutating Admission Policy (MAP) перешла в бету в 1.34.
5. Развитие поддержки функционала Network policy для CNI Calico и Antrea. в Cilium в стадии обсуждения.
6. Отказ от поддержки Ingress NGNIX в пользу GatewayApi. Дата завершения поддержки Ingress NGNIX февраль 2026. У Gatewayapi есть доп функции безопасности типа ролевой модели.
7. Распространение концепции Shift Down Security, в виде нового документа от SIG . Ключевая идея в выносе вопросов ИБ и ИТ из команд разработки в отдельные юниты отвечающие за безопасность и функционал платформы, в юнитах разработки оставлять только саму реализацию бизнес функционала. Например создать группу\отдел облачной безопасности.
8. ФСТЭК: 5 новых угроз в БДУ УБИ.223-УБИ.227, информационное сообщение по защите контейнеризации в составе средств защиты информации.
9. Появление и рост площадок Cloud native k8sday.ru и https://yandex.cloud/ru/blog/aot.
10. Ключевые уязвимости в k8s в 2025 : 4 уязвимости Ingress NGINX (1-9.8 RCE), 3 уязвимости побег из контейнера в runc, 3 в NVIDIA container toolkit, 2 - в NVIDIA CUDA Driver.
11.Безопасность кластеров ML\AI в k8s тренд 2025 и 2026 годов. Продублирую презентацию из Бекон 2025 ниже.
12. 3 релиза продукта Luntry в 2026 г. Выпуск карты безопасности K8s. Проведение конференции по безопасности k8s Бекон2025 и планирование Бекон 2026.
Саму презентацию вебинара коллеги обещали в ближайшие дни опубликовать. Ниже пара интресных слайдов с вебинара и презентация с Бекон 2025 про безопасность ИИ в k8s.
GitHub
sig-security/sig-security-docs/papers/shift-down/shift-down-security.md at main · kubernetes/sig-security
Process documentation, non-code deliverables, and miscellaneous artifacts of Kubernetes SIG Security - kubernetes/sig-security
Forwarded from Конференция БеКон
Panchenko-bekon-2025-v1.0.pdf
6.6 MB
На сцене Николай Панченко, Т-Банк: "Чеклист безопасности ML-кластеров"
Forwarded from Порвали два трояна
«Просто добавь
Исследователь, работающий над этой проблемой, уже обнаружил 30 дефектов в перечисленных IDE и добился назначения 24 CVE. 100% протестированных сред оказались уязвимы. Суть проблемы в том, что IDE располагает развитыми средствами автоматизации, которые теперь порой запускает и настраивает ИИ-агент. Далеко не всегда он воспринимает изменения в скриптах и настройках как опасные и требующие подтверждения от человека. Выстроенные вокруг ИИ-агента фильтры тоже не учитывают опасные функции IDE, в результате одни и те же атаки с минимальными модификациями надёжно воспроизводятся на разных IDE.
Пример утечки данных: с помощью промпт-инъекции ИИ-агента просят записать JSON-файл на основе схемы JSON, сохранённой на внешнем сервере. Функция поддерживается во всех IDE на базе Visual Studio Code, JetBrains и Zed dev. При обращении к внешней схеме JSON данные, воруемые с компьютера, передаются в параметрах GET-обращения к серверу атакующего.
Запуск произвольного кода отличается в реализации для разных IDE, но сводится к тому, что настройки IDE (php.validate.executablePath или Git.Settings — PATH_TO_GIT) модифицируются, чтобы вызывать код атакующего при открытии или валидации любого файла исходников.
Проблема с IDEsaster в том, что функций и методов автоматизации в каждой IDE очень много, и их можно творчески комбинировать, превращая устранение дефектов в бесконечные кошки-мышки. Та же RCE в GitHub Copilot (CVE-2025-53773) была устранена в августе, чтобы возродиться с небольшой модификацией в ноябре (CVE-2025-64660).
Как снизить риски атак на AI IDE?
Более детальный разбор модели угроз, конкретных уязвимостей и рекомендаций по защите — в посте автора исследования.
#AI @П2Т
Please open Telegram to view this post
VIEW IN TELEGRAM