ISACARuSec – Telegram
ISACARuSec
2.27K subscribers
1.72K photos
13 videos
294 files
5.58K links
Канал направления ИБ Московского отделения ISACA

Направление канала новости ISACA, новости в области управления ИБ в России и мире, обмен лучшими практиками.

https://engage.isaca.org/moscow/home

Связь с администрацией
@popepiusXIII
Download Telegram
74% финтех-компаний концентрируют защитные меры на этапе подготовки данных и тестирования моделей, а 60% – уже внедряют комплексные меры по защите своих ИИ-систем.

В число наиболее распространенных практик входят регулярный мониторинг и аудит работы моделей, активное тестирование на уязвимости, обязательное обучение сотрудников основам AI Security, разработка внутренних стандартов и политик безопасности. Такие данные приводятся в совместном исследовании Ассоциации ФинТех и ГК Swordfish Security.

81% компаний российского финтеха определяют машинное обучение (ML) и большие языковые модели (LLM) как ядро своих ИИ-стратегий. При этом, более 25% респондентов уже несколько раз столкнулись с инцидентами безопасности, связанными с атаками на ИИ-системы. 75% финтех-организаций выделяют утечку конфиденциальных данных в качестве ключевой угрозы безопасности при использовании ИИ, 62% — применяют гибридный подход к оценке результатов и выводов в работе с ИИ-решениями и только 12% респондентов внедряют системную оценку этических рисков ИИ.

Исследование показывает, что участники финтех-рынка планируют уделять больше внедрению практик AI Security. Так, 88% респондентов сообщили, что в 2026 году намерены работать над повышение осведомленности и обучением сотрудников в этой области, 75% займутся разработкой внутренней политики по AI Security, 63% займутся интеграцией инструментов защиты, а 62% — проведением аудита или тестирования ИИ-систем.

🗣 Руководитель управления стратегии, исследований и аналитики Ассоциации ФинТех Марианна Данилина: Современная стратегия AI Security строится на постоянном развитии компетенций сотрудников и формировании культуры осведомленности на всех уровнях организации. И хотя ИИ автоматизирует многие процессы, в том числе в кибербезопасности, все-таки роль специалистов ИБ станет в будущем еще значительнее, трансформируясь с фокусом на ИИ. Взаимное проникновение между ИИ и безопасностью изменит роль руководителя ИБ «у штурвала»: именно он задаст курс, примет ключевые решения для безопасной и корректной работы решений на базе ИИ.

🗣 Директор по стратегии и генеральный партнер Swordfish Security Юрий Сергеев: Разработка безопасного ПО трансформируется в связи с развитием искусственного интеллекта. AI открывает как новые возможности для ускорения всех процессов, так и форсировано формирует новые угрозы для людей и организаций. Высокая ценность ИИ очевидна, но вместе с тем растет запрос на его защиту и кибербезопасность. AI Security – новый виток развития проектирования ИИ, при котором меры безопасности интегрированы в его архитектуру и программный код.
ISACARuSec
Вебинар расскажет про основные итоги года в области Kubernetes и его безопасности. Авторы это основатели конференции по безопасности контейнеров Бекон и разработчик продукта по безопасности контейнеров. Хороший способ обновить свои знания, что случилось за…
У Luntry и Дмитрия Евдокимова получился хороший вебинар про безопасность k8s в 2025 и прогноз на 2026.

Ключевые моменты:
1. В 2025 году 3 мажорных релиза k8s 1.33, 1.34, 1.35. Происходит плавное уменьшение количества мажорных релизов k8s в год, ранее было до 4, в новом году, скорее всего, будет 2-3.

2. Обновился CIS Benchmark до 1.12 - правки в основном касаются криптоалгоритмов и исправлению опечаток.

3. В 1.33 в general availability вышла функциональность Usernamespaces в Pod. Есть непростые предварительные требования, но этот функционал позволяет существенно митигировать риск запуска контейнеров под рутом за счет выделения отдельного UID. Т.е. если ваш контейр работает под рутом, он больше не рут на хостовой ОС.

4. Появилась поддержка Validating Admission Policy (VAP) в сторонних продуктах Kyverno и Gatekeeper. Mutating Admission Policy (MAP) перешла в бету в 1.34.

5. Развитие поддержки функционала Network policy для CNI Calico и Antrea. в Cilium в стадии обсуждения.

6. Отказ от поддержки Ingress NGNIX в пользу GatewayApi. Дата завершения поддержки Ingress NGNIX февраль 2026. У Gatewayapi есть доп функции безопасности типа ролевой модели.

7. Распространение концепции Shift Down Security, в виде нового документа от SIG . Ключевая идея в выносе вопросов ИБ и ИТ из команд разработки в отдельные юниты отвечающие за безопасность и функционал платформы, в юнитах разработки оставлять только саму реализацию бизнес функционала. Например создать группу\отдел облачной безопасности.

8. ФСТЭК: 5 новых угроз в БДУ УБИ.223-УБИ.227, информационное сообщение по защите контейнеризации в составе средств защиты информации.

9. Появление и рост площадок Cloud native k8sday.ru и https://yandex.cloud/ru/blog/aot.

10. Ключевые уязвимости в k8s в 2025 : 4 уязвимости Ingress NGINX (1-9.8 RCE), 3 уязвимости побег из контейнера в runc, 3 в NVIDIA container toolkit, 2 - в NVIDIA CUDA Driver.

11.Безопасность кластеров ML\AI в k8s тренд 2025 и 2026 годов. Продублирую презентацию из Бекон 2025 ниже.

12. 3 релиза продукта Luntry в 2026 г. Выпуск карты безопасности K8s. Проведение конференции по безопасности k8s Бекон2025 и планирование Бекон 2026.

Саму презентацию вебинара коллеги обещали в ближайшие дни опубликовать. Ниже пара интресных слайдов с вебинара и презентация с Бекон 2025 про безопасность ИИ в k8s.
Panchenko-bekon-2025-v1.0.pdf
6.6 MB
На сцене Николай Панченко, Т-Банк: "Чеклист безопасности ML-кластеров"
👾 IDEsaster: уязвимы все ИИ-среды разработки

«Просто добавь воды ИИ» — рецепт, которому следуют 100% крупных производителей IDE, то есть сред разработки ПО. Все "AI IDE" построены на базе давно существующих и развитых IDE с миллионами пользователей. На основе VSCode созданы ИИ-среды Cursor, Windsurf, Roo Code, GitHub CoPilot и Kiro.dev, из JetBrains развились Junnie и Cline, к Zed dev легко подключить Claude Code CLI и Gemini CLI. Все они уязвимы к новому классу дефектов IDEsaster, позволяющему извлекать из атакуемой системы данные или запускать на ней произвольный код.

Исследователь, работающий над этой проблемой, уже обнаружил 30 дефектов в перечисленных IDE и добился назначения 24 CVE. 100% протестированных сред оказались уязвимы. Суть проблемы в том, что IDE располагает развитыми средствами автоматизации, которые теперь порой запускает и настраивает ИИ-агент. Далеко не всегда он воспринимает изменения в скриптах и настройках как опасные и требующие подтверждения от человека. Выстроенные вокруг ИИ-агента фильтры тоже не учитывают опасные функции IDE, в результате одни и те же атаки с минимальными модификациями надёжно воспроизводятся на разных IDE.

Пример утечки данных: с помощью промпт-инъекции ИИ-агента просят записать JSON-файл на основе схемы JSON, сохранённой на внешнем сервере. Функция поддерживается во всех IDE на базе Visual Studio Code, JetBrains и Zed dev. При обращении к внешней схеме JSON данные, воруемые с компьютера, передаются в параметрах GET-обращения к серверу атакующего.

Запуск произвольного кода отличается в реализации для разных IDE, но сводится к тому, что настройки IDE (php.validate.executablePath или Git.Settings — PATH_TO_GIT) модифицируются, чтобы вызывать код атакующего при открытии или валидации любого файла исходников.

Проблема с IDEsaster в том, что функций и методов автоматизации в каждой IDE очень много, и их можно творчески комбинировать, превращая устранение дефектов в бесконечные кошки-мышки. Та же RCE в GitHub Copilot (CVE-2025-53773) была устранена в августе, чтобы возродиться с небольшой модификацией в ноябре (CVE-2025-64660).

Как снизить риски атак на AI IDE?

1️⃣ использовать агентов и IDE только с доверенными проектами и файлами. Нужно учитывать, что промпт-инъекция может содержаться в любых обрабатываемых ИИ файлах, включая всякие readme, тест-кейсы и даже в самих именах файлов;
2️⃣ подключаться только к доверенным серверам MCP, предварительно проведя детальный анализ потоков данных, с которыми работает MCP-сервер. Детально отслеживать и журналировать работу MCP-серверов, чтобы оперативно обнаруживать аномалии;
3️⃣ настраивать ИИ-агенты на режим human-in-the-loop, чтобы подтверждать вручную максимум выполняемых ими действий.

Более детальный разбор модели угроз, конкретных уязвимостей и рекомендаций по защите — в посте автора исследования.

#AI @П2Т
Please open Telegram to view this post
VIEW IN TELEGRAM