Такое происходит очень не часто: Гартнер призвала CISO блокировать все AI браузеры в организации для минимизации риска. Полная версия отчета за пейволом.
https://www.gartner.com/en/documents/7211030
https://www.gartner.com/en/documents/7211030
Gartner
Cybersecurity Must Block AI Browsers for Now
Gartner Research on Cybersecurity Must Block AI Browsers for Now
В этом году у ISACA вышло 3 новых сертификации в области корпоративного управления безопасностью ИИ. Это фактически одни из самых первых сертификаций по безопасности ИИ в мире.
В мае 2025 года была анонсирована Advanced in AI Audit (AAIA). https://www.isaca.org/credentialing/aaia
В сентябре 2025 года - Advanced in AI Security Management (AAISM). https://www.isaca.org/credentialing/aaism
В декабре 2025 года - Advanced in AI Risk (AAIR). Экзамены будут доступны в 2Q2026. До 16.12.25 возможно зарегистрироваться для участия в платной бета версии экзамена. https://www.isaca.org/aair
Требования для всех трех сертификаций очень похожи:
1.Обладать действующей сертификацией ISACA. CISA для AAIA, CISM для AAISM, CRISC для AAIR. Допускается сертификация на основе и других профильных сертификаций (CIA, ACCA, CISSP и др.).
2.Сдать платный экзамен в центрах PSI или удаленно с прокторингом. https://home.psiexams.com/#/test-center?p=Z97SE74H Экзамен состоит из 90 вопросов, время на экзамен 150 минут.
3.Оплатить регистрационный взнос за рассмотрение заявки на сертификат и согласится с общим кодексом этики.
Более подробное описание экзамена указано тут https://www.isaca.org/credentialing/exam-candidate-guides
Домены знаний
AAIA: 1. AI Governance and Risk (33%). 2. AI Operations (46%). 3. AI Auditing Tools and Techniques (21%).
AAISM:1. AI Governance and Program Management (31%). 2. AI Risk and Opportunity Management (31 %). 3. AI Technologies and Controls (38%).
AAIR: 1. AI Risk Governance and Framework Integration. 2. AI Risk Program Management. 3. AI Life Cycle Risk Management.
Больше деталей и бесплатные тренировочные экзамены находятся по ссылкам выше.
В мае 2025 года была анонсирована Advanced in AI Audit (AAIA). https://www.isaca.org/credentialing/aaia
В сентябре 2025 года - Advanced in AI Security Management (AAISM). https://www.isaca.org/credentialing/aaism
В декабре 2025 года - Advanced in AI Risk (AAIR). Экзамены будут доступны в 2Q2026. До 16.12.25 возможно зарегистрироваться для участия в платной бета версии экзамена. https://www.isaca.org/aair
Требования для всех трех сертификаций очень похожи:
1.Обладать действующей сертификацией ISACA. CISA для AAIA, CISM для AAISM, CRISC для AAIR. Допускается сертификация на основе и других профильных сертификаций (CIA, ACCA, CISSP и др.).
2.Сдать платный экзамен в центрах PSI или удаленно с прокторингом. https://home.psiexams.com/#/test-center?p=Z97SE74H Экзамен состоит из 90 вопросов, время на экзамен 150 минут.
3.Оплатить регистрационный взнос за рассмотрение заявки на сертификат и согласится с общим кодексом этики.
Более подробное описание экзамена указано тут https://www.isaca.org/credentialing/exam-candidate-guides
Домены знаний
AAIA: 1. AI Governance and Risk (33%). 2. AI Operations (46%). 3. AI Auditing Tools and Techniques (21%).
AAISM:1. AI Governance and Program Management (31%). 2. AI Risk and Opportunity Management (31 %). 3. AI Technologies and Controls (38%).
AAIR: 1. AI Risk Governance and Framework Integration. 2. AI Risk Program Management. 3. AI Life Cycle Risk Management.
Больше деталей и бесплатные тренировочные экзамены находятся по ссылкам выше.
ISACA
AAIA™ Certification | ISACA Advanced in AI Audit™
The groundbreaking advanced AI credential, ISACA Advanced in AI Audit (AAIA), validates the ability to audit complex systems and mitigate risks related to AI.
Можно попробовать себя в промт инъекциях ИИ в небольшой игре от Selectel https://aiinsec.ru/ .
Аналогичная западная игра https://gandalf.lakera.ai/baseline
Лакера использовала потом эти промты для своих бенчмарков безопасности моделей.
Аналогичная западная игра https://gandalf.lakera.ai/baseline
Лакера использовала потом эти промты для своих бенчмарков безопасности моделей.
gandalf.lakera.ai
Gandalf | Lakera – Test your AI hacking skills
Trick Gandalf into revealing information and experience the limitations of large language models firsthand.
Forwarded from Листок бюрократической защиты информации
Методика_анализа_защищенности_ИС.pdf
504.2 KB
На сайте ФСТЭК России опубликована Методика анализа защищенности информационных систем.
Регулятор информирует, что данная Методика определяет организацию, порядок проведения и содержание работ, проводимых в ходе испытаний систем защиты информации ИС, АСУ, ИТС в соответствии с подпунктом «б» пункта 16 Порядка организации и проведения работ по аттестации объектов информатизации на соответствие требованиям о защите информации ограниченного доступа, не составляющей государственную тайну, утвержденного приказом ФСТЭК России от 29.04.2021 № 77.
Методика предназначена для проведения работ по анализу (выявлению) уязвимостей ИС с последующей оценкой возможности их использования нарушителем для реализации угроз безопасности информации (векторов атак), приводящих к возникновению негативных последствий.
Методика применяется в ходе:
• аттестации ИС на соответствие требованиям по защите информации;
• контроля уровня защищенности конфиденциальной информации от несанкционированного доступа и ее модификации в ИС, проводимого в соответствии с требованиями по защите информации;
• оценки соответствия ИС требованиям по защите информации (испытания) и достаточности принимаемых мер по защите информации (обеспечению безопасности), реализация которых предусмотрена требованиями по защите информации.
Источник: информационное сообщение ФСТЭК России от 04.12.2025 № 240/22/6902 «Об утверждении Методики анализа защищенности информационных систем».
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Ассоциация ФинТех
74% финтех-компаний концентрируют защитные меры на этапе подготовки данных и тестирования моделей, а 60% – уже внедряют комплексные меры по защите своих ИИ-систем.
В число наиболее распространенных практик входят регулярный мониторинг и аудит работы моделей, активное тестирование на уязвимости, обязательное обучение сотрудников основам AI Security, разработка внутренних стандартов и политик безопасности. Такие данные приводятся в совместном исследовании Ассоциации ФинТех и ГК Swordfish Security.
81% компаний российского финтеха определяют машинное обучение (ML) и большие языковые модели (LLM) как ядро своих ИИ-стратегий. При этом, более 25% респондентов уже несколько раз столкнулись с инцидентами безопасности, связанными с атаками на ИИ-системы. 75% финтех-организаций выделяют утечку конфиденциальных данных в качестве ключевой угрозы безопасности при использовании ИИ, 62% — применяют гибридный подход к оценке результатов и выводов в работе с ИИ-решениями и только 12% респондентов внедряют системную оценку этических рисков ИИ.
Исследование показывает, что участники финтех-рынка планируют уделять больше внедрению практик AI Security. Так, 88% респондентов сообщили, что в 2026 году намерены работать над повышение осведомленности и обучением сотрудников в этой области, 75% займутся разработкой внутренней политики по AI Security, 63% займутся интеграцией инструментов защиты, а 62% — проведением аудита или тестирования ИИ-систем.
🗣 Руководитель управления стратегии, исследований и аналитики Ассоциации ФинТех Марианна Данилина: Современная стратегия AI Security строится на постоянном развитии компетенций сотрудников и формировании культуры осведомленности на всех уровнях организации. И хотя ИИ автоматизирует многие процессы, в том числе в кибербезопасности, все-таки роль специалистов ИБ станет в будущем еще значительнее, трансформируясь с фокусом на ИИ. Взаимное проникновение между ИИ и безопасностью изменит роль руководителя ИБ «у штурвала»: именно он задаст курс, примет ключевые решения для безопасной и корректной работы решений на базе ИИ.
🗣 Директор по стратегии и генеральный партнер Swordfish Security Юрий Сергеев: Разработка безопасного ПО трансформируется в связи с развитием искусственного интеллекта. AI открывает как новые возможности для ускорения всех процессов, так и форсировано формирует новые угрозы для людей и организаций. Высокая ценность ИИ очевидна, но вместе с тем растет запрос на его защиту и кибербезопасность. AI Security – новый виток развития проектирования ИИ, при котором меры безопасности интегрированы в его архитектуру и программный код.
В число наиболее распространенных практик входят регулярный мониторинг и аудит работы моделей, активное тестирование на уязвимости, обязательное обучение сотрудников основам AI Security, разработка внутренних стандартов и политик безопасности. Такие данные приводятся в совместном исследовании Ассоциации ФинТех и ГК Swordfish Security.
81% компаний российского финтеха определяют машинное обучение (ML) и большие языковые модели (LLM) как ядро своих ИИ-стратегий. При этом, более 25% респондентов уже несколько раз столкнулись с инцидентами безопасности, связанными с атаками на ИИ-системы. 75% финтех-организаций выделяют утечку конфиденциальных данных в качестве ключевой угрозы безопасности при использовании ИИ, 62% — применяют гибридный подход к оценке результатов и выводов в работе с ИИ-решениями и только 12% респондентов внедряют системную оценку этических рисков ИИ.
Исследование показывает, что участники финтех-рынка планируют уделять больше внедрению практик AI Security. Так, 88% респондентов сообщили, что в 2026 году намерены работать над повышение осведомленности и обучением сотрудников в этой области, 75% займутся разработкой внутренней политики по AI Security, 63% займутся интеграцией инструментов защиты, а 62% — проведением аудита или тестирования ИИ-систем.
🗣 Руководитель управления стратегии, исследований и аналитики Ассоциации ФинТех Марианна Данилина: Современная стратегия AI Security строится на постоянном развитии компетенций сотрудников и формировании культуры осведомленности на всех уровнях организации. И хотя ИИ автоматизирует многие процессы, в том числе в кибербезопасности, все-таки роль специалистов ИБ станет в будущем еще значительнее, трансформируясь с фокусом на ИИ. Взаимное проникновение между ИИ и безопасностью изменит роль руководителя ИБ «у штурвала»: именно он задаст курс, примет ключевые решения для безопасной и корректной работы решений на базе ИИ.
🗣 Директор по стратегии и генеральный партнер Swordfish Security Юрий Сергеев: Разработка безопасного ПО трансформируется в связи с развитием искусственного интеллекта. AI открывает как новые возможности для ускорения всех процессов, так и форсировано формирует новые угрозы для людей и организаций. Высокая ценность ИИ очевидна, но вместе с тем растет запрос на его защиту и кибербезопасность. AI Security – новый виток развития проектирования ИИ, при котором меры безопасности интегрированы в его архитектуру и программный код.
ISACARuSec
Вебинар расскажет про основные итоги года в области Kubernetes и его безопасности. Авторы это основатели конференции по безопасности контейнеров Бекон и разработчик продукта по безопасности контейнеров. Хороший способ обновить свои знания, что случилось за…
У Luntry и Дмитрия Евдокимова получился хороший вебинар про безопасность k8s в 2025 и прогноз на 2026.
Ключевые моменты:
1. В 2025 году 3 мажорных релиза k8s 1.33, 1.34, 1.35. Происходит плавное уменьшение количества мажорных релизов k8s в год, ранее было до 4, в новом году, скорее всего, будет 2-3.
2. Обновился CIS Benchmark до 1.12 - правки в основном касаются криптоалгоритмов и исправлению опечаток.
3. В 1.33 в general availability вышла функциональность Usernamespaces в Pod. Есть непростые предварительные требования, но этот функционал позволяет существенно митигировать риск запуска контейнеров под рутом за счет выделения отдельного UID. Т.е. если ваш контейр работает под рутом, он больше не рут на хостовой ОС.
4. Появилась поддержка Validating Admission Policy (VAP) в сторонних продуктах Kyverno и Gatekeeper. Mutating Admission Policy (MAP) перешла в бету в 1.34.
5. Развитие поддержки функционала Network policy для CNI Calico и Antrea. в Cilium в стадии обсуждения.
6. Отказ от поддержки Ingress NGNIX в пользу GatewayApi. Дата завершения поддержки Ingress NGNIX февраль 2026. У Gatewayapi есть доп функции безопасности типа ролевой модели.
7. Распространение концепции Shift Down Security, в виде нового документа от SIG . Ключевая идея в выносе вопросов ИБ и ИТ из команд разработки в отдельные юниты отвечающие за безопасность и функционал платформы, в юнитах разработки оставлять только саму реализацию бизнес функционала. Например создать группу\отдел облачной безопасности.
8. ФСТЭК: 5 новых угроз в БДУ УБИ.223-УБИ.227, информационное сообщение по защите контейнеризации в составе средств защиты информации.
9. Появление и рост площадок Cloud native k8sday.ru и https://yandex.cloud/ru/blog/aot.
10. Ключевые уязвимости в k8s в 2025 : 4 уязвимости Ingress NGINX (1-9.8 RCE), 3 уязвимости побег из контейнера в runc, 3 в NVIDIA container toolkit, 2 - в NVIDIA CUDA Driver.
11.Безопасность кластеров ML\AI в k8s тренд 2025 и 2026 годов. Продублирую презентацию из Бекон 2025 ниже.
12. 3 релиза продукта Luntry в 2026 г. Выпуск карты безопасности K8s. Проведение конференции по безопасности k8s Бекон2025 и планирование Бекон 2026.
Саму презентацию вебинара коллеги обещали в ближайшие дни опубликовать. Ниже пара интресных слайдов с вебинара и презентация с Бекон 2025 про безопасность ИИ в k8s.
Ключевые моменты:
1. В 2025 году 3 мажорных релиза k8s 1.33, 1.34, 1.35. Происходит плавное уменьшение количества мажорных релизов k8s в год, ранее было до 4, в новом году, скорее всего, будет 2-3.
2. Обновился CIS Benchmark до 1.12 - правки в основном касаются криптоалгоритмов и исправлению опечаток.
3. В 1.33 в general availability вышла функциональность Usernamespaces в Pod. Есть непростые предварительные требования, но этот функционал позволяет существенно митигировать риск запуска контейнеров под рутом за счет выделения отдельного UID. Т.е. если ваш контейр работает под рутом, он больше не рут на хостовой ОС.
4. Появилась поддержка Validating Admission Policy (VAP) в сторонних продуктах Kyverno и Gatekeeper. Mutating Admission Policy (MAP) перешла в бету в 1.34.
5. Развитие поддержки функционала Network policy для CNI Calico и Antrea. в Cilium в стадии обсуждения.
6. Отказ от поддержки Ingress NGNIX в пользу GatewayApi. Дата завершения поддержки Ingress NGNIX февраль 2026. У Gatewayapi есть доп функции безопасности типа ролевой модели.
7. Распространение концепции Shift Down Security, в виде нового документа от SIG . Ключевая идея в выносе вопросов ИБ и ИТ из команд разработки в отдельные юниты отвечающие за безопасность и функционал платформы, в юнитах разработки оставлять только саму реализацию бизнес функционала. Например создать группу\отдел облачной безопасности.
8. ФСТЭК: 5 новых угроз в БДУ УБИ.223-УБИ.227, информационное сообщение по защите контейнеризации в составе средств защиты информации.
9. Появление и рост площадок Cloud native k8sday.ru и https://yandex.cloud/ru/blog/aot.
10. Ключевые уязвимости в k8s в 2025 : 4 уязвимости Ingress NGINX (1-9.8 RCE), 3 уязвимости побег из контейнера в runc, 3 в NVIDIA container toolkit, 2 - в NVIDIA CUDA Driver.
11.Безопасность кластеров ML\AI в k8s тренд 2025 и 2026 годов. Продублирую презентацию из Бекон 2025 ниже.
12. 3 релиза продукта Luntry в 2026 г. Выпуск карты безопасности K8s. Проведение конференции по безопасности k8s Бекон2025 и планирование Бекон 2026.
Саму презентацию вебинара коллеги обещали в ближайшие дни опубликовать. Ниже пара интресных слайдов с вебинара и презентация с Бекон 2025 про безопасность ИИ в k8s.
GitHub
sig-security/sig-security-docs/papers/shift-down/shift-down-security.md at main · kubernetes/sig-security
Process documentation, non-code deliverables, and miscellaneous artifacts of Kubernetes SIG Security - kubernetes/sig-security