Знаю, что многие очень негативно или скептически относятся к
Но злоумышленники уже прощупывают эту почву. И даже
Далее уже вредоносное ПО на
Kubernetes c Node на Windows ...Но злоумышленники уже прощупывают эту почву. И даже
container escape делают через технику Thread Impersonation, используя недокументированный вызов Windows под названием NtImpersonateThread, а далее уже NtSetInformationSymbolicLink для самого побега. По сути это продолжение вот этой истории. Ну и тут все как положено с Microsoft)))Далее уже вредоносное ПО на
Node ищет kubectl.exe и config файл по RegExp для продолжения атаки.Unit 42
Siloscape: First Known Malware Targeting Windows Containers to Compromise Cloud Environments
The main purpose of Siloscape is to open a backdoor into poorly configured Kubernetes clusters in order to run malicious containers.
Продолжение статьи про Identity Aware Proxy
Для аутентификации с помощью ServiceAccount, необходимо иметь permission
Нюанс №2
ServiceAccount с permission
Соответственно, обладая ServiceAccount'ом с таким permission, можно имперсонировать другой аккаунт и обойти IAP.
К сожалению ограничить действие permission на определенные ServiceAccount через Conditions не представляется возможным.
Используя этот нюанс можно было решить мою таску на Hack and Learn Initiative про мисконфиги в GCP. В ней также был реализован нюанс из прошлой статьи — кривая проверка хедеров от IAP
Подробный write-up можно почитать тут
Как бы удобны не казались облачные сервисы, нужно вдумчиво читать всю документацию, чтобы по пути не сделать несколько ошибок, в попытке сделать своё приложение безопаснее.
Для аутентификации с помощью ServiceAccount, необходимо иметь permission
iam.serviceAccounts.getOpenIdToken и получить OIDC токен Нюанс №2
ServiceAccount с permission
iam.serviceAccounts.getOpenIdToken может выписывать OIDC токен для любого другого ServiceAccountСоответственно, обладая ServiceAccount'ом с таким permission, можно имперсонировать другой аккаунт и обойти IAP.
К сожалению ограничить действие permission на определенные ServiceAccount через Conditions не представляется возможным.
Используя этот нюанс можно было решить мою таску на Hack and Learn Initiative про мисконфиги в GCP. В ней также был реализован нюанс из прошлой статьи — кривая проверка хедеров от IAP
Подробный write-up можно почитать тут
Как бы удобны не казались облачные сервисы, нужно вдумчиво читать всю документацию, чтобы по пути не сделать несколько ошибок, в попытке сделать своё приложение безопаснее.
Telegram
k8s (in)security
Как сделать аутентификацию в приложении в GKE?
В обычном варианте обычно это происходит так — средствами ingress controller добавляется аутентификация через Basic Auth/OAuth.
Недостатки данного метода:
- в случае с Basic Auth, где-то надо хранить хеши паролей…
В обычном варианте обычно это происходит так — средствами ingress controller добавляется аутентификация через Basic Auth/OAuth.
Недостатки данного метода:
- в случае с Basic Auth, где-то надо хранить хеши паролей…
Сегодняшняя новость будет актуальна пользователям
Буквально несколько дней назад было объявлено о CVE-2021-34824 (или по внутренней нумерации ISTIO-SECURITY-2021-007), которая звучит как: "Istio contains a remotely exploitable vulnerability where credentials specified in the Gateway and DestinationRule credentialName field can be accessed from different namespaces." с
А вообще у
Istio в своих Kubernetes владениях или тем, кто проводит аудиты безопасности и понятное дело время от времени нуждается в уязвимостях во встречаемых, сторонних решениях.Буквально несколько дней назад было объявлено о CVE-2021-34824 (или по внутренней нумерации ISTIO-SECURITY-2021-007), которая звучит как: "Istio contains a remotely exploitable vulnerability where credentials specified in the Gateway and DestinationRule credentialName field can be accessed from different namespaces." с
CVSS Impact Score равным 9.1. Так что патчимся ;)А вообще у
Istio есть хорошая официальная страничка о найденных в нем уязвимостях (как раз та внутренняя нумерация) и там можно отметить, что за 2021 год было уже закрыто 7 уязвимостей и их CVSS не ниже 7.5! Так что обратите внимание на этот момент.Istio
ISTIO-SECURITY-2021-007
Istio contains a remotely exploitable vulnerability where credentials specified in the Gateway and DestinationRule credentialName field can be accessed from different namespaces.
Есть легендарный пост на
Некоторое время назад на канале мы публиковали похожий материал "What happens when ... Kubernetes edition!", где описывается что происходит при создании
- "How It Works — kubectl exec" (Docker shim)
- "How does 'kubectl exec' work?" (CRI-O)
Если вы как и наша команда хотите не просто использовать
GitHub: "What happens when you type google.com into your browser's address box and press enter?" (и подобные), объясняющий что же там за магия творится .Некоторое время назад на канале мы публиковали похожий материал "What happens when ... Kubernetes edition!", где описывается что происходит при создании
Pods, через команду:kubectl run nginx --image=nginx --replicas=3
В продолжении данной темы мы рекомендуем обратить свое внимание на статьи про то, что происходит, когда используется kubectl exec (не малозначимая команда для ИБ):- "How It Works — kubectl exec" (Docker shim)
- "How does 'kubectl exec' work?" (CRI-O)
Если вы как и наша команда хотите не просто использовать
k8s, но и понимать его, понимать как он работает, то это определенно MUST READ!GitHub
GitHub - alex/what-happens-when: An attempt to answer the age old interview question "What happens when you type google.com into…
An attempt to answer the age old interview question "What happens when you type google.com into your browser and press enter?" - alex/what-happens-when
А сегодня, в продолжении прошлого поста, давайте посмотрим на
И тут для начала нужно вспомнить, что некоторые Kubernetes ресурсы имеют так называемые subresource, к которым как раз и относится
Помните о "
kubectl exec или на POST запрос /api/v1/namespaces/{namespace}/pods/{name}/exec кому как удобнее и приятнее - с точки зрения RBAC.И тут для начала нужно вспомнить, что некоторые Kubernetes ресурсы имеют так называемые subresource, к которым как раз и относится
exec, как и те же logs, attach, portforward и т.д. По итогу, чтобы пользователь мог делать exec ему необходимо иметь pods/exec:- apiGroups: [""]Ну или "
resources: ["pods/exec"]
verbs: ["create"]
*" в графе resources ;)Помните о "
subresource" и управляйте правами в соответствии с принципом наименьших привилегий (Principle of least privilege).Telegram
k8s (in)security
Есть легендарный пост на GitHub: "What happens when you type google.com into your browser's address box and press enter?" (и подобные), объясняющий что же там за магия творится .
Некоторое время назад на канале мы публиковали похожий материал "What happens…
Некоторое время назад на канале мы публиковали похожий материал "What happens…
Малоизвестный факт о
Kubernetes RBAC: каждому действию (verb) в RBAC есть четкое сопоставление HTTP команды. Так что даже по HTTP логам можно определить какие действия совершались над тем или иным ресурсом. Или даже можно попытаться по HTTP логу за какой-то промежуток времени сгенерировать Role типа как тут.Сегодня пятничный пост, который в первую очередь нацелен на вашу активность ;)
Поделитесь в комментариях интересными, полезными
Лично для меня таким является проект Kubernetes Janitor (хоть
Поделитесь в комментариях интересными, полезными
operator'ами для Kubernetes, которые как могут связаны с ИБ, так и нет. А может быть просто инструмент завязан на Mutating и/или validating admission webhook. При этом они могут быть очень маленькими, малоизвестными или даже уже не поддерживаемыми, но у них очень классная идея, которая вам очень нравится. В общем то, что так или иначе нельзя найти на OperatorHub.io и не просто найти на GitHub, Bitbucket и т.д.Лично для меня таким является проект Kubernetes Janitor (хоть
Custom Resources он не использует), о котором я писал ранее, и Kubernetes Security Profiles Operator - писал тут. В общем, давайте поделимся малоизвестными operator'ами =)Codeberg.org
kube-janitor
Clean up (delete) Kubernetes resources after a configured TTL (time to live)
В рамках
- ClusterPolicyReport
- PolicyReport
Основную часть которых занимают
Какую они проблемы решают и вообще, для чего это надо?
Сейчас уже существует множество разных инструментов для
Так на работу прототипа можно посмотреть на примере проекта
А еще подробнее можно узнать из документа "Kubernetes Policy Management Whitepaper Proposal" (находится еще в работе).
P.S. Далее мы рассмотрим какое сильное влияние это должно оказать на весь процесс работы с
CNCF сейчас активно работает Policy Working Group. Как можно догадаться из названия она работает над тем, как будет в Kubernetes выглядеть сущность Policy. А именно ресурсы из wgpolicyk8s.io/v1alpha2:- ClusterPolicyReport
- PolicyReport
Основную часть которых занимают
PolicyReportSummary и PolicyReportResult.Какую они проблемы решают и вообще, для чего это надо?
Сейчас уже существует множество разных инструментов для
Kubernetes, которые проводят те или иные анализы, проверки и создают свой отчет. И вот каждый из них последнее делает как хочет. А ClusterPolicyReport и PolicyReport призваны унифицировать это в виде конкретных типов ресурсов и еще на один шаг приблизить работу со всеми инструментами к концепции Policy-as-Code!Так на работу прототипа можно посмотреть на примере проекта
kube-bench (CIS benchmark) в этом репе.А еще подробнее можно узнать из документа "Kubernetes Policy Management Whitepaper Proposal" (находится еще в работе).
P.S. Далее мы рассмотрим какое сильное влияние это должно оказать на весь процесс работы с
Kubernetes ;)GitHub
community/wg-policy at master · kubernetes/community
Kubernetes community content. Contribute to kubernetes/community development by creating an account on GitHub.
В продолжении темы о необходимости регулярного аудита конфигурации
Другими словами, представим что
запрещает любое взаимодействия для этой группы, но данный запрет не распространяется на конкретных пользователей/роли. Данная ошибка конфигурации может повлечь существование
В этом примере политика должна запрещать любое действие
AWS IAM, рассмотрим еще один инструмент - Red-Shadow. Данная утилита позволяет проверить конфигурацию политик IAM на предмет несоответствия привилегий относительно групп и конкретных users/roles, с целью поиска Shadow Admins. Другими словами, представим что
IAM политиками группы строго запрещено взаимодействие, например директива "Effect": "Deny",
"Action": "*",
"Resource": "arn:aws:iam::13371337:group/k8s-admins"запрещает любое взаимодействия для этой группы, но данный запрет не распространяется на конкретных пользователей/роли. Данная ошибка конфигурации может повлечь существование
Shadow Admins, по аналогии с мисконфигами Active Directory, это позволяет атакующему без особого труда повысить привилегии.В этом примере политика должна запрещать любое действие
IAM, выполняемое пользователями, группами или ролями, к которым эта политика привязана, с помощью, например condition policy iam:ResourceTag.Копаясь в заметках встреч Policy Working Group, можно найти упоминание документа от
Еще выжимка оттуда: "Policy Engine & Automation (SOAR): These terms are used to define technologies that handle threat management, incident response, policy enforcement and security policy automation. A Zero Trust Architecture will require dynamic policy enforcement and automation. SOAR will work in concert with analytics and policy engines to develop confidence levels and automate the delivery of policy to enforcement points."
В общем, автоматизация на любые ИБ моменты ;)
Department of Defense (DOD) про "Zero Trust Reference Architecture" с пометкой "has similar concepts for policy" и картинкой из него (в превью данного поста). Поэтому можно судить к чему стремится данная группа при разработке Policy - SOAR (Security Orchestration, Automation and Response)!!!Еще выжимка оттуда: "Policy Engine & Automation (SOAR): These terms are used to define technologies that handle threat management, incident response, policy enforcement and security policy automation. A Zero Trust Architecture will require dynamic policy enforcement and automation. SOAR will work in concert with analytics and policy engines to develop confidence levels and automate the delivery of policy to enforcement points."
В общем, автоматизация на любые ИБ моменты ;)
Давайте рассмотрим проект, которым уже многие компании у себя закрыли ряд моментов с ИБ. Речь пойдет про Starboard. Он автоматически создает/обновляет
- Vulnerability Scanners: Trivy
- Сonfiguration checkers: Polaris или Conftest
- CIS Kubernetes Benchmark: kube-bench
- Kubernetes cluster pentest: kube-hunter
Речь о нем сегодня не случайно - он как раз является ярким представителем, когда инструменты завернуты в
-
security отчеты для того или иного компонента (ReplicaSet, Node и т.д.) при его появлении/изменении. Под капотом у него:- Vulnerability Scanners: Trivy
- Сonfiguration checkers: Polaris или Conftest
- CIS Kubernetes Benchmark: kube-bench
- Kubernetes cluster pentest: kube-hunter
Речь о нем сегодня не случайно - он как раз является ярким представителем, когда инструменты завернуты в
Kubernetes operators (хотя есть и реализация CLI), а результаты работы в виде Custom Resources (на смену которым и должны прийти ClusterPolicyReport и PolicyReport):-
VulnerabilityReport
- ConfigAuditReport
- CISKubeBenchReport
- KubeHunterReport
А далее эти отчеты вы уже можете обрабатывать (сами автоматически считать риски, критичность и создавать тикеты, автоматически реагировать т.д.) и выводить как вашей душе угодно (Grafana и т.д.).Давайте подытожим сегодня мое виденье о правильном и/или будущем подходе к ИБ в
1) Наши любимые инструменты проверок обернуты в
2) Результат анализа записывается в отдельный унифицированный отчет в виде
3) Специальный
Тем самым мы получим быструю, автоматическую реакцию на тот или и ной инцидент или нежелательное изменение. При этом можно сказать, что мы приблизим скорость работы отдела ИБ к скорости выкатки новых фич разработки - их скорости должны соответствовать друг другу, а не тормозить процесс.
Также определенные рутинные задачи по ИБ уйдут в прошлое (автоматизация
Kubernetes, которое я связываю с OODA loop:1) Наши любимые инструменты проверок обернуты в
Kubernetes operator и автоматически запускаются при появлении/изменении того или иного Kubernetes ресурса, за анализ которого они отвечают.2) Результат анализа записывается в отдельный унифицированный отчет в виде
Kubernetes resource.3) Специальный
Kubernetes operator выполняет роль SOAR (Security Orchestration, Automation and Response) и автоматически реагирует на появлении/изменение отчета анализа на шаге 2.Тем самым мы получим быструю, автоматическую реакцию на тот или и ной инцидент или нежелательное изменение. При этом можно сказать, что мы приблизим скорость работы отдела ИБ к скорости выкатки новых фич разработки - их скорости должны соответствовать друг другу, а не тормозить процесс.
Также определенные рутинные задачи по ИБ уйдут в прошлое (автоматизация
playbooks).А в качестве пятничного поста я порекомендую (кому интересно) за выходные посмотреть свежее выступление "ATT&CKing Kubernetes: Technical deep dive into ATT&CK for Containers" с конференции Pass the SALT 2021. По сути, оно состоит из примеров, в основном из
ITW (In The Wild) кейсов, которые смапленые на матрицу ATT&CK для контейнеров. Также стоит предупредить, что выступление не полное и докладчик не расскажет про защитные меры, так как не уложился в тайминг =)YouTube
Pass the SALT 2021 Day 3
Raw live stream from the conference.
Interactions: #pts21 on Libera.chat
Interactions: #pts21 on Libera.chat
Одним из двигающих/приоритизирующий механизмов развития
Этот список сейчас будет полезен всем по 2 причинам:
1) Вы узнаете какие возможности только появятся в
Второй пункт по мне даже более важен, так вы можете посмотреть с какими проблемами люди сейчас сталкиваются и решить не могут. Это сэкономит ваше время на вычитывание и перечитывание документации ;)
NetworkPolicy являются так называемые User Stories - где пользователи описывают, свои истории/ситуации, с которыми они сталкиваются и им их хотелось бы решить относительно стандартной NetworkPolicy (не забываем, что у разработчиков CNI есть и кастомные реализации).Этот список сейчас будет полезен всем по 2 причинам:
1) Вы узнаете какие возможности только появятся в
NetworkPolicy
2) Вы узнаете какие сценарии прямо сейчас вы не сможете реализовать Второй пункт по мне даже более важен, так вы можете посмотреть с какими проблемами люди сейчас сталкиваются и решить не могут. Это сэкономит ваше время на вычитывание и перечитывание документации ;)
GitHub
network-policy-subproject/p0_user_stories.md at master · jayunit100/network-policy-subproject
A starter repo to donate to Kubernetes-sigs so the community can own and iterate on stories over time, with issue tracking, as we close out the policy++ wg - jayunit100/network-policy-subproject
file-integrity-operator - еще один интересный
Он, что логично, позволяет проверять целостность файлов на
Выполнен о тут в виде
Для работы вам помимо самого
Результат будет в отдельном специальном ресурсе
operator с открытым исходным кодом, который используется в RedHat OpenShift. Узнал я о нем недавно, благодаря посту про Kubernetes operators - спасибо за наводку ;)Он, что логично, позволяет проверять целостность файлов на
Node с определенной периодичностью. Для некоторых систем или в соответствии с некоторыми compliance такое может требоваться (типа требований 10.5.5 и 11.5 в PCI DSS) и тут как раз этот operator поможет. В коммерческих решения такая функциональность обычно называется как File integrity monitoring (FIM).Выполнен о тут в виде
DaemonSet в котором запускается привилегированный контейнер с проектом AIDE (Advanced Intrusion Detection Environment), который также имеет открытый исходный код.Для работы вам помимо самого
file-integrity-operator потребуется описать его Custom Resource типа (kind) FileIntegrity (там описывается, где запускаться через nodeSelector, с какой частотой gracePeriod и т.д.) и непосредственно конфиг для AIDE, который выглядит примерно так (что сканировать, а что нет и т.д.).Результат будет в отдельном специальном ресурсе
FileIntegrityNodeStatus (вспоминаем тут тему про отдельный тип ресурсов для Policy), а в процессе работы создаются соответствующие Events ресурсы о продвижении сканирования.GitHub
GitHub - openshift/file-integrity-operator: Operator providing OpenShift cluster node file integrity checking
Operator providing OpenShift cluster node file integrity checking - openshift/file-integrity-operator
Ни одно серьезное приложение сегодня уже не обходится без сервиса хранения данных. И естественно данный сервис или скорее данные находящиеся там являются чаще всего целью для плохих парней. О защите данного сервиса много говорится и в документе "Cloud Native Security Whitepaper" в разделе "
В матрице, конечно, просматривается некоторый ориентир на специфику
Storage". И вот Microsoft выпустила еще и свою "Threat matrix for storage services". Видимо им очень это понравилось делать самостоятельно без организации MITRE, как они уже делали для Kubernetes.В матрице, конечно, просматривается некоторый ориентир на специфику
Azure, но как база подойдет как для любых managed инсталляций, так и onprem. Помним об обилие решений в категории Cloud Native Storage в CNCF Cloud Native Landscape и то что каждое из этих решений обладает своими механизмами, настройками безопасности, которые требуют правильной конфигурации.Поговорим сегодня о таких
CVE-2021-25737: Holes in EndpointSlice Validation Enable Host Network Hijack
Уровень
Краткая суть: "user may be able to redirect pod traffic to private networks on a Node.". Пользователь, конечно, должен иметь права на работу с данным типом ресурса. При этом подобное для
Помимо обновления
CVE-2021-25740: Endpoint & EndpointSlice permissions allow cross-Namespace forwarding
Уровень
Краткая суть: "that could enable users to send network traffic to locations they would otherwise not have access to via a confused deputy attack."
При этом на это патча нет и не будет и митигейшен заключается только в ограничении доступа к данным ресурсам! (как это закрыть в будущем будет вестись отдельное обсуждение в сообщесте) А да и данному недостатку подвержены все версии
Также в описании
Kubernetes ресурсах как Endpoint и EndpointSlice, а точнее о целых двух новых уязвимостях, связанных с ними.CVE-2021-25737: Holes in EndpointSlice Validation Enable Host Network Hijack
Уровень
Low (CVSS:3.0/AV:N/AC:L/PR:H/UI:N/S:U/C:L/I:N/A:N)Краткая суть: "user may be able to redirect pod traffic to private networks on a Node.". Пользователь, конечно, должен иметь права на работу с данным типом ресурса. При этом подобное для
Endpoint закрыли, а про EndpointSlice забыли.Помимо обновления
kube-apiserver для митигийшена/закрытия данной проблемы можно использовать policy engine, который предотвращает создание endpoint с адресами в диапазонах 127.0.0.0/8 и 169.254.0.0/16. CVE-2021-25740: Endpoint & EndpointSlice permissions allow cross-Namespace forwarding
Уровень
Low (CVSS:3.0/AV:N/AC:H/PR:L/UI:N/S:U/C:L/I:N/A:N)Краткая суть: "that could enable users to send network traffic to locations they would otherwise not have access to via a confused deputy attack."
При этом на это патча нет и не будет и митигейшен заключается только в ограничении доступа к данным ресурсам! (как это закрыть в будущем будет вестись отдельное обсуждение в сообщесте) А да и данному недостатку подвержены все версии
Kubernetes. Для обнаружения уязвимых к данному сценарию Services - нужно найти их все с пустыми selector.Также в описании
CVE говорится, что подобная атака возможно и с Ingress, но тут нужно проверять это для каждой реализации отдельно …GitHub
CVE-2021-25737: Holes in EndpointSlice Validation Enable Host Network Hijack · Issue #102106 · kubernetes/kubernetes
Issue Details A security issue was discovered in Kubernetes where a user may be able to redirect pod traffic to private networks on a Node. Kubernetes already prevents creation of Endpoint IPs in t...
Интересный
По сути, это набор разноправных готовых
Так вы сможете быстро сгенерировать
-
-
А свои корректировки, правки очень просто можно внести в исходный код на CUE.
OpenSource проект с GitHub под названием Kubernetes RBAC Model. Это вам может пригодится для быстрой организации multi tenant и multi project RBAC в Kubernetes. По сути, это набор разноправных готовых
Role и RoleBinding для различных проектов, окружений.Так вы сможете быстро сгенерировать
Role:-
cluster-admin
- admin
- dev
- viewer
- bot
Для окружений:-
Dev
- QA
- Stage
- Prod
с разными правами. А свои корректировки, правки очень просто можно внести в исходный код на CUE.
👍1
Достаточно недавно один из моих самых любимых/интересных/перспективных/...
Огромная работа была проделана в направлении автоматического создания/записи
Таким образом на сегодняшний день данный
-
-
-
- Синхронизацию
- Проверку
- Поддержку метрик для
Очень рад как развивается данный инструмент)
Kubernetes operators под названием The Kubernetes Security Profiles Operator получил серьезные обновления.Огромная работа была проделана в направлении автоматического создания/записи
seccomp профиля для нужного Pod. Технически это реализовано с помощью двух механизмов доступных на выбор: oci-seccomp-bpf-hook или через оценку auditd или syslog файлов. Как это все просто сейчас выглядит можно посмотреть в данном видео. Но не забываем о покрытии ПО тестами, чтобы получить максимально полную, правильную картину для профиля!Таким образом на сегодняшний день данный
Kubernetes operators в своем арсенале имеет:-
SeccompProfile CRD для хранения seccomp профилей-
ProfileBinding CRD для связывания профилей и Pods-
ProfileRecording CRD для записи seccomp профиля с Pods- Синхронизацию
seccomp профилей на всех Nodes- Проверку
Nodes на поддержку seccomp- Поддержку метрик для
Prometheus Очень рад как развивается данный инструмент)
Telegram
k8s (in)security
Сегодня я хочу рассказать о проекте, который мне чрезвычайно нравится и за которым я слежу. При этом я надеюсь, что в рамках разработки нашего продукта мы также внесем вклад в его развитие.
The Kubernetes Security Profiles Operator - данный проект призван…
The Kubernetes Security Profiles Operator - данный проект призван…
В 2019 году на конференции
Как оказалось подход
1)
2)
3)
4)
И еще там многое всего другого интересного:
Все это впечатляет конечно!
KubeCon сотрудник U.S. Air Force и Department of Defense (DoD) выступил с любопытным докладом "How the Department of Defense Moved to Kubernetes and Istio". Как оказалось подход
DoD к работе с Kubernetes представлен не только в этом выступлении, но и в целой серии публичных документов. Среди них наиболее близким к тематике канала является документ "DoD Enterprise DevSecOps Reference Design: CNCF Kubernetes" от 2021 года. По сути, документ рассказывает о том, как они подходят к безопасности с использование Kubernetes - для ознакомления он точно MUST READ! Его можно разбить на море отдельных постов, но я выделю несколько на мой взгляд ключевых моментов:1)
Containerized Software Factory - все включая CI/CD pipline контейнерезировано и запущено в Kubernetes, чтобы ко всему применять одни и те же подходы по защите и контролю контейнеров и уменьшить blast radius.2)
Sidecar Container Security Stack (SCSS) - ничему не доверяем и в каждый Pod инжектим sidecar с кучей функций по security, logging, telemetry и т.д. для ZeroTrust.3)
Service Mesh - покрывает все для контроля и распределения всего east-west трафика.4)
Locally Centralized Artifact Repository - централизованное локальное хранилище для всех артефактов с пройденным hardening'ом.И еще там многое всего другого интересного:
IaC/CaC, GitOps, SOAR и т.д.Все это впечатляет конечно!
YouTube
How the Department of Defense Moved to Kubernetes and Istio - Nicolas Chaillan
Join us for Kubernetes Forums Seoul, Sydney, Bengaluru and Delhi - learn more at kubecon.io
Don't miss KubeCon + CloudNativeCon 2020 events in Amsterdam March 30 - April 2, Shanghai July 28-30 and Boston November 17-20! Learn more at kubecon.io. The conference…
Don't miss KubeCon + CloudNativeCon 2020 events in Amsterdam March 30 - April 2, Shanghai July 28-30 and Boston November 17-20! Learn more at kubecon.io. The conference…
Немного продолжу вчерашний пост, связанный с документом от
Chaos engineering: Dynamically kills/restarts container with moving target defense.
Думаю, что большинство читателей если и слышали про
Смысл заключается в том, что ПО/контейнер время от времени меняется, сохраняя общую работоспособность системы.
По сути, его задача "исправить" статичность систем, которые мы защищаем. Так атакующий может получить знания, проанализировать их, подготовится и провести атаку, а с
Образно представьте игру морской бой, где после каждого вашего выстрела противник еще и корабли переставляет - согласитесь не просто выиграть в таких условиях)
Так и в их концепции при
P.S. Рекомендую по теме еще почитать академическую работу "Moving Target Defense Using Live Migration of Docker Containers" (внутри используют классный проект CRIU).
DoD. В презентации "How did the Department of Defense move to Kubernetes and Istio?" на 24 слайде про "Key “DevSecOps”Ingredients" в самом низу есть очень интересный пункт:Chaos engineering: Dynamically kills/restarts container with moving target defense.
Думаю, что большинство читателей если и слышали про
Moving target defense (MTD), то лишь в контексте теории игр. Но на самом деле этот подход используется и в ИБ.Смысл заключается в том, что ПО/контейнер время от времени меняется, сохраняя общую работоспособность системы.
По сути, его задача "исправить" статичность систем, которые мы защищаем. Так атакующий может получить знания, проанализировать их, подготовится и провести атаку, а с
MTD имеющиеся у него знания за время подготовки просто станут не пригодными. Тем самым немного нивелируется позиция, что атакующий находится на шаг впереди.Образно представьте игру морской бой, где после каждого вашего выстрела противник еще и корабли переставляет - согласитесь не просто выиграть в таких условиях)
Так и в их концепции при
Chaos engineering они перезапускают контейнеры (возможно и Node) тем самым атакующему и закрепится сложно в системе и провести хорошую целенаправленную атаку.P.S. Рекомендую по теме еще почитать академическую работу "Moving Target Defense Using Live Migration of Docker Containers" (внутри используют классный проект CRIU).
Telegram
k8s (in)security
В 2019 году на конференции KubeCon сотрудник U.S. Air Force и Department of Defense (DoD) выступил с любопытным докладом "How the Department of Defense Moved to Kubernetes and Istio".
Как оказалось подход DoD к работе с Kubernetes представлен не только…
Как оказалось подход DoD к работе с Kubernetes представлен не только…
👍1