Всем DevOps! 🖖
Хочется порекомендовать отличный блог про инфраструктуру, платформы, Linux, Open Source, DevOps, Kubernetes, контейнеризацию и облака. А еще автор пишет про Python, Go и shell.
Начать знакомство можно, например, со статьи «Kubernetes Taints, Tolerations, and Understanding the PreferNoSchedule Effect» — в ней говорится про эффект PreferNoSchedule в Kubernetes и его отличия от NoExecute и NoSchedule. Есть классная схема про принцип работы PreferNoSchedule.
Еще автор иногда пишет на смежные темы, например, заметка «12 Tips for Effective Technical Blogging». Вдруг вы ведете блог или просто пишете на Хабр? Будет полезно😎
P.S. Кстати про технические блоги и Хабр! Может, здесь есть авторы? Расскажите о своих блогах в комментариях (ТГ, Хабр, что угодно) 🙃 Почему решили вести блог? А если вы не автор, можете рассказать — что вообще думаете о технических блогах? Почему не хотите писать сами?
Ну и, конечно, делитесь — кого читаете?
#блог
Хочется порекомендовать отличный блог про инфраструктуру, платформы, Linux, Open Source, DevOps, Kubernetes, контейнеризацию и облака. А еще автор пишет про Python, Go и shell.
Начать знакомство можно, например, со статьи «Kubernetes Taints, Tolerations, and Understanding the PreferNoSchedule Effect» — в ней говорится про эффект PreferNoSchedule в Kubernetes и его отличия от NoExecute и NoSchedule. Есть классная схема про принцип работы PreferNoSchedule.
Еще автор иногда пишет на смежные темы, например, заметка «12 Tips for Effective Technical Blogging». Вдруг вы ведете блог или просто пишете на Хабр? Будет полезно
P.S. Кстати про технические блоги и Хабр! Может, здесь есть авторы? Расскажите о своих блогах в комментариях (ТГ, Хабр, что угодно) 🙃 Почему решили вести блог? А если вы не автор, можете рассказать — что вообще думаете о технических блогах? Почему не хотите писать сами?
Ну и, конечно, делитесь — кого читаете?
#блог
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3🔥3
Открытое исследование «Защита персональных данных 2023» 🔒
За 2022-2023 год ужесточились условия и регулирование по 152-ФЗ.
На форумах мы слышим как всё меняется, но лозунги со сцен конференций и обновление ФЗ — это одна сторона медали, а реальная практика и опыт сообщества — совсем другая.
Компания Cortel проводит открытое исследование «Защита персональных данных 2023» чтобы выяснить:
• Как эксперты на местах смотрят на ситуацию;
• Как в действительности обстоят дела с ПДн и их защитой на практике.
Пожалуйста поделитесь своим мнением и пройдите короткий опрос на 3 минуты по этой ссылке, вы очень поможете.
🛡 Результатами исследования поделятся осенью в этом канале.
За 2022-2023 год ужесточились условия и регулирование по 152-ФЗ.
На форумах мы слышим как всё меняется, но лозунги со сцен конференций и обновление ФЗ — это одна сторона медали, а реальная практика и опыт сообщества — совсем другая.
Компания Cortel проводит открытое исследование «Защита персональных данных 2023» чтобы выяснить:
• Как эксперты на местах смотрят на ситуацию;
• Как в действительности обстоят дела с ПДн и их защитой на практике.
Пожалуйста поделитесь своим мнением и пройдите короткий опрос на 3 минуты по этой ссылке, вы очень поможете.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Всем DevOps! 🖖
Некоторое время назад мы рассказывали про отличную книгу «Ansible for DevOps». А еще у автора этой книги есть много полезных репозиториев с ролями Ansible. Собрали некоторые из них, но рекомендуем посмотреть GitHub автора целиком.
❓Роль Ansible — это набор файлов, задач, шаблонов, переменных и обработчиков, которые вместе служат определенной цели, например, для настройки службы. Роли позволяют легко повторно использовать код и делиться решениями Ansible с другими пользователями, что делает работу с большими средами более управляемой.
▪️Ansible-role-kubernetes — роль Ansible, которая устанавливает Kubernetes в Linux.
▪️Ansible-role-docker — роль Ansible, которая устанавливает Docker в Linux.
▪️Ansible-role-nginx — неофициальная роль для Nginx (есть официальная). Устанавливает Nginx на серверы RedHat/CentOS, Debian/Ubuntu, Archlinux, FreeBSD или OpenBSD.
▪️Ansible-role-gitlab — устанавливает GitLab, внешний интерфейс для Git на основе Ruby, в любой Linux-системе RedHat/CentOS или Debian/Ubuntu.
▪️Ansible-role-postgresql — устанавливает и настраивает сервер PostgreSQL на серверах RHEL/CentOS или Debian/Ubuntu.
▪️Ansible-role-mysql — устанавливает и настраивает сервер MySQL или MariaDB на серверах RHEL/CentOS или Debian/Ubuntu.
▪️Ansible-role-jenkins — устанавливает Jenkins CI на серверы RHEL/CentOS и Debian/Ubuntu.
▪️Ansible-role-rabbitmq — устанавливает RabbitMQ в Linux.
▪️Ansible-role-security — выполняет базовую настройку безопасности в Linux-системах на основе RedHat и Debian.
#open_source
Некоторое время назад мы рассказывали про отличную книгу «Ansible for DevOps». А еще у автора этой книги есть много полезных репозиториев с ролями Ansible. Собрали некоторые из них, но рекомендуем посмотреть GitHub автора целиком.
❓Роль Ansible — это набор файлов, задач, шаблонов, переменных и обработчиков, которые вместе служат определенной цели, например, для настройки службы. Роли позволяют легко повторно использовать код и делиться решениями Ansible с другими пользователями, что делает работу с большими средами более управляемой.
▪️Ansible-role-kubernetes — роль Ansible, которая устанавливает Kubernetes в Linux.
▪️Ansible-role-docker — роль Ansible, которая устанавливает Docker в Linux.
▪️Ansible-role-nginx — неофициальная роль для Nginx (есть официальная). Устанавливает Nginx на серверы RedHat/CentOS, Debian/Ubuntu, Archlinux, FreeBSD или OpenBSD.
▪️Ansible-role-gitlab — устанавливает GitLab, внешний интерфейс для Git на основе Ruby, в любой Linux-системе RedHat/CentOS или Debian/Ubuntu.
▪️Ansible-role-postgresql — устанавливает и настраивает сервер PostgreSQL на серверах RHEL/CentOS или Debian/Ubuntu.
▪️Ansible-role-mysql — устанавливает и настраивает сервер MySQL или MariaDB на серверах RHEL/CentOS или Debian/Ubuntu.
▪️Ansible-role-jenkins — устанавливает Jenkins CI на серверы RHEL/CentOS и Debian/Ubuntu.
▪️Ansible-role-rabbitmq — устанавливает RabbitMQ в Linux.
▪️Ansible-role-security — выполняет базовую настройку безопасности в Linux-системах на основе RedHat и Debian.
#open_source
🔥12👍4
17 минут чтива... Туториал кратенький так сказать
Keycloak — больно не будет (правда уровень сложности hard, но вы не обращайте внимания 🙃)
Алексей, DevOps-инженер компании Nixys, рассказал про проект, в рамках которого совершенствовали систему контроля доступа и показал, как реализовать единую точку авторизации через Keycloak.
➡️ Приятного чтения!
#статья_Nixys
Keycloak — больно не будет (правда уровень сложности hard, но вы не обращайте внимания 🙃)
Алексей, DevOps-инженер компании Nixys, рассказал про проект, в рамках которого совершенствовали систему контроля доступа и показал, как реализовать единую точку авторизации через Keycloak.
➡️ Приятного чтения!
#статья_Nixys
🔥23👍7👏3
Всем DevOps! 🖖
Думаем, вы видели новости про массовый сбой в работе VPN-протоколов OpenVPN и WireGuard.
В связи с этим хотим напомнить про хорошую серию статей на Хабре:
▪️Статья «Интернет-цензура и обход блокировок: не время расслабляться» — опыт других стран по части блокировок.
▪️Статья «Современные технологии обхода блокировок: V2Ray, XRay, XTLS, Hysteria, Cloak и все-все-все» — обзор самых передовых протоколов и технологий, которые позволяют делать передаваемый трафик не похожим вообще ни на один существующий стандартный протокол, либо наоборот, позволяют максимально достоверно маскироваться под безобидный HTTPS-трафик.
▪️Статья «Программы-клиенты для протоколов недетектируемого обхода блокировок сайтов: V2Ray/XRay, Clash, Sing-Box, и другие» — найти хороший клиент даже для тех же V2Ray/XRay в наше время не так-то просто. Большая часть того, что находится при поиске в интернете “в лоб” и даже в списках типа Awesome V2Ray — или уже неподдерживаемое, или довольно кривое, или не умеющее в актуальные версии и фичи, а самые жемчужины прячутся где-нибудь в глубинах Github’а и аппсторов.
▪️Статья «Обход блокировок: настройка сервера XRay для Shadowsocks-2022 и VLESS с XTLS-Vision, Websockets и фейковым веб-сайтом» — как настроить свой личный прокси‑сервер с современными протоколами для обхода блокировок. Настройка сервера на базе XRay с протоколами Shadowsocks-2022 и VLESS с транспортом XTLS‑Vision и фейковым веб‑сайтом.
▪️Статья «Bleeding-edge обход блокировок с полной маскировкой: настраиваем сервер и клиент XRay с XTLS-Reality быстро и просто» — XTLS-Reality: как настроить клиент и сервер для нее. Кроме того, что этот протокол еще более устойчив к выявлению, приятным фактом будет и то, что настройка сервера XRay для XTLS-Reality гораздо проще
▪️Статья «3X-UI: Shadowsocks-2022 & XRay (XTLS) сервер с простой настройкой и приятным интерфейсом» — установка и использование графической панели 3X-UI для сервера X-Ray с поддержкой всего того, что умеет X-Ray: Shadowsocks-2022, VLESS с XTLS и т.д.
#Хабр #статьи
Думаем, вы видели новости про массовый сбой в работе VPN-протоколов OpenVPN и WireGuard.
В связи с этим хотим напомнить про хорошую серию статей на Хабре:
▪️Статья «Интернет-цензура и обход блокировок: не время расслабляться» — опыт других стран по части блокировок.
▪️Статья «Современные технологии обхода блокировок: V2Ray, XRay, XTLS, Hysteria, Cloak и все-все-все» — обзор самых передовых протоколов и технологий, которые позволяют делать передаваемый трафик не похожим вообще ни на один существующий стандартный протокол, либо наоборот, позволяют максимально достоверно маскироваться под безобидный HTTPS-трафик.
▪️Статья «Программы-клиенты для протоколов недетектируемого обхода блокировок сайтов: V2Ray/XRay, Clash, Sing-Box, и другие» — найти хороший клиент даже для тех же V2Ray/XRay в наше время не так-то просто. Большая часть того, что находится при поиске в интернете “в лоб” и даже в списках типа Awesome V2Ray — или уже неподдерживаемое, или довольно кривое, или не умеющее в актуальные версии и фичи, а самые жемчужины прячутся где-нибудь в глубинах Github’а и аппсторов.
▪️Статья «Обход блокировок: настройка сервера XRay для Shadowsocks-2022 и VLESS с XTLS-Vision, Websockets и фейковым веб-сайтом» — как настроить свой личный прокси‑сервер с современными протоколами для обхода блокировок. Настройка сервера на базе XRay с протоколами Shadowsocks-2022 и VLESS с транспортом XTLS‑Vision и фейковым веб‑сайтом.
▪️Статья «Bleeding-edge обход блокировок с полной маскировкой: настраиваем сервер и клиент XRay с XTLS-Reality быстро и просто» — XTLS-Reality: как настроить клиент и сервер для нее. Кроме того, что этот протокол еще более устойчив к выявлению, приятным фактом будет и то, что настройка сервера XRay для XTLS-Reality гораздо проще
▪️Статья «3X-UI: Shadowsocks-2022 & XRay (XTLS) сервер с простой настройкой и приятным интерфейсом» — установка и использование графической панели 3X-UI для сервера X-Ray с поддержкой всего того, что умеет X-Ray: Shadowsocks-2022, VLESS с XTLS и т.д.
#Хабр #статьи
🔥14👍5
Все еще боитесь PostgreSQL? Считаете ее слишком сложной? 🤯
Популярность СУБД PostgreSQL в России растет с каждым днем, также как и востребованность специалистов по ней :)
Подписывайтесь на Postgres Guru и больше не бойтесь!
В канале вас ждут:
▪️ Основы PostgreSQL;
▪️ Методы повышения производительности;
▪️ Разбор ошибок и их решения;
▪️ Полезные SQL запросы и функции PostgreSQL;
▪️ Случаи из практики;
▪️ Новости из мира PostgreSQL
и немного юмора 😁
Подписывайтесь и становитесь востребованными специалистами по PostgreSQL!
Популярность СУБД PostgreSQL в России растет с каждым днем, также как и востребованность специалистов по ней :)
Подписывайтесь на Postgres Guru и больше не бойтесь!
В канале вас ждут:
▪️ Основы PostgreSQL;
▪️ Методы повышения производительности;
▪️ Разбор ошибок и их решения;
▪️ Полезные SQL запросы и функции PostgreSQL;
▪️ Случаи из практики;
▪️ Новости из мира PostgreSQL
и немного юмора 😁
Подписывайтесь и становитесь востребованными специалистами по PostgreSQL!
❤9👍5
Failover & Fallback
Похожие термины, но важно понимать различие :) То, что вы думаете, может не совпадать с тем, что вы говорите, то, что вы говорите, может не совпадать с тем, что слышится, а то, что слышится, может не совпадать с тем, что реализуется!
В небольшой серии (первая часть, вторая часть) подробно рассказывается про эти стратегии (очень наглядные схемы) и разницу между ними, описываются ситуации, в которых стоит отдать предпочтение тому или иному варианту.
❓Failover — переключение с основной системы на запасную, если первая вышла из строя или недоступна.
❓Fallback — возврат к предыдущему состоянию или конфигурации, если изменение или обновление вызвало проблемы.
#статьи
Похожие термины, но важно понимать различие :) То, что вы думаете, может не совпадать с тем, что вы говорите, то, что вы говорите, может не совпадать с тем, что слышится, а то, что слышится, может не совпадать с тем, что реализуется!
В небольшой серии (первая часть, вторая часть) подробно рассказывается про эти стратегии (очень наглядные схемы) и разницу между ними, описываются ситуации, в которых стоит отдать предпочтение тому или иному варианту.
❓Failover — переключение с основной системы на запасную, если первая вышла из строя или недоступна.
❓Fallback — возврат к предыдущему состоянию или конфигурации, если изменение или обновление вызвало проблемы.
#статьи
👍12🔥3
Всем DevOps! 🖖
В одной из рассылок (старый добрый email🥰 ) была поднята интересная тема.
Итак, полторы недели назад инженер по машинному обучению написал анализ под названием «Падение Stack Overflow». Из собранных им данных и из данных, которыми делится StackOverflow с самой активной частью комьюнити, следует, что Stack Overflow потерял около 50% своего трафика. Впрочем оказалось, что данные о трафике не учитывают изменения в Google Analytics. С учетом этого падение составило бы 35%. Тем не менее, самая тревожная часть статистики — это не трафик, а снижение количества задаваемых вопросов и ответов.
Кажется, что падение Stack Overflow (и прочих подобных сайтов) связано с активным развитием AI-инструментов для написания кода (ChatGPT, Copilot и т.д.) — пользователи все больше отдают им предпочтение.
Автор рассылки связался со Stack Overflow, чтобы получить официальный комментарий и разобраться в ситуации.
В общем, можете посмотреть это письмо в Telegraph, ну и поделиться своим мнением в комментариях :)
Пользуетесь ли вы AI-инструментами для работы с кодом? Или просто для рабочих задач? А Stack Overflow — пользуетесь?
#статьи
В одной из рассылок (старый добрый email
Итак, полторы недели назад инженер по машинному обучению написал анализ под названием «Падение Stack Overflow». Из собранных им данных и из данных, которыми делится StackOverflow с самой активной частью комьюнити, следует, что Stack Overflow потерял около 50% своего трафика. Впрочем оказалось, что данные о трафике не учитывают изменения в Google Analytics. С учетом этого падение составило бы 35%. Тем не менее, самая тревожная часть статистики — это не трафик, а снижение количества задаваемых вопросов и ответов.
Кажется, что падение Stack Overflow (и прочих подобных сайтов) связано с активным развитием AI-инструментов для написания кода (ChatGPT, Copilot и т.д.) — пользователи все больше отдают им предпочтение.
Автор рассылки связался со Stack Overflow, чтобы получить официальный комментарий и разобраться в ситуации.
В общем, можете посмотреть это письмо в Telegraph, ну и поделиться своим мнением в комментариях :)
Пользуетесь ли вы AI-инструментами для работы с кодом? Или просто для рабочих задач? А Stack Overflow — пользуетесь?
#статьи
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍2❤1
HashiCorp меняет лицензию на исходный код
Компания сообщила, что переходит с Mozilla Public License v2.0 (MPL 2.0) на лицензию Business Source (BSL, также известную как BUSL) v1.1 для всех будущих выпусков продуктов HashiCorp. API-интерфейсы HashiCorp, SDK и почти все другие библиотеки останутся MPL 2.0.
Подробнее про лицензию BSL можно узнать здесь.
#новости
Компания сообщила, что переходит с Mozilla Public License v2.0 (MPL 2.0) на лицензию Business Source (BSL, также известную как BUSL) v1.1 для всех будущих выпусков продуктов HashiCorp. API-интерфейсы HashiCorp, SDK и почти все другие библиотеки останутся MPL 2.0.
Подробнее про лицензию BSL можно узнать здесь.
#новости
👎15🤔3👍2
Forwarded from CORTEL
This media is not supported in your browser
VIEW IN TELEGRAM
У нас накипело!
... и снова на выделенных серверах у крупного провайдера.
Выделенные сервера — не наш бизнес. Мы — сервис-провайдер и занимаемся облаками, но пул клиентов растёт, и вам нравится то, что мы делаем.
Поэтому мы создаём новый сервис по аренде выделенных серверов:
Мы хотим учесть пожелания каждого, поэтому проводим короткий опрос на 3 минуты. Пожалуйста, поделитесь своим мнением, вы очень поможете.
Присоединяйтесь, если вы ждали Hetzner по-русски.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6👎4🔥1
Всем DevOps! 🖖
Продолжаем наблюдать за реакцией сообщества на заявление HashiCorp. Вот, например, на Hacker News рассуждают о плюсах и минусах смены лицензии. Там же поделились репозиторием Open-Terraform.
Open-Terraform — это форк Terraform от Hashicorp с открытым исходным кодом, который сохраняет лицензию MPL после объявления Hashicorp об изменении лицензии на BSL. В общем, будем наблюдать.
Кроме Terraform лицензию изменили у всех основных продуктов компании (Vault, Vagrant, Consul, Nomad, Packer, Boundary).
Затронуло ли вас изменение лицензии HashiСorp? Планируете переходить на альтернативы?
#новости #open_source
Продолжаем наблюдать за реакцией сообщества на заявление HashiCorp. Вот, например, на Hacker News рассуждают о плюсах и минусах смены лицензии. Там же поделились репозиторием Open-Terraform.
Open-Terraform — это форк Terraform от Hashicorp с открытым исходным кодом, который сохраняет лицензию MPL после объявления Hashicorp об изменении лицензии на BSL. В общем, будем наблюдать.
Кроме Terraform лицензию изменили у всех основных продуктов компании (Vault, Vagrant, Consul, Nomad, Packer, Boundary).
Затронуло ли вас изменение лицензии HashiСorp? Планируете переходить на альтернативы?
#новости #open_source
👍9🔥3
На сегодня, 15.08.2023, назначен релиз Kubernetes 1.28 🎉
Для знакомства с улучшениями рекомендуем классную статью из блога с забавным названием Ku🍺netes.
Всего запланировано 44 изменения, из которых 19 Alpha, 14 Beta и 11 Stable.
#новости
Для знакомства с улучшениями рекомендуем классную статью из блога с забавным названием Ku🍺netes.
Всего запланировано 44 изменения, из которых 19 Alpha, 14 Beta и 11 Stable.
#новости
🎉11👍1
Всем DevOps! 🖖
Сегодня хочется рассказать что-нибудь полезное. Решили поделиться советами. Потом по традиции соберем в один пост, чтобы сохранять было удобнее :) Погнали!
Как выбрать оптимальную архитектуру для вашего Kubernetes-кластера?
Вопрос, конечно, интересный. Управление Kubernetes-кластером — это не та задача, где есть одно правильное решение на все случаи жизни. Есть много способов оптимизации кластера и главное здесь — это обеспечение стабильной и отказоустойчивой работы приложений.
Выбор правильного размера ноды критичен для разработки масштабируемых приложений. Иметь множество маленьких нод или несколько больших — это две крайности. Для кластера, которому нужно всего 24Gb памяти и 12 CPU лучше выбрать 12 машин по 1-CPU/2GB или две по 6-CPU/12GB ?
Здравый смысл подсказывает нам, что ответ лежит где-то посередине, но давайте рассмотрим те факторы, которые могут повлиять на наше решение. Посмотрим на специфику обеих крайностей, прежде чем сделать выбор.
Отказоустойчивость
Kubernetes предоставляет возможность реализовать отказоустойчивость для приложений из коробки если у вас есть по крайней мере 2 воркер ноды. Однако, говоря о выборе между несколькими большими нодами и множеством маленьких нам нужно понимать, что нас ждет.
Если у нас есть две больших воркер ноды и одна их них упадет, то мы потеряем половину всех ресурсов кластера. Если вы не предусмотрели 100% запас ресурсов, то это приведет к катастрофе, так как оставшаяся нода не сможет выдержать двойную нагрузку. Наличие множества воркеров снижает эти риски на n. К примеру, если у вас есть 10 нод в кластере и выключится одна, то вы потеряете только 10% от всей мощности кластера.
Победители: множество маленьких нод 🎉
Сложность управления
С большим количеством нод вам нужно будет заботиться о большем количестве серверов, их обновлении и обслуживании. Сократив количество нод их проще обслуживать. Как DevOps и SRE вы можете использовать такие инструменты как Ansible или Puppet, чтобы упростить эти процессы за счет автоматизации.
Если вы используйте managed Kubernetes-кластер, то ваш облачный провайдер будет патчить и обновлять ноды за вас. В итоге с современными инструментами этот пункт не дает существенного преимущества.
Победители: нет 🎉
Простота в распределении контейнеров
Kubernetes оценивает многие параметры, когда распределяет контейнеры. Одни из них — это количество доступных ресурсов на ноде, ресурсные запросы и ограничения для контейнеров. С большим количеством ресурсов на каждой ноде Kubernetes проще найти ноды, на которые можно переселить поды, чем если бы у вас было множество маленьких нод.
Победители: несколько больших нод 🎉
Нагрузка на kubelet
Kubelet отвечает за взаимодействие с нижележащим container runtime (движком для контейнеров) для запуска приложений на воркер нодах. Если вы запускаете множество контейнеров на одной ноде, что типично для кластеров с большими нодами, это может перегрузить kubelet, так как ему нужно будет оперировать большим количеством контейнеров.
Kubelet оптимизирован для управления только определённым ограниченным количеством контейнеров и многие облачные провайдеры ограничивают число контейнеров, которые можно запускать на одной воркер ноде. Следовательно, наличие нескольких больших нод это не всегда верное решение, если вы планируете запускать множество маленьких контейнеров.
Победители: множество маленьких нод 🎉
Нагрузка на систему
И наоборот, множество нод нагружают ваши мастер ноды, так как им нужно взаимодействовать со множеством воркер нод. Kubernetes не оптимизирован для работы более чем с 500 нодами на кластер (хотя они и пишут, что могут управлять до 5000 нод).
Следовательно, надо быть осторожным, добавляя новые ноды в кластер и оптимизировать их размер в зависимости от их количества. В большинстве случаев не требуется такого большого количества нод, но их нередко можно встретить в сборках для высокопроизводительных приложений.
Победители: несколько больших нод 🎉
*️⃣ 1/3: продолжение следует :)
#лонгрид
Сегодня хочется рассказать что-нибудь полезное. Решили поделиться советами. Потом по традиции соберем в один пост, чтобы сохранять было удобнее :) Погнали!
Как выбрать оптимальную архитектуру для вашего Kubernetes-кластера?
Вопрос, конечно, интересный. Управление Kubernetes-кластером — это не та задача, где есть одно правильное решение на все случаи жизни. Есть много способов оптимизации кластера и главное здесь — это обеспечение стабильной и отказоустойчивой работы приложений.
Выбор правильного размера ноды критичен для разработки масштабируемых приложений. Иметь множество маленьких нод или несколько больших — это две крайности. Для кластера, которому нужно всего 24Gb памяти и 12 CPU лучше выбрать 12 машин по 1-CPU/2GB или две по 6-CPU/12GB ?
Здравый смысл подсказывает нам, что ответ лежит где-то посередине, но давайте рассмотрим те факторы, которые могут повлиять на наше решение. Посмотрим на специфику обеих крайностей, прежде чем сделать выбор.
Отказоустойчивость
Kubernetes предоставляет возможность реализовать отказоустойчивость для приложений из коробки если у вас есть по крайней мере 2 воркер ноды. Однако, говоря о выборе между несколькими большими нодами и множеством маленьких нам нужно понимать, что нас ждет.
Если у нас есть две больших воркер ноды и одна их них упадет, то мы потеряем половину всех ресурсов кластера. Если вы не предусмотрели 100% запас ресурсов, то это приведет к катастрофе, так как оставшаяся нода не сможет выдержать двойную нагрузку. Наличие множества воркеров снижает эти риски на n. К примеру, если у вас есть 10 нод в кластере и выключится одна, то вы потеряете только 10% от всей мощности кластера.
Победители: множество маленьких нод 🎉
Сложность управления
С большим количеством нод вам нужно будет заботиться о большем количестве серверов, их обновлении и обслуживании. Сократив количество нод их проще обслуживать. Как DevOps и SRE вы можете использовать такие инструменты как Ansible или Puppet, чтобы упростить эти процессы за счет автоматизации.
Если вы используйте managed Kubernetes-кластер, то ваш облачный провайдер будет патчить и обновлять ноды за вас. В итоге с современными инструментами этот пункт не дает существенного преимущества.
Победители: нет 🎉
Простота в распределении контейнеров
Kubernetes оценивает многие параметры, когда распределяет контейнеры. Одни из них — это количество доступных ресурсов на ноде, ресурсные запросы и ограничения для контейнеров. С большим количеством ресурсов на каждой ноде Kubernetes проще найти ноды, на которые можно переселить поды, чем если бы у вас было множество маленьких нод.
Победители: несколько больших нод 🎉
Нагрузка на kubelet
Kubelet отвечает за взаимодействие с нижележащим container runtime (движком для контейнеров) для запуска приложений на воркер нодах. Если вы запускаете множество контейнеров на одной ноде, что типично для кластеров с большими нодами, это может перегрузить kubelet, так как ему нужно будет оперировать большим количеством контейнеров.
Kubelet оптимизирован для управления только определённым ограниченным количеством контейнеров и многие облачные провайдеры ограничивают число контейнеров, которые можно запускать на одной воркер ноде. Следовательно, наличие нескольких больших нод это не всегда верное решение, если вы планируете запускать множество маленьких контейнеров.
Победители: множество маленьких нод 🎉
Нагрузка на систему
И наоборот, множество нод нагружают ваши мастер ноды, так как им нужно взаимодействовать со множеством воркер нод. Kubernetes не оптимизирован для работы более чем с 500 нодами на кластер (хотя они и пишут, что могут управлять до 5000 нод).
Следовательно, надо быть осторожным, добавляя новые ноды в кластер и оптимизировать их размер в зависимости от их количества. В большинстве случаев не требуется такого большого количества нод, но их нередко можно встретить в сборках для высокопроизводительных приложений.
Победители: несколько больших нод 🎉
#лонгрид
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥11
Выбор размера нод
Что ж, выбор зависит от множества факторов, как всегда! Истина где-то посередине и не стоит выбирать ни одну из крайностей.
Вам нужно ответить на вопросы ниже, чтобы найти свой оптимальный размер.
Какой тип приложений вы запускаете?
Вы запускаете микросервисы из множества контейнеров, которые занимают мало места, или несколько монолитов, требующих гигабайты оперативной памяти и целые ядра CPU? Базы данных? Или все вместе?
Можно ли объединить приложения в группы?
Для смешанных окружений, можете ли вы разделить приложения по категориям? Например, если вы запускаете микросервисное приложение, которое работает с БД MySQL, вы разделяете его компоненты на группы приложений и баз данных. Аналогично, если вы запускаете вместе и монолиты и микросервисы, как ELK стек для мониторинга кластера, вы можете разместить его компоненты по разным группам. Для простоты я назвал только три категории, но вы можете создать столько, сколько хотите.
Максимальное количество ресурсов для каждой категории
Если вы можете сгруппировать приложения по категориям, то после этого вам нужно понять сколько максимум ресурсов может потребоваться на одно приложение из каждой категории. Например, если вы запускаете микросервисы, монолиты и БД в кластере, вам нужно взять максимальные затраты на один инстанс БД, микросервис или монолит.
Посчитать количество приложений в каждой категории
Следующий шаг это найти планируемое количество приложений в каждой из категорий. У вас может быть, например, 8 БД MySQL, 200 микросервисов и 9 монолитов. Запишите их. Не перебарщивайте. Kubernetes спроектирован для масштабирования и вы всегда можете использовать автоматическое масштабирование кластера у некоторых провайдеров. Либо, вы можете добавить ноду вручную позже.
Поместите каждую категорию в отдельный пул нод
Лучший способ оптимизировать ноды это создать пул нод под каждую категорию. Большинство Kubernetes кластеров работают с различными пулами нод и разнородные ноды можно подключать к самостоятельно управляемым кластерам.
Заложите отказоустойчивость
Нужно иметь минимум две ноды в каждом пуле для достижения отказоустойчивости. Kubernetes рекомендует максимум 110 контейнеров на ноду. Так же есть ещё системные контейнеры, которые запущены на нодах, так что имейте это ввиду.
Может вам придется согласовать это значение с вашим облачным провайдером, так как они могут предоставлять разного уровня жесткости ограничения на количество подов, запущенных на ноде. Идея в том, чтобы не вылезать за лимит.
Подгоните свои ноды под контейнеры для оптимального управления ресурсами
Если мы ожидаем падение одной ноды за раз, то должны заложить избыток ресурсов на каждой ноде так, чтобы при падении на них могли переехать ресурсы с упавшей ноды.
Подгоните ваши контейнеры и ноды для лучшего возможного управления ресурсами. Например, если у нас есть 20 контейнеров, лучше всего будет распределить по 4 пода на одну ноду, тогда нам нужно иметь в запасе 20% ресурсов на каждой ноде, вместо 100% как если бы у нас было всего 2 ноды.
Как мы пришли к этой цифре? Просто возьмите квадратный корень от количества контейнеров и округлите в меньшую сторону. Это даст вам максимальное количество контейнеров, которое должно быть у вас на ноде.
Учтите нагрузку от самого Kubernetes
Учтите тот факт, что системные компоненты Kubernetes так же будут потреблять какое-то количество CPU и памяти на каждой ноде, поэтому на самом деле вам будет доступно меньше ресурсов, чем есть на ноде. Уточните эти параметры у вашего облачного провайдера и добавьте к ресурсам ноды.
*️⃣ 2/3: продолжение следует :)
#лонгрид
Что ж, выбор зависит от множества факторов, как всегда! Истина где-то посередине и не стоит выбирать ни одну из крайностей.
Вам нужно ответить на вопросы ниже, чтобы найти свой оптимальный размер.
Какой тип приложений вы запускаете?
Вы запускаете микросервисы из множества контейнеров, которые занимают мало места, или несколько монолитов, требующих гигабайты оперативной памяти и целые ядра CPU? Базы данных? Или все вместе?
Можно ли объединить приложения в группы?
Для смешанных окружений, можете ли вы разделить приложения по категориям? Например, если вы запускаете микросервисное приложение, которое работает с БД MySQL, вы разделяете его компоненты на группы приложений и баз данных. Аналогично, если вы запускаете вместе и монолиты и микросервисы, как ELK стек для мониторинга кластера, вы можете разместить его компоненты по разным группам. Для простоты я назвал только три категории, но вы можете создать столько, сколько хотите.
Максимальное количество ресурсов для каждой категории
Если вы можете сгруппировать приложения по категориям, то после этого вам нужно понять сколько максимум ресурсов может потребоваться на одно приложение из каждой категории. Например, если вы запускаете микросервисы, монолиты и БД в кластере, вам нужно взять максимальные затраты на один инстанс БД, микросервис или монолит.
Посчитать количество приложений в каждой категории
Следующий шаг это найти планируемое количество приложений в каждой из категорий. У вас может быть, например, 8 БД MySQL, 200 микросервисов и 9 монолитов. Запишите их. Не перебарщивайте. Kubernetes спроектирован для масштабирования и вы всегда можете использовать автоматическое масштабирование кластера у некоторых провайдеров. Либо, вы можете добавить ноду вручную позже.
Поместите каждую категорию в отдельный пул нод
Лучший способ оптимизировать ноды это создать пул нод под каждую категорию. Большинство Kubernetes кластеров работают с различными пулами нод и разнородные ноды можно подключать к самостоятельно управляемым кластерам.
Заложите отказоустойчивость
Нужно иметь минимум две ноды в каждом пуле для достижения отказоустойчивости. Kubernetes рекомендует максимум 110 контейнеров на ноду. Так же есть ещё системные контейнеры, которые запущены на нодах, так что имейте это ввиду.
Может вам придется согласовать это значение с вашим облачным провайдером, так как они могут предоставлять разного уровня жесткости ограничения на количество подов, запущенных на ноде. Идея в том, чтобы не вылезать за лимит.
Подгоните свои ноды под контейнеры для оптимального управления ресурсами
Если мы ожидаем падение одной ноды за раз, то должны заложить избыток ресурсов на каждой ноде так, чтобы при падении на них могли переехать ресурсы с упавшей ноды.
Подгоните ваши контейнеры и ноды для лучшего возможного управления ресурсами. Например, если у нас есть 20 контейнеров, лучше всего будет распределить по 4 пода на одну ноду, тогда нам нужно иметь в запасе 20% ресурсов на каждой ноде, вместо 100% как если бы у нас было всего 2 ноды.
Как мы пришли к этой цифре? Просто возьмите квадратный корень от количества контейнеров и округлите в меньшую сторону. Это даст вам максимальное количество контейнеров, которое должно быть у вас на ноде.
Учтите нагрузку от самого Kubernetes
Учтите тот факт, что системные компоненты Kubernetes так же будут потреблять какое-то количество CPU и памяти на каждой ноде, поэтому на самом деле вам будет доступно меньше ресурсов, чем есть на ноде. Уточните эти параметры у вашего облачного провайдера и добавьте к ресурсам ноды.
#лонгрид
Please open Telegram to view this post
VIEW IN TELEGRAM
🦄6👍5🔥4👾2
Подводя итог
Учитывая все вышесказанное, вам нужно сделать следующее, чтобы найти оптимальные значения:
Количество контейнеров на ноде = Корень квадратный из количества контейнеров, округленный до целого в меньшую сторону, при условии, что количество контейнеров на ноду не превышает рекомендуемое значение
Количество нод = Количество контейнеров/Количество контейнеров на ноду
Запас ресурсов = Количество контейнеров на ноду * Максимальное количество ресурсов на контейнер/(Количество нод - Максимальное допустимое количество отключенных нод)
Ресурсы ноды = максимальное кол-во ресурсов, требуемое контейнеру * кол-во контейнеров на ноде + запас ресурсов + ресурсные требования системных компонент Kubernetes
Чтобы понять, как это работает, давайте рассмотрим пример.
Давайте скажем, что нам нужны два пула нод:
Микросервисы - 200 микросервисов с 0.1 CPU и 100MB RAM, требуемых на контейнер.
Базы данных - 20 PostgreSQL баз данных с 2 CPU и 4GB RAM, требуемых на контейнер.
Предположим, что компоненты Kube system будут потреблять 0.5 CPU и 0.5 GB RAM и мы рассчитываем, что только одна нода может быть недоступна за раз.
Для микросервисного пула:
Ближайшее меньший целый квадрат числа = 196
Кол-во контейнеров на ноду = sqrt(196) = 14
Кол-во нод = 200/14 = 14.28 ~ 15
Максимальное допустимое число неработающих нод = 1
Запас ресурсов = 14 * (0.1 core + 100MB RAM)/(15–1) = 0.1 core + 100MB RAM
Ресурсы ноды = (0.1 core + 100MB RAM) * 14 + 0.1 core + 100MB RAM + 0.5 cores + 500MB RAM = 2 core + 2GB RAM
Для пула баз данных:
Ближайшее меньший целый квадрат числа = 16
Кол-во контейнеров на ноду = sqrt(16) = 4
Кол-во нод = 20/4 = 5
Максимальное допустимое число неработающих нод = 1
Запас ресурсов = 4 * (2 core + 4GB RAM)/(5–1) = 2 core + 4GB RAM
Ресурсы ноды = (two core + 4GB RAM) * 4 + 2 core + 4GB RAM + 0.5 cores + 0.5 GB RAM = 10.5 core + 20.5 GB RAM
Следовательно, для микросервисного пула вам будет нужно 15 воркер нод с 2 ядрами и 2 GB RAM каждая, и для пула БД вам нужно будет 5 воркер нод с 10.5 ядрами и 20.5 GB RAM каждая. Для простоты можно округлить числа до ближайшей большей доступной конфигурации машины.
*️⃣ 3/3
#лонгрид
Учитывая все вышесказанное, вам нужно сделать следующее, чтобы найти оптимальные значения:
Количество контейнеров на ноде = Корень квадратный из количества контейнеров, округленный до целого в меньшую сторону, при условии, что количество контейнеров на ноду не превышает рекомендуемое значение
Количество нод = Количество контейнеров/Количество контейнеров на ноду
Запас ресурсов = Количество контейнеров на ноду * Максимальное количество ресурсов на контейнер/(Количество нод - Максимальное допустимое количество отключенных нод)
Ресурсы ноды = максимальное кол-во ресурсов, требуемое контейнеру * кол-во контейнеров на ноде + запас ресурсов + ресурсные требования системных компонент Kubernetes
Чтобы понять, как это работает, давайте рассмотрим пример.
Давайте скажем, что нам нужны два пула нод:
Микросервисы - 200 микросервисов с 0.1 CPU и 100MB RAM, требуемых на контейнер.
Базы данных - 20 PostgreSQL баз данных с 2 CPU и 4GB RAM, требуемых на контейнер.
Предположим, что компоненты Kube system будут потреблять 0.5 CPU и 0.5 GB RAM и мы рассчитываем, что только одна нода может быть недоступна за раз.
Для микросервисного пула:
Ближайшее меньший целый квадрат числа = 196
Кол-во контейнеров на ноду = sqrt(196) = 14
Кол-во нод = 200/14 = 14.28 ~ 15
Максимальное допустимое число неработающих нод = 1
Запас ресурсов = 14 * (0.1 core + 100MB RAM)/(15–1) = 0.1 core + 100MB RAM
Ресурсы ноды = (0.1 core + 100MB RAM) * 14 + 0.1 core + 100MB RAM + 0.5 cores + 500MB RAM = 2 core + 2GB RAM
Для пула баз данных:
Ближайшее меньший целый квадрат числа = 16
Кол-во контейнеров на ноду = sqrt(16) = 4
Кол-во нод = 20/4 = 5
Максимальное допустимое число неработающих нод = 1
Запас ресурсов = 4 * (2 core + 4GB RAM)/(5–1) = 2 core + 4GB RAM
Ресурсы ноды = (two core + 4GB RAM) * 4 + 2 core + 4GB RAM + 0.5 cores + 0.5 GB RAM = 10.5 core + 20.5 GB RAM
Следовательно, для микросервисного пула вам будет нужно 15 воркер нод с 2 ядрами и 2 GB RAM каждая, и для пула БД вам нужно будет 5 воркер нод с 10.5 ядрами и 20.5 GB RAM каждая. Для простоты можно округлить числа до ближайшей большей доступной конфигурации машины.
#лонгрид
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍8🤯1
Всё собрали в одну подборку — удобнее сохранять :)
Как выбрать оптимальную архитектуру для вашего Kubernetes-кластера?
⚙️ Часть 1 — иметь множество маленьких нод или несколько больших — это две крайности. Для кластера, которому нужно всего 24Gb памяти и 12 CPU лучше выбрать 12 машин по 1-CPU/2GB или две по 6-CPU/12GB ?
Сравнение обоих вариантов по разным критериям: отказоустойчивость, сложность управления, простота в распределении контейнеров, нагрузка на kubelet, нагрузка на систему.
⚙️ Часть 2 — конкретные вопросы, на которые нужно ответить, чтобы определиться с архитектурой и факторы, которые нужно учесть.
⚙️ Часть 3 — что нужно сделать, чтобы найти оптимальные значения? Посчитать! (пример расчетов)
#статьи
Как выбрать оптимальную архитектуру для вашего Kubernetes-кластера?
⚙️ Часть 1 — иметь множество маленьких нод или несколько больших — это две крайности. Для кластера, которому нужно всего 24Gb памяти и 12 CPU лучше выбрать 12 машин по 1-CPU/2GB или две по 6-CPU/12GB ?
Сравнение обоих вариантов по разным критериям: отказоустойчивость, сложность управления, простота в распределении контейнеров, нагрузка на kubelet, нагрузка на систему.
⚙️ Часть 2 — конкретные вопросы, на которые нужно ответить, чтобы определиться с архитектурой и факторы, которые нужно учесть.
⚙️ Часть 3 — что нужно сделать, чтобы найти оптимальные значения? Посчитать! (пример расчетов)
#статьи
👍8🔥8❤6
Вчера Debian исполнилось 30 лет, а мы ничего не написали! Непорядок, исправляемся 😁
Итак, 30 лет назад Ян Мердок написал в группу новостей comp.os.linux.development о завершении совершенно нового выпуска Linux. Вот здесь вы тоже можете прочитать эту новость, прикоснуться к истории, так сказать.
В дополнение рекомендуем видео «Early History of Debian» от Бдейла Гарби, разработчика, который принимал участие в создании Debian с первых дней проекта.
Сегодня Debian используют в кластерных системах, ЦОДах, ПК, IoT-устройствах, ноутбуках, серверах и даже в космосе :)
Live long and prosper, Debian! 🎉
#новости
Итак, 30 лет назад Ян Мердок написал в группу новостей comp.os.linux.development о завершении совершенно нового выпуска Linux. Вот здесь вы тоже можете прочитать эту новость, прикоснуться к истории, так сказать.
В дополнение рекомендуем видео «Early History of Debian» от Бдейла Гарби, разработчика, который принимал участие в создании Debian с первых дней проекта.
Сегодня Debian используют в кластерных системах, ЦОДах, ПК, IoT-устройствах, ноутбуках, серверах и даже в космосе :)
Live long and prosper, Debian! 🎉
#новости
🎉20🔥4❤2👍2
Что нового по части безопасности добавилось в Kubernetes 1.28
Отличная статья от Рори МакКьюна, специалиста по безопасности, контейнеризации (Kubernetes/Docker), облачным вычислениям и т.д. из DataDog.
В статье рассматривается два изменения:
⚙️ Бета-версия Validating Admission Policy — функция, впервые представленная в Kubernetes 1.26, достигла статуса бета-версии в версии 1.28. Предоставляет встроенный механизм для проверки рабочих нагрузок при входе в кластеры Kubernetes. Ранее единственным вариантом реализации контроля доступа без использования сторонних продуктов был Pod Security Admission, которому не хватало гибкости, необходимой для более сложных сред.
⚙️ Stable-версия SelfSubjectReview API — эта функция была выпущена в бета-версии Kubernetes 1.27, и она позволяет пользователям идентифицировать атрибуты о себе. В Kubernetes нет базы данных пользователей, поэтому пользователям традиционно было трудно понять, как их видит кластер, и узнать подробную информацию о себе, например, о членстве в группах. Эта функция обеспечивает простой способ получения этой информации с сервера API.
P.S. У Рори МакКьюна есть и отдельный блог, писали про него здесь.
#статьи
Отличная статья от Рори МакКьюна, специалиста по безопасности, контейнеризации (Kubernetes/Docker), облачным вычислениям и т.д. из DataDog.
В статье рассматривается два изменения:
⚙️ Бета-версия Validating Admission Policy — функция, впервые представленная в Kubernetes 1.26, достигла статуса бета-версии в версии 1.28. Предоставляет встроенный механизм для проверки рабочих нагрузок при входе в кластеры Kubernetes. Ранее единственным вариантом реализации контроля доступа без использования сторонних продуктов был Pod Security Admission, которому не хватало гибкости, необходимой для более сложных сред.
⚙️ Stable-версия SelfSubjectReview API — эта функция была выпущена в бета-версии Kubernetes 1.27, и она позволяет пользователям идентифицировать атрибуты о себе. В Kubernetes нет базы данных пользователей, поэтому пользователям традиционно было трудно понять, как их видит кластер, и узнать подробную информацию о себе, например, о членстве в группах. Эта функция обеспечивает простой способ получения этой информации с сервера API.
P.S. У Рори МакКьюна есть и отдельный блог, писали про него здесь.
#статьи
👍9🔥3
Не любите Docker? Вы просто не умеете его готовить! 🤣
С Docker Cookbook есть шанс научиться. Ладно, если серьезно, эту отличную книгу нам порекомендовал подписчик, большое спасибо :) Разумеется, делимся!
В "кулинарной книге" — 10 глав. Каждая глава состоит из "рецептов", написанных в формате "проблема, решение, обсуждение". Можно читать книгу от начала до конца или выбрать конкретную главу — каждая глава независима от других, но когда требуются концепции из других разделов, предоставляются соответствующие ссылки
Как раз можно на выходных почитать (хотя, конечно, на выходных лучше отдыхать🏖 )
Всем пятница и хороших выходных! 🔥
P.S. Если вы знаете какой-то классный материал, инструмент, увидели интересную новость и т.д. и хотите поделиться ими с сообществом — пишите!
#книги
С Docker Cookbook есть шанс научиться. Ладно, если серьезно, эту отличную книгу нам порекомендовал подписчик, большое спасибо :) Разумеется, делимся!
В "кулинарной книге" — 10 глав. Каждая глава состоит из "рецептов", написанных в формате "проблема, решение, обсуждение". Можно читать книгу от начала до конца или выбрать конкретную главу — каждая глава независима от других, но когда требуются концепции из других разделов, предоставляются соответствующие ссылки
Как раз можно на выходных почитать (хотя, конечно, на выходных лучше отдыхать
Всем пятница и хороших выходных! 🔥
P.S. Если вы знаете какой-то классный материал, инструмент, увидели интересную новость и т.д. и хотите поделиться ими с сообществом — пишите!
#книги
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍4
В эфире — новости! ⚡️
▪️ Мировой рынок облаков за год вырос на $10 млрд — затраты на облачные ресурсы во II четверти 2023-го составили приблизительно $65 млрд. Это на $10 млрд больше по сравнению с аналогичным периодом предыдущего года. Таким образом, зафиксирован третий квартал подряд, когда рынок облачных вычислений вырос на $10 млрд в годовом исчислении.
▪️ Анонсирована стабильная версия Ceph Reef 18.2.0 — из важного: по состоянию на 07.08.23 невозможен билд Ceph этой версии на Debian GNU / Linux 12.0 (Bookworm) из-за ошибки на стороне Debian. С тех пор апдейтов не было.
▪️ C 16 августа 2023 г. GitLab будет требовать от пользователей, которые не используют двухфакторную аутентификацию ( 2FA ), подтвердить действительный адрес электронной почты при входе в систему.
▪️GitLab Container Registry теперь поддерживает артефакты Falcoctl OCI. Точнее это обновление войдет в релиз GitLab 16.3. Falcoctl — одна из новейших разработок сообщества Falco. Это инструмент командной строки, который позволяет управлять полным жизненным циклом правил и плагинов Falco, используя возможности OCI Artifacts.
▪️Про релиз Kubernetes 1.28 уже все знают, но обратите внимание на официальный блог k8s — после релиза там начинают выходить полезные статьи, рассказывающие про важнейшие обновления релиза, уже вышло три.
А еще Kubernetes представили репозитории, принадлежащие сообществу Kubernetes, для пакетов Debian и RPM: pkgs.k8s.io. Новые репозитории пакетов заменяют репозитории пакетов, размещенные в Google ( apt.kubernetes.io и yum.kubernetes.io), которые использовались, начиная с версии Kubernetes 1.5.
Что-то забыли? Дополняйте в комментариях :)
Всем DevOps и отличной недели! 🖖
#новости
▪️ Мировой рынок облаков за год вырос на $10 млрд — затраты на облачные ресурсы во II четверти 2023-го составили приблизительно $65 млрд. Это на $10 млрд больше по сравнению с аналогичным периодом предыдущего года. Таким образом, зафиксирован третий квартал подряд, когда рынок облачных вычислений вырос на $10 млрд в годовом исчислении.
▪️ Анонсирована стабильная версия Ceph Reef 18.2.0 — из важного: по состоянию на 07.08.23 невозможен билд Ceph этой версии на Debian GNU / Linux 12.0 (Bookworm) из-за ошибки на стороне Debian. С тех пор апдейтов не было.
▪️ C 16 августа 2023 г. GitLab будет требовать от пользователей, которые не используют двухфакторную аутентификацию ( 2FA ), подтвердить действительный адрес электронной почты при входе в систему.
▪️GitLab Container Registry теперь поддерживает артефакты Falcoctl OCI. Точнее это обновление войдет в релиз GitLab 16.3. Falcoctl — одна из новейших разработок сообщества Falco. Это инструмент командной строки, который позволяет управлять полным жизненным циклом правил и плагинов Falco, используя возможности OCI Artifacts.
▪️Про релиз Kubernetes 1.28 уже все знают, но обратите внимание на официальный блог k8s — после релиза там начинают выходить полезные статьи, рассказывающие про важнейшие обновления релиза, уже вышло три.
А еще Kubernetes представили репозитории, принадлежащие сообществу Kubernetes, для пакетов Debian и RPM: pkgs.k8s.io. Новые репозитории пакетов заменяют репозитории пакетов, размещенные в Google ( apt.kubernetes.io и yum.kubernetes.io), которые использовались, начиная с версии Kubernetes 1.5.
Что-то забыли? Дополняйте в комментариях :)
Всем DevOps и отличной недели! 🖖
#новости
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥6❤2