Присоединяйтесь к митапу «СУБД глазами инфраструктурщиков», чтобы обсудить всё, что волнует сообщество DBA сегодня
Участников ждут практические доклады, живое общение и обмен опытом с экспертами, а ещё актуальные инсайты о том, куда движется рынок СУБД.
В программе:
🔷 PostgreSQL без валидола: сборка кластера вручную
🔷 Автоматизация кластеров Postgre
🔷 Как мы перевезли Oracle с Solaris SPARC на x86
🔷 Масштабирование и отказоустойчивость YDB — 9 нод, банковская нагрузка, падение дата-центра, перезапуск кластера под нагрузкой без простоя.
🔷 Круглый стол «Масштабирование СУБД: реальные проблемы и перспективы»
Участвуют эксперты из: «Инфосистемы Джет», Яндекс (YDB), Arenadata, СберТех, Postgres Professional, Газинформсервис
Для кого: CIO, CTO, ИТ-директоров, архитекторов, DevOps, DBA
Когда: 25 ноября, 16:00–19:00 (МСК)
Где: офлайн и онлайн
ДЕТАЛИ И РЕГИСТРАЦИЯ
Участников ждут практические доклады, живое общение и обмен опытом с экспертами, а ещё актуальные инсайты о том, куда движется рынок СУБД.
В программе:
🔷 PostgreSQL без валидола: сборка кластера вручную
🔷 Автоматизация кластеров Postgre
🔷 Как мы перевезли Oracle с Solaris SPARC на x86
🔷 Масштабирование и отказоустойчивость YDB — 9 нод, банковская нагрузка, падение дата-центра, перезапуск кластера под нагрузкой без простоя.
🔷 Круглый стол «Масштабирование СУБД: реальные проблемы и перспективы»
Участвуют эксперты из: «Инфосистемы Джет», Яндекс (YDB), Arenadata, СберТех, Postgres Professional, Газинформсервис
Для кого: CIO, CTO, ИТ-директоров, архитекторов, DevOps, DBA
Когда: 25 ноября, 16:00–19:00 (МСК)
Где: офлайн и онлайн
ДЕТАЛИ И РЕГИСТРАЦИЯ
❤1
Почему nginx начинает отдавать 502, хотя backend жив
Это один из самых частых «фантомных» багов в проде: backend работает, процессы на месте, порты слушают - а nginx упорно шлёт 502.
Секрет почти всегда в том, как backend отвечает, а не в том, что он «лежит».
Что происходит на самом деле:
nginx пытается подключиться к upstream, но соединение не укладывается в его ожидания - по времени, по количеству воркеров или по лимитам системы.
Как проверить:
Типичные причины:
⏺ Backend отвечает слишком медленно.
nginx режет по таймауту, даже если backend в итоге что-то вернул.
⏺ У backend мало воркеров.
Например, Gunicorn запущен с 1 worker — он занят обработкой одного запроса, остальные получают 502.
⏺ Нехватка файловых дескрипторов (open files).
nginx или backend не могут открыть новое соединение → 502.
⏺ Backend закрывает соединения «грязно».
nginx ждёт корректный FIN/ACK, а получает RST → ошибка upstream.
⏺ TCP или firewall дропает локальные соединения.
Да, даже на 127.0.0.1 такое случается при агрессивных правилах.
💡 Как временно «подлечить»:
В nginx.conf поднять таймауты:
Проверить лимиты:
и увеличить:
➖ Для Gunicorn, uvicorn, uWSGI — увеличить число воркеров.
➖ Для Docker/K8s — проверить readiness/liveness probes, чтобы нагрузка не шла на умирающие поды.
Это один из самых частых «фантомных» багов в проде: backend работает, процессы на месте, порты слушают - а nginx упорно шлёт 502.
Секрет почти всегда в том, как backend отвечает, а не в том, что он «лежит».
Что происходит на самом деле:
nginx пытается подключиться к upstream, но соединение не укладывается в его ожидания - по времени, по количеству воркеров или по лимитам системы.
Как проверить:
# Проверяем, отвечает ли backend напрямую
curl -I http://127.0.0.1:8000
# Смотрим ошибки nginx в момент проблемы
journalctl -u nginx -f
# Проверяем, не упёрся ли backend в лимиты соединений
netstat -plant | grep :8000
Типичные причины:
nginx режет по таймауту, даже если backend в итоге что-то вернул.
Например, Gunicorn запущен с 1 worker — он занят обработкой одного запроса, остальные получают 502.
nginx или backend не могут открыть новое соединение → 502.
nginx ждёт корректный FIN/ACK, а получает RST → ошибка upstream.
Да, даже на 127.0.0.1 такое случается при агрессивных правилах.
В nginx.conf поднять таймауты:
proxy_connect_timeout 10s;
proxy_read_timeout 60s;
proxy_send_timeout 60s;
Проверить лимиты:
ulimit -n
и увеличить:
ulimit -n 65535
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13❤9👍3
Факторы выгорания разработчиков open source
Основные причины: нехватка финансирования, токсичное поведение пользователей, высокая нагрузка, рутина и постоянная необходимость доказывать компетентность.
Это снижает мотивацию и качество сопровождения проектов.
Решения просты, но редки: регулярная оплата, культура признания, наставничество и поддержка сообщества.
Исследование Эдинбургского университета выявило, что 73% разработчиков открытого ПО сталкиваются с выгоранием.
Основные причины: нехватка финансирования, токсичное поведение пользователей, высокая нагрузка, рутина и постоянная необходимость доказывать компетентность.
Это снижает мотивацию и качество сопровождения проектов.
Решения просты, но редки: регулярная оплата, культура признания, наставничество и поддержка сообщества.
❤5👍2
Мигрируем на VMmanager за счет вендора
Коллеги, все, кто столкнулся с необходимостью мигрировать с российских платформ виртуализации, знают, сколько это стресса, рисков и затрат.
Так вот, ребята из ISPsystem, кажется, предложили элегантное решение. Их акция «Мигрируем VMeste» — это готовый пакет "миграция без боли": безопасный переезд с российской платформы виртуализации на VMmanager (Лучший продукт серверной виртуализации по версии CNews Awards)
Они снимают ключевые барьеры:
● Финансовый: Лицензия VMmanager на 12 месяцев по стоимости техподдержки.
● Технический: Полное сопровождение процесса их экспертами.
● Операционный: В подарок дают BILLmanager Enterprise, чтобы не пришлось перестраивать все процессы управления с нуля.
Фактически, они берут на себя все сложности и большую часть затрат. Вам остается купить только техподдержку на первый год.
Акция временная (регистрация до конца 2025 года), так что если тема актуальна — советую изучить.
Подробности по ссылке: https://clck.ru/3QUQys&erid=2W5zFHzDkVn
Реклама. АО «Экзософт»
Коллеги, все, кто столкнулся с необходимостью мигрировать с российских платформ виртуализации, знают, сколько это стресса, рисков и затрат.
Так вот, ребята из ISPsystem, кажется, предложили элегантное решение. Их акция «Мигрируем VMeste» — это готовый пакет "миграция без боли": безопасный переезд с российской платформы виртуализации на VMmanager (Лучший продукт серверной виртуализации по версии CNews Awards)
Они снимают ключевые барьеры:
● Финансовый: Лицензия VMmanager на 12 месяцев по стоимости техподдержки.
● Технический: Полное сопровождение процесса их экспертами.
● Операционный: В подарок дают BILLmanager Enterprise, чтобы не пришлось перестраивать все процессы управления с нуля.
Фактически, они берут на себя все сложности и большую часть затрат. Вам остается купить только техподдержку на первый год.
Акция временная (регистрация до конца 2025 года), так что если тема актуальна — советую изучить.
Подробности по ссылке: https://clck.ru/3QUQys&erid=2W5zFHzDkVn
Реклама. АО «Экзософт»
👎2❤1
Почему сервер внезапно начал писать гигабайты логов за час
Если логи раздуваются невероятными темпами, то чаще всего это не «одна большая ошибка», а flapping - сервис бесконечно перезапускается в цикле:
поднялся → упал → поднялся → снова упал → логов - тонна.
🛠 Как быстро проверить, что происходит
1️⃣ Смотреть логи сервиса в реальном времени:
Если каждые несколько секунд видишь:
Main process exited, code=exited, status=1/FAILURE — это оно.
2️⃣ Проверить счётчики неудачных запусков:
Если в статусе куча перезапусков за последние минуты — флапает.
3️⃣ Посмотреть, что триггерит краш:
– зависимость умерла
– порт занят
– неправильный конфиг
– не хватает памяти / OOM-killer
– обновление пакета перезапустило зависимый модуль
Глубже копать можно так:
✋ Как остановить разрастание логов прямо сейчас
Чтобы не убить диск:
Это даст передышку для диагностики.
🛡 Как исправить flapping навсегда
В unit-файле добавь ограничения перезапусков:
Если логи раздуваются невероятными темпами, то чаще всего это не «одна большая ошибка», а flapping - сервис бесконечно перезапускается в цикле:
поднялся → упал → поднялся → снова упал → логов - тонна.
journalctl -u <service> -f
Если каждые несколько секунд видишь:
Main process exited, code=exited, status=1/FAILURE — это оно.
systemctl status <service>
systemctl reset-failed
Если в статусе куча перезапусков за последние минуты — флапает.
– зависимость умерла
– порт занят
– неправильный конфиг
– не хватает памяти / OOM-killer
– обновление пакета перезапустило зависимый модуль
Глубже копать можно так:
dmesg | grep -i oom
lsof -i :<port>
Чтобы не убить диск:
systemctl stop <service>
Это даст передышку для диагностики.
В unit-файле добавь ограничения перезапусков:
StartLimitIntervalSec=300
StartLimitBurst=3
RestartSec=5
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤6
Ветер перемен: представляем новую систему выпуска релизов UserGate NGFW
В основе — лучшие практики международных вендоров, принятые в мировой ИТ/ИБ-индустрии.
Все подробности расскажем на вебинаре. В программе:
— Что побудило нас к изменениям
— Новая система релизов: FR, LTS, LTS (GD)
— Что ещё мы делаем для повышения стабильности
— Первый кандидат на LTS и что в нём нового
В завершении ответим на ваши вопросы.
Вебинар будет интересен как техническим специалистам, так и руководителям ИТ- и ИБ-департаментов.
Спикеры:
— Кирилл Прямов, менеджер по развитию NGFW
— Михаил Кадер, архитектор ИБ, R&D
Когда: 27 ноября, четверг, 10:00 (МСК).
Увидимся в эфире!
Зарегистрироваться
В основе — лучшие практики международных вендоров, принятые в мировой ИТ/ИБ-индустрии.
Все подробности расскажем на вебинаре. В программе:
— Что побудило нас к изменениям
— Новая система релизов: FR, LTS, LTS (GD)
— Что ещё мы делаем для повышения стабильности
— Первый кандидат на LTS и что в нём нового
В завершении ответим на ваши вопросы.
Вебинар будет интересен как техническим специалистам, так и руководителям ИТ- и ИБ-департаментов.
Спикеры:
— Кирилл Прямов, менеджер по развитию NGFW
— Михаил Кадер, архитектор ИБ, R&D
Когда: 27 ноября, четверг, 10:00 (МСК).
Увидимся в эфире!
Зарегистрироваться
❤1👎1🤡1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁14❤3🔥3
Forwarded from IT-KB 🤖
Как и обещали проводим следующий розыгрыш для наших подписчиков 🎉
В этот раз тоже всё очень просто:
1.✅ @ITKB_channel
2. Нажать "Участвовать"
P.S.в следующий раз обязательно отметим 🪙 самых преданных подписчиков, которые на продолжительной основе находятся вместе с нами❤️
Всем удачи и огромное спасибо за то, что Вы с нами!🤗
В этот раз тоже всё очень просто:
1.
2. Нажать "Участвовать"
7 декабря 2025 года 10 случайно выбранных системой подписчиков получат 1000 р.
P.S.
Всем удачи и огромное спасибо за то, что Вы с нами!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3💯3🤝2😁1🎄1
Вы обновили EnvironmentFile, но сервис после перезапуска использует старые значения. Чаще всего причина в…
Anonymous Quiz
6%
Использовании journalctl вместо syslog
13%
Неверном формате переменных через пробел
79%
Наличии директивы Environment= внутри unit-файла, перетирающей значения
2%
Параметре KillMode=none
❤7👍3
📘 На Stepik вышел курс — «DevOps-инженер: От основ до продакшена»
Уже пишете код или администрируете серверы и хотите перейти на следующий уровень? Этот курс поможет уверенно войти в DevOps.
• Полный путь от Linux и сетей до Kubernetes: Docker, Git, GitLab CI/CD, Terraform, Ansible, Prometheus и Grafana
• Практика на реальных кейсах: настраиваем пайплайн, контейнеризацию и инфраструктуру кодом, выкатываем сервисы
• 180+ интерактивных заданий с автопроверкой — конфиги, манифесты прямо в браузере, в любое удобное время
• Итоговый pet-project: к финалу курса у вас будет рабочая инфраструктура с контейнерами, CI/CD и мониторингом
🎓 Сертификат по завершении — добавьте его в резюме или профиль LinkedIn
🚀 Прокачайте DevOps с пользой и удовольствием. Начните уже сегодня и получите скидку 25%, которая действительна в течение 48 часов
👉 Пройти курс на Stepik
Уже пишете код или администрируете серверы и хотите перейти на следующий уровень? Этот курс поможет уверенно войти в DevOps.
• Полный путь от Linux и сетей до Kubernetes: Docker, Git, GitLab CI/CD, Terraform, Ansible, Prometheus и Grafana
• Практика на реальных кейсах: настраиваем пайплайн, контейнеризацию и инфраструктуру кодом, выкатываем сервисы
• 180+ интерактивных заданий с автопроверкой — конфиги, манифесты прямо в браузере, в любое удобное время
• Итоговый pet-project: к финалу курса у вас будет рабочая инфраструктура с контейнерами, CI/CD и мониторингом
🎓 Сертификат по завершении — добавьте его в резюме или профиль LinkedIn
🚀 Прокачайте DevOps с пользой и удовольствием. Начните уже сегодня и получите скидку 25%, которая действительна в течение 48 часов
👉 Пройти курс на Stepik
🔥3❤2👎2🤣2🤡1
Как понять, что на сервере началось «TCP-обезвоживание»
Так называют ситуацию, когда у сервера забивается очередь half-open соединений — те, что застряли на стадии SYN → SYN/ACK, но не получили финальный ACK.
При большом количестве таких полуоткрытых коннектов сервер начинает «захлёбываться» и перестаёт принимать новые.
Как проверить, что очередь переполняется
1️⃣ Быстрый снимок состояния TCP:
Смотри на строки вида:
Если SYN-RECV растёт до сотен/тысяч — сервер близок к исчерпанию backlog.
2️⃣ Узнать лимит очереди:
Обычно это 128–1024.
Если half-open растут быстрее, чем сервер успевает их обрабатывать - начинается «обезвоживание».
🛠 Дополнительная диагностика
Посмотреть реальный backlog у сокета:
Смотри на recv-q и send-q — если recv-q забит под завязку, система физически не успевает завершать рукопожатия.
Проверить, есть ли DoS-подобная активность:
или фильтр по IP:
Если десятки/сотни SYN идут с одного диапазона - это уже картина атаки.
Так называют ситуацию, когда у сервера забивается очередь half-open соединений — те, что застряли на стадии SYN → SYN/ACK, но не получили финальный ACK.
При большом количестве таких полуоткрытых коннектов сервер начинает «захлёбываться» и перестаёт принимать новые.
Как проверить, что очередь переполняется
ss -s
Смотри на строки вида:
TCP: ...
...
1323 SYN-SENT
987 SYN-RECV
Если SYN-RECV растёт до сотен/тысяч — сервер близок к исчерпанию backlog.
cat /proc/sys/net/ipv4/tcp_max_syn_backlog
Обычно это 128–1024.
Если half-open растут быстрее, чем сервер успевает их обрабатывать - начинается «обезвоживание».
Посмотреть реальный backlog у сокета:
ss -lnt
Смотри на recv-q и send-q — если recv-q забит под завязку, система физически не успевает завершать рукопожатия.
Проверить, есть ли DoS-подобная активность:
watch -n1 "netstat -ant | grep SYN"
или фильтр по IP:
netstat -ant | awk '/SYN_RECV/ {print $5}' | cut -d: -f1 | sort | uniq -c | sort -nr | headЕсли десятки/сотни SYN идут с одного диапазона - это уже картина атаки.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤4👎1
K2 Cloud собирает сетевых инженеров на митап 🌐
28 ноября эксперты из K2 Cloud, Positive Technologies, Avitotech, Wildberries & Russ и Точка Банка встретятся на митапе «Поговорим про сети»
Что будем делать:
— разберем метрики, которые спасают продукт;
— научимся «гадать» по сетевым пакетам;
— сыграем в сетевую версию игры «100 к 1».
Опыт из очень разных инфраструктур и LinkMeUp в роли ведущего — регистрация по ссылке
28 ноября эксперты из K2 Cloud, Positive Technologies, Avitotech, Wildberries & Russ и Точка Банка встретятся на митапе «Поговорим про сети»
Что будем делать:
— разберем метрики, которые спасают продукт;
— научимся «гадать» по сетевым пакетам;
— сыграем в сетевую версию игры «100 к 1».
Опыт из очень разных инфраструктур и LinkMeUp в роли ведущего — регистрация по ссылке
❤1
Давайте разберем один из частых вопросов, который может быть задан на собеседовании и как на него отвечать.Зачем это нужно:
• чтобы обходить ограничение на размер eBPF-программы (4096 инструкций);
• чтобы собирать модульные eBPF-пайплайны из нескольких независимых программ;
• чтобы снижать overhead на переключение контекста между программами.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤3
Как понять, что контейнеры в Kubernetes не «падают», а их убивает OOM-killer
Его добивает OOM-killer, потому что контейнеру не хватает памяти.
Частые причины: лимиты ниже реального потребления или JVM без container-aware GC, которая считает, что у неё «доступно» больше RAM, чем есть.
Первое, что смотрим - события pod’а:
⏺ Если там всплывают OOMKilled или ContainerStatus OOMKilled, всё ясно.
Для подтверждения на ноде можно посмотреть системные логи ядра, где OOM-killer фиксирует, что именно он убил процесс:
⏺ Если же видите записи вроде Killed process <pid> (java) - значит, лимиты задушили контейнер.
Обычно помогает: увеличить limit, включить container-aware настройки JVM, либо перепроверить реальные пики использования через Metrics Server или cAdvisor.
Иногда pod выглядит как будто просто рестартуется: CrashLoopBackOff, несколько перезапусков подряд - но приложение на самом деле не падает само.
Его добивает OOM-killer, потому что контейнеру не хватает памяти.
Частые причины: лимиты ниже реального потребления или JVM без container-aware GC, которая считает, что у неё «доступно» больше RAM, чем есть.
Первое, что смотрим - события pod’а:
kubectl describe pod <pod> | grep -i oom
Для подтверждения на ноде можно посмотреть системные логи ядра, где OOM-killer фиксирует, что именно он убил процесс:
dmesg -T | grep -i kill
Обычно помогает: увеличить limit, включить container-aware настройки JVM, либо перепроверить реальные пики использования через Metrics Server или cAdvisor.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3
Джуны — всё, ИИ победил. По статистике BCG, за последний год компании выбросили на улицу 75% молодняка. При этом миддлам и сеньорам зарплаты подняли в 4 (!) раза.
Чтобы подняться до уровня элит в аномально короткие сроки — подпишитесь на легендарные каналы для айтишников:
Новости и инсайды
Фронтенд разработка
ИИ и биг дата
Node js
Вёрстка
Питон и нейросети
QA-тестировщики
Там раскрыли инфу из курсов общей стоимостью 5.000.000р в эксклюзивных пошаговых инструкциях. Пока остальные пойдут на дно якорем, вы войдете в 10% тех, кто сломал систему.
Чтобы подняться до уровня элит в аномально короткие сроки — подпишитесь на легендарные каналы для айтишников:
Новости и инсайды
Фронтенд разработка
ИИ и биг дата
Node js
Вёрстка
Питон и нейросети
QA-тестировщики
Там раскрыли инфу из курсов общей стоимостью 5.000.000р в эксклюзивных пошаговых инструкциях. Пока остальные пойдут на дно якорем, вы войдете в 10% тех, кто сломал систему.
👎13😁5❤3🤡3
Релиз nDPI 5.0: открытая система для глубокого анализа трафика стала ещё умнее
Команда ntop выкатили nDPI 5.0 - движок DPI, который используют в системах мониторинга и безопасности, чтобы определять реальные протоколы в трафике, даже если они работают на нестандартных портах.
В 5.0 завезли универсальный fingerprint (TCP-slеpcы + TLS-hash + JA4), улучшенный разбор шифрованного трафика, классификацию TLS/QUIC/HTTP с учётом имён хостов, расширенный FPC (определение по первому пакету) и лимит в 2¹⁶ протоколов.
⏺ Плюс пачка новых категорий, улучшенный анализ TLS, обновлённые списки ботов и разбор свежих протоколов - от Kick и Hamachi до Matter и Akamai.
Команда ntop выкатили nDPI 5.0 - движок DPI, который используют в системах мониторинга и безопасности, чтобы определять реальные протоколы в трафике, даже если они работают на нестандартных портах.
Это эволюция OpenDPI, переписанная, оптимизированная и допиленная до сотен поддерживаемых протоколов и десятков типов угроз.
В 5.0 завезли универсальный fingerprint (TCP-slеpcы + TLS-hash + JA4), улучшенный разбор шифрованного трафика, классификацию TLS/QUIC/HTTP с учётом имён хостов, расширенный FPC (определение по первому пакету) и лимит в 2¹⁶ протоколов.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤3
Айтишник, присаживайся поудобнее: собрали для тебя подборку лучших каналов про ИИ, разработки и языки кода.
• Only GPT — твой гид по нейронкам, секретным функциям GPT 5.1 и способам обхода внутренней цензуры.
• Only Hack — канал профессионального хакера про приватность и безопасность.
• Only Apple — инсайды о новых девайсах Apple и утечки от разработчиков компании.
• Only Python — ТОП-1 бесплатные материалы по питону в Интернете.
• Only IT — прорывные стартапы, которые задают тренды в индустрии.
• Only GitHub — всякие полезности (и бесполезности) с Гитхаба.
• Only Tech — все самые свежие и актуальные технологии.
• Ну и мемасики про IT конечно
Сохраняй в подписках!
• Only GPT — твой гид по нейронкам, секретным функциям GPT 5.1 и способам обхода внутренней цензуры.
• Only Hack — канал профессионального хакера про приватность и безопасность.
• Only Apple — инсайды о новых девайсах Apple и утечки от разработчиков компании.
• Only Python — ТОП-1 бесплатные материалы по питону в Интернете.
• Only IT — прорывные стартапы, которые задают тренды в индустрии.
• Only GitHub — всякие полезности (и бесполезности) с Гитхаба.
• Only Tech — все самые свежие и актуальные технологии.
• Ну и мемасики про IT конечно
Сохраняй в подписках!
❤3
Почему Windows 10/11 не запускает EXE, скачанные из интернета
SmartScreen часто ругается на «неизвестного издателя», хотя файл нормальный.
Причина тут скрытая метка Mark of the Web: Windows добавляет поток Zone.Identifier, если файл пришёл из интернета.
Проверить и снять блокировку можно так:
На Powershell👇
👇
После удаления MOTW SmartScreen перестаёт воспринимать файл как «подозрительный».
SmartScreen часто ругается на «неизвестного издателя», хотя файл нормальный.
Причина тут скрытая метка Mark of the Web: Windows добавляет поток Zone.Identifier, если файл пришёл из интернета.
Проверить и снять блокировку можно так:
На Powershell
# Показать все альтернативные потоки файла
Get-Item .\file.exe -Stream *
# Удалить метку Mark of the Web
Unblock-File .\file.exe
И на Bash :: Через Sysinternals
streams.exe file.exe
:: Удалить Zone.Identifier
streams.exe -d file.exe
После удаления MOTW SmartScreen перестаёт воспринимать файл как «подозрительный».
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤4🤔2🔥1
👩💻 Открытый урок «Custom Resource Definitions (CRD) в Kubernetes. Операторы: автоматизация на новом уровне».
🗓 3 декабря в 20:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «Инфраструктурная платформа на основе Kubernetes».
Программа вебинара:
✔️ Что такое Custom Resource Definitions (CRD) и зачем они нужны.
✔️ Как создать и зарегистрировать собственный CRD.
✔️ Примеры использования CRD в продакшн-кластерах.
✔️ Что такое операторы, их роль и принципы работы.
✔️ Как CRD и операторы помогают автоматизировать управление ресурсами и снижать нагрузку на инженеров.
В результате вебинара:
- Поймёте, как с помощью CRD и операторов расширять возможности Kubernetes.
- Научитесь автоматизировать управление пользовательскими ресурсами и упрощать поддержку инфраструктуры.
- Получите базу для создания собственных операторов и интеграции их в CI/CD.
🔗 Ссылка на регистрацию: https://otus.pw/KKYG/?erid=2W5zFJ8yHNp
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🗓 3 декабря в 20:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «Инфраструктурная платформа на основе Kubernetes».
Программа вебинара:
✔️ Что такое Custom Resource Definitions (CRD) и зачем они нужны.
✔️ Как создать и зарегистрировать собственный CRD.
✔️ Примеры использования CRD в продакшн-кластерах.
✔️ Что такое операторы, их роль и принципы работы.
✔️ Как CRD и операторы помогают автоматизировать управление ресурсами и снижать нагрузку на инженеров.
В результате вебинара:
- Поймёте, как с помощью CRD и операторов расширять возможности Kubernetes.
- Научитесь автоматизировать управление пользовательскими ресурсами и упрощать поддержку инфраструктуры.
- Получите базу для создания собственных операторов и интеграции их в CI/CD.
🔗 Ссылка на регистрацию: https://otus.pw/KKYG/?erid=2W5zFJ8yHNp
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤1
Давайте разберем один из частых вопросов, который может быть задан на собеседовании и как на него отвечать.Зачем это нужно:
• Уменьшается количество записей в таблице страниц (page table),
• Снижается нагрузка на TLB (Translation Lookaside Buffer),
• Уменьшается overhead при управлении памятью, особенно в базах данных и JVM.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤4👎4