Admin Guides | Сисадмин – Telegram
Admin Guides | Сисадмин
11.5K subscribers
1.39K photos
20 videos
34 files
589 links
Обучающий канал по ОС Linux & Windows для начинающих и действующих администраторов.

Админ, реклама: @Ak_Mihail
Биржа: https://telega.in/c/admguides

РКН: https://kurl.ru/nQejS
Download Telegram
Митап для системных администраторов и девопсов

Встречаемся, чтобы обсудить насущные вопросы про:
- контейнеры,
- инструменты тестирования инфраструктурного кода,
- автоматизацию без боли.

🗓27 ноября, 18:30
📍В офисе Selectel в Санкт-Петербурге или онлайн

Смотрите программу и регистрируйтесь: https://slc.tl/khudq

Чтобы не пропустить митап и узнавать о вебинарах, воркшопах и бесплатных курсах Selectel, подписывайтесь на @selectel_events

Реклама. АО "Селектел". erid:2W5zFJ5qEDN
1👍1
Как отследить неожиданное потребление CPU на Linux

Иногда процесс вроде «спит», но сервер внезапно начинает «прыгать» по CPU.

Чаще всего виноват один поток, застрявшая функция или скрытая задача внутри демона.

Как проверять:

1️⃣Проверка потоков конкретного процесса

top -H -p <PID>


-H показывает каждый поток отдельно. Легко увидеть, какой именно поток гоняет CPU.

2️⃣Подробная статистика по потокам

pidstat 1 -p <PID>


Отображает использование CPU каждым потоком каждую секунду.

3️⃣Профилирование функций

perf top -p <PID>


Позволяет увидеть, какие функции внутри процесса используют процессор больше всего. Особенно полезно для сложных демонов и сервисов, где нагрузка распределена по потокам.

⭐️Как использовать на практике
Для оперативной диагностики на продакшн-сервере - top -H и pidstat чаще всего хватает.
Для поиска узких мест или багов в демонах - подключать perf top, анализировать горячие функции.
После выявления «жирного» потока можно перезапустить или убить его, а затем проверить логи демона. Часто такие пики происходят из-за зацикливания или debug-режима.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65
«Хочу разобраться в LLM, но всё нет времени»

Наверняка у многих из вас есть идеи собственного AI-проекта, варианты интеграции LLM в продукты компании или желание работать поближе с ИИ.

Но когда дело доходит до изучения материалов, становится непонятно, с чего начать и как потратить минимум времени на обучение.

Если узнаёте в этом себя, то для вас команда DL-инженеров из DeepSchool создала курс «LLM Start» — обучение для сисадминов, DevOps-инженеров, разработчиков и других IT-специалистов без опыта работы с LLM. Курс короткий, состоит из 6 тем и финального проекта. Лекции ведут опытные инженеры. А чтобы попрактиковаться без дополнительных усилий, задания выполняются в no-code платформе n8n.

На курсе вы:
— разберётесь в теории работы нейросетей и LLM в частности
— освоите основные трюки промпт-инжениринга
— научитесь собирать RAG
— узнаете как создавать агентов и мультиагентные системы
— разберётесь в многообразии моделей и провайдеров

Всё это вы изучите за 2 месяца и сможете собирать простые пайплайны на платформе n8n, которая отлично подходит для низконагруженных систем, внутреннего использования и проверки гипотез. Но поняв основные принципы работы с LLM, потом вы без проблем сможете собрать боевые версии цепочек на своём стэке.

🔥 До 23 ноября вы можете присоединиться со скидкой 25%!

Изучайте подробности на сайте и оставляйте заявку!
5🔥2
💬 Вопрос на собеседовании для сисадмина

Давайте разберем один из частых вопросов, который может быть задан на собеседовании и как на него отвечать.


Вопрос: Что такое Linux slab allocator и как он отличается от buddy allocator?

Ответ: Slab allocator — это механизм управления памятью ядра Linux, оптимизированный для частого выделения и освобождения объектов фиксированного размера, таких как дескрипторы файлов, структуры процессов и сетевые буферы. Он использует предварительно выделенные кэши (slabs) с объектами, что снижает фрагментацию и ускоряет работу ядра.

Buddy allocator, напротив, управляет страницами памяти переменного размера. Он эффективно выделяет большие блоки памяти, но плохо подходит для частого создания мелких структур, так как приводит к фрагментации и затратам на обработку.
Please open Telegram to view this post
VIEW IN TELEGRAM
5🤔2👍1
Присоединяйтесь к митапу «СУБД глазами инфраструктурщиков», чтобы обсудить всё, что волнует сообщество DBA сегодня

Участников ждут практические доклады, живое общение и обмен опытом с экспертами, а ещё актуальные инсайты о том, куда движется рынок СУБД.

В программе:
🔷 PostgreSQL без валидола: сборка кластера вручную
🔷 Автоматизация кластеров Postgre
🔷 Как мы перевезли Oracle с Solaris SPARC на x86
🔷 Масштабирование и отказоустойчивость YDB — 9 нод, банковская нагрузка, падение дата-центра, перезапуск кластера под нагрузкой без простоя.
🔷 Круглый стол «Масштабирование СУБД: реальные проблемы и перспективы»

Участвуют эксперты из: «Инфосистемы Джет», Яндекс (YDB), Arenadata, СберТех, Postgres Professional, Газинформсервис

Для кого: CIO, CTO, ИТ-директоров, архитекторов, DevOps, DBA

Когда: 25 ноября, 16:00–19:00 (МСК)
Где: офлайн и онлайн

ДЕТАЛИ И РЕГИСТРАЦИЯ
1
Почему nginx начинает отдавать 502, хотя backend жив

Это один из самых частых «фантомных» багов в проде: backend работает, процессы на месте, порты слушают - а nginx упорно шлёт 502.

Секрет почти всегда в том, как backend отвечает, а не в том, что он «лежит».

Что происходит на самом деле:

nginx пытается подключиться к upstream, но соединение не укладывается в его ожидания - по времени, по количеству воркеров или по лимитам системы.

Как проверить:

# Проверяем, отвечает ли backend напрямую
curl -I http://127.0.0.1:8000

# Смотрим ошибки nginx в момент проблемы
journalctl -u nginx -f

# Проверяем, не упёрся ли backend в лимиты соединений
netstat -plant | grep :8000


Типичные причины:

Backend отвечает слишком медленно.
nginx режет по таймауту, даже если backend в итоге что-то вернул.

У backend мало воркеров.
Например, Gunicorn запущен с 1 worker — он занят обработкой одного запроса, остальные получают 502.

Нехватка файловых дескрипторов (open files).
nginx или backend не могут открыть новое соединение → 502.

Backend закрывает соединения «грязно».
nginx ждёт корректный FIN/ACK, а получает RST → ошибка upstream.

TCP или firewall дропает локальные соединения.
Да, даже на 127.0.0.1 такое случается при агрессивных правилах.

💡Как временно «подлечить»:

В nginx.conf поднять таймауты:

proxy_connect_timeout 10s;
proxy_read_timeout 60s;
proxy_send_timeout 60s;


Проверить лимиты:

ulimit -n


и увеличить:

ulimit -n 65535


Для Gunicorn, uvicorn, uWSGI — увеличить число воркеров.

Для Docker/K8s — проверить readiness/liveness probes, чтобы нагрузка не шла на умирающие поды.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥139👍3
Факторы выгорания разработчиков open source

Исследование Эдинбургского университета выявило, что 73% разработчиков открытого ПО сталкиваются с выгоранием. 


Основные причины: нехватка финансирования, токсичное поведение пользователей, высокая нагрузка, рутина и постоянная необходимость доказывать компетентность.

Это снижает мотивацию и качество сопровождения проектов.

Решения просты, но редки: регулярная оплата, культура признания, наставничество и поддержка сообщества.
5👍2
Мигрируем на VMmanager за счет вендора

Коллеги, все, кто столкнулся с необходимостью мигрировать с российских платформ виртуализации, знают, сколько это стресса, рисков и затрат.

Так вот, ребята из ISPsystem, кажется, предложили элегантное решение. Их акция «Мигрируем VMeste» — это готовый пакет "миграция без боли": безопасный переезд с российской платформы виртуализации на VMmanager (Лучший продукт серверной виртуализации по версии CNews Awards)

Они снимают ключевые барьеры:

● Финансовый: Лицензия VMmanager на 12 месяцев по стоимости техподдержки.
● Технический: Полное сопровождение процесса их экспертами.
● Операционный: В подарок дают BILLmanager Enterprise, чтобы не пришлось перестраивать все процессы управления с нуля.

Фактически, они берут на себя все сложности и большую часть затрат. Вам остается купить только техподдержку на первый год.

Акция временная (регистрация до конца 2025 года), так что если тема актуальна — советую изучить.

Подробности по ссылке: https://clck.ru/3QUQys&erid=2W5zFHzDkVn

Реклама. АО «Экзософт»
👎21
Почему сервер внезапно начал писать гигабайты логов за час

Если логи раздуваются невероятными темпами, то чаще всего это не «одна большая ошибка», а flapping - сервис бесконечно перезапускается в цикле:

поднялся → упал → поднялся → снова упал → логов - тонна.

🛠Как быстро проверить, что происходит

1️⃣Смотреть логи сервиса в реальном времени:

journalctl -u <service> -f


Если каждые несколько секунд видишь:
Main process exited, code=exited, status=1/FAILURE — это оно.

2️⃣Проверить счётчики неудачных запусков:

systemctl status <service>
systemctl reset-failed


Если в статусе куча перезапусков за последние минуты — флапает.

3️⃣Посмотреть, что триггерит краш:

– зависимость умерла
– порт занят
– неправильный конфиг
– не хватает памяти / OOM-killer
– обновление пакета перезапустило зависимый модуль

Глубже копать можно так:

dmesg | grep -i oom
lsof -i :<port>


Как остановить разрастание логов прямо сейчас

Чтобы не убить диск:

systemctl stop <service>


Это даст передышку для диагностики.

🛡Как исправить flapping навсегда

В unit-файле добавь ограничения перезапусков:

StartLimitIntervalSec=300
StartLimitBurst=3
RestartSec=5
Please open Telegram to view this post
VIEW IN TELEGRAM
👍86
Ветер перемен: представляем новую систему выпуска релизов UserGate NGFW

В основе — лучшие практики международных вендоров, принятые в мировой ИТ/ИБ-индустрии.

Все подробности расскажем на вебинаре. В программе:

— Что побудило нас к изменениям
— Новая система релизов: FR, LTS, LTS (GD)
— Что ещё мы делаем для повышения стабильности
— Первый кандидат на LTS и что в нём нового

В завершении ответим на ваши вопросы.

Вебинар будет интересен как техническим специалистам, так и руководителям ИТ- и ИБ-департаментов.

Спикеры:

— Кирилл Прямов, менеджер по развитию NGFW
— Михаил Кадер, архитектор ИБ, R&D

Когда: 27 ноября, четверг, 10:00 (МСК).

Увидимся в эфире!

Зарегистрироваться
1👎1🤡1
😬
Please open Telegram to view this post
VIEW IN TELEGRAM
😁143🔥3
Forwarded from IT-KB 🤖
Как и обещали проводим следующий розыгрыш для наших подписчиков 🎉

В этот раз тоже всё очень просто:
1. @ITKB_channel
2. Нажать "Участвовать"

7 декабря 2025 года 10 случайно выбранных системой подписчиков получат 1000 р.


P.S. в следующий раз обязательно отметим 🪙 самых преданных подписчиков, которые на продолжительной основе находятся вместе с нами❤️

Всем удачи и огромное спасибо за то, что Вы с нами!🤗
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3💯3🤝2😁1🎄1
7👍3
📘 На Stepik вышел курс — «DevOps-инженер: От основ до продакшена» 
Уже пишете код или администрируете серверы и хотите перейти на следующий уровень? Этот курс поможет уверенно войти в DevOps.

• Полный путь от Linux и сетей до Kubernetes: Docker, Git, GitLab CI/CD, Terraform, Ansible, Prometheus и Grafana
• Практика на реальных кейсах: настраиваем пайплайн, контейнеризацию и инфраструктуру кодом, выкатываем сервисы
• 180+ интерактивных заданий с автопроверкой — конфиги, манифесты прямо в браузере, в любое удобное время
• Итоговый pet-project: к финалу курса у вас будет рабочая инфраструктура с контейнерами, CI/CD и мониторингом
🎓 Сертификат по завершении — добавьте его в резюме или профиль LinkedIn

🚀 Прокачайте DevOps с пользой и удовольствием. Начните уже сегодня и получите скидку 25%, которая действительна в течение 48 часов

👉 Пройти курс на Stepik 
🔥32👎2🤣2🤡1
Как понять, что на сервере началось «TCP-обезвоживание»

Так называют ситуацию, когда у сервера забивается очередь half-open соединений — те, что застряли на стадии SYN → SYN/ACK, но не получили финальный ACK.

При большом количестве таких полуоткрытых коннектов сервер начинает «захлёбываться» и перестаёт принимать новые.

Как проверить, что очередь переполняется

1️⃣Быстрый снимок состояния TCP:

ss -s


Смотри на строки вида:

TCP: ...
...
1323 SYN-SENT
987 SYN-RECV


Если SYN-RECV растёт до сотен/тысяч — сервер близок к исчерпанию backlog.

2️⃣Узнать лимит очереди:

cat /proc/sys/net/ipv4/tcp_max_syn_backlog


Обычно это 128–1024.
Если half-open растут быстрее, чем сервер успевает их обрабатывать - начинается «обезвоживание».

🛠 Дополнительная диагностика

Посмотреть реальный backlog у сокета:

ss -lnt


Смотри на recv-q и send-q — если recv-q забит под завязку, система физически не успевает завершать рукопожатия.

Проверить, есть ли DoS-подобная активность:

watch -n1 "netstat -ant | grep SYN"


или фильтр по IP:

netstat -ant | awk '/SYN_RECV/ {print $5}' | cut -d: -f1 | sort | uniq -c | sort -nr | head


Если десятки/сотни SYN идут с одного диапазона - это уже картина атаки.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94👎1
K2 Cloud собирает сетевых инженеров на митап 🌐

28 ноября эксперты из K2 Cloud, Positive Technologies, Avitotech, Wildberries & Russ и Точка Банка встретятся на митапе «Поговорим про сети»

Что будем делать:
— разберем метрики, которые спасают продукт;
— научимся «гадать» по сетевым пакетам;
— сыграем в сетевую версию игры «100 к 1».

Опыт из очень разных инфраструктур и LinkMeUp в роли ведущего — регистрация по ссылке
1
Было?
😁17💯101👍1
💬 Вопрос на собеседовании для DevOps-инженера

Давайте разберем один из частых вопросов, который может быть задан на собеседовании и как на него отвечать.


Вопрос: Что такое eBPF tail calls и зачем они нужны?

Ответ: Tail calls в eBPF — это механизм, позволяющий одной eBPF-программе передать управление другой без возврата (хвостовой вызов). Это похоже на tail recursion в обычных языках, но реализовано на уровне eBPF VM.

Зачем это нужно:
• чтобы обходить ограничение на размер eBPF-программы (4096 инструкций);
• чтобы собирать модульные eBPF-пайплайны из нескольких независимых программ;
• чтобы снижать overhead на переключение контекста между программами.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53
Как понять, что контейнеры в Kubernetes не «падают», а их убивает OOM-killer

Иногда pod выглядит как будто просто рестартуется: CrashLoopBackOff, несколько перезапусков подряд - но приложение на самом деле не падает само. 


Его добивает OOM-killer, потому что контейнеру не хватает памяти.

Частые причины: лимиты ниже реального потребления или JVM без container-aware GC, которая считает, что у неё «доступно» больше RAM, чем есть.

Первое, что смотрим - события pod’а:

kubectl describe pod <pod> | grep -i oom


Если там всплывают OOMKilled или ContainerStatus OOMKilled, всё ясно.

Для подтверждения на ноде можно посмотреть системные логи ядра, где OOM-killer фиксирует, что именно он убил процесс:

dmesg -T | grep -i kill


Если же видите записи вроде Killed process <pid> (java) - значит, лимиты задушили контейнер.

Обычно помогает: увеличить limit, включить container-aware настройки JVM, либо перепроверить реальные пики использования через Metrics Server или cAdvisor.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍73
Джуны — всё, ИИ победил. По статистике BCG, за последний год компании выбросили на улицу 75% молодняка. При этом миддлам и сеньорам зарплаты подняли в 4 (!) раза.

Чтобы подняться до уровня элит в аномально короткие сроки — подпишитесь на легендарные каналы для айтишников:

Новости и инсайды
Фронтенд разработка
ИИ и биг дата
Node js
Вёрстка
Питон и нейросети
QA-тестировщики

Там раскрыли инфу из курсов общей стоимостью 5.000.000р в эксклюзивных пошаговых инструкциях. Пока остальные пойдут на дно якорем, вы войдете в 10% тех, кто сломал систему.
👎13😁53🤡3
Релиз nDPI 5.0: открытая система для глубокого анализа трафика стала ещё умнее

Команда ntop выкатили nDPI 5.0 - движок DPI, который используют в системах мониторинга и безопасности, чтобы определять реальные протоколы в трафике, даже если они работают на нестандартных портах.

Это эволюция OpenDPI, переписанная, оптимизированная и допиленная до сотен поддерживаемых протоколов и десятков типов угроз.


В 5.0 завезли универсальный fingerprint (TCP-slеpcы + TLS-hash + JA4), улучшенный разбор шифрованного трафика, классификацию TLS/QUIC/HTTP с учётом имён хостов, расширенный FPC (определение по первому пакету) и лимит в 2¹⁶ протоколов.

Плюс пачка новых категорий, улучшенный анализ TLS, обновлённые списки ботов и разбор свежих протоколов - от Kick и Hamachi до Matter и Akamai.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥73