🚀 Мониторим активные подключения к серверу по SSH
Иногда нужно быстро узнать, кто сейчас подключён к серверу по SSH. Вот простой однострочный скрипт:
Что делает этот скрипт?
*
*
*
📋 Пример вывода:
Теперь ты всегда в курсе, кто подключён к твоему серверу! 😉
📲 Мы в MAX
👉@bash_srv
Иногда нужно быстро узнать, кто сейчас подключён к серверу по SSH. Вот простой однострочный скрипт:
who | grep 'pts' | awk '{print $1, $2, $5}'
Что делает этот скрипт?
*
who — выводит список всех вошедших пользователей.*
grep 'pts' — фильтрует только те строки, что связаны с терминалами SSH.*
awk '{print $1, $2, $5}' — красиво выводит имя пользователя, терминал и IP-адрес.📋 Пример вывода:
admin pts/0 (192.168.1.55)
root pts/1 (10.0.0.23)
Теперь ты всегда в курсе, кто подключён к твоему серверу! 😉
📲 Мы в MAX
👉@bash_srv
👍10❤6🐳1
🧹 Bash-скрипт для очистки старых логов с уведомлением
Иногда логи занимают слишком много места, и их нужно периодически чистить. Этот скрипт удаляет логи старше 14 дней в заданной папке и шлёт уведомление на почту, если удалено более 500 МБ.
🔹 Что делает скрипт:
- Находит старые логи, считает их общий размер.
- Удаляет только если файлы старше 14 дней.
- Если удалено больше заданного лимита (по умолчанию 500 МБ) - уведомляет по почте.
Обрати внимание:
Для работы уведомления нужна установленная утилита
📲 Мы в MAX
👉@bash_srv
Иногда логи занимают слишком много места, и их нужно периодически чистить. Этот скрипт удаляет логи старше 14 дней в заданной папке и шлёт уведомление на почту, если удалено более 500 МБ.
#!/bin/bash
LOG_DIR="/var/log"
DAYS=14
MAX_REMOVED_MB=500
EMAIL="admin@yourdomain.com"
# Подсчитываем общий размер файлов, которые будут удалены
REMOVED_SIZE=$(find "$LOG_DIR" -type f -mtime +$DAYS -print0 | du --files0-from=- -ch | grep total$ | awk '{print $1}')
REMOVED_SIZE_MB=$(echo $REMOVED_SIZE | sed 's/M//' | awk '{print int($1)}')
# Удаляем старые логи
find "$LOG_DIR" -type f -mtime +$DAYS -delete
# Если удалено больше MAX_REMOVED_MB, отправляем уведомление на почту
if [ "$REMOVED_SIZE_MB" -gt "$MAX_REMOVED_MB" ]; then
echo "Удалено логов на $REMOVED_SIZE из $LOG_DIR" | mail -s "Удаление логов" "$EMAIL"
fi
🔹 Что делает скрипт:
- Находит старые логи, считает их общий размер.
- Удаляет только если файлы старше 14 дней.
- Если удалено больше заданного лимита (по умолчанию 500 МБ) - уведомляет по почте.
Обрати внимание:
Для работы уведомления нужна установленная утилита
mail (например, из пакета mailutils или sendmail).📲 Мы в MAX
👉@bash_srv
👍8🔥2
🕵️♂️ Мониторим новые файлы в каталоге в реальном времени
Иногда нужно узнать, когда в определённой папке появляются новые файлы. Bash + inotifywait помогут:
📦 Объяснение:
•
•
•
•
• Всё новое сразу отображается в консоли
Установить inotify-tools:
📲 Мы в MAX
👉@bash_srv
Иногда нужно узнать, когда в определённой папке появляются новые файлы. Bash + inotifywait помогут:
inotifywait -m -e create --format '%w%f' /path/to/dir | while read NEWFILE; do
echo "🆕 Новый файл: $NEWFILE"
done
📦 Объяснение:
•
inotifywait -m - постоянный мониторинг•
-e create - событие создания•
—format '%w%f' - полный путь к новому файлу•
/path/to/dir - нужная папка• Всё новое сразу отображается в консоли
Установить inotify-tools:
sudo apt install inotify-tools
📲 Мы в MAX
👉@bash_srv
👍5
Сегодня я хочу поделиться простым, но очень полезным Bash-скриптом для автоматического резервного копирования директорий с ротацией старых бэкапов. Такой скрипт пригодится, если необходимо сохранять копии важных данных и при этом не засорять диск старыми архивами.
🔄 Скрипт: Backup с ротацией
📝 Пояснение к скрипту
1. Настройки переменных:
🔹
🔹
🔹
2. Скрипт проверяет, существует ли исходная директория. Если нет — выводит ошибку и завершает работу.
3. Создаётся папка назначения (
4. Делается tar.gz - архив директории, причём для удобства используется команда:
- Это позволяет не копировать весь путь в архив, а только нужную папку.
5. Если архивирование прошло успешно (код возврата 0) — выводим сообщение об успехе.
6. Далее команда
7. В конце скрипт выводит, сколько старых бэкапов удалено, и завершает работу.
📌 Как использовать
1. Скопируйте скрипт в файл, например:
2. Сделайте его исполняемым:
И добавить строку:
Здесь мы также перенаправляем вывод в лог-файл, чтобы отслеживать успешные и неуспешные запуски. 📜
📲 Мы в MAX
👉@bash_srv
🔄 Скрипт: Backup с ротацией
#!/usr/bin/env bash
# ================================
# Скрипт: backup_rotate.sh
# Автор: https://news.1rj.ru/str/bash_srv
# Описание: Создаёт архив указанной директории,
# хранит только последние N бэкапов, удаляя старые.
# ================================
# Настройки
SOURCE_DIR="/var/www/my_project" # Директория, которую резервируем
DEST_DIR="/backups/my_project" # Директория для хранения бэкапов
RETENTION_DAYS=7 # Сколько дней хранить бэкапы
# Текущее время для имени архива
DATE=$(date +"%Y-%m-%d_%H-%M-%S")
ARCHIVE_NAME="backup_${DATE}.tar.gz"
# Проверяем, что исходная директория существует
if [[ ! -d "$SOURCE_DIR" ]]; then
echo "❌ Исходная директория $SOURCE_DIR не найдена!"
exit 1
fi
# Создаём директорию назначения, если её нет
mkdir -p "$DEST_DIR"
# Создаём архив
tar -czf "${DEST_DIR}/${ARCHIVE_NAME}" -C "$(dirname "$SOURCE_DIR")" "$(basename "$SOURCE_DIR")"
if [[ $? -eq 0 ]]; then
echo "✅ Создан бэкап: ${DEST_DIR}/${ARCHIVE_NAME}"
else
echo "❌ Ошибка при создании архива!"
exit 1
fi
# Удаляем старые бэкапы старше RETENTION_DAYS
find "$DEST_DIR" -type f -name "backup_*.tar.gz" -mtime +${RETENTION_DAYS} -print -delete
echo "🗑️ Удалены бэкапы старше ${RETENTION_DAYS} дней."
exit 0
📝 Пояснение к скрипту
1. Настройки переменных:
🔹
SOURCE_DIR — путь к директории, которую нужно сохранить (например, веб-проект, база данных и т.д.).🔹
DEST_DIR — куда складываем архива (может быть локальная папка или смонтированный удалённый диск).🔹
RETENTION_DAYS — сколько дней хранить бэкапы. Всё, что старше этого значения, будет удаляться автоматически.2. Скрипт проверяет, существует ли исходная директория. Если нет — выводит ошибку и завершает работу.
3. Создаётся папка назначения (
mkdir -p), чтобы избежать ошибок, если её ещё нет.4. Делается tar.gz - архив директории, причём для удобства используется команда:
tar -czf ${DEST_DIR}/${ARCHIVE_NAME} -C $(dirname $SOURCE_DIR) $(basename $SOURCE_DIR)
- Это позволяет не копировать весь путь в архив, а только нужную папку.
5. Если архивирование прошло успешно (код возврата 0) — выводим сообщение об успехе.
6. Далее команда
find ищет файлы-архивы старше RETENTION_DAYS дней и удаляет их. Параметр -mtime +N означает “более N дней назад”. Опция -print -delete сначала покажет, что удаляется, а потом удалит.7. В конце скрипт выводит, сколько старых бэкапов удалено, и завершает работу.
📌 Как использовать
1. Скопируйте скрипт в файл, например:
sudo nano /usr/local/bin/backup_rotate.sh
2. Сделайте его исполняемым:
sudo chmod +x /usr/local/bin/backup_rotate.sh
3. Отредактируйте переменные в начале скрипта под свои нужды:
SOURCE_DIR="/path/to/your/data"
DEST_DIR="/path/to/backup/location"
RETENTION_DAYS=7
4. Запустите вручную, чтобы протестировать:
/usr/local/bin/backup_rotate.sh
5. Если всё работает как надо, добавьте задание в ``````bash
crontab``````bash
для автоматического запуска. Например, чтобы делать бэкап каждый день в 3:00:
sudo crontab -e
И добавить строку:
0 3 * * * /usr/local/bin/backup_rotate.sh >> /var/log/backup_rotate.log 2>&1
Здесь мы также перенаправляем вывод в лог-файл, чтобы отслеживать успешные и неуспешные запуски. 📜
📲 Мы в MAX
👉@bash_srv
👍12❤2
💡 Bash-совет: Анализ самых активных IP в логах веб-сервера 🐚🚀
Когда на сервере много трафика, полезно быстро узнать, какие IP-адреса обращаются к веб-серверу больше всего. Предлагаю скрипт, который:
1. Извлекает IP из access.log (или любого другого лог-файла).
2. Считает количество запросов от каждого IP.
3. Сортирует и показывает топ N «запросчиков».
📋 Скрипт:
📝 Как это работает
1. LOGFILE — путь к вашему файлу логов Nginx/Apache.
Для Apache обычно
Если у вас другой путь, просто адаптируйте переменную
2. Команда
Берёт первый столбец в каждой строке лога (IP-адрес).
Сохраняет все адреса во временный файл
3.
Второй
4.
Например:
5. По завершении удаляется временный файл
🔧 Как улучшить и кастомизировать
Датафильтрация: если нужен анализ только за последние N дней, можно применять
Здесь
Анализ URL: можно аналогично извлекать запрашиваемые URL:
Это покажет топ-10 запрашиваемых путей.
Выгрузка в файл/почту: чтобы сохранить результаты или отправить их администратору:
Интеграция в cron: автоматизируйте ежедневный отчёт:
Это запустит скрипт каждый день в 00:30 и добавит результаты в
🔔 Вывод: Используя этот простой Bash-скрипт, вы сможете в пару команд узнать, какие IP-адреса генерируют наибольшую нагрузку на ваш веб-сервер. Это поможет вовремя выявить подозрительные активности, защититься от DDoS-атак или просто понять, кто чаще всего посещает сайт.
📲 Мы в MAX
👉@bash_srv
Когда на сервере много трафика, полезно быстро узнать, какие IP-адреса обращаются к веб-серверу больше всего. Предлагаю скрипт, который:
1. Извлекает IP из access.log (или любого другого лог-файла).
2. Считает количество запросов от каждого IP.
3. Сортирует и показывает топ N «запросчиков».
📋 Скрипт:
top_ips.sh
#!/usr/bin/env bash
# --------------------------------------------
# Скрипт для поиска топ-N IP-адресов в логах
# Автор: @bash_srv
# --------------------------------------------
# Путь к лог-файлу (по умолчанию /var/log/nginx/access.log)
LOGFILE="/var/log/nginx/access.log"
# Сколько адресов показать (по умолчанию 10)
TOP_N=10
# Временный файл для списка всех IP
TEMP="/tmp/all_ips_$(date +%Y%m%d_%H%M%S).txt"
# Проверка, что лог-файл существует
if [[ ! -f "$LOGFILE" ]]; then
echo "❌ Лог-файл '$LOGFILE' не найден!"
exit 1
fi
echo "🔎 Извлекаем IP-адреса из $LOGFILE и рассчитываем топ $TOP_N..."
# 1. Извлекаем первый столбец (обычно там IP), записываем во временный файл
awk '{print $1}' "$LOGFILE" > "$TEMP"
# 2. Считаем повторы, сортируем по убыванию, выводим топ N
echo -e "\n📊 Топ $TOP_N IP-адресов (по количеству запросов):"
sort "$TEMP" | uniq -c | sort -nr | head -n "$TOP_N" | awk '{printf "%s запросов — %s\n", $1, $2}'
# 3. Убираем временный файл
rm -f "$TEMP"
echo -e "\n✅ Готово!"
📝 Как это работает
1. LOGFILE — путь к вашему файлу логов Nginx/Apache.
Для Apache обычно
/var/log/apache2/access.log, для Nginx — /var/log/nginx/access.log.Если у вас другой путь, просто адаптируйте переменную
LOGFILE.2. Команда
awk '{print $1}' "$LOGFILE":Берёт первый столбец в каждой строке лога (IP-адрес).
Сохраняет все адреса во временный файл
$TEMP.3.
sort "$TEMP" | uniq -c | sort -nr | head -n "$TOP_N":sort упорядочивает список IP по возрастанию.uniq -c объединяет подряд идущие одинаковые строки и выводит количество повторений.Второй
sort -nr сортирует по числу запросов (включая самое большое значение сверху).head -n "$TOP_N" берёт первые N строк (топ N IP).4.
awk '{printf "%s запросов — %s\n", $1, $2}' форматирует вывод:Например:
1234 запросов — 192.168.1.100.5. По завершении удаляется временный файл
$TEMP для чистоты.🔧 Как улучшить и кастомизировать
Датафильтрация: если нужен анализ только за последние N дней, можно применять
grep с date:
# Пример: IP-адреса из логов за сегодня
TODAY=$(date '+%d/%b/%Y')
grep "$TODAY" "$LOGFILE" | awk '{print $1}' > "$TEMP"
Здесь
date '+%d/%b/%Y' выдаёт, например, 05/Jun/2025, что совпадает со строками формата Nginx-лога.Анализ URL: можно аналогично извлекать запрашиваемые URL:
awk '{print $7}' "$LOGFILE" | sort | uniq -c | sort -nr | head -n 10
Это покажет топ-10 запрашиваемых путей.
Выгрузка в файл/почту: чтобы сохранить результаты или отправить их администратору:
OUTPUT="/tmp/top_ips_report.txt"
sort "$TEMP" | uniq -c | sort -nr | head -n "$TOP_N" > "$OUTPUT"
mail -s "Топ IP-адресов на $(hostname)" admin@example.com < "$OUTPUT"
Интеграция в cron: автоматизируйте ежедневный отчёт:
# crontab -e
30 0 * * * /usr/local/bin/top_ips.sh >> /var/log/top_ips.log
Это запустит скрипт каждый день в 00:30 и добавит результаты в
/var/log/top_ips.log.🔔 Вывод: Используя этот простой Bash-скрипт, вы сможете в пару команд узнать, какие IP-адреса генерируют наибольшую нагрузку на ваш веб-сервер. Это поможет вовремя выявить подозрительные активности, защититься от DDoS-атак или просто понять, кто чаще всего посещает сайт.
📲 Мы в MAX
👉@bash_srv
👍10❤3
Bash-совет: анализ неудачных SSH-логинов и бан «горячих» IP 🔒🐚
Хотите быстро узнать, какие IP вызывают максимум неудачных попыток входа в SSH, и оперативно заблокировать самых настырных? Ниже скрипт:
Как это работает
1.
Ищем все строки с неудачными попытками.
2.
С помощью PCRE-регулярки достаём только IP-адреса после слова "from".
3.
Сортируем, считаем вхождения и выводим в порядке убывания.
4.
Ограничиваем результат топ-10.
🛠 Можно добавить в
Или сразу блокировать подозрительные IP, если они превысили порог:
📲 Мы в MAX
👉@bash_srv
Хотите быстро узнать, какие IP вызывают максимум неудачных попыток входа в SSH, и оперативно заблокировать самых настырных? Ниже скрипт:
#!/usr/bin/env bash
# ssh_fail_analyzer.sh
# Анализ неудачных SSH-попыток и вывод TOP-10 IP
LOG_FILE="/var/log/auth.log" # путь к логам (для CentOS: /var/log/secure)
TOPN=10 # сколько IP показывать
echo "Топ $TOPN IP с неудачными SSH-входами:"
grep -E "Failed password for" "$LOG_FILE" \
| grep -oP '(?<=from )[\d\.]+' \
| sort \
| uniq -c \
| sort -rn \
| head -n "$TOPN"
Как это работает
1.
grep -E "Failed password for"Ищем все строки с неудачными попытками.
2.
grep -oP '(?<=from )\[\d.]+'С помощью PCRE-регулярки достаём только IP-адреса после слова "from".
3.
sort | uniq -c | sort -rnСортируем, считаем вхождения и выводим в порядке убывания.
4.
head -n "\$TOPN"Ограничиваем результат топ-10.
🛠 Можно добавить в
crontab ежедневный запуск и автоматическую отправку отчёта на почту или сразу бан «горячих» IP через iptables:
# в crontab: каждый день в 00:10
10 0 * * * /path/to/ssh_fail_analyzer.sh | mail -s "SSH Fail Report" admin@example.com
Или сразу блокировать подозрительные IP, если они превысили порог:
THRESHOLD=50
for ip in $(grep -E "Failed password for" "$LOG_FILE" \
| grep -oP '(?<=from )[\d\.]+' \
| sort | uniq -c \
| awk -v t="$THRESHOLD" '$1 > t {print $2}'); do
iptables -I INPUT -s "$ip" -j DROP
echo "$(date): Заблокирован $ip за превышение $THRESHOLD неудачных попыток" >> /var/log/ssh_ban.log
done
📲 Мы в MAX
👉@bash_srv
👍6
🔍 Мониторинг сервисов Linux и автоматический перезапуск 🛠️
Иногда сервисы на сервере «внезапно» падают, а вы об этом узнаёте лишь по жалобам пользователей. Предлагаю простой Bash-скрипт, который:
1. Проверяет статус списка сервисов
2. При необходимости перезапускает их
3. Логирует все действия
🗓️ Как запустить по расписанию
Добавьте в crontab (например, каждый 5-й минут):
🔎 Пара совета по регулярным выражениям
Для анализа логов удобно собирать все строки с ошибками:
Настройте свой набор ключевых слов для поиска 🎯
📲 Мы в MAX
👉@bash_srv
Иногда сервисы на сервере «внезапно» падают, а вы об этом узнаёте лишь по жалобам пользователей. Предлагаю простой Bash-скрипт, который:
1. Проверяет статус списка сервисов
2. При необходимости перезапускает их
3. Логирует все действия
#!/usr/bin/env bash
# автор: https://news.1rj.ru/str/bash_srv
# Список сервисов для мониторинга
services=(nginx sshd mysqld)
# Файл логов
logfile="/var/log/service_monitor.log"
for svc in "${services[@]}"; do
status=$(systemctl is-active "$svc")
if [[ "$status" != "active" ]]; then
echo "$(date '+%F %T') ❗️ Сервис $svc статус: $status. Перезапускаем..." >> "$logfile"
systemctl restart "$svc"
if [[ $? -eq 0 ]]; then
echo "$(date '+%F %T') ✔️ Сервис $svc успешно перезапущен" >> "$logfile"
else
echo "$(date '+%F %T') ❌ Не удалось перезапустить $svc" >> "$logfile"
fi
fi
done
🗓️ Как запустить по расписанию
Добавьте в crontab (например, каждый 5-й минут):
*/5 * * * * /path/to/service_monitor.sh
🔎 Пара совета по регулярным выражениям
Для анализа логов удобно собирать все строки с ошибками:
grep -Ei "(error|fail|critical|panic)" /var/log/syslog
-E включает расширенные регэкспы-i — нечувствительность к региструНастройте свой набор ключевых слов для поиска 🎯
📲 Мы в MAX
👉@bash_srv
👍7
📌 Рекурсивная массовая замена текста во всех файлах 🔍✏️
Иногда нужно за пару секунд заменить одну строку или слово сразу во множестве файлов в каталоге и его поддиректориях.
🔧 Как использовать
1. Сохраните скрипт, например, как
2. Дайте права на исполнение:
3. Запустите, указав искомую строку, замену и каталог:
💡 Советы и примочки
🟢 По умолчанию скрипт обрабатывает все файлы (
🟢 Флаг
🟢 При сложных шаблонах (точки, слэши) вместо прямых слэшей
🟢 Для чувствительных к регистру замен добавьте флаг
🟢 Если нужно увидеть, в каких файлах были изменения, перед
📲 Мы в MAX
👉@bash_srv
Иногда нужно за пару секунд заменить одну строку или слово сразу во множестве файлов в каталоге и его поддиректориях.
#!/usr/bin/env bash
# автор: https://news.1rj.ru/str/bash_srv
# Проверка аргументов
if [ "$#" -ne 3 ]; then
echo "Использование: $0 <старый_текст> <новый_текст> <путь_к_директории>"
exit 1
fi
OLD="$1"
NEW="$2"
DIR="$3"
EXT="*" # можно указать, например, "*.conf" или "*.txt"
# Находим файлы и делаем замену с созданием резервных .bak-файлов
find "$DIR" -type f -name "$EXT" -print0 \
| xargs -0 sed -i.bak "s/${OLD}/${NEW}/g"
# Удаляем .bak, если они больше не нужны
# find "$DIR" -type f -name "*.bak" -delete
echo "Заменено '$OLD' на '$NEW' во всех файлах под '$DIR'."
🔧 Как использовать
1. Сохраните скрипт, например, как
/usr/local/bin/bulk-replace.sh2. Дайте права на исполнение:
chmod +x /usr/local/bin/bulk-replace.sh
3. Запустите, указав искомую строку, замену и каталог:
/usr/local/bin/bulk-replace.sh "foo" "bar" /etc/myapp
💡 Советы и примочки
EXT="*"). Для конкретных типов (конфиги, скрипты) замените на "*.conf" или "*.sh".-i.bak создаёт резервную копию каждого файла с расширением .bak. Если вы уверены, что бэкапы не нужны, после замены раскомментируйте строку удаления.s/old/new/g можно использовать другой разделитель, например s|old|new|g.I (GNU sed`): `s/${OLD}/${NEW}/gI.sed вставьте -exec grep -l "${OLD}" {} \; или используйте grep -R --include="$EXT" "${OLD}" "$DIR".📲 Мы в MAX
👉@bash_srv
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2
🔥 Бэкап базы данных MySQL с автоматической ротацией 🔄
Если у тебя есть сервер с MySQL/MariaDB, автоматический бэкап с ротацией — must have для спокойной жизни 😌
Вот простой скрипт, который:
1. Делает дамп всех баз
2. Сохраняет в архив с датой
3. Удаляет архивы старше N дней
🛠 Рекомендуется повесить в крон, например, на каждый день в 3:00:
👀 Теперь бэкапы всегда под контролем, а лишние файлы не засоряют диск.
📲 Мы в MAX
👉@bash_srv
Если у тебя есть сервер с MySQL/MariaDB, автоматический бэкап с ротацией — must have для спокойной жизни 😌
Вот простой скрипт, который:
1. Делает дамп всех баз
2. Сохраняет в архив с датой
3. Удаляет архивы старше N дней
#!/bin/bash
# автор: https://news.1rj.ru/str/bash_srv
# Папка для бэкапов
BACKUP_DIR="/opt/backups/mysql"
# Кол-во дней хранения
RETENTION_DAYS=7
# Дата для имени файла
DATE=$(date +'%Y-%m-%d_%H-%M')
# Учетные данные
DB_USER="root"
DB_PASS="mypassword"
mkdir -p "$BACKUP_DIR"
# Делаем дамп
mysqldump -u"$DB_USER" -p"$DB_PASS" --all-databases | gzip > "$BACKUP_DIR/mysql_backup_$DATE.sql.gz"
# Удаляем старые бэкапы
find "$BACKUP_DIR" -type f -name "*.gz" -mtime +$RETENTION_DAYS -delete
echo "✅ Бэкап MySQL завершён: $DATE"
🛠 Рекомендуется повесить в крон, например, на каждый день в 3:00:
0 3 * * * /path/to/backup_mysql.sh
👀 Теперь бэкапы всегда под контролем, а лишние файлы не засоряют диск.
📲 Мы в MAX
👉@bash_srv
👍6
🧹 Bash совет дня: удаляем пустые директории рекурсивно 🧹
Когда на сервере скапливаются лишние пустые папки — это не только мусор, но и потенциальная головная боль при навигации и поиске. Вот простой способ зачистить их:
🔍 Как это работает:
• find ищет все папки (-type d), которые пусты (-empty) и удаляет их (-delete).
• Работает рекурсивно, удаляя даже вложенные пустые директории.
📅 Можно запускать из cron раз в неделю, например:
👌 Удобно, когда на сервере регулярно создаются временные папки, которые потом остаются без содержимого.
📲 Мы в MAX
👉@bash_srv
Когда на сервере скапливаются лишние пустые папки — это не только мусор, но и потенциальная головная боль при навигации и поиске. Вот простой способ зачистить их:
#!/bin/bash
# Путь, в котором нужно очистить пустые папки
TARGET_DIR="/var/www/html"
# Удаляем все пустые директории, включая вложенные
find "$TARGET_DIR" -type d -empty -delete
echo "✅ Все пустые директории удалены из $TARGET_DIR"
🔍 Как это работает:
• find ищет все папки (-type d), которые пусты (-empty) и удаляет их (-delete).
• Работает рекурсивно, удаляя даже вложенные пустые директории.
📅 Можно запускать из cron раз в неделю, например:
0 3 * * 0 /opt/noscripts/clean_empty_dirs.sh
👌 Удобно, когда на сервере регулярно создаются временные папки, которые потом остаются без содержимого.
📲 Мы в MAX
👉@bash_srv
👍6🔥1
🔥 Bash: выводим самые «тяжёлые» директории в системе 🧱
Когда место на диске заканчивается, надо быстро найти, кто его ест. Вот однострочник, который покажет 10 самых тяжёлых директорий в
📌 Пояснение:
•
•
•
💡 Хочешь только директории без файлов? Замени
🎯 Быстро, просто, эффективно!
📲 Мы в MAX
👉@bash_srv
Когда место на диске заканчивается, надо быстро найти, кто его ест. Вот однострочник, который покажет 10 самых тяжёлых директорий в
/:
du -ahx / | sort -rh | head -n 10
📌 Пояснение:
•
du -ahx / - оценивает размер всех файлов и директорий, игнорируя другие файловые системы (важно, если есть монтирования);•
sort -rh - сортирует по размеру, от большего к меньшему;•
head -n 10 - берёт топ-10.💡 Хочешь только директории без файлов? Замени
-ahx на -h --max-depth=1:
du -h --max-depth=1 / | sort -rh
🎯 Быстро, просто, эффективно!
📲 Мы в MAX
👉@bash_srv
👍4💩1
🧠 Регулярки на практике: как вытащить IP-адреса из логов
Когда нужно быстро достать все IP-адреса из логов — тебе на помощь приходит
Пример:
🔍 Что делает:
📌 Пример вывода:
🛡️ Хочешь избавиться от дубликатов?
📁 Подходит для Apache, Nginx, sshd и других логов, где есть IP.
📲 Мы в MAX
👉@bash_srv
Когда нужно быстро достать все IP-адреса из логов — тебе на помощь приходит
grep + регулярные выражения 💪Пример:
grep -oE '\b([0-9]{1,3}\.){3}[0-9]{1,3}\b' /var/log/nginx/access.log
🔍 Что делает:
-o — выводит только совпадения, без строки целиком-E — расширенные регулярки\b([0-9]{1,3}\.){3}[0-9]{1,3}\b — паттерн для IPv4📌 Пример вывода:
192.168.0.1
10.0.0.55
172.16.100.7
🛡️ Хочешь избавиться от дубликатов?
grep -oE '\b([0-9]{1,3}\.){3}[0-9]{1,3}\b' /var/log/nginx/access.log | sort -u
📁 Подходит для Apache, Nginx, sshd и других логов, где есть IP.
📲 Мы в MAX
👉@bash_srv
👍8
🔍 Поиск текста во множестве файлов — быстро и точно!
Если нужно найти, где в проекте встречается определённая строка (например,
📌 Пояснение:
*
*
*
*
💡 Хочешь исключить определённые директории, например
Незаменимо при отладке конфигов и аудите секрета в коде! 😉
📲 Мы в MAX
👉@bash_srv
Если нужно найти, где в проекте встречается определённая строка (например,
DB_PASSWORD), не лезь в каждый файл руками! Используй мощную связку grep:
grep -rnw '/путь/к/папке' -e 'DB_PASSWORD'
📌 Пояснение:
*
-r — рекурсивный поиск по подкаталогам.*
-n — показать номер строки.*
-w — искать точное слово (не подстроку).*
-e — указывает, что дальше идёт выражение для поиска.💡 Хочешь исключить определённые директории, например
.git?
grep -rnw --exclude-dir={.git,node_modules} '/путь/к/папке' -e 'DB_PASSWORD'
Незаменимо при отладке конфигов и аудите секрета в коде! 😉
📲 Мы в MAX
👉@bash_srv
👍7🔥5
🔐 Проверка пароля на сложность 🧪
Когда нужно быстро проверить, достаточно ли сложный пароль (длина, буквы, цифры, спецсимволы) — используйте вот такой bash-однострочник:
📋 Проверка включает:
- минимум 8 символов
- заглавные буквы
- строчные буквы
- цифры
- спецсимволы
🛡 Удобно использовать в скриптах или при создании новых пользователей вручную.
👀 Если хотите использовать это в скрипте без отображения ввода —
📲 Мы в MAX
👉@bash_srv
Когда нужно быстро проверить, достаточно ли сложный пароль (длина, буквы, цифры, спецсимволы) — используйте вот такой bash-однострочник:
read -s -p "Введите пароль: " pass; echo; [[ ${#pass} -ge 8 && "$pass" =~ [A-Z] && "$pass" =~ [a-z] && "$pass" =~ [0-9] && "$pass" =~ [^a-zA-Z0-9] ]] && echo "✅ Надёжный пароль" || echo "❌ Слабый пароль"
📋 Проверка включает:
- минимум 8 символов
- заглавные буквы
- строчные буквы
- цифры
- спецсимволы
🛡 Удобно использовать в скриптах или при создании новых пользователей вручную.
👀 Если хотите использовать это в скрипте без отображения ввода —
read -s уже всё делает за вас.📲 Мы в MAX
👉@bash_srv
👍6
🚀 Подборка полезных IT каналов в Max
Системное администрирование, DevOps 📌
https://max.ru/i_odmin Все для системного администратора
https://max.ru/bash_srv Bash Советы
https://max.ru/sysadminof Книги для админов, полезные материалы
https://max.ru/i_odmin_book Библиотека Системного Администратора
https://max.ru/i_devops DevOps: Пишем о Docker, Kubernetes и др.
1C разработка 📌
https://max.ru/odin1c_rus Cтатьи, курсы, советы, шаблоны кода 1С
Программирование C++📌
https://max.ru/cpp_lib Библиотека C/C++ разработчика
Программирование Python 📌
https://max.ru/python_of Python академия.
https://max.ru/BookPython Библиотека Python разработчика
Java разработка 📌
https://max.ru/bookjava Библиотека Java разработчика
GitHub Сообщество 📌
https://max.ru/githublib Интересное из GitHub
Базы данных (Data Base) 📌
https://max.ru/database_info Все про базы данных
Фронтенд разработка 📌
https://max.ru/frontend_1 Подборки для frontend разработчиков
Библиотеки 📌
https://max.ru/programmist_of Книги по программированию
https://max.ru/proglb Библиотека программиста
https://max.ru/bfbook Книги для программистов
Программирование 📌
https://max.ru/bookflow Лекции, видеоуроки, доклады с IT конференций
https://max.ru/itmozg Программисты, дизайнеры, новости из мира IT
https://max.ru/php_lib Библиотека PHP программиста 👨🏼💻👩💻
Шутки программистов 📌
https://max.ru/itumor Шутки программистов
Защита, взлом, безопасность 📌
https://max.ru/thehaking Канал о кибербезопасности
https://max.ru/xakkep_1 Хакер Free
Книги, статьи для дизайнеров 📌
https://max.ru/odesigners Статьи, книги для дизайнеров
Математика 📌
https://max.ru/Pomatematike Канал по математике
https://max.ru/phismat_1 Обучающие видео, книги по Физике и Математике
Вакансии 📌
https://max.ru/progjob Вакансии в IT
Мир технологий 📌
https://max.ru/mir_teh Канал для любознательных
Бонус 📌
https://max.ru/piterspb_78 Свежие новости Санкт-Петербурга
https://max.ru/mockva_life Свежие новости Москвы
Системное администрирование, DevOps 📌
https://max.ru/i_odmin Все для системного администратора
https://max.ru/bash_srv Bash Советы
https://max.ru/sysadminof Книги для админов, полезные материалы
https://max.ru/i_odmin_book Библиотека Системного Администратора
https://max.ru/i_devops DevOps: Пишем о Docker, Kubernetes и др.
1C разработка 📌
https://max.ru/odin1c_rus Cтатьи, курсы, советы, шаблоны кода 1С
Программирование C++📌
https://max.ru/cpp_lib Библиотека C/C++ разработчика
Программирование Python 📌
https://max.ru/python_of Python академия.
https://max.ru/BookPython Библиотека Python разработчика
Java разработка 📌
https://max.ru/bookjava Библиотека Java разработчика
GitHub Сообщество 📌
https://max.ru/githublib Интересное из GitHub
Базы данных (Data Base) 📌
https://max.ru/database_info Все про базы данных
Фронтенд разработка 📌
https://max.ru/frontend_1 Подборки для frontend разработчиков
Библиотеки 📌
https://max.ru/programmist_of Книги по программированию
https://max.ru/proglb Библиотека программиста
https://max.ru/bfbook Книги для программистов
Программирование 📌
https://max.ru/bookflow Лекции, видеоуроки, доклады с IT конференций
https://max.ru/itmozg Программисты, дизайнеры, новости из мира IT
https://max.ru/php_lib Библиотека PHP программиста 👨🏼💻👩💻
Шутки программистов 📌
https://max.ru/itumor Шутки программистов
Защита, взлом, безопасность 📌
https://max.ru/thehaking Канал о кибербезопасности
https://max.ru/xakkep_1 Хакер Free
Книги, статьи для дизайнеров 📌
https://max.ru/odesigners Статьи, книги для дизайнеров
Математика 📌
https://max.ru/Pomatematike Канал по математике
https://max.ru/phismat_1 Обучающие видео, книги по Физике и Математике
Вакансии 📌
https://max.ru/progjob Вакансии в IT
Мир технологий 📌
https://max.ru/mir_teh Канал для любознательных
Бонус 📌
https://max.ru/piterspb_78 Свежие новости Санкт-Петербурга
https://max.ru/mockva_life Свежие новости Москвы
MAX
Системный Администратор | Sysadmin Windows & Linux Server. Настройка Сети, ПК и Железа. IT Уроки для Сисадмина: Безопасность, Софт…
Блог практикующего админа. Настройка Windows Server, Active Directory (AD), GPO и терминальных серверов (RDP). Работа с Linux: Ubuntu, CentOS, Debian. Сетевое оборудование: Cisco, MikroTik, VPN, DNS, DHCP. Виртуализация (Hyper-V, VMware, Proxmox) и резервное…
🤡9💩4
🔐 Проверяем, у кого есть root-доступ через sudo
Иногда нужно быстро выяснить, какие пользователи могут выполнять команды от имени root через
📋 Что делает скрипт:
*
*
*
*
💡 Работает в Debian/Ubuntu - для других систем группу
🔥 Быстрый аудит - особенно полезно при подозрении на несанкционированный доступ.
📲 Мы в MAX
👉@bash_srv
Иногда нужно быстро выяснить, какие пользователи могут выполнять команды от имени root через
sudo. Вот простой способ это сделать:
getent group sudo | cut -d: -f4 | tr ',' '\n' | sort
📋 Что делает скрипт:
*
getent group sudo - вытаскивает строку группы sudo;*
cut -d: -f4 - берёт список пользователей;*
tr ',' '\n' - превращает список в столбик;*
sort — сортирует результат.💡 Работает в Debian/Ubuntu - для других систем группу
sudo нужно заменить на wheel, например:
getent group wheel | cut -d: -f4 | tr ',' '\n' | sort
🔥 Быстрый аудит - особенно полезно при подозрении на несанкционированный доступ.
📲 Мы в MAX
👉@bash_srv
👍5
🔄 Как узнать, какой процесс держит порт в Linux?
Часто бывает, что нужный порт уже занят, и надо быстро найти, кто его "захватил". Используем
📌 Вариант 1 — через
🔹 Пример:
📌 Вариант 2 — через
🔹 Пример:
🧠 А чтобы сразу получить PID:
🔹 Пример:
🔥 Идеально подходит, чтобы выяснить, что мешает стартовать nginx, apache, sshd и т.д.
📲 Мы в MAX
👉@bash_srv
Часто бывает, что нужный порт уже занят, и надо быстро найти, кто его "захватил". Используем
lsof и ss.📌 Вариант 1 — через
lsof:
lsof -i :<порт>
🔹 Пример:
lsof -i :80
📌 Вариант 2 — через
ss:
ss -tuln | grep :<порт>
🔹 Пример:
ss -tuln | grep :443
🧠 А чтобы сразу получить PID:
fuser <порт>/tcp
🔹 Пример:
fuser 22/tcp
🔥 Идеально подходит, чтобы выяснить, что мешает стартовать nginx, apache, sshd и т.д.
📲 Мы в MAX
👉@bash_srv
👍11
📌 Мониторинг процессов с высоким потреблением CPU
Скрипт, который покажет топ-5 процессов по загрузке CPU.
🔍 Что делает этот скрипт:
⚫️
⚫️
⚫️
💡 Можно повесить это на cron или закинуть в
📲 Мы в MAX
👉@bash_srv
Скрипт, который покажет топ-5 процессов по загрузке CPU.
ps -eo pid,comm,%cpu --sort=-%cpu | head -n 6
🔍 Что делает этот скрипт:
ps -eo pid,comm,%cpu — выводит PID, команду и использование CPU.--sort=-%cpu — сортирует по убыванию загрузки CPU.head -n 6 — берёт первые 5 процессов + строка заголовков.💡 Можно повесить это на cron или закинуть в
watch, чтобы отслеживать в реальном времени:
watch -n 5 'ps -eo pid,comm,%cpu --sort=-%cpu | head -n 6'
📲 Мы в MAX
👉@bash_srv
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤1
🧠 Проверка, запущен ли процесс
Иногда нужно быстро проверить, работает ли нужный процесс — например,
📌 Как использовать:
Добавь это в свой
💡 Работает для процессов с точным именем. Хочешь более гибкий поиск — используй
📲 Мы в MAX
👉@bash_srv
Иногда нужно быстро проверить, работает ли нужный процесс — например,
nginx, postgres или любой другой. Вот удобная bash-функция:
check_proc() {
local PROC_NAME="$1"
if pgrep -x "$PROC_NAME" > /dev/null; then
echo "✅ Процесс '$PROC_NAME' запущен"
else
echo "❌ Процесс '$PROC_NAME' не найден"
fi
}
📌 Как использовать:
check_proc nginx
check_proc sshd
Добавь это в свой
~/.bashrc или ~/.bash_profile, чтобы всегда иметь под рукой 🔧💡 Работает для процессов с точным именем. Хочешь более гибкий поиск — используй
pgrep "$PROC_NAME" без -x.📲 Мы в MAX
👉@bash_srv
👍6
💥 Автоматическая блокировка IP при большом количестве запросов 🛡️👮♂️
Если на сервере замечена подозрительная активность (например, слишком много запросов от одного IP), можно автоматически блокировать таких «шумных» клиентов с помощью
📌 Что делает скрипт:
- Анализирует access.log
- Находит IP с количеством запросов > LIMIT
- Блокирует их через
🧠 Советы:
- Запускай раз в 5 минут через cron
- Убедись, что
📲 Мы в MAX
👉@bash_srv
Если на сервере замечена подозрительная активность (например, слишком много запросов от одного IP), можно автоматически блокировать таких «шумных» клиентов с помощью
iptables и awk:
#!/bin/bash
# автор: https://news.1rj.ru/str/bash_srv
# Лимит запросов за минуту
LIMIT=100
# Лог файл nginx или apache
LOG_FILE="/var/log/nginx/access.log"
# Найдём IP, превысившие лимит
awk '{print $1}' "$LOG_FILE" | sort | uniq -c | sort -nr | awk -v limit="$LIMIT" '$1 > limit {print $2}' | while read ip; do
# Проверим, не заблокирован ли уже
if ! iptables -L INPUT -v -n | grep -q "$ip"; then
iptables -A INPUT -s "$ip" -j DROP
echo "$(date): Заблокирован IP $ip" >> /var/log/ip_block.log
fi
done
📌 Что делает скрипт:
- Анализирует access.log
- Находит IP с количеством запросов > LIMIT
- Блокирует их через
iptables🧠 Советы:
- Запускай раз в 5 минут через cron
- Убедись, что
iptables доступен и ты не блокируешь свой IP 📲 Мы в MAX
👉@bash_srv
👍2