Автоматизация тестирования производительности приложения
Эффективное тестирование производительности приложения требует не просто генерации нагрузки, а имитации реальных пользовательских сценариев. Такой подход позволяет выявить узкие места и обеспечить стабильную работу под высокой нагрузкой. В этой статье рассмотрим, как создать скрипты для автоматизированного тестирования с использованием популярных инструментов.
Для симуляции пользовательского поведения подходят инструменты, такие как Apache JMeter, Gatling, или k6. Сегодня поговорим про k6 - легковесном и мощном инструменте для нагрузочного тестирования.
1. Создание Скрипта на k6. k6 позволяет описывать сценарии в виде JavaScript-кода, что делает его удобным для разработчиков. Пример Скрипта:
2. Анализ результатов. После выполнения скрипта k6 выводит подробные метрики:
Эти метрики позволяют оценить производительность приложения и выявить потенциальные проблемы.
3. Автоматизация с CI/CD. Для полной автоматизации можно использовать тесты производительности в CI/CD пайплайн. Например, GitLab CI или Jenkins для запуска тестов при каждом деплое. Пример Конфигурации GitLab CI:
Преимущества подхода:
BashTex📱 #bash
Эффективное тестирование производительности приложения требует не просто генерации нагрузки, а имитации реальных пользовательских сценариев. Такой подход позволяет выявить узкие места и обеспечить стабильную работу под высокой нагрузкой. В этой статье рассмотрим, как создать скрипты для автоматизированного тестирования с использованием популярных инструментов.
Для симуляции пользовательского поведения подходят инструменты, такие как Apache JMeter, Gatling, или k6. Сегодня поговорим про k6 - легковесном и мощном инструменте для нагрузочного тестирования.
1. Создание Скрипта на k6. k6 позволяет описывать сценарии в виде JavaScript-кода, что делает его удобным для разработчиков. Пример Скрипта:
import http from 'k6/http';
import { sleep, check } from 'k6';
export let options = {
stages: [
{ duration: '2m', target: 100 }, // Разогрев
{ duration: '5m', target: 100 }, // Пик нагрузки
{ duration: '2m', target: 0 }, // Спад
],
};
export default function () {
let res = http.get('https://bashtex.com');
check(res, {
'статус 200': (r) => r.status === 200,
'время отклика < 200мс': (r) => r.timings.duration < 200,
});
sleep(1);
}
2. Анализ результатов. После выполнения скрипта k6 выводит подробные метрики:
checks.....................: 100.00% ✓ 1200 ✗ 0
http_req_duration..........: avg=135ms min=100ms med=130ms max=200ms p(95)=180ms
http_reqs..................: 4000 13.333334/s
Эти метрики позволяют оценить производительность приложения и выявить потенциальные проблемы.
3. Автоматизация с CI/CD. Для полной автоматизации можно использовать тесты производительности в CI/CD пайплайн. Например, GitLab CI или Jenkins для запуска тестов при каждом деплое. Пример Конфигурации GitLab CI:
performance_test:
noscript:
- k6 run loadtest.js
stage: test
Преимущества подхода:
Реалистичные сценарии: Тестирование, основанное на реальном поведении пользователей, дает более точные результаты.
Автоматизация: Экономит время и усилия, минимизирует ручной труд.
Интеграция: Легко встраивается в существующие процессы CI/CD, обеспечивая постоянный контроль за производительностью.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
Эффективная обработка CSV-файлов с помощью awk
Работа с CSV-файлами может быть упрощена до нескольких команд с использованием awk. Этот инструмент позволяет легко манипулировать данными, фильтровать строки и производить вычисления.
1. Чтение CSV-файлов. Предположим, у вас есть CSV-файл data.csv следующего вида:
Чтобы вывести все строки с awk, используйте:
Здесь -F, указывает awk, что поля разделяются запятыми.
2. Фильтрация данных. Для вывода только тех строк, где возраст больше 30:
3. Агрегация данных. Подсчет среднего возраста:
4. Изменение данных. Изменение формата имени в файле:
5. Конвертация CSV в JSON. Вы можете преобразовать CSV в JSON-формат:
Вывод:
awk позволяет легко фильтровать, модифицировать и анализировать данные, что делает его незаменимым в арсенале каждого администратора и разработчика.
BashTex📱 #linux #utils
Работа с CSV-файлами может быть упрощена до нескольких команд с использованием awk. Этот инструмент позволяет легко манипулировать данными, фильтровать строки и производить вычисления.
1. Чтение CSV-файлов. Предположим, у вас есть CSV-файл data.csv следующего вида:
name,age,city
Ivan,30,Moscow
Bob,25,New York
Ruslan,35,Kazan
Чтобы вывести все строки с awk, используйте:
awk -F, '{print $1, $2, $3}' data.csv
name age city
Ivan 30 Moscow
Bob 25 New York
Ruslan 35 Kazan
Здесь -F, указывает awk, что поля разделяются запятыми.
2. Фильтрация данных. Для вывода только тех строк, где возраст больше 30:
awk -F, '$2 > 30 {print $1, $2, $3}' data.csv
Ruslan 35 Kazan
3. Агрегация данных. Подсчет среднего возраста:
awk -F, 'NR>1 {sum+=$2; count++} END {print "Средний возраст:", sum/count}' data.csv
Средний возраст: 30
4. Изменение данных. Изменение формата имени в файле:
awk -F, 'BEGIN{OFS=","} {gsub(/Ivan/, "Konstantin", $1); print}' data.csv
name,age,city
Konstantin,30,Moscow
Bob,25,New York
Ruslan,35,Kazan
5. Конвертация CSV в JSON. Вы можете преобразовать CSV в JSON-формат:
awk -F, 'NR==1 {for(i=1;i<=NF;i++) header[i]=$i} NR>1 {printf "{"; for(i=1;i<=NF;i++) printf "\"%s\":\"%s\"%s", header[i], $i, (i==NF ? "" : ","); print "}"}' data.csv
Вывод:
{"name":"Ivan","age":"30","city":"Moscow"}
{"name":"Bob","age":"25","city":"New York"}
{"name":"Ruslan","age":"35","city":"Kazan"}
awk позволяет легко фильтровать, модифицировать и анализировать данные, что делает его незаменимым в арсенале каждого администратора и разработчика.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🫡1
Автоматическое восстановление после сбоев с использованием Bash-скриптов
Быстрая реакция на системные сбои является ключом к минимизации времени простоя. Рассмотрим, как настроить автоматическое восстановление системы с помощью Bash-скриптов для замены поврежденных файлов и перезапуска критических служб.
Для восстановления системы необходимо создать скрипт, который будет:
Пример скрипта восстановления
Автоматизация проверок с cron. Для регулярного выполнения скрипта можно использовать cron. Например, для запуска каждые 5 минут:
BashTex📱 #bash
Быстрая реакция на системные сбои является ключом к минимизации времени простоя. Рассмотрим, как настроить автоматическое восстановление системы с помощью Bash-скриптов для замены поврежденных файлов и перезапуска критических служб.
Для восстановления системы необходимо создать скрипт, который будет:
Проверять целостность ключевых файлов.
Восстанавливать поврежденные файлы из резервной копии.
Перезапускать критические службы.
Пример скрипта восстановления
#!/bin/bash
# Пути к резервным копиям и критическим файлам
BACKUP_DIR="/backup/system_files"
FILES_TO_CHECK=("/etc/nginx/nginx.conf" "/var/www/html/index.html")
# Проверка целостности файлов
for FILE in "${FILES_TO_CHECK[@]}"; do
if [[ ! -f "$FILE" || ! cmp -s "$BACKUP_DIR/$(basename $FILE)" "$FILE" ]]; then
echo "Файл $FILE поврежден или отсутствует. Восстанавливаем..."
cp "$BACKUP_DIR/$(basename $FILE)" "$FILE"
fi
done
# Перезапуск критических служб
SERVICES=("nginx" "mysql")
for SERVICE in "${SERVICES[@]}"; do
if ! systemctl is-active --quiet "$SERVICE"; then
echo "Служба $SERVICE не работает. Перезапускаем..."
systemctl restart "$SERVICE"
fi
done
echo "Восстановление завершено."
Автоматизация проверок с cron. Для регулярного выполнения скрипта можно использовать cron. Например, для запуска каждые 5 минут:
*/5 * * * * /path/to/restore_noscript.sh
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
Самовосстанавливающийся Bash-скрипт: проверка и запуск недостающих частей
При создании сложных Bash-скриптов иногда требуется, чтобы они могли восстанавливать выполнение после прерываний. Это особенно актуально для долгих процессов, например, обработки файлов, миграции данных или массовой загрузки.
В чем идея:
Пример: обработка списка файлов. Допустим, у нас есть список файлов для обработки:
Вывод скрипта. Первый запуск:
Повторный запуск:
Где это может применимо:
BashTex📱 #bash
При создании сложных Bash-скриптов иногда требуется, чтобы они могли восстанавливать выполнение после прерываний. Это особенно актуально для долгих процессов, например, обработки файлов, миграции данных или массовой загрузки.
В чем идея:
Сохранение состояния: фиксируем завершённые этапы в отдельном файле.
Проверка состояния: перед выполнением этапа проверяем, был ли он выполнен ранее.
Возобновление: пропускаем выполненные этапы, начиная с незавершённых.
Пример: обработка списка файлов. Допустим, у нас есть список файлов для обработки:
#!/bin/bash
# Список файлов для обработки
FILES=("file1.txt" "file2.txt" "file3.txt")
# Файл состояния
STATE_FILE="process.state"
# Функция для обновления состояния
update_state() {
echo "$1" >> "$STATE_FILE"
}
# Создаём файл состояния, если его нет
if [[ ! -f "$STATE_FILE" ]]; then
> "$STATE_FILE"
fi
# Загружаем выполненные этапы
COMPLETED=$(cat "$STATE_FILE")
echo "Начинаем обработку файлов..."
for FILE in "${FILES[@]}"; do
# Проверяем, был ли файл уже обработан
if echo "$COMPLETED" | grep -q "$FILE"; then
echo "[Пропуск] $FILE уже обработан."
continue
fi
# Обрабатываем файл
echo "Обрабатываем $FILE..."
sleep 2 # Имитация длительной работы
# Если успешно, обновляем состояние
update_state "$FILE"
echo "[Готово] $FILE обработан."
done
echo "Все файлы обработаны!"
Вывод скрипта. Первый запуск:
Начинаем обработку файлов...
Обрабатываем file1.txt...
[Готово] file1.txt обработан.
Обрабатываем file2.txt...
[Готово] file2.txt обработан.
Обрабатываем file3.txt...
[Готово] file3.txt обработан.
Все файлы обработаны!
Повторный запуск:
Начинаем обработку файлов...
[Пропуск] file1.txt уже обработан.
[Пропуск] file2.txt уже обработан.
[Пропуск] file3.txt уже обработан.
Все файлы обработаны!
Где это может применимо:
Массовая обработка данных (например, логов).
Резервное копирование с пропуском уже сохранённых файлов.
Миграция больших объёмов данных.
Загрузка или выгрузка информации с сетевых хранилищ.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16
Секреты использования tee
Команда
1. Добавление данных в файл. По умолчанию tee перезаписывает файл, но с опцией -a можно добавлять данные:
Файл output.txt сохранит все предыдущие данные и добавит новую строку.
2. Дублирование вывода в несколько файлов. Вы можете одновременно записывать данные в несколько файлов:
Всё, что выведет команда, будет сохранено в трёх файлах одновременно.
3. Объединение с sudo. Иногда права доступа мешают записывать данные в файлы. Вот как решить это:
Этот приём обходит ограничения записи без использования дополнительных редакторов.
4. Трансформация данных в реальном времени. tee можно использовать в пайплайнах для промежуточной проверки данных:
Здесь tee записывает содержимое файла в preview.txt, а затем передаёт его на обработку через grep.
5. Обработка stderr. По умолчанию tee работает только с stdout, но есть способ записывать и stderr:
Этот трюк записывает ошибки в файл errors.log и одновременно выводит их на экран.
Полезные сценарии использования
1. Живой логинг: Сохраняйте данные и анализируйте их в реальном времени:
2. Одновременная передача данных в файл и на удалённый сервер:
3. Дублирование вывода сложных операций:
BashTex📱 #linux #utils
Команда
tee позволяет записывать вывод одновременно в файл и отображать его в терминале. Но её возможности гораздо шире, чем кажется на первый взгляд!1. Добавление данных в файл. По умолчанию tee перезаписывает файл, но с опцией -a можно добавлять данные:
echo "Новая строка" | tee -a output.txt
Файл output.txt сохранит все предыдущие данные и добавит новую строку.
2. Дублирование вывода в несколько файлов. Вы можете одновременно записывать данные в несколько файлов:
echo "Логи обновлены" | tee log1.txt log2.txt log3.txt
Всё, что выведет команда, будет сохранено в трёх файлах одновременно.
3. Объединение с sudo. Иногда права доступа мешают записывать данные в файлы. Вот как решить это:
echo "Системная настройка" | sudo tee /etc/config.txt
Этот приём обходит ограничения записи без использования дополнительных редакторов.
4. Трансформация данных в реальном времени. tee можно использовать в пайплайнах для промежуточной проверки данных:
cat bigfile.txt | tee preview.txt | grep "важные данные" > result.txt
Здесь tee записывает содержимое файла в preview.txt, а затем передаёт его на обработку через grep.
5. Обработка stderr. По умолчанию tee работает только с stdout, но есть способ записывать и stderr:
{ ls non_existing_file 2>&1 1>&3 | tee errors.log; } 3>&1
Этот трюк записывает ошибки в файл errors.log и одновременно выводит их на экран.
Полезные сценарии использования
1. Живой логинг: Сохраняйте данные и анализируйте их в реальном времени:
tail -f /var/log/syslog | tee live_log.txt
2. Одновременная передача данных в файл и на удалённый сервер:
some_command | tee local_log.txt | ssh user@server "cat > remote_log.txt"
3. Дублирование вывода сложных операций:
{ make build | tee build.log; } 2>&1 | grep "Error"
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥3👨💻2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁22🔥5
Интеллектуальные скрипты для анализа метрик и автоматической оптимизации системы
Сегодня рассмотрим, как создать скрипты, которые анализируют метрики, принимают оптимизационные решения и используют элементы машинного обучения для управления резервными копиями.
Сценарий автоматической оптимизации
1. Сбор метрик. Используем
Пример простого сбора метрик:
2. Анализ метрик и автоматизация. Создадим скрипт, который проверяет загрузку системы и принимает меры:
При высокой загрузке CPU - отправка уведомления.
Если диск заполнен более чем на 80%, удаляются старые временные файлы.
3. Управление резервными копиями с использованием ML. Обучение модели для предсказания времени пиков загрузки
Для создания ML-модели используем Python. Можно использовать библиотеку
Интеграция с Bash-скриптом
Скрипт может запускать модель и адаптировать расписание резервного копирования:
BashTex📱 #bash
Сегодня рассмотрим, как создать скрипты, которые анализируют метрики, принимают оптимизационные решения и используют элементы машинного обучения для управления резервными копиями.
Сценарий автоматической оптимизации
1. Сбор метрик. Используем
vmstat и iostat для системных метрик.Пример простого сбора метрик:
#!/bin/bash
cpu_load=$(vmstat 1 2 | tail -1 | awk '{print $13+$14}')
disk_usage=$(df / | tail -1 | awk '{print $5}' | sed 's/%//')
echo "CPU Load: $cpu_load%"
echo "Disk Usage: $disk_usage%"
2. Анализ метрик и автоматизация. Создадим скрипт, который проверяет загрузку системы и принимает меры:
При высокой загрузке CPU - отправка уведомления.
Если диск заполнен более чем на 80%, удаляются старые временные файлы.
#!/bin/bash
threshold_cpu=75
threshold_disk=80
cpu_load=$(vmstat 1 2 | tail -1 | awk '{print $13+$14}')
disk_usage=$(df / | tail -1 | awk '{print $5}' | sed 's/%//')
# Проверка загрузки CPU
if (( cpu_load > threshold_cpu )); then
echo "High CPU load detected: ${cpu_load}%. Sending alert..."
# Команда отправки уведомления (например, через Telegram API)
fi
# Проверка заполненности диска
if (( disk_usage > threshold_disk )); then
echo "Disk usage critical: ${disk_usage}%. Cleaning up old files..."
find /tmp -type f -mtime +7 -delete
fi
3. Управление резервными копиями с использованием ML. Обучение модели для предсказания времени пиков загрузки
Для создания ML-модели используем Python. Можно использовать библиотеку
scikit-learn для анализа временных рядов загрузки системы.
import pandas as pd
from sklearn.linear_model import LinearRegression
# Данные метрик (должны быть собраны заранее и сохранены)
data = pd.read_csv("system_metrics.csv")
X = data[['hour', 'day_of_week', 'cpu_load', 'disk_usage']]
y = data['backup_time']
# Обучение модели
model = LinearRegression()
model.fit(X, y)
# Прогноз времени для следующей резервной копии
new_metrics = [[14, 3, 45, 60]] # Пример: текущий час, день недели, загрузка CPU и диска
predicted_backup_time = model.predict(new_metrics)
print(f"Рекомендуемое время для следующей резервной копии: {predicted_backup_time[0]} час")
Интеграция с Bash-скриптом
Скрипт может запускать модель и адаптировать расписание резервного копирования:
#!/bin/bash
# Предсказание времени для резервной копии
backup_time=$(python3 predict_backup_time.py)
echo "Recommended backup time: $backup_time"
# Настройка cron на выполнение резервной копии
cron_job="0 $backup_time * * * /path/to/backup_noscript.sh"
(crontab -l ; echo "$cron_job") | crontab -
echo "Backup job scheduled at $backup_time:00"
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🗿2
find + exec: создание цепочек команд в одном вызове
find - это утилита для поиска файлов и директорий, а с опцией -exec она превращается в инструмент для выполнения сложных операций над найденными объектами. Вместо множества вызовов команд можно всё сделать в одной строке. Разберём интересные примеры.
Базовый пример. Удалим все файлы .tmp в директории и её подкаталогах:
{} - это подстановка имени файла.
\; - завершает команду -exec.
1. Замена текста в файлах. Найдём файлы .txt и заменим в них все вхождения слова "TODO" на "DONE":
Теперь все файлы обновлены автоматически!
2. Сжатие найденных файлов. Архивируем все .log файлы старше 7 дней:
3. Сложные операции с несколькими командами. Передача результата одной команды в другую возможна через sh -c:
Здесь мы меняем расширение всех файлов .conf на .bak.
4. Параллельное выполнение с +. Если обработка большого числа файлов занимает много времени, используйте + вместо \; для выполнения команд за один вызов:
Это значительно ускоряет выполнение, передавая несколько файлов в один вызов rm.
5. Просмотр перед выполнением. Всегда проверяйте результат поиска перед выполнением команд:
Это один из способов убедиться, что вы не удалите ничего лишнего.
Комбинация с другими инструментами
1. Аудит прав доступа. Проверим файлы с неправильными правами доступа и исправим их:
Теперь все файлы имеют права 644.
2. Поиск и отправка больших файлов. Найдём файлы больше 100 МБ и передадим список на удалённый сервер:
3. Запрос на подтверждение действий. Используйте -ok вместо -exec для подтверждения действий:
В данном случае каждое действие потребует подтверждения.
BashTex📱 #linux #utils
find - это утилита для поиска файлов и директорий, а с опцией -exec она превращается в инструмент для выполнения сложных операций над найденными объектами. Вместо множества вызовов команд можно всё сделать в одной строке. Разберём интересные примеры.
Базовый пример. Удалим все файлы .tmp в директории и её подкаталогах:
find /path/to/dir -name "*.tmp" -exec rm {} \;
{} - это подстановка имени файла.
\; - завершает команду -exec.
1. Замена текста в файлах. Найдём файлы .txt и заменим в них все вхождения слова "TODO" на "DONE":
find /path/to/dir -name "*.txt" -exec sed -i 's/TODO/DONE/g' {} \;
Теперь все файлы обновлены автоматически!
2. Сжатие найденных файлов. Архивируем все .log файлы старше 7 дней:
find /var/log -name "*.log" -mtime +7 -exec gzip {} \;
3. Сложные операции с несколькими командами. Передача результата одной команды в другую возможна через sh -c:
find /path/to/dir -name "*.conf" -exec sh -c 'mv "$1" "${1%.conf}.bak"' _ {} \;
Здесь мы меняем расширение всех файлов .conf на .bak.
4. Параллельное выполнение с +. Если обработка большого числа файлов занимает много времени, используйте + вместо \; для выполнения команд за один вызов:
find /path/to/dir -name "*.log" -exec rm {} +
Это значительно ускоряет выполнение, передавая несколько файлов в один вызов rm.
5. Просмотр перед выполнением. Всегда проверяйте результат поиска перед выполнением команд:
find /path/to/dir -name "*.log" -exec echo "Удаляю: {}" \;
Это один из способов убедиться, что вы не удалите ничего лишнего.
Комбинация с другими инструментами
1. Аудит прав доступа. Проверим файлы с неправильными правами доступа и исправим их:
find /path/to/dir -type f ! -perm 644 -exec chmod 644 {} \;
Теперь все файлы имеют права 644.
2. Поиск и отправка больших файлов. Найдём файлы больше 100 МБ и передадим список на удалённый сервер:
find /path/to/dir -size +100M -exec scp {} user@remote:/backup/ \;
3. Запрос на подтверждение действий. Используйте -ok вместо -exec для подтверждения действий:
find /path/to/dir -name "*.tmp" -ok rm {} \;
В данном случае каждое действие потребует подтверждения.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥2
Управление очередями фоновых задач в Bash с помощью функций и переменных
При работе с большими скриптами в Linux нередко требуется запускать задачи в фоновом режиме. Но чтобы всё работало корректно, нужно уметь управлять очередями задач. Сейчас разберемся, как организовать очередь фоновых задач с использованием функций и переменных, чтобы избежать перегрузки системы.
🛠 Что нужно знать о фоновых задачах?
В Bash можно запускать процессы в фоне, добавляя & в конце команды. Но если одновременно запущено слишком много процессов, система может потерять стабильность. Управление очередью фоновых задач позволяет:
Реализация очереди задач
1. Пример базового скрипта с ограничением задач. Этот скрипт запускает фоновые задачи, ограничивая их количество:
Вывод:
При выполнении скрипта можно увидеть, что одновременно запускается не более четырёх задач:
2. Улучшение с приоритетами и динамическим управлением
Добавление приоритетов. Мы можем использовать массивы для хранения задач с разным приоритетом.
Задачи с приоритетом выполняются в первую очередь, вывод:
3. Дополнительные трюки: управление через переменные
Динамическое добавление задач в очередь. Очередь можно заполнять динамически, используя массив:
✅ Преимущества такого подхода:
BashTex📱 #bash #utils
При работе с большими скриптами в Linux нередко требуется запускать задачи в фоновом режиме. Но чтобы всё работало корректно, нужно уметь управлять очередями задач. Сейчас разберемся, как организовать очередь фоновых задач с использованием функций и переменных, чтобы избежать перегрузки системы.
В Bash можно запускать процессы в фоне, добавляя & в конце команды. Но если одновременно запущено слишком много процессов, система может потерять стабильность. Управление очередью фоновых задач позволяет:
Ограничить количество одновременно выполняемых задач.
Следить за состоянием задач.
Организовать приоритет выполнения.
Реализация очереди задач
1. Пример базового скрипта с ограничением задач. Этот скрипт запускает фоновые задачи, ограничивая их количество:
#!/bin/bash
# Максимальное количество фоновых задач
MAX_JOBS=4
# Функция для ожидания завершения задач
wait_for_jobs() {
while (( $(jobs -r | wc -l) >= MAX_JOBS )); do
sleep 1
done
}
# Функция, которая будет выполняться в фоне
task() {
local id=$1
echo "Task $id started"
sleep $((RANDOM % 5 + 1)) # Имитация выполнения
echo "Task $id completed"
}
# Основной цикл
for i in {1..10}; do
wait_for_jobs # Ожидание освобождения очереди
task "$i" & # Запуск задачи в фоне
done
# Ожидание завершения всех задач
wait
echo "All tasks completed!"
Вывод:
Task 1 started
Task 2 started
Task 3 started
Task 4 started
Task 1 completed
Task 5 started
Task 2 completed
Task 6 started
...
All tasks completed!
При выполнении скрипта можно увидеть, что одновременно запускается не более четырёх задач:
2. Улучшение с приоритетами и динамическим управлением
Добавление приоритетов. Мы можем использовать массивы для хранения задач с разным приоритетом.
#!/bin/bash
MAX_JOBS=3
PRIORITY_TASKS=("High1" "High2")
NORMAL_TASKS=("Normal1" "Normal2" "Normal3")
wait_for_jobs() {
while (( $(jobs -r | wc -l) >= MAX_JOBS )); do
sleep 1
done
}
task() {
local name=$1
echo "Task $name started"
sleep $((RANDOM % 5 + 2))
echo "Task $name completed"
}
# Выполнение задач с приоритетом
for task_name in "${PRIORITY_TASKS[@]}" "${NORMAL_TASKS[@]}"; do
wait_for_jobs
task "$task_name" &
done
wait
echo "All prioritized tasks completed!"
Задачи с приоритетом выполняются в первую очередь, вывод:
Task High1 started
Task High2 started
Task Normal1 started
Task High1 completed
Task Normal2 started
...
All prioritized tasks completed!
3. Дополнительные трюки: управление через переменные
Динамическое добавление задач в очередь. Очередь можно заполнять динамически, используя массив:
#!/bin/bash
MAX_JOBS=4
TASK_QUEUE=()
# Функция добавления задач в очередь
add_task() {
TASK_QUEUE+=("$1")
}
# Функция выполнения задач из очереди
process_queue() {
for task_name in "${TASK_QUEUE[@]}"; do
wait_for_jobs
task "$task_name" &
done
}
# Добавляем задачи в очередь
add_task "Task1"
add_task "Task2"
add_task "Task3"
add_task "Task4"
add_task "Task5"
# Обрабатываем очередь
process_queue
wait
echo "Dynamic queue processing completed!"
Контроль над нагрузкой на систему.
Возможность задания приоритетов выполнения.
Легкость добавления задач в реальном времени.
Масштабируемость для больших скриптов.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥3
Динамическое распределение нагрузки между серверами на основе сетевого трафика
⚙️ Как это работает?
Балансировщики нагрузки анализируют входящий трафик, измеряют метрики серверов (задержки, использование ресурсов) и динамически перенаправляют запросы к менее загруженным узлам.
Основные механизмы:
Инструменты для реализации
1. HAProxy. HAProxy - высокопроизводительный балансировщик нагрузки. Он поддерживает динамическое распределение на основе метрик.
Настройка:
Фрагмент конфигурации
Здесь запросы направляются серверу с наименьшим числом соединений (leastconn).
2. NGINX. NGINX также можно использовать как балансировщик. Он поддерживает модули для анализа времени отклика.
Пример конфигурации:
Дополнительный модуль
3. Traefik. Современное решение для балансировки в облачных и контейнерных средах. Traefik автоматически подхватывает информацию о серверах из Docker или Kubernetes.
BashTex📱 #linux #utils
Балансировщики нагрузки анализируют входящий трафик, измеряют метрики серверов (задержки, использование ресурсов) и динамически перенаправляют запросы к менее загруженным узлам.
Основные механизмы:
Текущий сетевой трафик: оценивается объём данных, проходящих через сервер.
Задержка отклика: запросы направляются к серверу с минимальной задержкой.
Уровень нагрузки CPU/RAM: запросы равномерно распределяются между серверами, исходя из их состояния.
Инструменты для реализации
1. HAProxy. HAProxy - высокопроизводительный балансировщик нагрузки. Он поддерживает динамическое распределение на основе метрик.
Настройка:
sudo apt update && sudo apt install haproxy
Фрагмент конфигурации
/etc/haproxy/haproxy.cfg:
frontend http_front
bind *:80
default_backend servers
backend servers
balance leastconn
server srv1 192.168.1.101:80 check
server srv2 192.168.1.102:80 check
Здесь запросы направляются серверу с наименьшим числом соединений (leastconn).
2. NGINX. NGINX также можно использовать как балансировщик. Он поддерживает модули для анализа времени отклика.
Пример конфигурации:
upstream backend {
server 192.168.1.101 max_fails=3 fail_timeout=30s;
server 192.168.1.102 max_fails=3 fail_timeout=30s;
}
server {
listen 80;
location / {
proxy_pass http://backend;
}
}
Дополнительный модуль
ngx_http_healthcheck_module позволяет учитывать время отклика серверов.3. Traefik. Современное решение для балансировки в облачных и контейнерных средах. Traefik автоматически подхватывает информацию о серверах из Docker или Kubernetes.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥2
Прерывание работы скрипта с сохранением прогресса
При выполнении долгих скриптов (например, обработки данных или резервного копирования) важно предусмотреть механизм безопасного прерывания с возможностью продолжения с того места, где процесс остановился. Сегодня про то, как можно организовать такую систему в Bash с использованием файлов-снапшотов.
Файл-снапшот хранит состояние выполнения скрипта. При запуске скрипт проверяет наличие этого файла, чтобы понять, нужно ли продолжить работу или начать заново.
💡 Реализация
Предположим, у нас есть список файлов для обработки. Скрипт будет:
Примеры вывода
Первый запуск:
Если прервать выполнение, то прогресс сохранится в progress.snapshot.
Повторный запуск:
🔎 Обработка ошибок
Чтобы обеспечить надежность:
🔗 Расширенная версия: поддержка нескольких процессов
Для обработки в несколько потоков можно использовать отдельные снапшоты для каждой задачи. Например:
Файлы-снапшоты - простой, но важный инструмент для повышения надежности скриптов. Они позволяют безопасно прерывать и продолжать выполнение, экономя ваше время.
BashTex📱 #bash #utils
При выполнении долгих скриптов (например, обработки данных или резервного копирования) важно предусмотреть механизм безопасного прерывания с возможностью продолжения с того места, где процесс остановился. Сегодня про то, как можно организовать такую систему в Bash с использованием файлов-снапшотов.
Файл-снапшот хранит состояние выполнения скрипта. При запуске скрипт проверяет наличие этого файла, чтобы понять, нужно ли продолжить работу или начать заново.
Предположим, у нас есть список файлов для обработки. Скрипт будет:
Чтить файл-снапшот, чтобы определить, с какого места продолжить.
Обрабатывать файлы по одному.
Обновлять прогресс в snap-файле.
#!/bin/bash
# Имя файла-снапшота
SNAPSHOT_FILE="progress.snapshot"
# Список задач (например, файлы для обработки)
FILES=("file1.txt" "file2.txt" "file3.txt" "file4.txt" "file5.txt")
# Чтение текущего прогресса из снапшота
CURRENT_INDEX=0
if [[ -f $SNAPSHOT_FILE ]]; then
CURRENT_INDEX=$(<"$SNAPSHOT_FILE")
echo "Прогресс найден: начнем с файла ${FILES[$CURRENT_INDEX]}"
else
echo "Снапшот не найден: начнем сначала"
fi
# Обработка файлов
for ((i=CURRENT_INDEX; i<${#FILES[@]}; i++)); do
echo "Обрабатываю ${FILES[$i]}..."
# Имитация долгой обработки
sleep 2
echo "Файл ${FILES[$i]} обработан!"
# Обновление прогресса в файле-снапшоте
echo $((i + 1)) > "$SNAPSHOT_FILE"
done
# Удаление снапшота после завершения работы
rm -f "$SNAPSHOT_FILE"
echo "Все файлы обработаны, прогресс очищен!"
Примеры вывода
Первый запуск:
Снапшот не найден: начнем сначала
Обрабатываю file1.txt...
Файл file1.txt обработан!
Обрабатываю file2.txt...
Файл file2.txt обработан!
...
Если прервать выполнение, то прогресс сохранится в progress.snapshot.
Повторный запуск:
Прогресс найден: начнем с файла file3.txt
Обрабатываю file3.txt...
Файл file3.txt обработан!
...
Чтобы обеспечить надежность:
Проверяйте, существует ли файл перед обработкой.
Используйте команды trap для удаления временных файлов при непредвиденных ошибках.
Логируйте результаты обработки.
trap 'rm -f $SNAPSHOT_FILE; echo "Ошибка! Прогресс сохранен.";' SIGINT SIGTERM
Для обработки в несколько потоков можно использовать отдельные снапшоты для каждой задачи. Например:
for file in "${FILES[@]}"; do
{
if [[ ! -f "${file}.done" ]]; then
echo "Обрабатываю $file..."
sleep 2 # Имитация обработки
echo "Файл $file обработан!"
touch "${file}.done"
fi
} &
done
wait
Файлы-снапшоты - простой, но важный инструмент для повышения надежности скриптов. Они позволяют безопасно прерывать и продолжать выполнение, экономя ваше время.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁26
LS как инструмент для сортировки и поиска
Обычно ls используют просто для вывода списка файлов, но на самом деле эта команда умеет больше - она может сортировать, фильтровать и даже помогать в поиске нужных данных. Разберем варианты использования.
1. Сортировка файлов по размеру. Хотите быстро найти самый тяжелый файл в каталоге? Используйте:
Если хотите отсортировать в обратном порядке (от меньшего к большему), добавьте -r:
2. Сортировка по времени изменения. Чтобы узнать, какие файлы менялись последними, используйте:
-t - сортировка по времени изменения
Если хотите узнать, какие файлы были доступны (прочитаны) последними:
А для сортировки по времени создания (если поддерживается файловой системой):
3. Поиск файлов с определенными характеристиками
По расширению. Найти все .log файлы:
По размеру (совместно с grep). Например, найти все файлы больше 100MB:
Фильтрация директорий. Только каталоги (без файлов):
4. Использование цветных фильтров. Хочется визуально выделять файлы по типу? Используйте:
Для более детальной настройки цветов можно изменить переменную LS_COLORS:
5. Совместное использование с другими командами. Команда ls хорошо сочетается с head, tail и sort:
Найти самый старый файл
Отобразить файлы, отсортированные по имени без учета регистра
BashTex📱 #linux #utils
Обычно ls используют просто для вывода списка файлов, но на самом деле эта команда умеет больше - она может сортировать, фильтровать и даже помогать в поиске нужных данных. Разберем варианты использования.
1. Сортировка файлов по размеру. Хотите быстро найти самый тяжелый файл в каталоге? Используйте:
ls -lhS
-l - детальный вывод (размер, права, дата)
-h - удобный человекочитаемый формат (KB, MB, GB)
-S - сортировка по размеру (от большего к меньшему)
Если хотите отсортировать в обратном порядке (от меньшего к большему), добавьте -r:
ls -lhSr
2. Сортировка по времени изменения. Чтобы узнать, какие файлы менялись последними, используйте:
ls -lt
-t - сортировка по времени изменения
Если хотите узнать, какие файлы были доступны (прочитаны) последними:
ls -lu
А для сортировки по времени создания (если поддерживается файловой системой):
ls -lU
3. Поиск файлов с определенными характеристиками
По расширению. Найти все .log файлы:
ls *.log
По размеру (совместно с grep). Например, найти все файлы больше 100MB:
ls -lhS | grep '[0-9][0-9][0-9]M'
Фильтрация директорий. Только каталоги (без файлов):
ls -d */
4. Использование цветных фильтров. Хочется визуально выделять файлы по типу? Используйте:
ls --color=auto
Для более детальной настройки цветов можно изменить переменную LS_COLORS:
export LS_COLORS="di=34;1:fi=0:ln=36;1:ex=32;1"
di=34;1 - каталоги (синий)
ln=36;1 - символические ссылки (голубой)
ex=32;1 - исполняемые файлы (зеленый)
5. Совместное использование с другими командами. Команда ls хорошо сочетается с head, tail и sort:
Найти самый старый файл
ls -lt | tail -n 1
Отобразить файлы, отсортированные по имени без учета регистра
ls -l | sort -f
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19
Автономное восстановление сетевого соединения при сбоях
Что делать, если сервер внезапно теряет соединение? Вручную перезапускать сетевой интерфейс? Можно автоматизировать этот процесс.
1. Простая проверка доступности сети. Начнем с базового скрипта, который проверяет соединение и перезапускает сеть, если пинг не проходит.
🔗 Как работает:
Пингует 8.8.8.8 (можно заменить на свой сервер).
Если нет ответа, записывает событие в лог и перезапускает сетевой интерфейс.
Если сеть работает, просто пишет статус в лог.
Автозапуск каждые 5 минут: Добавьте в crontab:
2. Авто-переключение на резервный интерфейс. Если ваш сервер поддерживает несколько сетевых интерфейсов (например, eth0 и eth1), можно автоматически переключаться на резервный:
🔗 Как работает:
Если основной интерфейс не отвечает, переключается на резервный.
Изменяет маршрут по умолчанию на резервное подключение.
3. Авто-переключение на резервный VPN. Если ваш сервер использует VPN, можно автоматически переключаться между провайдерами:
🔗 Как работает:
Проверяет доступность VPN (например, 10.8.0.1).
Если основной VPN не отвечает, переключается на резервный сервер.
BashTex📱 #bash
Что делать, если сервер внезапно теряет соединение? Вручную перезапускать сетевой интерфейс? Можно автоматизировать этот процесс.
1. Простая проверка доступности сети. Начнем с базового скрипта, который проверяет соединение и перезапускает сеть, если пинг не проходит.
#!/bin/bash
TARGET="8.8.8.8" # IP-адрес для проверки (Google DNS)
INTERFACE="eth0" # Ваш сетевой интерфейс
if ! ping -c 4 $TARGET &> /dev/null; then
echo "$(date) - Потеряно соединение! Перезапускаю сеть..." >> /var/log/network_recovery.log
systemctl restart networking
systemctl restart NetworkManager # Для дистрибутивов с NetworkManager
ip link set $INTERFACE down && sleep 2 && ip link set $INTERFACE up
else
echo "$(date) - Сеть работает нормально" >> /var/log/network_recovery.log
fi
Пингует 8.8.8.8 (можно заменить на свой сервер).
Если нет ответа, записывает событие в лог и перезапускает сетевой интерфейс.
Если сеть работает, просто пишет статус в лог.
Автозапуск каждые 5 минут: Добавьте в crontab:
*/5 * * * * /path/to/network_check.sh
2. Авто-переключение на резервный интерфейс. Если ваш сервер поддерживает несколько сетевых интерфейсов (например, eth0 и eth1), можно автоматически переключаться на резервный:
#!/bin/bash
TARGET="8.8.8.8"
PRIMARY_IF="eth0"
SECONDARY_IF="eth1"
if ! ping -c 4 $TARGET &> /dev/null; then
echo "$(date) - Основной интерфейс $PRIMARY_IF не отвечает, переключаюсь на $SECONDARY_IF" >> /var/log/network_recovery.log
ip route del default
ip route add default via 192.168.1.2 dev $SECONDARY_IF
else
echo "$(date) - Основной интерфейс $PRIMARY_IF работает" >> /var/log/network_recovery.log
fi
Если основной интерфейс не отвечает, переключается на резервный.
Изменяет маршрут по умолчанию на резервное подключение.
3. Авто-переключение на резервный VPN. Если ваш сервер использует VPN, можно автоматически переключаться между провайдерами:
#!/bin/bash
VPN_PRIMARY="vpn1"
VPN_SECONDARY="vpn2"
if ! ping -c 4 10.8.0.1 &> /dev/null; then
echo "$(date) - Основной VPN не отвечает, переключаюсь на резервный $VPN_SECONDARY" >> /var/log/network_recovery.log
systemctl restart openvpn@$VPN_SECONDARY
else
echo "$(date) - VPN работает стабильно" >> /var/log/network_recovery.log
fi
Проверяет доступность VPN (например, 10.8.0.1).
Если основной VPN не отвечает, переключается на резервный сервер.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥2🎅1
Динамическая замена строк в переменных без внешних утилит
В Bash многие привыкли использовать
1. Простая замена в строке. Стандартная конструкция:
Вывод:
Здесь world заменяется на Bash.
2. Замена всех вхождений. Если слово встречается несколько раз, можно заменить все его появления:
Вывод:
Обратите внимание на // — оно заменяет все вхождения.
3. Удаление подстроки. Чтобы удалить слово из строки, просто оставьте замену пустой:
Вывод:
4. Замена только в начале или конце строки.
Замена в начале строки:
Вывод:
Замена в конце строки:
Вывод:
5. Динамическая замена значений в переменных. Допустим, у нас есть путь, и мы хотим заменить часть его на другую:
Вывод:
6. Усложненный пример: замена динамических данных. Предположим, у нас есть строка с датой, и мы хотим заменить год на текущий:
Вывод (если 2025 год):
BashTex📱 #linux #utils
В Bash многие привыкли использовать
sed, awk или tr для замены текста, но можно обойтись без них, используя встроенные механизмы обработки строк1. Простая замена в строке. Стандартная конструкция:
text="Hello, world!"
echo "${text/world/Bash}"
Вывод:
Hello, Bash!Здесь world заменяется на Bash.
2. Замена всех вхождений. Если слово встречается несколько раз, можно заменить все его появления:
text="apple banana apple orange"
echo "${text//apple/grape}"
Вывод:
grape banana grape orangeОбратите внимание на // — оно заменяет все вхождения.
3. Удаление подстроки. Чтобы удалить слово из строки, просто оставьте замену пустой:
text="error: file not found"
echo "${text/error: /}"
Вывод:
file not found4. Замена только в начале или конце строки.
Замена в начале строки:
text="error_log_123"
echo "${text/#error_/warn_}"
Вывод:
warn_log_123Замена в конце строки:
text="backup_20240101.tar"
echo "${text/%tar/gz}"
Вывод:
backup_20240101.gz5. Динамическая замена значений в переменных. Допустим, у нас есть путь, и мы хотим заменить часть его на другую:
path="/home/user/project/file.txt"
new_path="${path/user/admin}"
echo "$new_path"
Вывод:
/home/admin/project/file.txt6. Усложненный пример: замена динамических данных. Предположим, у нас есть строка с датой, и мы хотим заменить год на текущий:
text="Backup from 2023-05-01"
current_year=$(date +%Y)
echo "${text/2023/$current_year}"
Вывод (если 2025 год):
Backup from 2025-05-01BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥2
Быстрая настройка GitLab CI/CD для проектов
Автоматизация сборки, тестирования и развертывания - важный шаг в DevOps. GitLab CI/CD позволяет быстро организовать процесс CI/CD с минимальными затратами.
1. Подготовка GitLab Runner. Перед запуском CI/CD необходимо настроить GitLab Runner — агент, выполняющий задачи в пайплайне.
Установка и регистрация GitLab Runner:
Токен можно найти в разделе Settings → CI/CD → Runners в GitLab.
2. Создание
🔗 Что тут происходит?
build - сборка проекта
test - запуск тестов
deploy - деплой на сервер (например, с помощью
3. Запуск и отладка. После коммита .gitlab-ci.yml в репозиторий GitLab автоматически запустит пайплайн.
Просмотр логов сборки: Перейдите в "CI/CD → Pipelines", выберите нужный пайплайн и смотрите логи выполнения.
Отладка вручную: Можно запустить локальный Runner для проверки:
BashTex📱 #utils
Автоматизация сборки, тестирования и развертывания - важный шаг в DevOps. GitLab CI/CD позволяет быстро организовать процесс CI/CD с минимальными затратами.
1. Подготовка GitLab Runner. Перед запуском CI/CD необходимо настроить GitLab Runner — агент, выполняющий задачи в пайплайне.
Установка и регистрация GitLab Runner:
# Устанавливаем GitLab Runner
curl -L https://packages.gitlab.com/install/repositories/runner/gitlab-runner/noscript.deb.sh | sudo bash
sudo apt install gitlab-runner -y
# Регистрируем Runner в GitLab
sudo gitlab-runner register \
--url "https://gitlab.com/" \
--registration-token "ВАШ_ТОКЕН" \
--executor "docker" \
--docker-image "alpine:latest"
Токен можно найти в разделе Settings → CI/CD → Runners в GitLab.
2. Создание
.gitlab-ci.yml. Файл .gitlab-ci.yml описывает все стадии CI/CD. Простейший вариант:
stages:
- build
- test
- deploy
build:
stage: build
noscript:
- echo "Сборка проекта..."
- make build # Команда сборки
test:
stage: test
noscript:
- echo "Запуск тестов..."
- make test # Запуск тестов
deploy:
stage: deploy
noscript:
- echo "Деплой на сервер..."
- rsync -avz ./project user@server:/var/www/project
only:
- main # Деплой только из ветки main
build - сборка проекта
test - запуск тестов
deploy - деплой на сервер (например, с помощью
rsync)3. Запуск и отладка. После коммита .gitlab-ci.yml в репозиторий GitLab автоматически запустит пайплайн.
Просмотр логов сборки: Перейдите в "CI/CD → Pipelines", выберите нужный пайплайн и смотрите логи выполнения.
Отладка вручную: Можно запустить локальный Runner для проверки:
gitlab-runner exec shell test
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
Циклы с подсчётом времени выполнения: оптимизация итераций
При написании Bash-скриптов важно не только выполнять задачи, но и делать это максимально эффективно. Разберемся, как можно замерять время выполнения циклов и оптимизировать их.
1. Измерение времени выполнения. Для базового замера используем команду time.
Пример простого for-цикла:
real - общее время выполнения
user - время, потраченное процессором на выполнение кода
sys - время, потраченное на системные вызовы
2. Оптимизация цикла. Допустим, у нас есть for-цикл, выполняющий сложные вычисления:
Но можно ускорить этот процесс!
Оптимизация с seq и awk:
Результат: Использование awk снижает нагрузку на bash, так как он быстрее работает с числами.
3. Запуск в параллельном режиме. Для ещё большего ускорения используем xargs -P:
-P 4 запускает 4 параллельных процесса, ускоряя обработку данных.
BashTex📱 #bash #utils
При написании Bash-скриптов важно не только выполнять задачи, но и делать это максимально эффективно. Разберемся, как можно замерять время выполнения циклов и оптимизировать их.
1. Измерение времени выполнения. Для базового замера используем команду time.
Пример простого for-цикла:
time for i in {1..10000}; do echo -n; done
real 0m0.245s
user 0m0.190s
sys 0m0.055s
real - общее время выполнения
user - время, потраченное процессором на выполнение кода
sys - время, потраченное на системные вызовы
2. Оптимизация цикла. Допустим, у нас есть for-цикл, выполняющий сложные вычисления:
start=$(date +%s) # Засекаем время начала
for i in {1..1000}; do
echo $((i * i)) > /dev/null # Квадрат числа
done
end=$(date +%s) # Засекаем время окончания
echo "Время выполнения: $((end - start)) секунд"
Но можно ускорить этот процесс!
Оптимизация с seq и awk:
time seq 1 1000 | awk '{print $1 * $1}' > /dev/null
Результат: Использование awk снижает нагрузку на bash, так как он быстрее работает с числами.
3. Запуск в параллельном режиме. Для ещё большего ускорения используем xargs -P:
time seq 1 1000 | xargs -P 4 -I {} bash -c 'echo $(( {} * {} ))' > /dev/null
-P 4 запускает 4 параллельных процесса, ускоряя обработку данных.
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
Please open Telegram to view this post
VIEW IN TELEGRAM
😁13👍4
basename и dirname: неочевидные сценарии работы с путями
Команды basename и dirname - инструменты для работы с файловыми путями в Bash. Они часто используются в скриптах, но не все знают о неочевидных возможностях. Разбираемся!
1️⃣ Быстрая обработка путей
🔹 basename извлекает имя файла
🔹 dirname оставляет только путь к каталогу
2️⃣ Работа с расширениями. Можно удалить расширение файла с помощью basename:
📌 Это полезно, например, при генерации логов:
💡 Здесь $0 - имя запущенного скрипта.
3️⃣ Разбор путей без / в конце. Если путь оканчивается на /, dirname может вернуть неожиданный результат:
📌 Чтобы избежать проблем, лучше заранее удалять слеши:
4️⃣ Разделение относительных и абсолютных путей. Хотим понять, абсолютный ли путь передан в скрипт?
5️⃣ Комбинируем с find и xargs. Переименовываем все .txt файлы в .bak, сохраняя имена:
📌 Здесь basename убирает .txt, а dirname сохраняет путь.
BashTex📱 #linux #utils
Команды basename и dirname - инструменты для работы с файловыми путями в Bash. Они часто используются в скриптах, но не все знают о неочевидных возможностях. Разбираемся!
file_path="/var/log/nginx/access.log"
echo "Файл: $(basename "$file_path")" # access.log
echo "Каталог: $(dirname "$file_path")" # /var/log/nginx
basename "/home/user/noscript.sh" .sh # Выведет: noscript
log_file="$(basename "$0" .sh).log"
echo "Логи пишем в $log_file"
dirname "/etc/nginx/" # Выведет: /etc
dirname "/etc/nginx" # Выведет: /etc
path="/etc/nginx/"
dirname "${path%/}" # /etc/nginx
path="./noscript.sh"
if [[ "$(dirname "$path")" == "." ]]; then
echo "Это относительный путь"
else
echo "Это абсолютный путь"
fi
find /path/to/files -name "*.txt" | while read file; do
mv "$file" "$(dirname "$file")/$(basename "$file" .txt).bak"
done
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10
Обработка многомерных массивов и ассоциативных списков в Bash
Bash не поддерживает многомерные массивы на уровне языка, но это не мешает нам создавать их с помощью ассоциативных массивов или хитрых обходных путей. Сегодня про то, как это сделать.
1️⃣ Ассоциативные массивы как таблицы. С Bash 4+ появились ассоциативные массивы (declare -A), что позволяет организовать данные в виде таблицы:
📌 Мы используем ключи вида userX,property, чтобы эмулировать двумерную структуру.
2️⃣ Многомерные массивы через вложенные списки. Если нужно хранить массив внутри массива, можно использовать строки с разделителем:
📌 Здесь IFS=":" read -r ... разбивает строку на переменные.
3️⃣ Итерация по многомерной структуре. Перебираем всех пользователей и их данные:
📌 !users[@] возвращает список всех ключей.
4️⃣ JSON-подход с jq. Если сложность растет, лучше работать с JSON:
BashTex📱 #linux #utils
Bash не поддерживает многомерные массивы на уровне языка, но это не мешает нам создавать их с помощью ассоциативных массивов или хитрых обходных путей. Сегодня про то, как это сделать.
declare -A users
users["user1,name"]="Egor"
users["user1,age"]=25
users["user2,name"]="Ivan"
users["user2,age"]=30
echo "Имя user1: ${users["user1,name"]}" # Egor
echo "Возраст user2: ${users["user2,age"]}" # 30
declare -A servers
servers["db"]="192.168.1.10:5432:PostgreSQL"
servers["web"]="192.168.1.20:80:Nginx"
IFS=":" read -r ip port service <<< "${servers["db"]}"
echo "Сервер базы: IP=$ip, Порт=$port, Сервис=$service"
for key in "${!users[@]}"; do
echo "$key -> ${users[$key]}"
done
json='{"user1": {"name": "Egor", "age": 25}, "user2": {"name": "Ivan", "age": 30}}'
echo "$json" | jq '.user1.name' # Egor
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
Проверка архивов на целостность: избегаем битых бэкапов
Создавать бэкапы - хорошая практика. Но что, если архив оказался битым в самый нужный момент?😱 Разберемся, как проверять целостность архивов, чтобы не потерять важные данные.
1️⃣ Проверка tar-архива. Если архив создавался с помощью tar, его можно проверить без распаковки:
Если файл поврежден, команда выдаст ошибку:
🧑💻 Автоматическая проверка в скрипте:
2️⃣ Проверка архивов .zip. Для .zip можно использовать встроенную проверку:
Если файл битый, команда выдаст ошибки.
🧑💻 Автоматическая проверка в скрипте:
3️⃣ Проверка и автоматическое исправление rar. Если архив в формате .rar, его можно проверить так:
Если архив поврежден, rar может попытаться его восстановить:
4️⃣ Защита от битых архивов при создании
📁 Контрольные суммы. Считаем SHA256-хеш перед передачей или копированием:
А потом проверяем:
📦 Двойная упаковка с тестированием
📌 Здесь tee дублирует поток, а gzip -t сразу проверяет целостность.
BashTex📱 #linux #utils
Создавать бэкапы - хорошая практика. Но что, если архив оказался битым в самый нужный момент?
tar -tvf backup.tar.gz
Если файл поврежден, команда выдаст ошибку:
gzip: stdin: unexpected end of file
tar: Child returned status 1
tar: Error is not recoverable: exiting now
if tar -tzf backup.tar.gz &>/dev/null; then
echo "Архив исправен"
else
echo "Архив поврежден!"
fi
unzip -t backup.zip
Если файл битый, команда выдаст ошибки.
if unzip -t backup.zip | grep -q "No errors detected"; then
echo "Архив исправен"
else
echo "Архив поврежден!"
fi
rar t backup.rar
Если архив поврежден, rar может попытаться его восстановить:
rar r backup.rar
sha256sum backup.tar.gz > backup.sha256
А потом проверяем:
sha256sum -c backup.sha256
tar -cvf - logs/ | gzip | tee backup.tar.gz | gzip -t
BashTex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10