Linux Skill - Освой Linux c нуля до DevOps – Telegram
Linux Skill - Освой Linux c нуля до DevOps
11.3K subscribers
67 photos
103 videos
499 links
Освой Linux c нуля до DevOps
Подробный гайд по Linux и море других уроков для системных администраторов

📩 По всем вопросам: @chorapov

РКН https://vk.cc/cMUwm4
Download Telegram
Вопрос №10 из теста Linux Essentials Certification: После установки нового пакета, в каком каталоге вы, скорее всего, найдете его файл конфигурации?
Anonymous Quiz
8%
/usr
9%
/opt
16%
/conf
4%
/lib
64%
/etc
👍29
Media is too big
VIEW IN TELEGRAM
🎥 Сравнение производительности Nginx и Caddy Performance: кто победит?

В этом видео мы сравниваем два мощных веб-сервера — Nginx и Caddy. Узнай, какой из них лучше справляется с нагрузкой и обеспечивает стабильную работу.

Основная информация:

1. Введение и цели теста (00:00):
- Сравнение Nginx и Caddy Performance как веб-серверов и обратных прокси-серверов.
- Тестирование обслуживания статического веб-сайта по HTTPS и балансировки нагрузки.

2. Настройка и оборудование (00:55):
- Использование AWS и новейших инстансов EC2 для создания кластера EKS.
- Применение Route 53 для обнаружения сервисов и Next.js для создания веб-сайта.

3. Настройка веб-серверов (01:53):
- Создание больших инстансов EC2 с двумя процессорами и 8 ГБ памяти.
- Настройка сертификатов для аутентификации и безопасности.

4. Оптимизация Nginx (03:38):
- Использование оптимизированной конфигурации для повышения производительности.
- Настройка мультиподключения и увеличение лимита открытых файлов.

5. Настройка Caddy (04:37):
- Использование минимальной конфигурации и включение сжатия.
- Формат логов, аналогичный Nginx и Apache.

6. Результаты первого теста (06:27):
- Nginx показал меньшую задержку и обработал больше запросов, чем Caddy.
- Caddy начал отставать при 8000 запросах в секунду.

7. Тестирование Nginx и Caddy (08:19):
- Nginx достиг 80% загрузки процессора и не сбоил.
- Caddy ухудшился при 8000 запросах, достигнув максимума при 10000 запросов.

8. Сетевой трафик и производительность (09:55):
- Nginx передавал почти 600 МБ/с, обеспечивая более высокую производительность.

9. Второй тест с обратным прокси (11:16):
- Caddy превзошел Nginx по производительности, но ненадолго.
- Nginx обработал почти 27000 запросов за 2 часа.

Nginx обработал почти вдвое больше запросов, чем Caddy, обеспечив более высокую пропускную способность и меньшую задержку. Рекомендуется использовать Nginx для веб-серверов и обратных прокси-серверов.

Источник: https://www.youtube.com/watch?v=N5PAU-vYrN8

📩 Завтра: Вопрос №11 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Управление Процессами с Kill
🧠 - Временная Капсула с Last
🧠 - Как проверить файлы на целостность и не поймать вирус? Просто запусти md5sum!

#Linux_youtube @LinuxSkill #Linux #Nginx #Caddy #Performance #SysAdmin #DevOps
👍10👀2
Вопрос №11 из теста Linux Essentials Certification: Какой сетевой интерфейс всегда существует в системе Linux?
Anonymous Quiz
4%
wlan0
30%
eth0
63%
lo
3%
vlan0
0%
sit0
👍22
Media is too big
VIEW IN TELEGRAM
🎥 Как сделать простую защиту от DoS-атак с Fail2Ban?

Хочешь защитить свой веб-сервер от DoS-атак? В этом видео мы покажем, как настроить Fail2Ban для эффективной защиты.

1. Установка Fail2Ban (00:00):
- Установка Fail2Ban для защиты веб-сервера.
- Запуск и проверка статуса сервиса.

2. Конфигурация Fail2Ban (00:37):
- Конфигурационный файл находится в /etc/fail2ban/jail.conf.
- Настройка времени блокировки через директиву ban-time.

3. Настройка ограничения скорости запросов (02:15):
- Добавление директивы для ограничения скорости обработки HTTP-запросов.
- Настройка зоны разделяемой памяти для IP-адресов.
- Перезагрузка Fail2Ban.

4. Тестирование и логирование (04:07):
- Запуск теста на IP-адрес для проверки логирования.
- Логирование ошибок и запросов.

5. Добавление правил для фильтра (05:15):
- Настройка правил для блокировки IP-адресов на 300 секунд при превышении лимита запросов.

6. Защита от DOS-атак (06:52):
- Настройка модуля для ограничения числа запросов.
- Проверка и раскомментирование регулярного выражения.

7. Проверка работы Fail2Ban (08:37):
- Тестирование блокировки IP-адреса при превышении лимита запросов.
- Проверка работы через VPN.

Fail2Ban — это простой и эффективный способ защиты от DoS-атак. Настройте его на своем сервере и убедитесь в его надежности!

Источник: https://www.youtube.com/watch?v=rBKvXaDsFvM

📩 Завтра: Что означает $@ в shell скрипте?
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Текстовый редактор Nano — как работать с файлами на минималках и не страдать!
🧠 - Почувствуй себя цифровым рентгенологом — откроем файлы насквозь с Od!
🧠 - Давно занимался спортом? Нет? Ну вот, пора хотя бы пароли сменить!

#Linux_youtube @LinuxSkill #Linux #Fail2Ban #DoSProtection #SysAdmin #DevOps
👍16
🛠️ Что означает $@ в shell скрипте?

Если ты когда-либо задавался вопросом, что такое $@ в shell скрипте, то сегодня мы разберем эту загадку и покажем, как использовать его для передачи параметров.

$@ представляет собой все параметры, переданные скрипту. Например, если ты вызовешь скрипт так:

./someScript.sh foo bar


то $@ будет равно foo bar.

Когда внутри someScript.sh ты используешь:

umbrella_corp_options "$@"


каждый параметр будет передан в umbrella_corp_options в двойных кавычках. Это позволяет передавать параметры с пробелами, как единое целое.

Пример использования:

Если ты вызовешь:

./someScript.sh foo bar "boo far"


то $@ в двойных кавычках будет содержать три аргумента: "foo", "bar" и "boo far".

Использование $@ в shell скриптах позволяет легко и безопасно передавать параметры, включая те, которые содержат пробелы. Попробуй сам и убедись, насколько это удобно!

🌳 Ветка: https://stackoverflow.com/questions/9994295/what-does-mean-in-a-shell-noscript

📩 Завтра: Защити свой сервер: Настройка безопасности SSH на Linux
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Текстовый редактор Nano — как работать с файлами на минималках и не страдать!
🧠 - Почувствуй себя цифровым рентгенологом — откроем файлы насквозь с Od!
🧠 - Давно занимался спортом? Нет? Ну вот, пора хотя бы пароли сменить!

#stackoverflow @LinuxSkill #Linux #ShellScripting #SysAdmin #DevOps
👍18🔥2
🔒 Защити свой сервер: Настройка безопасности SSH на Linux

Привет, линукс-мастер! 🖥️ Сегодня я расскажу тебе, как настроить безопасность SSH соединения на твоем сервере. Это важный шаг для защиты от несанкционированного доступа. Давай разберемся, как это сделать!

Подготовка:

1. Настройка SSH авторизации по сертификатам:
- Убедись, что ты уже авторизуешься на серверах через сертификаты SSH.

2. Бэкап конфигурации:
   sudo cp /etc/ssh/sshd_config /etc/ssh/sshd_config.bkp


Основные настройки:

1. Жестко прописываем IP адрес SSH сервера:
   ListenAddress 192.168.1.100 # ip ag-dc-1
ListenAddress 192.168.1.101 # ip ag-dc-2


2. Изменяем порт SSH сервера:
   Port 54322


3. Включаем только протокол второй версии:
   Protocol 2


4. Ограничиваем время и количество попыток авторизации:
   LoginGraceTime 10s
MaxAuthTries 2


5. Включаем разделение прав пользователей:
   UsePrivilegeSeparation yes


6. Ограничиваем список доступа по SSH:
   AllowUsers adminguideru root@192.168.1.100 root@192.168.1.101


7. Отключаем пустые пароли и доверенные хосты:
   PermitEmptyPasswords no
IgnoreRhosts yes
HostbasedAuthentication no


Проверка и завершение:

1. Перезапуск SSH сервера:
   sudo systemctl restart ssh sshd


2. Проверка подключения через Putty:
- Убедись, что можешь подключиться с админской машины с помощью сертификата.

3. Ограничение IP адресов:
   sudo nano /etc/hosts.allow

- Добавь IP адреса всех участников локальной сети.

4. Проверка авторизации по паролю:
   sudo nano /etc/ssh/sshd_config

- Убедись, что PasswordAuthentication установлено в no.

5. Перезагрузка хостов:
- Если что-то пошло не так, восстанови конфигурацию из бэкапа:
   sudo cp /etc/ssh/sshd_config.bkp /etc/ssh/sshd_config


Теперь твой сервер защищен, и ты можешь быть уверен в безопасности своих данных. Радуйся, ведь теперь напакостить по SSH сможешь только ты сам!

📩 Завтра:
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Секреты qemu-img, которые сэкономят твой диск
🧠 - Забудь про файлы, они исчезнут
🧠 - Наконец-то! Как стать суперпользователем без риска оказаться в тюрьме!

#Linux_Mastery @LinuxSkill
👍24🔥1
🛠️ Избавься от лишнего: Как установить только нужные пакеты в Linux

Привет, линукс-мастер! Сегодня я расскажу тебе, как избежать установки ненужных пакетов, когда ты ставишь софт через apt. Эти "паразиты" могут тянуть за собой кучу лишнего, но я покажу, как от них избавиться. Давай разберемся!

Проблема с Recommended packages:

Когда ты устанавливаешь программу, например, Midnight Commander (mc), вместе с ней могут устанавливаться дополнительные пакеты, которые не всегда нужны:

apt install mc


- Вместе с mc могут установиться mailcap и unzip, которые не обязательны для работы программы.

Как избежать установки "паразитов":

Чтобы установить только необходимые пакеты, используй флаг --no-install-recommends:

apt install mc --no-install-recommends


- Это установит только libssh2-1, mc, и mc-data, без лишних пакетов.

Как глобально отключить Recommended packages:

1. Создай файл /etc/apt/apt.conf.d/99norecommends:
   sudo nano /etc/apt/apt.conf.d/99norecommends


2. Вставь в него:
   APT::Install-Recommends "false";


Теперь apt не будет устанавливать рекомендованные пакеты по умолчанию.

Как установить рекомендованные пакеты для конкретного случая:

Если тебе все-таки нужны рекомендованные пакеты для конкретной программы, используй:

apt-get install mc --install-recommends


Теперь ты знаешь, как контролировать установку пакетов и избегать лишнего. Пользуйся на здоровье и делись своими успехами! 🥳

📩 Завтра: Вопрос №12 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Забудь про начало! Как Tac покажет тебе всё важное с последней строки
🧠 - Не знал про эту команду? Вот как uname спасет твой Linux!
🧠 - Ты точно в курсе всех файлов? Vdir покажет больше, чем ты ожидал!

#Linux_Mastery @LinuxSkill
👍30🔥6
Вопрос №12 из теста Linux Essentials Certification: Какая команда покажет сообщения времени загрузки системы?
Anonymous Quiz
5%
echo
3%
messages
7%
lspci
41%
dmesg
44%
display system boot
🔥11
Media is too big
VIEW IN TELEGRAM
🎥 Производительность Nginx против Traefik: кто победит?

В этом видео мы сравниваем два популярных обратных прокси-сервера — Nginx и Traefik. Узнай, какой из них лучше справляется с нагрузкой и обеспечивает стабильную работу.

1. Введение и цели тестирования (00:00):
- Сравнение Nginx и Traefik в качестве обратных прокси.
- Измерение задержки, доступности, загрузки процессора, памяти и сетевого трафика.

2. Инфраструктура и развертывание (00:53):
- Использование семи больших и четырех средних экземпляров для развертывания прокси и приложений.
- Создание кластера EKS для мониторинга и генерации нагрузки.

3. Функции обратного прокси-сервера (01:17):
- Балансировка нагрузки и динамическое масштабирование приложений.
- Возможность обновления приложений без простоев.

4. Преимущества и недостатки Nginx и Traefik (03:15):
- Nginx требует времени для настройки и оптимизации.
- Traefik имеет встроенные механизмы обнаружения сервисов и упрощает управление сертификатами.

5. Тестирование и настройка (05:44):
- Использование последних версий Nginx и Traefik.
- Включение журналов доступа и настройка прокси-серверов.

6. Результаты тестирования (08:04):
- Nginx поддерживает меньшую задержку и потребляет меньше ЦП.
- Traefik достигает 100% загрузки процессора быстрее, чем Nginx.

7. Заключение (10:14):
- Nginx обрабатывает больше запросов и потребляет больше ЦП.
- Задержка Nginx остается стабильной, в отличие от Traefik.

8. Использование памяти и частота ошибок (11:41):
- Traefik кэширует больше запросов, что объясняет задержку.
- Nginx отбрасывает несколько запросов для низкой задержки.

Оба сервера имеют свои преимущества и недостатки. Nginx обеспечивает стабильную задержку и лучше справляется с нагрузкой, в то время как Traefik предлагает удобство в управлении и настройке. Выбор зависит от ваших потребностей и предпочтений.

Источник: https://www.youtube.com/watch?v=42RNqGdpELE

📩 Завтра: Вопрос №14 из теста Linux Essentials Certification:
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Ты точно знаешь, кто ты? Whoami расскажет!
🧠 - Ускорь работу в Linux на 200% с помощью команды xargs
🧠 - Хочешь сэкономить время? Вот как Yes скажет "да" за тебя

#Linux_youtube @LinuxSkill #Linux #Nginx #Traefik #Performance #SysAdmin #DevOps
👍6
Вопрос №14 из теста Linux Essentials Certification: Какая команда отобразит последнюю строку файла foo.txt?
Anonymous Quiz
17%
last -n 1 foo.txt
3%
head -n foo.txt
12%
tail foo.txt
68%
tail -n 1 foo.txt
👍14🔥2
Media is too big
VIEW IN TELEGRAM
🎥 Как уменьшить размер образа Docker: от 1,2 ГБ до 10 МБ

В этом видео мы расскажем, как оптимизировать образы Docker, чтобы сократить их размер и повысить эффективность. Узнай, как это влияет на стоимость хранения, сроки развертывания и безопасность.

1. Введение и важность уменьшения размера (00:00):
- Уменьшение размера образа Docker с 1,2 ГБ до 10 МБ.
- Советы применимы к любым образам Docker.

2. Выбор базового изображения (00:15):
- Использование образа Alpine для сокращения размера.
- Alpine содержит только необходимые компоненты для запуска приложений.

3. Кэширование слоев (01:40):
- Кэширование слоев для ускорения сборки.
- Оптимизация файла Docker для использования кэширования.

4. Удаление ненужных файлов (03:05):
- Использование Docker Ignore для удаления ненужных файлов.
- Важность очистки кэша и удаления временных файлов.

5. Многоэтапная сборка (05:27):
- Использование многоэтапной сборки для оптимизации размера образа.
- Пример с разделением процесса сборки на этапы.

6. Инструменты для оптимизации Docker (06:26):
- Использование инструментов, таких как Dive и Slim, для оптимизации и отладки сборок.
- Slim позволяет уменьшить размер образа до 30 раз.

Оптимизация образов Docker — это ключ к эффективному управлению ресурсами и повышению безопасности. Применяйте эти советы и инструменты, чтобы улучшить свои Docker-сборки!

📩 Завтра: Когда нужно оборачивать переменные в кавычки в shell скрипте?
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Не трать время на распаковку! Вот как Zcat покажет всё на лету!
🧠 - Ускоряем загрузку Linux: Разбираемся с systemd-analyze
🧠 - Как использовать команду awk в Linux: обработка текста в пару команд

#Linux_youtube @LinuxSkill #Docker #Optimization #SysAdmin #DevOps
👍12🔥1
🧠 Нужно ли ставить кавычки вокруг переменных в shell-скриптах?

Привет, повелитель терминала! Если ты в скриптах пишешь $var без кавычек — скорее всего, ты (пока что) просто везучий.
Давай разберёмся, когда и зачем переменные в shell-скриптах нужно оборачивать в кавычки.

### Общее правило:
> Оборачивай переменные в двойные кавычки, если не хочешь сюрпризов от пробелов, пустых значений и спецсимволов.

---

### Когда кавычки обязательны:
1. Значение может быть пустым:
   [ "$var" = "value" ]

2. Есть пробелы:
   xdg-open "$URL"

3. В переменной спецсимволы (*, &, ?):
   wget "$link"


---

### Пример бага:
file="My documents/report.pdf"
rm $file # Попытка удалить два файла: 'My' и 'documents/report.pdf'
rm "$file" # Удаляется нужный файл


---

### Когда кавычки можно опустить:
- $?, $#, $0 — безопасны без кавычек.
- Внутри арифметических или логических выражений:
   if [ "$?" -eq 0 ]; then ...


Вывод:
Используй кавычки по умолчанию. Это просто и защищает от десятков потенциальных багов.

🌳 Ветка: https://stackoverflow.com/questions/10067266/when-to-wrap-quotes-around-a-shell-variable

📩 Завтра: Секреты Bash: Как тестировать порты без curl и wget!
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Откройте для себя мир Управления Службами в Linux с нашей серией статей
🧠 - Контейнер в контейнере? Да это как матрёшка для айтишников: открываешь, а там ещё больше проблем… но зато все свои!
🧠 - Секретная Команда nsenter! Управляй Контейнерами как Хакер

#stackoverflow @LinuxSkill #Linux #ShellScripting #Quotes #SysAdmin #DevOps
👍14
🚀 Секреты Bash: Как тестировать порты без curl и wget!

Привет, линукс-мастер! Сегодня я расскажу тебе, как тестировать TCP/UDP порты без использования привычных утилит вроде curl или wget. Это особенно полезно в средах, где их нет, например, в Docker-контейнерах. Давай разберемся, как это сделать с помощью Bash!

Проверка портов с Bash:

1. Проверка открытых портов:
   :> /dev/tcp/yourdomain.com/80
:> /dev/tcp/yourdomain.com/443

- Если порт открыт, команда завершится без вывода. Статус можно проверить через echo $?.

2. Добавление таймаута:
   timeout 5s bash -c ':> /dev/tcp/yourdomain.com/80'
timeout 5s bash -c ':> /dev/tcp/yourdomain.com/443'

- Таймаут в 5 секунд поможет избежать долгого ожидания.

3. Что такое :>?
- Это сокращенная версия команды true, которая всегда возвращает успешный код.

4. Отправка UDP запросов:
   :> /dev/udp/localhost/8888

- Синтаксис: /dev/протокол/хост/порт.

5. Получение времени с NIST Time Server:
   cat </dev/tcp/time.nist.gov/13

- Аналогично можно получить время с других NTP серверов.

6. Использование nc для проверки портов:
   nc -zv yourdomain.com 80

- nc или netcat позволяет быстро проверить порты с выводом результата.

Эти методы помогут тебе тестировать порты без сторонних утилит. Пользуйся на здоровье и увидимся в следующем посте!

📩 Завтра: Как правильно зачистить логи Nginx: Избегай ошибок
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Настрой автосборку RAID с MDADM и забудь о проблемах с дисками
🧠 - Секреты команды cd: автоматизация и удобство в одном флаконе
🧠 - Сделай свои файлы неуязвимыми с командой chattr

#Linux_Mastery @LinuxSkill #Bash #curl #wget
👍25🔥7
Channel name was changed to «Linux Skill - Освой Linux c нуля до DevOps»
🚀 Как правильно зачистить логи Nginx: Избегай ошибок!

Привет, линукс-мастер! Сегодня я расскажу тебе, как правильно зачистить логи Nginx, чтобы не потерять важные данные и не вызвать проблем с сервером. Давай разберемся, как это сделать безопасно и эффективно!

Ошибка новичка:
На собеседовании кандидат удалил лог-файл Nginx командой rm /var/log/nginx/access.log. Это привело к потере дескриптора файла, и Nginx перестал записывать логи. Не повторяй эту ошибку!

Безопасные способы зачистки логов:

1. Перезапись файла:
   sudo > /var/log/nginx/access.log

- Этот метод сохраняет дескриптор файла, и Nginx продолжает запись.

2. Обрезка файла:
   sudo truncate -s 0 /var/log/nginx/access.log

- Уменьшает размер файла до нуля, сохраняя дескриптор.

3. Сигнал процессу:
   sudo kill -USR1 <pid>

- Отправляет сигнал процессу Nginx, чтобы он закрыл текущий лог и открыл новый.

Используй эти методы, чтобы избежать проблем с логами. Помни, сначала думай, а потом действуй!

📩 Завтра: Вопрос №15 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Как ограничить скорость на Mikrotik и спасти сеть от перегрузки — инструкция, которую ты ждал
🧠 - Ускоряем OpenVPN на MikroTik до максимума: настройки, о которых не говорят
🧠 - Btrfs или XFS? Команды для управления файловыми системами в Linux

#Linux_Mastery @LinuxSkill #Nginx #логи
👍23
Вопрос №15 из теста Linux Essentials Certification: Какая команда подходит для поиска следующего появления слова hidden в man-странице, просматриваемой из командной строки?
Anonymous Quiz
15%
ctrl-f hidden
20%
/? hidden
34%
/hidden
31%
find hidden
👍18
Media is too big
VIEW IN TELEGRAM
📂 Файловая система ZFS: отказоустойчивость, RAID и целостность данных

Таймкоды для удобной навигации по видео:

00:00 — Введение в файловые системы
00:56 — Примеры популярных решений
03:06 — Эволюция и расширенные функции
04:31 — Что особенного в ZFS
06:26 — Где можно использовать ZFS
09:57 — Абстракции: ZPool и Datasette
12:18 — Режимы ZPool и RAID-0
13:27 — Работа с пулом и команды zpool
15:00 — Добавление новых дисков
16:49 — Репликация и масштабирование
19:24 — RAID 10: комбинирование отказоустойчивости и скорости
21:36 — RAID Z: отказоустойчивость с экономией
27:51 — RAID Z2 и Z3: максимум надёжности
30:02 — Сжатие и его риски
32:01 — Гарантия целостности в ZFS
33:07 — Проверка и восстановление через zpool scrub
34:46 — Команды scrub и repair
36:29 — Тестирование ZFS под нагрузкой
37:52 — Несколько пулов: когда и зачем
39:54 — Тесты на отказ и восстановление
44:35 — Замена повреждённых дисков
46:46 — Использование hot-spare дисков
47:47 — Кэширование и логирование на SSD
49:29 — Привязка пулов к физическим дискам
50:10 — Резервное копирование и финальные советы
51:10 — Заключение

Что разберём:
- Как ZFS обеспечивает отказоустойчивость с помощью разных уровней RAID
- Почему ZFS проверяет целостность всегда
- Чем RAID-Z отличается от RAID-10 и где их применять
- Как работать с пулами: создавать, расширять, чинить
- Реальные примеры: добавление дисков, репликация, scrub, замена, кеши

Это базовая часть — в следующих видео будет разбор снапшотов, клонирования и deduplication.

Источник: https://youtu.be/ZR6Hvk0H5SA?si=AY_2Sj2HYVTJDxHe

📩 Завтра: Вопрос №16 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Как копировать файлы и папки с исключениями: продвинутые трюки с cp
🧠 - Настраиваем KVM и QEMU: виртуализация на максимум
🧠 - Как мониторить ресурсы Docker-контейнеров с помощью cgroups

#Linux_youtube @LinuxSkill #ZFS #файловаясистема #Linux #RAID #zpool #zfsraid #администрирование #DevOps #SysAdmin #резервноекопирование #диски #устойчивость #zfssetup #безопасностьданных #storage
👍15🔥2
Вопрос №16 из теста Linux Essentials Certification: Какая дистрибуция Linux используется в качестве основы для создания Ubuntu Linux?
Anonymous Quiz
2%
SUSE Linux
3%
Gentoo Linux
2%
Arch Linux
4%
Red Hat Linux
89%
Debian Linux
👍22👀1
Решил принять участие в исследование. Как будет результат на руках расскажу что получилось и что думаю по этому поводу
👍6
Media is too big
VIEW IN TELEGRAM
📁 ZFS: Часть 2 — Работа с данными, снимки, дедупликация и сжатие

Таймкоды для навигации по видео:

00:01 — Введение в ZFS и создание пула
00:58 — Работа с датасетами
04:17 — Иерархия датасетов
05:13 — Моментальные снимки системы
11:30 — Прозрачность и восстановление данных
16:36 — Ограничения при использовании снимков
18:35 — Атрибуты ZFS и их использование
19:25 — Наследование и неизменяемые атрибуты
20:00 — Оптимизация через атрибут atime
21:39 — Квоты и ограничение дискового пространства
24:15 — Изменение точки монтирования
25:34 — Дедупликация: как работает и зачем нужна
29:12 — Эффективность дедупликации на практике
33:17 — Сжатие данных: включение и замеры
35:11 — Почему LZ4 — хороший выбор
37:02 — Дополнительные возможности ZFS: шифрование, iSCSI, NFS
38:01 — Передача снимков и отказоустойчивость
38:44 — Заключение

Что в видео:
- Создание ZFS-пула и организация датасетов
- Моментальные снимки (zfs snapshot) и восстановление удалённых файлов
- Ускорение системы с помощью noatime и алгоритма LZ4
- Ограничения на объём хранения через квоты
- Дедупликация одинаковых блоков и оценка её эффективности
- Доп. функции: шифрование, блочные устройства, iSCSI, экспорт снапшотов

Коротко:
Если ты работаешь с хранилищами, знаешь про RAID, но ещё не копал ZFS глубже, — это видео покажет, как файловая система может быть умной, гибкой и в то же время безопасной. Всё наглядно и по делу.

Источник: https://youtu.be/V03zyNdEjrY?si=ugwxDJsEDLTZ5lZD

📩 Завтра: Как удалить конкретные правила из iptables (а не всё подряд)?
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Человек, изменивший интернет: история, которая вдохновляет
🧠 - История, изменившая IT: как Linux стал легендой!
🧠 - Никто не говорил, что анализ данных может быть таким простым! Секрет MAXQDA

#Linux_youtube @LinuxSkill #ZFS #датасеты #zfsdataset #снапшоты #дедупликация #сжатие #Linux #zpool #zfsadmin #хранилище #SysAdmin #DevOps #файловаясистема #ZFSпрактика #оптимизация #zfsperformance
👍7🔥2
🧯 Как удалить конкретные правила из iptables (а не всё подряд)?

Привет, линуксоид! Бывало такое: правила в iptables работают как часы, но внезапно нужно откатить одно-два, не трогая всё остальное. Ниже — короткий гайд, как это сделать аккуратно и по-взрослому.

Способ 1. Удалить правило по содержимому
Повтори ту же команду, но с -D вместо -A:
iptables -D INPUT -i eth0 -p tcp --dport 443 -j ACCEPT

💡 Работает, только если правило совпадает дословно.

🧩 Способ 2. Удалить по номеру
Сначала покажи номера правил:
iptables -L INPUT --line-numbers

Удаление:
iptables -D INPUT 3

Если правило в NAT:
iptables -t nat -L PREROUTING --line-numbers
iptables -t nat -D PREROUTING 1


🛠 Способ 3. Комментарии и iptables-restore
Добавляешь правило с комментарием:
iptables -A INPUT -s 1.2.3.4 -j DROP -m comment --comment "ban_temp"

Потом удаляешь всё с этим тегом:
iptables-save | grep -v "ban_temp" | iptables-restore


🧼 Способ 4. Через iptables -S
Показать все правила:
iptables -S

Удалить нужное вручную (заменив -A на -D):
iptables -D INPUT -p tcp --dport 443 -j ACCEPT


⚠️ Не забудь:
- При удалении по номеру порядок важен: после удаления строки остальные смещаются.
- Не используй iptables -F, если не хочешь снести всё подчистую.

🌳 Ветка: https://stackoverflow.com/questions/10197405/how-can-i-remove-specific-rules-from-iptables

📩 Завтра: iptables: доступ к порту 8000 только с одного IP
Включи 🔔 чтобы не пропустить!
____________________

Дополнительный материал:
🧠 - Эй, ты в курсе, что с Grafana можно раз и навсегда забыть о хаосе в мониторинге серверов?
🧠 - Секретная связка Angie и Grafana для тотального контроля над серверами
🧠 - Неожиданно закончилась память? 3 секрета команды du -h

#stackoverflow @LinuxSkill #iptables #Linux #сетевоеадминистрирование #firewall #DevOps #SysAdmin #безопасность
👍18🔥2