LinuxCamp | DevOps – Telegram
LinuxCamp | DevOps
14.2K subscribers
193 photos
7 videos
298 links
Обо мне: C/C++/Linux эксперт. Говорим про разработку, Linux, DevOps, сети и администрирование.

Админ (реклама): @XoDefender
Чат: @linuxcamp_chat

Менеджер: @Spiral_Yuri
Биржа: https://telega.in/c/linuxcamp_tg

№ 6327102672
Download Telegram
Разбор команд: lsof

Ну что, братья-айтишники, сегодня говорим про команду lsof. Решил ее рассмотреть довольно спонтанно, т.к. также спонтанно она мне пригодилась)

Как мы знаем, в linux немалую роль играют файлы. Многие говорят, что все в linux - файл. В своей основе, утилита lsof (list open files) позволяет просматривать список открытых файлов и выступает в роли интерфейса для мониторинга виртуальной файловой системы proc.

Подробнее про файловую систему proc:

Данная файловая система состоит из набора каталогов и файлов, смонтированных в одноименной директории. Называется она виртуальной потому, что фактически не находятся на диске и заполняется ядром на лету. Нужна она, в основном, для того, чтобы на стороне пользователя (через файлы) просматривать информацию о ядре и его структурах.

Говоря простым языком, анализ VFS (virtual file system) proc позволяет ответить на следующие вопросы:

1. Сколько процессов запущено в системе и кто ими владеет?
2. Какие файлы открыты процессом?
3. Какие файлы в данный момент заблокированы и какие процессы удерживают эти блокировки?
4. Какие сокеты используются в системе?

Разбор вывода команды lsof:

Давайте начнем с простого - без дополнительных флагов запустим утилиту и проанализируем ее вывод:


$ lsof

COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
init 1 root cwd DIR 253,0 4096 2 /
init 1 root txt REG 253,0 145180 147164 /sbin/init
init 1 root 4w FIFO 0,8 0t0 8449 pipe
...


В результате мы получаем пулл информации про активные утилиты и используемые ими ресурсы (файлы, каталоги, сокеты и т.д.).

Спектр возможных значений для каждого поля тут довольно широк, поэтому за детальной информацией предлагаю обратиться к мануалу.

Давайте на конкретном примере посмотрим, о чем нас проинформирует lsof:


COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
prog_wr 9957 xodefender  3w   REG   253,0 46442 1445679 /home/xodefender/input.txt


1. COMMAND - название утилиты, которая использует ресурс .

2. PID - идентификатор процесса для программы prog_wr.

3. USER - имя пользователя, которому принадлежит процесс.

4. FD - поле, предоставляющее информацию о ресурсе, который использует процесс. Значение поля может состоять из нескольких частей. В случае принадлежности к зарезервированному типу, значениями могут быть: cwd, rtd, txt, mem и т.д.

Если же, как в данном случае, речь идет о ресурсе, к которому можно обратиться по локальному дескриптору, структура может быть следующей: порядковый номер дескриптора (3) + права доступа (w - открыт на запись).

5. TYPE - тип ресурса. В данном случае используется обычный файл (REG). Также, ресурсами могут быть: директории (DIR), каналы передачи данных (FIFO), сетевые сокеты (INET) и т.д.

6. DEVICE - номер устройства, к которому относится ресурс (в формате major:minor). Обычно, информация берется об устройствах из каталога dev.

7. SIZE/OFF - размер файла input.txt в байтах. Если размер ресурса получить не удается, значением поля будет его отступ в памяти.

8. NODE - номер ресурса в таблице индексного дескриптора "inode". В нашем случае, файл input.txt числится под номером 1445679 в общесистемной таблице.

9. NAME - имя ресурса, представленное абсолютным путем.

Примеры использования команды lsof:

Вот и мне эта программка пригодилась для того, чтобы понять, какие процессы используют интересующую меня динамическую библиотеку.

Если у вас уже есть подозрения и вы знаете PID процесса, можно воспользоваться флагом '-p', который отобразит информацию только для указанного процесса:


$ lsof -p 23708

vlc 23708 root mem REG 8,2 264888 2365462 /usr/lib64/vlc/plugins/codec/libomxil_plugin.so


Если же у вас 0 идей, можете прямо прописать путь к целевому ресурсу и утилита вам покажет все процессы, которые его используют:


$ lsof ./libomxil_plugin.so

vlc 23708 root mem REG 8,2 264888 2365462 ./libomxil_plugin.so
👍25❤‍🔥9🔥81🥰1👾1
Наконец-то руки дорвались)

На днях купил себе вот такую штуку, поставил стартер кит (fallout, forza, witcher, cup head ...) и радуюсь безумно.

Пока полет нормальный, cup head работает бесперебойно (за него больше всего переживал 😂).

Короткое ревью следующее: в большинство платформеров и игр времен ps4 играется отлично, даже при запуске тяжелых проектов система сильно не шумит и нагрев в области контроллеров (по бокам) не ощутим. Вот что ощутимо - быстрый разряд батареи...

Качество сборки тоже хорошее. Всегда любил формат геймпадов и ощущение монолитности, тут 0 вопросов к качеству и удобству.

Если у кого есть такой же аппарат, какие впечатления?)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍7🤯4😐1
разбор команд: source

Разбирал я значит баш скрипты на сборочных серверах и наткнулся на интересную команду source. Вызов выглядел следующим образом:


source <filename>.build


Мне сразу стало интересно, что лежит в .build файле... Там был прописан обычный bash скрипт, который определял ряд переменных и функций для компиляции и установки приложения:


#!/bin/bash

BDIR="Release"

src_config() {
    cmake -DCMAKE_BUILD_TYPE=${BDIR}
}

src_compile() {
    make
}


Следующий вопрос - почему именно source? Можно же выполнить скрипт внутри командной оболочки через обращение к файлу через путь:


./<filename>.build


Как оказалось, есть несколько причин, по которым данная команда существует и используется, давайте разбираться.

Принцип работы команды source:

Данная команда является полным аналогом оператора . - встроенным в оболочку инструментом, который позволяет выполнять ряд инструкций целевого файла в рамках текущего "shell environment", что, как минимум, сохраняет доступ ко всем, локально определенным, переменным оболочки:


$ MY_VAR=123
$ cat noscript.sh
echo $MY_VAR

$ source noscript.sh
123
$ . noscript.sh
123


Когда вы вызываете source и передаете ему файл на чтение, все команды внутри будут последовательно выполнены так, будто вы их вручную прописали в терминале. Файл тут можно передавать несколькими способами:

1) Через абсолютный/относительный путь:


source ./XTouch/xtouch.sq


2) По имени. В данном случае утилита попытается найти файл в одном из каталогов, указанных для переменной $PATH. Если попытка окончилась провалом, программа попытается взять его из текущей активной директории:


source xtouch.sq


Отличия в запуске скрипта по пути "./" и через команду source:

Как говорилось ранее, команда source выполняет инструкции в рамках текущей оболочки, не отпочковываясь и не создавая новый процесс, что позволяет использовать локальные переменные.

Запуск скрипта по пути, в свою очередь, создает дочерний процесс и запускает дополнительную оболочку со своим пуллом переменных:


$ ps -auxf
\_ /bin/bash
\_ /bin/bash ./test.sh


Если переменная оболочки не была переведена в переменную окружения через ключевое слово "export", дочерний процесс не сможет к ней обратиться. В таком случае, необходимо явно передать и определить ее при запуске:


$ MY_VAR=123
$ source noscript.sh
123
$ MY_VAR="$MY_VAR" noscript.sh
123


Также, нужно помнить, что, когда вы вызываете скрипт по имени, для корректной работы следует прописывать shebang "#!<path to app>" в начале файла. Таким образом, системе будет понятно то, каким приложением необходимо обработать указанные инструкции:


#!/usr/bin/make -f

install:
dh_installdirs
dh_install


В случае с source это не имеет смысла - тут мы работаем на уровне текущей оболочки. Операционной системой не будет запущен очередной интерпретатор, как следствие, данная строка будет проигнорирована.

Пример использования команды source:

Как говорилось в начале поста, я наткнулся на source, пока шарился на сборочном сервере. Стояла задача дебианизировать пакет, который должен был при инсталляции корректно встроить в систему ряд медиа библиотек и конфигов для декодирования видео на GPU.

Как правило, проекты такой сложности требуют выполнения немалого количества действий на разных этапах: при конфигурации нужно передать "миллион" флагов в cmake, при установке построить глубокую иерархию директорий, перенести файлы по путям и т.д.

Все эти процессы могли бы быть отображены и проработаны в файле rules, но тогда в нем было бы безумно тяжело ориентироваться. Было принято решение разделить логику на группу функций: src_install(), src_compile(), src_config(). После чего, локально, не в рамках новой оболочки, их определять и вызывать.

Определения были скомпонованы в отдельном файле, что позволило красиво и локанично оформить rules:


install:
source debian/pipeline.build && src_config && src_install

build:
source debian/pipeline.build && src_config && src_compile
👍31🔥6❤‍🔥3🍓1👾1
Cборка бинарного (.deb) пакета:

Ранее мы уже говорили о том, что такое бинарный пакет. Сегодня разберемся с тем, как его создать, рассмотрим архитектурные правила сборки и узнаем про практическую ценность некоторых файлов, которые используются при дебианизации.

Сразу хочу указать на то, что данный пост не является абсолютным HOWTO по созданию пакетов. Тут мы разберем основы и потом, в следующий публикациях будем уходить вглубь по отдельным аспектам, тем самым, шаг за шагом, формируя целостную картину.

Что такое дебианизация?

Дебианизация - это процесс упаковки ПО в .deb бинарный пакет для распространения внутри "Debian based" операционных системах, таких как Ubuntu, Mint, сам Debian и т.д. Хорошо проработанный пакет позволит без особых проблем развернуть необходимое ПО на целевой системе, без необходимости в ручной компиляции и сборке.

Что нужно для создания .deb пакета?

На примере моего любимого композитора picom разберем основные правила дебианизации, посмотрим на уже рабочую структуру и поймем, что к чему.

Сборка любого .deb пакета начинается с создания debian директории в корне проекта. Данный каталог будет содержать в себе все необходимые для дебианизации файлы, в которых будет прописан ряд правил по упаковке софта:


$ cd picom-10.2/debian
$ ls -l
-rw-rw-r-- changelog
-rw-rw-r-- control
drwxrwxr-x patches
-rwxrwxr-x rules
...


Для конфигурации пакета может использоваться множество различных файлов, основными необходимыми являются control, rules и changelog:

1. control - содержит различного рода информацию, необходимую инструментам пакетирования: dpkgapt-getapt-cache и т.д. В данный файл принято прописывать список зависимостей, которые пакетный менеджер будет проверять и, по возможности, подтягивать из репозиториев.

Control может включать в себя уйму полей. Как пример, Package: <name>, необходим для определения имени пакета и создания, на этапе сборки, каталога установки:


$ pwd
picom-10.2/debian/picom/
$ ls
etc usr
$ cd usr/bin && ls
compton picom


При инсталляции, файлы, которые лежать внутри picom, по идентичной иерархии перенесутся в системные директории.

2. rules - исполняемый Makefile, который в полной мере управляет процессом сборки и отрабатывает через утилиту make. Тут можно указать набор правил и инструкций, которые будут выполняться на разных этапах:

1) на этапе конфигурации создаем директорию build, в которю помещяем результат работы команды meson:


override_dh_auto_configure:
mkdir -p debian/build
cd debian/build
meson --prefix=/usr ../..


2) на этапе сборки вызываем, сгенерированные утилитой meson, ninja файлы и выполняем компиляцию проекта. Результат компиляции будет лежать в рамках каталога build:


override_dh_auto_build:
cd debian/build && ninja -v


3) на этапе установки заходим в директорию build, записываем в переменную DESTDIR путь, по которому ninja install выполнит перенос готовых бинарников и конфигов:


override_dh_auto_install:
cd debian/build
DESTDIR=${CURDIR}/debian/picom ninja install


3. changelog - файл версионирования, который содержит историю изменений, внесенных в ПО. Его роль не ограничивается только отслеживанием правок. По указанной в нем информации, которая находится после названия приложения (<версия>-<ревизия>), формируется итоговое имя пакета:


picom (9.1-1) unstable; urgency=medium

* New upstream version 9.1

-- Nikos Tsipinakis <nikos@tsipinakis.com>


В результате сборки мы получим пакет с именем picom_9.1-1_amd64.deb, где picom сформировался по значению поля Package из файла control, версия 9.1-1 подставилась из changelog и архитектура amd64 определилась автоматически.

И вот уже с этим минимальным набором файлов можно создать бинарный пакет. После того, как конфигурация готова, выходим из директории debian на уровень выше и запускаем сборочный процесс:


$ cd ..
$ sudo dpkg-buildpackage -b -us -uc
❤‍🔥106🔥6👍3👾1
Файловая система proc

Ранее мы уже затрагивали виртуальную файловую систему proc, когда говорили про команду lsof. Сегодня копнем глубже и научимся получать из нее различную информацию о системе и процессах.

В старых реализациях UNIX не было простого способа выполнить интроспективный анализ атрибутов ядра для получения ответов на следующие вопросы:

1. Сколько процессов запущено в системе и кто их владельцы?
2. Какие файлы открыты процессом?
3. Какие файлы в данный момент заблокированы и какие процессы удерживают эти блокировки?
4. Какие сокеты используются в системе?

Чтобы предоставить более легкий доступ к информации ядра, во многих современных реализациях UNIX предусмотрена VFS (Virtual File System) proc. Она находится в одноименном каталоге и содержит различные файлы, предоставляющие информацию о ядре. Называется она виртуальной потому, что фактически не располагается на диске и заполняется ядром на лету.

Процессам можно беспрепятственно считывать эту информацию и, в некоторых случаях, вносить в нее изменения, используя обычные системные вызовы файлового ввода-вывода: read, write, open, close и т.д.

Получение информации о процессе (/proc/PID):

Для каждого процесса в системе ядро создает соответствующий каталог по имени /proc/PID (process id). Внутри этого каталога находятся различные файлы и подкаталоги, содержащие информацию о процессе. Важно помнить, что данные директории не существуют постоянно и затираются, как только процесс прекратил свое существование.

Например, просмотрев файлы в каталоге /proc/1, можно получить информацию о процессе init, PID которого всегда имеет значение 1. Давайте посмотрим на базовую информацию процесса init через файл status, который существует в каждом каталоге /proc/PID и предоставляет множество данных о целевом процессе:


$ cat /proc/1/status

Name: init - Имя исполняемого файла
State: S (sleeping) - Состояние процесса
Tgid: 1 - ID группы потоков (обычный PID, getpid())
Pid: 1 - Фактически ID потока (gettid())
PPid: 0 - ID родительского процесса
TracerPid: 0 - PID отслеживающего процесса
...


Описание файлов и директорий для каждого каталога (/proc/PID):

1) cmdline - аргументы командной строки;
2) cwd - символьная ссылка на текущий рабочий каталог;
3) environ - пары вида ИМЯ=значение списка переменных среды;
4) exe - символьная ссылка на исполняемый файл;
5) fd - каталог, содержащий символьные ссылки на файлы, открытые процессом;
6) maps - отображения памяти;
7) mem - виртуальная память процесса;
8) mounts - точки монтирования для рассматриваемого процесса;
9) root - символьная ссылка на корневой каталог;
10) status - различная информация (идентификаторы процесса, права, использование памяти, сигналы);
11) task - содержит по одному подкаталогу для каждого потока в процессе;

Системная информация, находящаяся в proc:

Доступ к информации, распространяющейся на всю систему также предоставляется через различные файлы и директории внутри VFS proc. Давайте посмотрим на назначения отдельных из них:

1) /proc/net - информация состояния сети и сокетов;
2) /proc/sys/fs - настройки, относящиеся к файловым системам;
3) /proc/sys/kernel - различные общие настройки ядра;
4) /proc/sys/net - настройки сети и сокетов;
5) /proc/sys/vm - настройки, касающиеся управления памятью;
6) /proc/sysvipc - информация об IPC-объектах System V;
7) /proc/cpuinfo - информация о центральном процессоре;

Обычно, команд cat, more и less должно хватать для того, чтобы разобрать различную информацию внутри proc. В качестве примера, давайте выхватим немного данных про наш CPU:


$ cat /proc/cpuinfo

processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 154
model name : 12th Gen Intel(R) Core(TM) i7-1260P
stepping : 3
microcode : 0x423
cpu MHz : 710.883
cache size : 18432 KB


Однако из некоторых файлов бывает тяжело выцепить что-то полезное. Для таких случаев существуют утилиты lsof, lspci, apm и top, которые являются интерфейсом для proc и предоставляют легко читаемую для пользователя информацию.
👍21❤‍🔥6🔥62👾1
Итоги квартала

Для простоты навигации по контенту попробуем внедрить практику подведения квартальных результатов:

Разделяемые библиотеки:

1. Общая информация про разделяемые библиотеки
2. Компоновка с динамическими библиотеками [1]
3. Компоновка с динамическими библиотеками [2]
4. Компоновка с динамическими библиотеками [3]
5. Версионирование разделяемых библиотек
6. Отложенное связывание символов (Lazy Binding)
7. Ускорение работы библиотек: отключение ленивого связывания
8. Использование флага компоновщика -Bsymbolic
9. Ускорение работы библиотек: отключение перехвата функций

Разбор команд:

1. Разбор команд: strace
2. Разбор команд: strace -c
3. Разбор команд: lsof
4. Разбор команд: source

Базовый linux:

1. Процессы и программы
2. Структура памяти процесса
3. Системные и библиотечные вызовы [1]
4. Файловая система proc

Создание бинарных пакетов:

1. Разбор пакетов: build-essential
2. Что такое бинарный пакет (deb, rpm)?
3. Cборка бинарного (.deb) пакета
15👍35❤‍🔥16🔥11🫡1
LinuxCamp | DevOps pinned «Итоги квартала Для простоты навигации по контенту попробуем внедрить практику подведения квартальных результатов: Разделяемые библиотеки: 1. Общая информация про разделяемые библиотеки 2. Компоновка с динамическими библиотеками [1] 3. Компоновка с динамическими…»
Установка Decky Loader через терминал

Decky Loader - это самодельный лаунчер плагинов для Steam Deck, который позволяет вам, через подкачку различных дополнений, кастомизировать ваше устройство по всем фронтам: стилизовать меню, изменять системные звуки, модифицировать экран загрузки и т.д.

Сам поставил себе это расширение, т.к не осталось баллов для анимаций, да и ассортимент в магазине стима, будем честны, требует расширения)

Для установки требуется:

1. Создать пароль для пользователя:


$ passwd deck


2. Подгрузить установочный .sh скрипт и передать его интерпретатору sh на выполнение:


curl -L https://github.com/SteamDeckHomebrew/decky-installer/releases/latest/download/install_release.sh | sh


Тут вам и команда curl и перенаправление вывода через '|' pipe. Аххх, ладно, все это мы еще разберем в отдельных постах, сегодня чилл 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
👍134❤‍🔥31
Говорим про либы: GTK и QT [1]

Уж очень часто в современной разработке софта под Linux, программистам приходится взаимодействовать с библиотеками GTK и QT. Будь-то приложение по управлению системами IOT (Internet of things) либо сетевой менеджер, не всех может устроить взаимодействие с утилитой через CLI (command line interface), поэтому для повышения комфорта в использовании, приходится прибегать к графическому туллкиту.

В этой серии постов я, через призму личного опыта, постараюсь объяснить вам то, что из себя представляют библиотеки GTK и QT, для чего они необходимы, c какими ЯП используются и, на сколько востребованы при трудоустройстве.

Что вообще такое это ваше GTK и QT?

Для разработки графических приложений нам нужен какой-то, желательно, простой в использовании, инструментарий - API, через которое можно попросить ряд подсистем нашей операционки создать окно, отрисовать кнопку, повесить на нее ивент и выполнить определенный набор инструкций по требованию.

Парочка GTK/QT, как раз и является тем самым высокоуровневым API над такими платформозависимыми технологиями, как X11, WinAPI, WaylandAPI и т.д.

Целые окружения рабочего стола, со всеми их графическими утилитами, написаны на этих библиотеках - так GNOME использует GTK, KDE, в свою очередь, построен на QT.

Вид некоторых виджетов GTK приложений сильно отличается от тех, которые предлагает QT, из-за чего желательно, чтобы системные приложения внутри определенного DE (Desktop Environment) были написаны на том же графическом туллките, что и сами компоненты окружения.

GTK - это многомодульный GUI туллкит, который разработан на языке программирования C в рамках проекта GNOME и необходим для создания графических интерфейсов под разные системные платформы: Windows, Linux, MacOS. Преимущественно, конечно же, именно под Linux.

Когда-то, еще в бородатые годы, пробовал запуститься на Windows, но, ребята, оно того не стоит. Для MacOS и Windows существуют гораздо более предпочтительные альтернативы.

Для GTK, дабы облегчить процесс создания интерфейсов и избавить вас от необходимости кодом прописывать свойства для виджетов, придумали ряд полезных инструментов, которые позволяют визуально прорабатывать дизайн, накидывать виджеты на макет и выдавать готовый XML.

Самыми удобными и проработанными утилитами, из тех, что мне приходилось использовать, могу назвать GLADE и Cambalache.

Qt уже не отнесешь к группе "просто" GUI туллкитов. В отличии от GTK, Qt является полноценным фреймворком для разработки приложений: гораздо более функциональным, громоздким и, написанным на C++.

Тут вам и API по построению клиент-серверной архитектуры и кастомные типы данных и различные медиа классы и готовые сущности для работы с базами данных и SQL.

Возможностей фреймворка может сполна хватать для разработки разного рода приложений, благодаря чему, программисту не приходится подключать ряд сторонних зависимостей, разбираться в их структуре и проверять работоспособность на разных платформах.

На Qt, без всяких там boost, ASIO и, уж тем более, платформозависимых системных обращений, можно построить многопоточный сетевой аппликейшн.

Приложение, написанное на том, что Qt предоставляет из коробки будет структурно выглядеть приемлемо - иметь единый стиль и, с высокой вероятностью, работать корректно на разных поддерживаемых платформах, среди которых: Windows, Linux, MacOS, Android, IOS.

При работе с GTK тоже можно использовать реализации различных структур данных, API под разные задачи - все это присутствует в сторонних библиотеках, разработанных проектом GNOME (GLib, GIO и т.д.), но по удобству использования и функциональности это, конечно, не дотягивает до Qt.

Qt также может похвастаться, как мне кажется, хорошим IDE (Qt Creator), который позволяет вам удобно вести полный цикл разработки приложения - переключаться между версткой дизайна и кодом, заниматься отладкой и профилированием, взаимодействовать с системой контроля версий и т.д.

Linux++ | IT-Образование
1👍28🔥145🥰2🎃1
Ресурсы процессов

Каждый процесс потребляет системные ресурсы, такие как память и процессорное время. Этот пост расскажет вам о системных вызовах, которые необходимы для получения подобной информацией о потребляемых ресурсах и контроля ряда ограничений.

Мы начнем с вызова getrusage(), который позволяет процессу следить за ресурсами, потребленными им или его потомками. Затем будут рассмотрены вызовы setrlimit() и getrlimit(), которые позволяют изменять и получать данные об установленных для вызывающего процесса ограничениях на различные ресурсы.

Ресурсы, использующиеся процессом:

Системный вызов getrusage() возвращает статистику, которая касается различных ресурсов системы, потребленных самим вызывающим процессом или всеми его потомками:


#include <sys/resource.h>

int getrusage(int who, struct rusage *res_usage);


Данный вызов возвращает 0 при успешном завершении или –1, если произошла ошибка. Аргумент who обозначает процесс, для которого будет извлекаться информация о потреблении ресурсов. Он может принимать одно из следующих значений:

1. RUSAGE_SELF — возвращает сведения о вызывающем процессе.
2. RUSAGE_CHILDREN — возвращает сведения обо всех потомках вызывающего процесса.
3. RUSAGE_THREAD — возвращает сведения о вызывающем потоке (поддерживается только в Linux).

Аргумент res_usage представляет собой указатель на структуру типа rusage, поля которой заполняются в момент вызова:


struct rusage {
/* Процессорное время, потребленное пользователем */
struct timeval ru_utime;
/* Процессорное время, потребленное системой */
struct timeval ru_stime;
/* Размер страницы памяти, выделенной процессу */
long ru_maxrss;
...
}


Нужно помнить, что далеко не все поля структуры rusage заполняются вызовом getrusage(). Некоторые поля могут игнорироваться в Linux, но учитываться в других реализациях UNIX. В Linux они присутствуют на случай, если их реализуют в будущем - это позволит поддерживать бинарную совместимость с уже существующими приложениями.

Давайте на примере посмотрим, как можно получить "user/system" процессорное время, затраченное процессом на выполнение кода:


#include <stdio.h>
#include <sys/resource.h>
#include <sys/time.h>
#include <unistd.h>

void main() {
/* Some Work... */

struct rusage usage;
if (getrusage(RUSAGE_SELF, &usage) == 0) {
printf("User CPU time: %ld.%06ld seconds\n",
usage.ru_utime.tv_sec, usage.ru_utime.tv_usec);

printf("System CPU time: %ld.%06ld seconds\n",
usage.ru_stime.tv_sec, usage.ru_stime.tv_usec);
}
}


Ограничения на ресурсы для отдельных процессов:

Каждый процесс обладает набором параметров, с помощью которых можно ограничить объем тех или иных системных ресурсов, которые он может потребить. Сведения об ограничениях на ресурсы процесса можно получать и изменять с помощью системных вызовов getrlimit() и setrlimit():


int getrlimit(int resource, struct rlimit *rlim);
int setrlimit(int resource, const struct rlimit *rlim);


Аргумент resource обозначает ограничение на ресурсы, которое нужно получить либо изменить. Рассмотрим несколько примеров возможных значений:


RLIMIT_AS Размер виртуальной памяти процесса (байты)
RLIMIT_CORE Размер дампа памяти (байты)
RLIMIT_CPU Процессорное время (секунды)
...


Аргумент rlim используется либо для возвращения существующих значений ограничения, либо для задания новых. Он представляет собой структуру, состоящую из двух полей:


struct rlimit {
rlim_t rlim_cur;
rlim_t rlim_max;
};


Эти поля имеют целочисленный тип rlim_t и соответствуют двум ограничениям на один ресурс: мягкому (rlim_cur) и жесткому (rlim_max). Эти ограничения управляют тем, какой объем целевого ресурса может быть использован.

Мягкое ограничение регулирует количество ресурсов, которые могут быть использованы процессом. Процесс может использовать ресурсы в пределах этого значения. Жесткое ограничение является абсолютным максимумом, который нельзя превысить, даже при попытке изменить мягкое ограничение.

Linux++ | IT-Образование
1👍216❤‍🔥5🔥2
Демоны в Linux

Демон - это процесс, обладающий длинным жизненным циклом. Часто демоны создаются на этапе загрузки системы и работают до момента ее выключения. Выполняется они в фоновом режиме, не имеют контролирующего терминала и обычно не привязаны к конкретной пользовательской сессии.

Примеры системных демонов

У каждого системного демона есть своя микроцель существования. Одни контролируют сетевые соединения, другие отвечают за взаимодействие между приложениями по системе dbus. Примерами популярных демонов являются:

1) cron — демон, который выполняет команды в запланированное время;
2) sshd — демон, который отвечает за обработку SSH-подключений;
3) httpd — демон HTTP-сервера (Apache), который обслуживает веб-страницы;

Вы можете и сами "поймать" демонов через различные утилиты: ps, top, pstree. Базовыми отличительными параметрами таких процессов являются имя, которое заканчивается на 'd', родительский процесс init и отсутствующий терминал:


$ ps -o pid,ppid,cmd

PID    PPID CMD
1239 1 /usr/lib/snapd/snapd
1250 1 /usr/libexec/udisks2/udisksd


Дополнительно хочется отметить, что процессам-демонам присуща особенность, которая гарантирует, что ядро не сможет генерировать для них никаких сигналов, связанных с терминалом (SIGINT, SIGTSTP и SIGHUP).

Создание демона

Глобально существует 2 типа демонов: "SysV Daemons" и "New-Style Daemons". Первый тип является традиционным и преимущественно использовался до появления systemd. Второй, в свою очередь, опирается на инфраструктуру systemd и является сервисом.

Сейчас не будем вдаваться в принцип работы сервисов и рассмотрим инициализацию каноничного SysV демона. Для того, чтобы стать демоном, программа должна выполнить следующие шаги:

1. Сделать вызов fork(), после которого родитель завершается, а потомок продолжает работать. Это нужно для отделения демона от терминала, из которого он был запущен. В результате, процесс становится потомком для init:


pid_t pid = fork();

if (pid < 0)
exit(EXIT_FAILURE);

if (pid > 0)
exit(EXIT_SUCCESS);


2. Дочерний процесс вызывает setsid(), чтобы начать новую сессию, стать ее лидером и разорвать любые связи с контролирующим терминалом:


if (setsid() < 0)
exit(EXIT_FAILURE);


3. Проигнорировать сигнал SIGHUP для того, чтобы не завершиться при закрытии терминала, внутри которого был воспроизведен запуск:


signal(SIGHUP, SIG_IGN);


4. Повторно выполнить fork(). Этот шаг иногда выполняется для предотвращения возможности захвата вновь созданного демона новым управляющим терминалом.

5. Очистить атрибут umask, чтобы файлы и каталоги, созданные демоном, имели запрашиваемые права доступа, указанные в вызовах open() и mkdir():


umask(0);


6. Поменять текущий рабочий каталог процесса (обычно на корневой). Это необходимо для исключения блокировки файловой системы и возможности, в случае необходимости, сделать для нее unmount:


chdir("/");


7. Закрыть все открытые файловые дескрипторы, которые демон унаследовал от своего родителя. Поскольку демон потерял свой контролирующий терминал и работает в фоновом режиме, ему больше не нужно хранить дескрипторы с номерами 0, 1 и 2, их тоже закрываем:


for (int x = sysconf(_SC_OPEN_MAX); x>=0; x--)
close (x);


8. Переоткрыть дескрипторы STDIN, STDOUT, STDERR и перенаправить стандартные потоки в виртуальное устройство "/dev/null". Данный шаг необходим по нескольким причинам.

Во-первых, вновь открытые файлы неизбежно возьмут себе минимально доступный порядковый номер (0, 1, 2 ...), что может привести к нежелательным записям со стороны функций, которые работают с этими дескрипторами.

Во-вторых, данное действие позволяет избежать ошибок при вызове библиотечных функций, которые выполняют операции ввода/вывода с этими дескрипторами:


int fd0 = open("/dev/null", O_RDWR);
int fd1 = dup(0);
int fd2 = dup(0);


9. Запустить основной цикл, в котором демон будет выполнять свою работу:


while (1) {
}


Linux++ | IT-Образование
1👍34❤‍🔥127🔥7👾2😈1
Идентификаторы процессов: пользователи и группы [1]

У каждого процесса есть набор, связанных с ним числовых идентификаторов пользователей (UID) и групп (GID). В число этих идентификаторов входят:

1) реальный (real) ID пользователя и группы;
2) действующий (effective) ID пользователя и группы;
3) сохранённый ID пользователя (set-user-ID) и группы (set-group-ID);
4) характерный для Linux пользовательский и групповой ID файловой системы;
5) дополнительные идентификаторы групп (supplementary group);

Реальный идентификатор пользователя и группы (RUID)

Реальные идентификаторы определяют пользователя и группу, которым принадлежит процесс. При входе в систему, оболочка получает свои ID пользователя и группы из полей файла "/etc/passwd". Каждый новый процесс наследует данные идентификаторы у своего родительского процесса:


$ echo $UID
1000

$ grep $LOGNAME /etc/passwd
hiko:x:1000:1000:hiko:/home/hiko:/bin/bash

$ stat -c "%u %g" /proc/$pid/
1000 1000


Действующий идентификатор пользователя и группы (EUID)

В большинстве реализаций UNIX действующие UID и GID используются для определения полномочий, которыми наделен процесс, при его попытке выполнения различных операций (в том числе, системных вызовов).

Эти ID используются ядром для определения прав, которые будет иметь процесс при доступе к общим ресурсам, таким как: очереди сообщений, общая память, объекты межпроцессного взаимодействия (IPC) и семафоры.

В большинстве систем UNIX эти ID также определяют права доступа к файлам (в Linux для этой задачи используются ID файловой системы).

Процесс, чей действующий идентификатор пользователя имеет значение 0, называется привилегированным и принадлежит пользователю с именем root (имеет все полномочия суперпользователя). Некоторые системные вызовы могут быть выполнены только привилегированными процессами.

ID действующего пользователя и группы процесса можно получить с помощью вызовов geteuid и getegid.

Проводя сравнение между EUID и RUID можно сказать, что RUID обозначает пользователя, который владеет процессом, EUID является параметром, на который смотрит ядро ОС для того, чтобы разрешить вам выполнить действие либо отклонить запрос:


$ ps -eo pid,euid,ruid | grep 2254
2254 0 0


Также, важно помнить, что значение EUID может быть изменено и некоторые программы, такие как sudo, используют это для того, чтобы выполнять ряд привилегированных операций.

Сохранённые set-user-ID и set-group-ID (SUID)

Эти ID используются в программах с set-user-ID и set-group-ID битами для сохранения копии соответствующих EUID. Бит SUID можно опознать по букве 's', заменяющей обычный бит выполнения 'x'. Это говорит нам о том, что файл будет выполняться с правами владельца, а не пользователя, который его запускает:


$ stat -c "%A %a %n" /usr/bin/passwd
-rwsr-xr-x 4755 /usr/bin/passwd


Когда set-user-ID-программа запускается (загружается в память процесса с помощью команды exec()), ядро устанавливает для действующего EUID точно такое же значение, что и у пользовательского UID исполняемого файла:


$ su
# chown root app
# chmod u+s app
# ls -l app
-rwsr-xr-x 1 root users


После запуска, EUID пользователя будет скопирован в SUID. Идентификаторы процесса будут проставлены следующим образом: RUID=1000, ЕUID=0, SUID=0.

Программа с set-user-ID может повышать и понижать права, переключая свой ID действующего пользователя (EUID) между значениями RUID и SUID. Это полезно в случаях, когда, например, привилегированному процессу нужно выполнить непривилегированную задачу.

Такое переключение производится с помощью вызовов seteuidsetreuid или setresuid. Программа с set-group-ID выполняет аналогичные задачи с помощью setegidsetregid или setresgid.

Сохранённые set-user-ID и set-group-ID процесса можно получить с помощью getresuid и getresgid соответственно.

Linux++ | IT-Образование
1👍24🔥52❤‍🔥2🥰1
Идентификаторы процессов: пользователи и группы [2]

И так, в прошлый раз мы посмотрели на первые 3 базовых идентификатора: RUID, EUID и SUID. Сегодня пойдем дальше и добьем последние 2:

1) ID пользователя и группы файловой системы (FSUID);
2) ID дополнительных групп (supplementary group);

ID пользователя и группы файловой системы (FSUID)

В Linux для определения прав доступа к файлам, применяются не пользовательские и групповые EUID, а соответствующие ID файловой системы (FSUID). Они используются в этом качестве наряду с идентификаторами дополнительных групп, описанных ниже.

Обычно идентификаторы файловой системы имеют те же значения, что и соответствующие действующие собраты. Более того, каждый раз при изменении EUID ядро также автоматически изменяет и FSUID, присваивая ему аналогичное значение:


$ ps -eo pid,uid,euid,suid,fsuid,comm
PID UID EUID SUID FSUID COMMAND
1 0 0 0 0 systemd


Однако, никто не запрещает вам изменить ID файловой системы и сделать его отличным от действующих ID. Реализовать это можно через вызовы setfsuid и setfsgid:


#include <sys/fsuid.h>

int setfsuid(uid_t fsuid);
int setfsgid(gid_t fsgid);


А зачем в Linux вообще предоставляются идентификаторы файловой системы и при каких обстоятельствах нам могут понадобиться разные значения для EUID и FSUID?

Причины главным образом имеют исторические корни. Идентификаторы файловой системы впервые появились в Linux 1.2. В этой версии ядра один процесс мог отправлять сигнал другому, лишь если EUID отправителя совпадал с RUID или EUID целевого процесса.

Это повлияло на некоторые программы, например на программу сервера Linux NFS (Network File System), которой нужна была возможность доступа к файлам, как будто у нее есть действующие идентификаторы соответствующих клиентских процессов.

Но, если бы NFS-сервер изменял свой действующий идентификатор пользователя, он стал бы уязвим от сигналов непривилегированных пользовательских процессов.

Для предотвращения этой возможности были придуманы отдельные FSUID. Оставляя неизмененными свои действующие идентификаторы, но изменяя идентификаторы файловой системы, NFS-сервер может выдавать себя за другого пользователя с целью обращения к файлам без уязвимости от сигналов пользовательских процессов.

Начиная с версии ядра 2.0, приняты правила относительно разрешений на отправку сигналов, в результате чего, наличие FSUID утратило свою актуальность. В наше время ID файловой системы считаются некой экзотикой и, как правило, совпадают по значениям с EUID.

ID дополнительных групп (supplementary group)

В ранних реализациях unix, процесс мог принадлежать только к одной группе, прописанной в "/etc/passwd". Сейчас же можно принадлежать сразу к нескольким.

Новый процесс наследует эти идентификаторы от своего родительского процесса. Оболочка входа в систему получает свои дополнительные идентификаторы групп из файла групп системы "/etc/group":


$ cat /etc/group | grep xodefender
adm:x:4:syslog,xodefender
cdrom:x:24:xodefender
sudo:x:27:xodefender
dip:x:30:xodefender
video:x:44:xodefender


Как уже ранее отмечалось, эти идентификаторы используются в совокупности с EUID и FSUID для определения полномочий по доступу к файлам, IPC-объектам и другим системным ресурсам.

Процесс может получить список ID дополнительных групп с помощь getgroups, и изменить этот список с помощью setgroups:


#include <unistd.h>
int getgroups(int size, gid_t list[]);

#include <grp.h>
int setgroups(size_t size, const gid_t *_Nullable list);


Linux++ | IT-Образование
1👍173🔥3👾2
Valve продолжает пушить Linux

Разработчики из компании Valve представили проект frog-protocols, в рамках которого планируется развивать дополнительный набор протоколов для Wayland, дополняющих протоколы из набора wayland-protocols.

Расширения из wayland-protocols необходимы для создания композитных серверов и пользовательских окружений.

Создание отдельного набора протоколов к Wayland объясняется слишком медленным и буксующим в бесконечных обсуждениях процессом принятия новых протоколов в wayland-protocols, который может затягиваться на месяцы и годы.

В проекте frog-protocols протоколы намерены доводить до пользователей как можно быстрее.

По мнению создателей инициативы, многие пользователи продолжают работать в окружениях на базе протокола X11 из-за отсутствия необходимой функциональности, которая может быть предоставлена уже сейчас, но по тем или иным причинам её продвижение блокируется.

Готовые пакеты с первой версией frog-protocols уже приняты в репозитории Arch Linux, Fedora 41 и Fedora 40, а также находятся на стадии включения в состав openSUSE.

Первыми двумя Wayland-протоколами, включёнными в состав frog-protocols, стали frog-fifo-v1 и frog-color-management-v1.

Протокол frog-color-management добавляет расширения для управления цветом, предоставляющих возможности для работы с HDR в играх.

Протокол frog-fifo отмечается как очень примитивный по своей сути, но предоставляющий важные возможности, решающие проблемы с высокой нагрузкой на GPU при использовании VSync, снижением производительности и зависанием приложений при перекрытии их окон другими окнами при включённом FIFO/VSync.

Код с реализацией протокола frog-fifo передан для включения в основной состав Mesa.

Изменения, добавляющие поддержку протокола, также подготовлены для композитного менеджера KWin, который развивается проектом KDE.

Реализация уже опробована в работе и входит в состав SteamOS и композитного сервера Gamescope.

Предлагаемое изменение сводится к обеспечению корректной работы Wayland-клиента с FIFO благодаря переходу к ожиданию завершения вертикальной развёртки (vblank) вместо использования callback-вызовов при каждой готовности отобразить новый кадр.

В ходе обсуждения, один из разработчиков wlroots, выразил сомнение в целесообразности добавления протоколов, развиваемых в обход основанной на достижении консенсуса модели разработки wayland-protocols или не учитывающих интересы Wayland-сообщества.

Пьер-Лу Гриффе из компании Valve ответил, что текущей модели разработки wayland-protocols не хватает быстрого цикла продвижения экспериментальных протоколов, который позволил бы проводить эксперименты, сразу получать обратную связь от пользователей и учитывать её при дальнейшей разработке.

Linux++ | IT-Образование
👍21🔥6❤‍🔥3👎1
Файл групп: /etc/group

В недавнем посте мы кратко затронули системный файл "/etc/group". Сегодня мы чуть подробнее рассмотрим его практическую ценность и структуру содержимого. Го!

Пользователей для различных административных целей, в частности для управления доступом к файлам и другим системным ресурсам, полезно свести в группы. Это нужно по той причине, что не всем юзерам системы доступны для чтения, записи и выполнения все существующие ресурсы.

Мы ведь не можем просто так взять и поменять содержимое какого-нибудь системного конфига из директории etc. Например dhcpcd.conf. Нам, для того, чтобы воспроизвести запись, нужно выполнить рад действий:

1) проверить группу, к которой принадлежит файл;
2) проверить права, которыми располагает группа;


$ ls -l | grep dhcp
-rw-r--r--  1 root  root 1429 Mar 31 11:48 dhcpcd.conf


Тут мы видим следующее: файл принадлежит пользователю root и его одноименной группе. Также, права для пользователя, позволяют ему выполнять запись и чтение. Членам группы позволено только читать содержимое файла, т.к. указан только 1 бит "r".

Давайте, для начала, поменяем файлу группу так, чтобы конкретный пользователь смог к нему обратиться:


$ sudo chgrp xodefender dhcpcd.conf
$ ls -l | grep  dhcp
-rw-r-----  1 root   xodefender  1437 Sep 27 11:02 dhcpcd.conf


Вот, хорошо, теперь мы, от пользователя xodefender можем, хотя бы, прочитать файл:


$ cat dhcpcd.conf
# A sample configuration for dhcpcd.
# See dhcpcd.conf(5) for details.
...


Можем ли мы записать что-то... Пока нет. Для этого нам нужно добавить бит "w" на запись для группы:


$ sudo chmod g+w dhcpcd.conf
$ ls -l | grep  dhcp
-rw-rw----  1 root   xodefender  1437 Sep 27 11:05 dhcpcd.conf


Хорошо, теперь с правами все норм, можем воспроизвести запись в файл от пользователя xodefender:


$ echo "Some useful data" >>  dhcpcd.conf


Ага, а если мы хотим выполнять данные операции от пулла доверенных пользователей... В таком случае, нам нужно создать для них группу и присвоить ее целевому файлу. Давайте действовать поступательно и начнем с создания группы:


$ sudo groupadd admins


Список групп с соответствующей информацией можно найти в файле "/etc/group", который содержит по одной строке на каждую группу. Каждая строка, как показано в следующем примере, состоит из четырех полей, отделенных друг от друга двоеточиями:


$ cat /etc/group
admins:x:1002:
jambit:x:106:claus,felli,frank,harti,markus


Рассмотрим эти поля в порядке следования:

1) имя группы - легко читаемый символьный идентификатор, соответствующий числовому;
2) зашифрованный пароль группы, который, в действительности, хранится в теневом файле групп "/etc/gshadow";
3) числовой идентификатор группы (GID);
4) список пользователей, которые входят в группу;

Далее, давайте добавим доверенных пользователей в группу:


$ sudo usermod --append --groups admins xodefender
$ sudo usermod --append --groups admins test_1
$ cat /etc/group | grep admins
admins:x:1002:xodefender,test_1


Теперь нужно повторить процесс из начала поста - изменить группу файла и выставить необходимые права:


$ sudo chgrp admins dhcpcd.conf
$ sudo chmod g+rw dhcpcd.conf


Все, пожалуйста, пользователи xodefender и test_1 (участники группы admins) могут читать файл и записывать в него информацию:


$ su test_1
$ cat dhcpcd.conf
# A sample configuration for dhcpcd.
# See dhcpcd.conf(5) for details.
...


Linux++ | IT-Образование
1👍22🔥2❤‍🔥1🌭1
Сори, не удержался)
👍33🤡20🤣16🔥5
Топ каналов по Linux и C++

Сегодняшний пост немного выделится и массы и будет посвящен моим рекомендациям различного медиаконтента по изучению Linux, C и C++.

Тут не будет воды и каких-то "левых" каналов - только то, что лично мной было пройдено и проверено.

Если что, комментарии для вас всегда открыты, можете, с высоты личного опыта, дополнить данный список.

C/C++

1. The Cherno (английский) - ютуб канал С++ разработчика, который ранее работал в EA SPORTS над корпоративным движком Frostbite.

Теперь уже автор пишет свой игровой движок и, к сожалению, не так много времени уделяет обучающему контену, но, в свое время, был находкой для новичков, решивших изучать C++ и OpenGL.

2. Илья Мещерин - публичный спикер, лектор и практикующий С++ разработчик. На сколько я знаю, Илья работал в таких компаниях, как Яндекс, ВК и Ядро. Контент, который им производится, подойдет не только начинающим, но и довольно опытным программистам.

От его лица вы вряд ли найдете разборы библиотек и фреймворков, КРИТИЧЕСКИ необходимых для трудоустройства. По его видео можно хорошо отточить C++ и STL, чего и будет достаточно для определенных целей (например, подготовке к собесам).

Лекции выходят от канала ФПМИ. Также, пулл уроков от 2020 года можно найти в плейлисте.

3. ambushedraccoon - отечественный блогер/интервьюер. Его контент основан на проведении junior/middle C++ собесов. Если хотите проработать ответы на самые актуальные вопросы рынка, рекомендую.

4. Jacob Sorber (английский) - разработчик, специализирующийся на embedded и IOT технологиях. Автор затрагивает как совсем базовые, так и довольно глубокие темы, касающиеся языков программирования C/С++, Linux OS и Computer Science.

Linux

1. NetworkChuck (английский) - канал сетевого инженера, который, помимо всего прочего, научит вас основам работы с Linux.

Да, сейчас уже все переходит в развлекательный формат, т.к. надо фармить просмотры, однако все еще можно "выловить" немало полезного материала.

Так, например, плейлисты по подсетям, основам bash и базовому администрированию.

В чем автор силен, так это в динамической подаче материала. Если вам наскучили унылые лекции, можете обратить внимание на NetworkChuck.

2. Learn Linux TV (английский) - канал системного инженера. Основные хайлайты: bash, разборы системных команд, изучение текстового редактора vim.

Linux++ | IT-Образование
👍117❤‍🔥2🌭1
Файлы паролей: passwd и shadow

В linux для аутентификации пользователя и хранения информации о нем используются 2 файла /etc/passwd и /etc/shadow. Давайте рассмотрим назначения каждого из них.

Файл /etc/passwd

В системном файле паролей /etc/passwd содержится по одной строке для каждой учетной записи пользователя. Каждая строка состоит из семи полей:


mtk:x:1000:100:Michael Kerrisk:/home/mtk:/bin/bash


Рассмотрим эти поля по порядку следования:

1. Имя для входа в систему. Это уникальное имя, которое пользователь должен вводить при входе в систему - легко читаемый символьный идентификатор пользователя, соответствующий числовому (UID).

2. Зашифрованный пароль. В этом поле содержится 13-символьный зашифрованный пароль пользователя. Поскольку этот файл используется многими утилитами типа ls, чтобы отобразить владельца файла и другие подобные сведения, он должен быть открыт на чтение для всех, что, конечно, дает отличный шанс хакерам.

По этой причине, в настоящее время, поле пароля в /etc/passwd содержит букву 'x', чтобы обозначить, что пароль был назначен и сохранен в теневом файле /etc/shadow.

Если поле является пустым, значит, для регистрации под этой учетной записью пароль не нужен.

3. Числовой идентификатор пользователя (UID). Если поле хранит значение 0, то пользователь с данной учетной записью - привилегированный (суперпользователь).

Как правило, имеется только одна такая учетная запись, у которой в качестве имени для входа в систему используется слово root.

4. Числовой идентификатор первой из групп, в которую входит пользователь (GID). Дальнейшая принадлежность к группам этого пользователя определена в системном файле групп.

5. Комментарий. Это поле содержит текст, описывающий пользователя. Такой текст выводится различными программами, например finger.

6. Домашний каталог. Исходный каталог, в который пользователь попадает после входа в систему. Содержимое этого поля становится значением переменной среды HOME.


$ echo $HOME
/home/xodefender


7. Оболочка входа в систему. Это программа, которой передается управление после входа пользователя в систему. Обычно это одна из оболочек, например bash, но может быть и любая другая программа.

Если это поле является пустым, то в качестве исходной, применяется оболочка /bin/sh. Содержимое поля становится значением для переменной среды SHELL.


$ echo $SHELL
/bin/bash


Теневой файл /etc/shadow

Теневой файл паролей /etc/shadow был разработан, как средство противостояния хакерским атакам.

Замысел заключается в том, что вся неконфиденциальная информация о пользователе находится в открытом, доступном для чтения файле passwd, а зашифрованные пароли хранятся в теневом файле, доступном для чтения только программам с особыми привилегиями.

Файл /etc/shadow хранит данные о пользователе в формате. Как и в файле passwd, каждое поле в файле shadow отделяется двоеточием:


smithj:Ep6mckrOLChF.:10063:0:99999:7:::


1. Имя пользователя (до 8 символов). Совпадает по значению с /etc/passwd.

2. Зашифрованный пароль (13 символов). Пустая запись '::' показывает, что для входа пароль не нужен (обычно идея плохая).

3. Количество дней, начиная с 1 января 1970, когда пароль был сменен в последний раз.

4. Число дней до смены пароля (0, если он может быть сменен всегда).

5. Число дней, после которых пароль должен быть сменен (99999, если пользователь может не менять пароль фактически никогда).

6. Число дней, в течение которых пользователь получает предупреждения о необходимости пароль сменить (7 для полной недели).

7. Число дней после окончания действия пароля, когда еще можно работать. Если пароль не сменить, после данного срока он выдохнется, и аккаунт будет заблокирован.

8. Число дней, начиная с 1 января 1970, после которых пароль будет заблокирован.

9. Зарезервировано для возможного будущего использования.

Linux++ | IT-Образование
🔥19👍17❤‍🔥21🌭1💯1
Копаемся c архивами в Linux

В Linux существует множество консольных утилит для работы с архивами и сжатыми файлами.

Нередко в работе бывают случаи, когда GUI под рукой не оказывается (при работе через ssh) и приходится выкручиваться для того, чтобы прочитать ".tar.gz" или ".zip" архивчик.

команды zip и unzip

zip используется для сжатия и архивирования файлов по одноименному алгоритму.

Через параметр ARCHIVE команда принимает имя архива, в который надо добавить файлы. После этого параметру FILES передается набор архивируемых файлов/каталогов:


zip [OPTIONS] ARCHIVE FILES

$ zip myfiles.zip book.pdf image.png


Команда unzip, наоборот, позволяет распаковать архив и в общем случае имеет следующий формат:


unzip [OPTIONS] ARCHIVE

$ unzip myfiles.zip


команды tar, gzip и gunzip

gzip (GNU zip) - архиватор файлов с расширением ".gz".

Данная команда не умеет упаковывать несколько файлов в один архив и используется для поштучного сжатия. Для каждого переданного экземпляра создается спрессованный ".gz" собрат:


# -k : сохраняет изначальный файл

$ gzip -k file1.txt file2.txt


gunzip - распаковщик архивов ".gz". Команда является эквивалентом для "gzip -d":


$ gunzip file.txt.gz
$ gzip -d file.txt.gz


Для упаковки нескольких файлов, их сначала необходимо архивировать в один через утилиту tar и уже потом сжать результат командой gzip.

tar - это утилита, которая используется для объединения нескольких файлов и директорий в один архив.

Сама по себе команда не сжимает файлы, а просто сохраняет их в один ".tar" файл.

Давайте рассмотрим комбо:


# -c : Создать новый архив
# -f : Указать имя создаваемого архива

$ tar -cf archive.tar file.txt

$ gzip archive.tar


Таким образом, сжатые архивы обычно имеют двойное расширение ".tar.gz" или сокращённое ".tgz".

Для того, чтобы распаковать архив, можно использовать флаг "-x":


$ tar -xf archive.tar


команда zcat

Команда zcat похожа, по сути, на cat и используется для вывода содержимого сжатых файлов формата ".gz" без необходимости их предварительной распаковки:


$ zcat file.txt.gz
Hello world


Linux++ | IT-Образование
👍19🔥3❤‍🔥1🌭1
Valve начинает сотрудничество с Arch Linux

Разработчики дистрибутива Arch Linux объявили о переходе к прямому сотрудничеству с компанией Valve, развивающей операционную систему SteamOS, основанную на Arch Linux.

Компания Valve поможет в сопровождении сборочной инфраструктуры и поддержании анклава для заверения компонентов дистрибутива цифровыми подписями.

Valve предоставит дополнительные ресурсы, которые позволят развивать отмеченные области, не ограничиваясь свободным временем добровольцев.

Ожидается, что сотрудничество с Valve ускорит решение некоторых актуальных проблем дистрибутива, ускорит разработку и позволит быстрее реализовать планы.

Для всех, инициируемых Valve значительных изменений, будут создаваться RFC и публиковаться issue в GitLab, что позволит добиться прозрачности и даст возможность сообществу контролировать ход работы.

Linux++ | IT-Образование
🔥33👍141
Процессы и программы: переменные окружения

У каждого процесса есть, связанный с ним строковый массив, который называется списком переменных среды (окружения). Каждая из его строк является элементом вида имя=значение.

Таким образом, среда представляет собой набор пар имя — значение, которые могут применяться для хранения произвольной информации.

Когда создается новый процесс, он наследует копию среды своего родителя. Это простая, но часто используемая форма межпроцессного взаимодействия (IPC), когда среда предоставляет способ переноса информации от родительского процесса к дочернему.

Результат переноса информации от родительского процесса к дочернему является односторонним и однократным. После создания потомка, любой последующий экземпляр может изменить свою собственную среду, и эти изменения будут незаметны извне.

Некоторые библиотечные функции позволяют изменять свое поведение путем установки переменных среды. Это дает возможность пользователю управлять поведением приложения без изменения кода или его перекомпоновки с использованием соответствующей зависимости.

Один из классических примеров - переменная среды LD_LIBRARY_PATH, которую мы ранее затрагивали. Когда программа использует динамические библиотеки, загрузчик ищет их в системных каталогах lib или /usr/lib. Однако с помощью LD_LIBRARY_PATH можно указать альтернативные пути поиска:


$ LD_LIBRARY_PATH=/usr/local/lib ./myapp


Определение переменных окружения

В большинстве оболочек значение может быть добавлено к среде с помощью команды export:


$ SHELL=/bin/bash
$ export SHELL


В примере выше, первой командой создается переменная оболочки, которая, без явного экспорта, не будет унаследована дочерним процессом. Второй вызов определяет переменную для окружения и помещает ее в среду процесса.

В оболочках bash и Korn можно воспользоваться следующей записью:


$ export SHELL=/bin/bash


Показанные выше команды навсегда добавляют значение к окружению оболочки, после чего это окружение наследуется всеми, создаваемыми оболочкой дочерними процессами. Переменная может быть в любой момент удалена командой unset:


$ unset VARIABLE_NAME


В оболочке Bourne shell и ее потомках (bash и Korn) для добавления значений к окружению выполняемой программы, может использоваться такой синтаксис:


$ NAME=value program


Определение будет добавлено к среде только того дочернего процесса, который выполняет указанную программу. Текущий список переменных среды выводится командой printenv:


$ printenv
LOGNAME=mtk
SHELL=/bin/bash
HOME=/home/mtk
PATH=/usr/local/bin:/usr/bin:/bin:.
TERM=xterm


Список переменных среды любого процесса можно изучить, обратившись к характерному для Linux "/proc/PID/environ":


$ cd /proc/2953
$ cat environ
HOME=/home/xodefenderLANG=en_US.UTF-8LOGNAME=xodefender


Обращение к среде из программы

Из программы на языке C, список переменных среды может быть доступен с помощью глобальной переменной environ. Как и argv, переменная environ содержит список указателей на строки, заканчивающиеся нулевыми байтами. Cам список заканчивается значением NULL:


#include <stdio.h>

extern char **environ;

int
main(int argc, char *argv[])
{
char **list;
for (list = environ; *list != NULL; list++) {
puts(*list);
}
exit(EXIT_SUCCESS);
}


Альтернативный метод обращения к списку переменных среды заключается в объявлении для функции main() третьего аргумента:


int main(int argc, char *argv[], char *envp[])


Отдельные значения из среды процесса извлекаются с помощью getenv():


#include <stdlib.h>
char *getenv(const char *name);


Linux++ | IT-Образование
👍24🔥4👌1