LinuxCamp | DevOps – Telegram
LinuxCamp | DevOps
14.2K subscribers
193 photos
7 videos
298 links
Обо мне: C/C++/Linux эксперт. Говорим про разработку, Linux, DevOps, сети и администрирование.

Админ (реклама): @XoDefender
Чат: @linuxcamp_chat

Менеджер: @Spiral_Yuri
Биржа: https://telega.in/c/linuxcamp_tg

№ 6327102672
Download Telegram
Отложенное связывание символов (Lazy Binding)

С этого поста мы начинаем глубже уходить в процесс разрешения динамических зависимостей. Разобравшись с тем, как исполняемый файл получает доступ к внешним символам, мы сможем точнее понять проблему разделяемых библиотек и аккуратно подойти к возможным оптимизациям, которые к ним применимы.

Как мы знаем, в динамической секции ELF файла содержатся названия всех разделяемых библиотек, от которых наше приложение зависит:


$ readelf -d prog
Dynamic section at offset 0xd78 contains 29 entries:
Tag Type Name/Value
0x0000000000000001 (NEEDED) Shared library: [libdemo.so]
0x0000000000000001 (NEEDED) Shared library: [libc.so.6]



При старте программы, загрузчик проходится по всем известным ему путям, проверяет кэш ld.so.cache и определяет, доступна ли указанная библиотека для дальнейшей работы. Если зависимость не найдена, приложение упадет и выведется следующий лог:


./prog: error in loading shared libraries: libdemo.so:
cannot open shared object file: No such file or directory


На данном этапе никакого связывания не происходит, сейчас загрузчику нужно просто определить библиотеку для текущего процесса: выгрузить ее в виртуальное адресное пространство программы и, при первом использовании, в физическую память (RAM).

Для связывания в ELF существует специальная секция .dynsym, в которой ключевым словом UND (undefined) помечены названия всех символов, которые необходимо определить:


$ readelf --dyn-syms ./prog

Symbol table '.dynsym' contains 13 entries:
Num: Value Size Type Bind Vis Ndx Name
6: 0000000000000000 0 FUNC GLOBAL DEFAULT UND calculate_smth


Как и когда происходит разрешение имен?

Для того, чтобы ответить на данный вопрос, рассмотрим две дополнительные сущности ELF файла: PLT и GOT таблицы. Эти таблицы расположены в адресном пространстве процесса и отвечают за определение адресов динамически подгружаемых символов. На каждый символ в этих таблицах существует точка входа:


$ readelf -SW ./prog
Section Headers:
[Nr] Name Type Address
[12] .plt PROGBITS 00000000000006a0
[21] .got PROGBITS 0000000000010f78


При статическом связывании программы, все вызовы динамически подгружаемых символов записываются компоновщиком следующим образом "<name>@plt". Это говорит о том, что в рантайме будет выполнена не сама функция, а определенная заглушка, которая, по таблице GOT выяснит, найден ли соответствующий адрес. Вот так выглядит команда на уровне ассемблера:


call 0x401060 <puts@plt>


Если адрес неизвестен, код внутри заглушки попросит загрузчик его определить и записать в соответствующее поле таблицы GOT, после чего будет выполнена команда jump на адрес и начнется выполнению кода. При последующих вызовах функции заглушка проверит адрес в таблице GOT и так как он будет определен, пропустит вызов компоновщика и сразу перейдет на jump до функции:


jump 0x404018 <puts@got.plt>


Так вот, что же такое Lazy Binding?

Это процесс определения адресов на этапе выполнения. Такой подход призван ускорить старт программы, так как не требуется при загрузке ее в память полностью заполнять все точки входа таблицы GOT: проходиться по всем библиотекам из секции .dynamic и определять адреса для каждого символа секции .dynsym.

Это не значит, что библиотеки, от которых зависит исполняемый файл, не будут загружены в память. Отложенная загрузка библиотек - это чуть другая история (Lazy Loading). В Linux, к сожалению, данный функционал отсутствует и реализован только сторонними утилитами, допустим, imlib.so.

Lazy binding обладает как плюсами, так и минусами. С одной стороны, ускоряется старт программы, с другой, приложение может неожиданно упасть, если на этапе выполнения не будет найден какой-то символ (как мы помним, это может произойти из-за того, что таблица GOT инициализируется не сразу, а по мере необходимости).
👍13🔥103
LinuxCamp | DevOps pinned «Контент план по разделяемым библиотекам: 1. Общая информация про разделяемые библиотеки 2. Компоновка с динамическими библиотеками [1] 3. Компоновка с динамическими библиотеками [2] 4. Компоновка с динамическими библиотеками [3] 5. Версионирование разделяемых…»
Ускорение работы библиотек: отключение ленивого связывания

Как мы выяснили в прошлой публикации, ленивое связывание (Lazy Binding) - это процесс определения адресов символов на этапе выполнения. Данный механизм ускоряет загрузку приложения ценой накладных расходов в процессе работы: вместо прямого вызова функции вызывается PLT заглушка, которая задействует набор дополнительных машинных инструкций и дергает динамический компоновщик для определения адресов.

Система ленивого связывания не везде используется по дефолту: в Windows таблица адресов (Import Address Table - IAT) полностью заполняется на старте программы, в Linux ситуация обратная, однако никто не говорить, что скорректировать такое поведение невозможно - все возможно (особенно в Linux)!

Современные компиляторы поддерживают флаг "-fno-plt", который, как видно из названия, исключает из кода plt заглушки и необходим для связывания символов на старте программы:


$ gcc -fno-plt -o prog main.c


Использование данного флага:

1) уменьшает размер исполняемого файла: каждая заглушка добавляет, как минимум, 32 байта к объему (для x86/x86_64 архитектур)

2) уменьшает загруженность регистров и "instruction cache" для CPU

3) ускоряет вызовы библиотечных функций и, как следствие, процесс выполнения кода

По данным разработчика yugr, использование флага в clang дало +10% к приросту производительности для большого проекта (автор деталей не уточнял). Это действительно хороший и значимый результат, особенно, для высоконагруженных сервисов, где каждая микросекунда на счету.

Интересный факт: во многих дистрибутивах сборка пакетов выполнена с внедрением флага "-fno-plt". Некоторые утилиты, в качестве исключений, могут обходить стороной этот флаг при компиляции. Так, например, для xorg, glibc, valgrind, openjdk (внутри Arch Linux) он не используется.

Cуществует еще 2 способа отключить ленивое связывание: переменная окружения "LD_BIND_NOW" и флаг компоновщика "-z now". При таком подходе влияние оказывается на загрузчик, из-за чего может не получится выжать максимум из производительности, т.к. вызов функций все также будут происходить через plt заглушки:


$ LD_BIND_NOW=1 ./prog
$ gcc -o prog main.c -Wl,-z,now


Результат использования флага и переменной окружения аналогичен:

1) plt заглушки все еще являются частью кода

2) все адреса символов определяются на этапе запуска программы

3) не вызывается динамический компоновщик для связывания функций при первом использовании

4) при вызове функции, переход происходит сразу на конкретный адрес в таблице GOT

Таким образом, однозначно добиться дополнительной производительности от приложения можно через использование флага компилятора "-fno-plt", который исключит из бинарного файла все plt заглушки и приведет к вызову функций через прямое обращение к GOT.

#linux
👍16🔥6👏2
Использование флага компоновщика -Bsymbolic

Представьте, что глобальный символ (функция или переменная) определен сразу в нескольких местах - например, в исполняемом файле и разделяемой библиотеке или в нескольких разных библиотеках. Как будет разрешена ссылка на этот символ?

Допустим, у нас есть главная программа и разделяемая библиотека, и в обеих определена глобальная функция хуz(), которая вызывается из другой библиотечной функции:


// Выводим содержимое main.c
$ cat ./main.c
void xyz(){
printf("main-xyz");
}

void main(){
func();
}

// Выводим содержимое libdemo.c
$ cat libdemo.c
void xyz(){
printf("libdemo-xyz");
}

void func(){
xyz();
}


Собрав разделяемую библиотеку и исполняемый файл и затем запустив полученную программу, мы увидим следующее:


$ gcc -g -c -fPIC -Wall -c libdemo.c
$ gcc -g -shared -o libdemo.so libdemo.o
$ gcc -g -o prog main.c libdemo.so
$ LD_LIBRARY_PATH=./ ./prog

main-xyz


В последней строчке мы видим, что определение хуz() из главной программы переопределяет (перекрывает) одноименную функцию в разделяемой библиотеке.

Главная проблема такого механизма - несовместимость с принципом, согласно которому разделяемая библиотека должна быть реализована в качестве самодостаточной подсистемы. В результате такого подхода, разделяемая библиотека не гарантирует, что ссылка на один из ее собственных глобальных символов будет привязана к ее же определению этого символа.

Следовательно, свойства библиотеки могут измениться при включении ее в более крупный модуль. Это может привести к непредвиденным сбоям в приложении и усложнить раздельную отладку (например, когда вы пытаетесь воспроизвести проблему, используя другие разделяемые библиотеки или уменьшая их количество).

Для гарантии того, что в вышеописанном сценарии вызов хуz() в разделяемой библиотеке приведет к запуску именно той функции, которая в ней определена, на этапе сборки компоновщику можно передать параметр -Bsymbolic:


$ gcc -g -c -fPIC -Wall -c libdemo.c
$ gcc -g -shared -Wl,-Bsymbolic -o libdemo.so libdemo.c
$ gcc -g -o prog main.c libdemo.so
$ LD_LIBRARY_PATH=./ ./prog

libdemo-xyz


Параметр компоновщика -Bsymbolic делает так, что ссылки на глобальный символ внутри разделяемой библиотеки в первую очередь должны привязываться к определению из этой библиотеки (если таковое существует).

Стоит отметить: вне зависимости от данного параметра, вызов хуz() главной программы всегда приводит к запуску той версии функции, которая в ней определена.
👍9🔥7❤‍🔥2
Channel photo updated
Ускорение работы библиотек: отключение перехвата функций

В прошлый раз мы рассмотрели флаг компоновщика -Bsymbolic и узнали, как будет разрешена ссылка на глобальный символ, определенный сразу в нескольких местах: исполняемом файле и разделяемой библиотеке.

В этой публикации продолжим разбор данного флага и узнаем, как его использование в связке с параметром компилятора -fno-semantic-interposition может уменьшить размер исполняемого файла и ускорить процесс выполнения кода.

В обычной ситуации, если вы компилируете разделяемую библиотеку с помощью GCC, каждый вызов функции проходит через таблицу PLT для определения адреса и поддержки возможности, в случае чего, использовать стороннюю реализацию при перехвате (LD_PRELOAD). Это говорит о том, что если в библиотеке определены функции foo и bar и при этом foo вызывает bar, то вызов bar будет не прямым, а косвенным (через PLT заглушку):


$ gdb ./prog
Dump of assembler code for function foo:
=> 0x0000fffff7fa059c <+8>: bl 0xfffff7fa0480 <bar@plt>
0x0000fffff7fa05a8 <+20>: ret


Такая система вызовов:

1. Исключает возможные оптимизации на этапе генерации кода компилятором. Как пример, то же встраивание функций (inline) не будет отработано.

2. Приводит к большему размеру файла библиотеки за счет дополнительных машинных инструкций, необходимых для заполнения таблиц PLT и GOT.

3. Нагружает CPU instruction cache и приводит к более длительному исполнению кода.

4. Приводит к неоднозначности по отношению к используемой реализации: будет вызвана функция, определенная компоновщиком первой. Не факт, что это будет именно тот экземпляр, который реализован внутри библиотеки. Функции, которые определены в исполняемом файле, имеют больший приоритет.

Хммм, для чего тогда нужна такая система, раз уж столько в ней недостатков? По другому не получится, если нужен функционал перехвата функций через переменную LD_PRELOAD. В таком случае можно подменять реализации символов на те, которые указаны в передаваемой библиотеке:


$ gcc -Wall -o prog main.c ./libdemo.so
$ LD_PRELOAD=./libdemo2.so ./prog
Function "bar" is called from libdemo2.so


Если мы соберем зависимость с флагом -Bsymbolic, все вызовы внутренних функций будут происходить напрямую, без PLT заглушек, что с одной стороны значительно уменьшит программный overhead, с другой исключит возможность перехвата символов в рантайме:


$ gdb ./prog
Dump of assembler code for function foo:
=> 0x0000fffff7fa0628 <+8>: bl 0xfffff7fa05f4 <bar>
0x0000fffff7fa0634 <+20>: ret


Таким образом, данный флаг не только приводит к однозначному использованию библиотечных реализаций вложенных функций, но и способствует лучшей производительности программ на этапе выполнения.

Как добиться лучшей производительности?

Все бы хорошо, но хочется полностью развязать компилятору руки и позволить эффективно оптимизировать код. Для данной цели предусмотрен флаг -fno-semantic-interposition, который исключает возможность перехвата символов на этапе компиляции и позволяет применять к функциям ряд различных оптимизаций. В GCC этот флаг по дефолту отключен и активируется под параметром -Ofast.

Для лучшей производительности, рассмотренные флаги лучше использовать вместе, тогда получится не только избавиться от PLT вызовов, но и сгенерировать более оптимальный код:


gcc -Wl,-Bsymbolic -Ofast -shared -o libdemo.so mod1.c
👍8❤‍🔥4🔥4👾1
Процессы и программы

Процессом является экземпляр выполняемой программы. В данном посте мы подробно разберем это определение и вы узнаете разницу между программой и процессом.

Программа представляет собой файл, содержащий различную информацию о том, как сконструировать процесс в ходе выполнения. В эту информацию входит:
‰
‰1. Идентификационный признак двоичного формата.

Каждый программный файл включает в себя метаинформацию с описанием формата исполняемого файла. Это позволяет ядру корректно интерпретировать все остальные данные внутри файла.

Изначально для исполняемых файлов UNIX было предусмотрено два широко используемых формата: исходный формат a.out (assembler output — вывод на языке ассемблера) и появившийся позже более сложный общий формат объектных файлов COFF (Common Object File Format).

В настоящее время в большинстве реализаций UNIX (включая Linux) применяется формат исполняемых и компонуемых файлов ELF (Executable and Linking Format), предоставляющий множество преимуществ по сравнению с предшественниками.
‰
2. Машинный код.

В нем закодирован алгоритм программы.

3. Адрес входа в программу.

В нем указывается место той инструкции, с которой должно начаться выполнение программы.
‰
4. Данные.

В программном файле содержатся значения, используемые для инициализации переменных, а также применяемые программой символьные константы (например, строки).
‰
5. Таблицы имен и переадресации.

В них дается описание расположений имен функций и переменных внутри программы. Эти таблицы предназначены для различных целей, включая отладку и разрешение имен в ходе выполнения программы (динамическое связывание).
‰
6. Информация о совместно используемых библиотеках и динамической компоновке.

В программный файл включаются поля, где перечисляются совместно используемые библиотеки, которые программе потребуются в ходе выполнения, а также путевое имя динамического компоновщика, который должен применяться для загрузки этих библиотек.

Одна программа может использоваться для построения множества процессов, или же, если наоборот, во множестве процессов может быть запущена одна и та же программа.

Определение процесса, которое было дано в начале, можно переформулировать следующим образом: процесс является абстрактной сущностью, которая установлена ядром и которой, для выполнения программы, выделяются системные ресурсы.

С позиции ядра процесс состоит из памяти пользовательского пространства, внутри которой содержится код программы, а также из ряда структур данных, хранящих информацию о состоянии процесса.

Некоторая информация, записанная в структурах данных ядра, включает в себя: различные идентификаторы, связанные с процессом (PID, PPID ...), таблицы виртуальной памяти и дескрипторов открытых файлов, сведения, относящиеся к текущему рабочему каталогу, доставке и обработке сигналов, использованию и ограничениям ресурсов процесса.

#linuxcore #linux
👍12🔥632🥰1👾1
Структура памяти процесса

Память, выделяемая каждому процессу, состоит из нескольких частей, которые обычно называют сегментами. К числу таких сегментов относятся следующие:
‰
1. Текстовый сегмент (.text)

Cодержит машинный код, который принадлежит программе, запущенной процессом. Текстовый сегмент создается только для чтения, чтобы процесс не мог случайно изменить свои собственные инструкции (из-за read-only статуса, некоторые компиляторы могут записывать туда константы).

Поскольку многие процессы могут выполнять одну и ту же программу, текстовый сегмент создается с возможностью совместного использования - единственная копия кода программы может быть отображена на виртуальное адресное пространство всех процессов.

2. Сегмент инициализированных данных (.data)

Хранит глобальные и статические переменные, инициализированные явным образом. Значения этих переменных считываются из исполняемого файла при загрузке программы в память.
‰
3. Сегмент неинициализированных данных (.bss - block started by symbol)

Содержит глобальные и статические переменные, не инициализированные явным образом. Перед запуском программы система определяет всю память в этом сегменте значением 0.

Основная причина помещения прошедших инициализацию переменных в отдельный от неинициализированных переменных сегмент заключается в том, что, когда программа сохраняется на диске, нет никакого смысла выделять пространство под неинициализированные данные.

Вместо этого исполняемой программе просто нужно записать местоположение и размер, требуемый для сегмента неинициализированных данных, и это пространство выделяется загрузчиком программы в ходе ее выполнения.
‰
4. Динамически увеличивающийся и уменьшающийся сегмент стека (stack)

Содержит стековые фреймы: для каждой отдельной функции выделяется один стековый фрейм, в котором хранятся ее локальные переменные, аргументы и возвращаемое значение. По мере вызова функций и возврата из них стек расширяется и сжимается.‰

Текущая вершина стека отслеживается в специально предназначенном для этого регистре - указателе стека. Процесс сжатия стека называется расруткой.

5. Динамическая память (heap)

Область, которая предназначена для динамического выделения памяти в ходе выполнения программы (malloc, calloc, free, realloc - под капотом используют системные вызовы brk и sbrk).

6. Сегмент аргументов командной строки

Сегмент для хранения переменных, которые переданы программе в качестве аргументов (argc и argv[]), где argc хранит количество переданных аргументов, а argv хранит значение фактических значений вместе с именем файла:


~$ ./prog 100 23 43 69


Далее продемонстрированы различные типы переменных в коде и комментарии, указывающие на сегменты их размещения (в случае оптимизаций, часто используемые переменные могут быть помещены в регистры или вообще исключены):


/* Сегмент неинициализированных данных */
char globBuf[65536];

/* Сегмент инициализированных данных */
int primes[] = { 2, 3, 5, 7 };

/* Размещается в фрейме для square() */
static int square(int x)
{
/* Размещается в фрейме для square() */
int result;
result = x * x;

/* Возвращаемое значение передается через регистр */
return result;
}

/* Размещается в фрейме для doCalc() */
static void doCalc(int val)
{
square(val)

if (val < 1000) {
/* Размещается в фрейме для doCalc() */
int t;
t = val * val * val;
}
}

/* Размещается в фрейме для main() */
int main(int argc, char *argv[])
{
printf("File name = %s\n", argv[0]);
printf("Number of arguments = %d\n", argc - 1);

/* Сегмент инициализированных данных */
static int key = 9973;

/* Сегмент неинициализированных данных */
static char mbuf[10240000];

/* Размещается в фрейме для main() */
char *p;

/* Указывает на память в сегменте кучи */
p = malloc(1024);

doCalc(key);
}


В комменты я отправил несколько изображений для визуализации материала.

#linuxcore #linux #cpp #cppcore
👍19🔥732🥰1👾1
Системные и библиотечные вызовы [1]

Ну чтож, начинаем погружение в интересную тему - рассмотрим то, без чего не обходится ни одно системное приложение - системные и библиотечные вызовы.

Тут, на самом деле, можно довольно глубоко копнуть. Если проявится ваш интерес, сделаем ряд постов, где вдоль и поперек разберем принцип работы вызовов, практики их использования и т.д.

Что такое системный вызов?

Можно считать, что все пользовательские программы работают внутри некоторой песочницы, из которой нельзя так просто выполнять ряд действий: получать доступ к файлам, передавать данные по сети, выводить текст на экран, создавать процессы и т.д. Для этого нужно обратиться к внутренним сервисам ядра и попросить его сделать что требуется через системные вызовы.

Системный вызов изменяет состояние процессора, переводя его из пользовательского режима в режим ядра, позволяя ему таким образом получить доступ к защищенной памяти ядра.

(Системные вызовы Linux перечисляются на странице руководства syscalls(2))

Это может вас немного напугать, но, обычно, системные вызовы недоступны напрямую. Все, с чем вы работаете - это тонкие функции-обертки библиотки glibc. Да-да, не удивляйтесь: read, write, fork являются всего лишь понятным пользователю интерфейсом, через который отрабатывают системные вызовы.

И да, важно помнить то, что системные вызовы - это платформозависимая история. Чтение файлов, взаимодействие с процессами, работа с сокетами, управление памятью и прочие системные операции реализованы по разному на каждой системе и могут отличаться друг от друга по API.

Как сделать прямой системный вызов?

Иногда бывает полезно явно обраться к системному вызову в случае, если для него не реализована сишная функция-обертка. Сделать это можно через библиотечный вызов syscall() из unistd.h, который первым параметром принимает номер системного вызова из "sys/syscall.h", а далее - аргументы самого вызова:


extern long int syscall (long int __sysno, ...) __THROW;


Таким образом, системный вызов write() можно инициировать по разному:


#include <unistd.h>
#include <sys/syscall.h>

int main(void) {
write(1, "hello, world!\n", 14)
syscall(SYS_write, 1, "hello, world!\n", 14);
return 0;
}


Что такое библиотечный вызов?

Библиотечным вызовом можно считать вызов функции стандартной библиотеки C, в которой не содержится прямой реализации системного вызова: системного прерывания, переноса аргументов в определенные, необходимые ядру, регистры, копирования номера системного вызова в регистр (%eax) и т.д.

Эти функции предназначены для решения широкого круга разнообразных задач: открытия файлов, преобразования времени в формат, понятный человеку, сравнения двух символьных строк и т.д.

Многие библиотечные функции вообще не используют системные вызовы (например, функции для работы со сроками). С другой стороны, некоторые библиотечные функции являются надстройками над системными вызовами с платформозависимой реализацией.

Например, библиотечная функция fopen() использует для открытия файла системный вызов open().

Зачастую библиотечные функции разработаны для предоставления более удобного интерфейса вызова по сравнению с тем, что имеется у исходного системного вызова.

Например, функция printf() предоставляет форматирование вывода и буферизацию данных, а внутренний системный вызов write() просто выводит блок байтов.

Аналогично этому функции malloc() и free() выполняют различные вспомогательные задачи, существенно облегчающие выделение и высвобождение оперативной памяти по сравнению с использованием исходного системного вызова brk().

#linuxcore #linux #cpp #cppcore
👍32🔥6❤‍🔥52🖕1👾1
Разбор команд: strace

Продолжаем погружаться во вселенную системных вызовов - сегодня поговорим про команду strace и получим знания о том, как залезть в недра процесса и посмотреть на его общение с ядром через набор системных вызовов.

Команда strace преимущественно используется для того, чтобы отследить системные вызовы со стороны процесса. По сравнению с gdb, это довольно легкая в использовании утилита, которая позволяет вам приоткрыть ширму высокоуровневого API и посмотреть на то, что происходит "under the hood".

Давайте разберем принцип ее работы на простом примере:


#include <stdio.h>

int main(int argc, char **argv)
{
printf("Hello, world\n");
return 0;
}


Теперь давайте прогоним это через strace и посмотрим на результат:


$ strace ./hello_world

execve("./hello_world", ["./hello_world"], [/* 50 vars */]) = 0

brk(0) = 0xa7e000 access("/etc/ld.so.nohwcap", F_OK) = -1

access("/etc/ld.so.preload", R_OK) = -1 ENOENT (No such file or directory)

open("/etc/ld.so.cache", O_RDONLY) = 3


Воу, это лишь малая часть того, что вывелось в консоль... Как говорилось ранее, strace дает нам список всех системных вызовов, сделанных нашей программой.

Сейчас давайте обратим внимание на один конкретный вызов, который произошел входе выполнения и подробно разберем структуру, по которой strace формирует вывод информации:


write(1, "Hello, world\n", 13Hello, world ) = 13


Во-первых, можно увидеть то, что наша программа где-то, вероятно, через библиотечную функцию printf(), делает обращение к вызову write() для того, чтобы записать строку "Hello, world" в файл по дескриптору 1, также известному, как "standard output" (13 - это размер буфера на вывод):


write(1, "Hello, world\n", 13


Во-вторых, так как вывод команды strace и вывод нашей программы произошел в один и тот же терминал, строка "Hello, world" прилипла к информации про сам вызов:


write(1, "Hello, world\n", 13Hello, world


В-третьих, было напечатано возвращаемое значение 13, которое передается нашей программе и говорит о том, что вызов успешно записал 13 символов по указанному дескриптору:


write(1, "Hello, world\n", 13Hello, world ) = 13


Несколько сценариев использования:

1. Выяснить, какие конфиги читает программа на старте. Бывало же у вас такое: запускаете софт, ожидаете получить один результат, а тут Оппа, либо ничего не работает либо происходит то, чего вы вообще не ожидали...

strace может показать вам перечень интересующих вызовов, по которым вы сможете отследить код возврата и понять, в чем дело. В данном случае, нас интересует вызов open(), на который мы указываем через флаг '-e':


$ strace -e open php 2>&1 | grep php.ini
open("/usr/local/bin/php.ini", O_RDONLY) = -1 ENOENT (No such file or directory)
open("/usr/local/lib/php.ini", O_RDONLY) = 4


В результате видно, что процессу не получилось открыть "/usr/local/bin/php.ini" и он пошел к "/usr/local/lib/php.ini", с которым проблем не возникло. Вызов успешно отработал и вернул файловый дескриптор 4.

2. Узнать вызов, на котором процесс завис. Если программа по какой-то причине перестала отвечать на запросы, возможно, она в блокирующем режиме ожидает получения данных или что-то в этом духе. Найти причину можно попробовать через запуск с флагом "-p <pid>":


$ strace -p 15427
Process 15427 attached - interrupt to quit
futex(0x402f4900, FUTEX_WAIT, 2, NULL
Process 15427 detached


Да, мало информации, известно только то, что завис на вызове futex(). Если вы не обладаете дополнительной информацией, то, скорее всего, придется лезть в исходники. Однако, базовое представление о проблеме получить можно.

3. Понять, на что уходит процессорное время. Иногда бывает полезно быстро пристроить strace к программе и посмотреть, на полезную ли работу тратится наше CPU или мы просто чего-то ждем... Запуститься в режиме профилирования можно через флаг '-c':


$ strace -c -p 11084

% time seconds usecs/call calls errors syscall
94.59 0.001014 48 21 select
....
👍25🔥17❤‍🔥3👾21
Разбор команд: strace -c

В прошлый раз мы рассмотрели базовый функционал и принцип работы утилиты strace. Сегодня уделим внимание конкретному ее флагу '-c', который позволяет поверхностно оценить производительность через пулл полезной информации про каждый системный вызов, выполненный для целевого процесса.

Давайте на простом примере посмотрим, что же можно выцепить из приложения, если прогнать его через "strace -c":


#include <unistd.h>
#include <fcntl.h>
#include <string.h>

int main()
{
   int fd = open("input.txt", O_WRONLY);
   char* buffer = "Why am I doing this?";
   while(1) {
   write(fd, buffer, strlen(buffer));
   }
   
   close(fd);
   return 0;
}


Этот код просто занимается тем, что постоянно пишет в файл один и тот же буфер с данными.... Да, супер полезная работа, но нам для примера подойдет. Как думаете, к чему это приведет? Правильно, к потреблению CPU в 100%!

Не всегда у пользователя есть возможность и желание копаться в исходниках программы. Для начала хочется базово продебажить софт и проверить, лежит ли проблема на поверхности: в этом нам поможет команда "strace -c", через которую мы поймем, на что тратятся ресурсы системы.

Для того, чтобы получить статистику, нужно просто запустить утилиту с указанными параметрами, выждать необходимое количество времени и прервать выполнение через "ctrl-c":


$ strace -c ./prog

% time     seconds  usecs/call     calls    errors syscall
------ ----------- ----------- --------- --------- ------
99.74    0.245607           8     28230           write
 0.06    0.000145          24         6           mmap
 0.05    0.000111          27         4           mprotect
 0.03    0.000073          24         3           openat
 0.01    0.000033          16         2           close
.....


Вывод дает нам следующую информацию про каждый системный вызов:

1) time - процент процессорного времени, затраченного на выполнение вызовов (от общего времени);
2) seconds - фактическое процессорное время, затраченное на выполнение вызовов;
3) usecs/call - усредненное количество микросекунд, затраченных на выполнение 1 вызова;
4) calls - количество обращений к вызову;
5) errors - количество вызовов, вернувших ошибку;
6) syscall - название системного вызова;

В результате мы пониманием, что что-то не так: почти все время уходит на выполнение одной и той же операции, причем количество этих операций аномальное...

Дополнительно хочется акцентировать внимание на том, что не все системное процессорное время уходит только на выполнение вызовов. По этой причине временные показатели команды time могут отличаться от того, что покажет strace, так как последний учитывает исключительно то время, которое затрачено ядром на обработку вызовов для целевого процесса:


$ strace -c ./prog

% time     seconds  usecs/call     calls    errors syscall
------ ----------- ----------- --------- --------- ----
99.95    1.188828           8    140343           write
 0.01    0.000157          26         6           mmap
....
------ ----------- ----------- --------- ---------
100.00    1.189413           8    140375         1 total

$ time ./prog

real 0m7.520s
user 0m1.048s
sys 0m6.274s
🔥15👍11❤‍🔥6🥰1👀1
Что такое бинарный пакет (deb, rpm)?

На сегодняшний день поверх линукса разворачивается огромное количество дистрибутивов, каждый из которых предлагает пользователю определенную пакетную базу, каждый элемент которой необходим для развертывания софта на целевой системе.

Репозитории для серверных изданий содержат одни пакеты, хомяки (Home Edition), в свою очередь, могут поставляться с другими: окружения рабочего стола, графические утилиты и т.д. Самыми распространенными расширениями пакетов в Linux являются .deb (Debian) и .rpm (Red Hat Package Manager).

Что такое бинарный пакет?

Бинарный пакет - архив, содержащий скомпилированные (готовые к запуску) приложения и набор вспомогательных файлов, необходимых для максимально гибкого и качественного распространения.

Вспомогательные файлы могут включать в себя библиотеки, от которых зависит приложение, конфиги, мануалы с подробным описанием функционала, инструкций по развертыванию, список необходимых зависимостей и т.д.

Примером бинарного пакета может быть обычный apk файл, с которым каждый владелец андройда когда-либо взаимодействовал. Прелесть его в том, что разработчику один раз нужно скомпилировать и собрать софт под целевую систему, прописать правила инсталляции и вуаля - все окружение для бесперебойной работы настраивается на этапе установки.

Пользователю не нужно подтягивать исходный код приложения и решать головоломку с его компиляцией - на его стороне все решается одним кликом.

Чем отличается .deb от .rpm?

Пакеты с расширением .deb используются в "Debian based" дистрибутивах: Ubuntu, Mint, Deepin, AntiX, Kali и т.д. Установка пакетов данного типа выполняется через утилиту dpkg (Debian Package):


dpkg -i packageName.deb


Также существует ряд утилит семейства dpkg, которые входят в пакет dpkg-dev и необходимых для создания и администрирования архивов формата .deb:


$ dpkg -L dpkg-dev | grep -i bin

/usr/bin/dpkg-architecture
/usr/bin/dpkg-buildapi
/usr/bin/dpkg-buildflags
...


А что же такое apt (Advanced Package Tool)? Apt - это набор утилит высокого уровня, необходимых для администрирования .deb пакетов и работы с внешними репозиториями.

Apt, в отличии от dpkg, позволяет подтягивать из локальных либо удаленных репозиториев необходимые зависимости, мониторить список доступных пакетов, следить за обновлениями и много-много чего еще:


$ apt-cache search mesa

libd3dadapter9-mesa - state-tracker for Direct3D9
mesa-vdpau-drivers - Mesa VDPAU video acceleration drivers
mesa-vulkan-drivers - Mesa Vulkan graphics drivers
...


Прописать список источников, с которыми менеджер apt будет работать, можно в файл "/etc/apt/sources.list":


$ cat /etc/apt/sources.list

Types: deb
URIs: http://ports.ubuntu.com/ubuntu-ports/
Suites: noble noble-updates noble-backports
Components: main restricted universe multiverse
Signed-By: /usr/share/keyrings/ubuntu-archive-keyring.gpg


RPM - это расширение для пакетов, используемых в операционных системах, основанных на Red Hat, это вся ветка дистрибутивов: Fedora, OpenSUSE, Red Hat, CentOS и т д.

Изначально это пакетное расширение и одноименный менеджер были разработаны в компании Red Hat еще в 1997 году и только для их дистрибутива, но затем все это пошло дальше и распространилось в другие операционные системы.

По аналогии с dpkg, утилита rpm используется для того, чтобы локально обслуживать .rpm пакеты. Для более высокоуровневого взаимодействия и возможности работать с репозиториями, необходимо использовать ряд пакетных менеджеров: zypper (OpenSUSE), dnf (Fedora), urpmi (Mageia), yum - для многих дистрибутивов, основанных на Fedora:


rpm -i package.rpm
yum install package.rpm
dnf install package.rpm


Тема пакетирования и распространения софта очень обширная: существует множество техник и практик, которым нужно следовать для того, чтобы качественно разворачивать программы на системах. Пишите, что бы вы хотели узнать в рамках топика, разгоним всю эту историю до серии постов.
👍29🔥8❤‍🔥5🥰1
Разбор команд: lsof

Ну что, братья-айтишники, сегодня говорим про команду lsof. Решил ее рассмотреть довольно спонтанно, т.к. также спонтанно она мне пригодилась)

Как мы знаем, в linux немалую роль играют файлы. Многие говорят, что все в linux - файл. В своей основе, утилита lsof (list open files) позволяет просматривать список открытых файлов и выступает в роли интерфейса для мониторинга виртуальной файловой системы proc.

Подробнее про файловую систему proc:

Данная файловая система состоит из набора каталогов и файлов, смонтированных в одноименной директории. Называется она виртуальной потому, что фактически не находятся на диске и заполняется ядром на лету. Нужна она, в основном, для того, чтобы на стороне пользователя (через файлы) просматривать информацию о ядре и его структурах.

Говоря простым языком, анализ VFS (virtual file system) proc позволяет ответить на следующие вопросы:

1. Сколько процессов запущено в системе и кто ими владеет?
2. Какие файлы открыты процессом?
3. Какие файлы в данный момент заблокированы и какие процессы удерживают эти блокировки?
4. Какие сокеты используются в системе?

Разбор вывода команды lsof:

Давайте начнем с простого - без дополнительных флагов запустим утилиту и проанализируем ее вывод:


$ lsof

COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
init 1 root cwd DIR 253,0 4096 2 /
init 1 root txt REG 253,0 145180 147164 /sbin/init
init 1 root 4w FIFO 0,8 0t0 8449 pipe
...


В результате мы получаем пулл информации про активные утилиты и используемые ими ресурсы (файлы, каталоги, сокеты и т.д.).

Спектр возможных значений для каждого поля тут довольно широк, поэтому за детальной информацией предлагаю обратиться к мануалу.

Давайте на конкретном примере посмотрим, о чем нас проинформирует lsof:


COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
prog_wr 9957 xodefender  3w   REG   253,0 46442 1445679 /home/xodefender/input.txt


1. COMMAND - название утилиты, которая использует ресурс .

2. PID - идентификатор процесса для программы prog_wr.

3. USER - имя пользователя, которому принадлежит процесс.

4. FD - поле, предоставляющее информацию о ресурсе, который использует процесс. Значение поля может состоять из нескольких частей. В случае принадлежности к зарезервированному типу, значениями могут быть: cwd, rtd, txt, mem и т.д.

Если же, как в данном случае, речь идет о ресурсе, к которому можно обратиться по локальному дескриптору, структура может быть следующей: порядковый номер дескриптора (3) + права доступа (w - открыт на запись).

5. TYPE - тип ресурса. В данном случае используется обычный файл (REG). Также, ресурсами могут быть: директории (DIR), каналы передачи данных (FIFO), сетевые сокеты (INET) и т.д.

6. DEVICE - номер устройства, к которому относится ресурс (в формате major:minor). Обычно, информация берется об устройствах из каталога dev.

7. SIZE/OFF - размер файла input.txt в байтах. Если размер ресурса получить не удается, значением поля будет его отступ в памяти.

8. NODE - номер ресурса в таблице индексного дескриптора "inode". В нашем случае, файл input.txt числится под номером 1445679 в общесистемной таблице.

9. NAME - имя ресурса, представленное абсолютным путем.

Примеры использования команды lsof:

Вот и мне эта программка пригодилась для того, чтобы понять, какие процессы используют интересующую меня динамическую библиотеку.

Если у вас уже есть подозрения и вы знаете PID процесса, можно воспользоваться флагом '-p', который отобразит информацию только для указанного процесса:


$ lsof -p 23708

vlc 23708 root mem REG 8,2 264888 2365462 /usr/lib64/vlc/plugins/codec/libomxil_plugin.so


Если же у вас 0 идей, можете прямо прописать путь к целевому ресурсу и утилита вам покажет все процессы, которые его используют:


$ lsof ./libomxil_plugin.so

vlc 23708 root mem REG 8,2 264888 2365462 ./libomxil_plugin.so
👍25❤‍🔥9🔥81🥰1👾1
Наконец-то руки дорвались)

На днях купил себе вот такую штуку, поставил стартер кит (fallout, forza, witcher, cup head ...) и радуюсь безумно.

Пока полет нормальный, cup head работает бесперебойно (за него больше всего переживал 😂).

Короткое ревью следующее: в большинство платформеров и игр времен ps4 играется отлично, даже при запуске тяжелых проектов система сильно не шумит и нагрев в области контроллеров (по бокам) не ощутим. Вот что ощутимо - быстрый разряд батареи...

Качество сборки тоже хорошее. Всегда любил формат геймпадов и ощущение монолитности, тут 0 вопросов к качеству и удобству.

Если у кого есть такой же аппарат, какие впечатления?)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍7🤯4😐1
разбор команд: source

Разбирал я значит баш скрипты на сборочных серверах и наткнулся на интересную команду source. Вызов выглядел следующим образом:


source <filename>.build


Мне сразу стало интересно, что лежит в .build файле... Там был прописан обычный bash скрипт, который определял ряд переменных и функций для компиляции и установки приложения:


#!/bin/bash

BDIR="Release"

src_config() {
    cmake -DCMAKE_BUILD_TYPE=${BDIR}
}

src_compile() {
    make
}


Следующий вопрос - почему именно source? Можно же выполнить скрипт внутри командной оболочки через обращение к файлу через путь:


./<filename>.build


Как оказалось, есть несколько причин, по которым данная команда существует и используется, давайте разбираться.

Принцип работы команды source:

Данная команда является полным аналогом оператора . - встроенным в оболочку инструментом, который позволяет выполнять ряд инструкций целевого файла в рамках текущего "shell environment", что, как минимум, сохраняет доступ ко всем, локально определенным, переменным оболочки:


$ MY_VAR=123
$ cat noscript.sh
echo $MY_VAR

$ source noscript.sh
123
$ . noscript.sh
123


Когда вы вызываете source и передаете ему файл на чтение, все команды внутри будут последовательно выполнены так, будто вы их вручную прописали в терминале. Файл тут можно передавать несколькими способами:

1) Через абсолютный/относительный путь:


source ./XTouch/xtouch.sq


2) По имени. В данном случае утилита попытается найти файл в одном из каталогов, указанных для переменной $PATH. Если попытка окончилась провалом, программа попытается взять его из текущей активной директории:


source xtouch.sq


Отличия в запуске скрипта по пути "./" и через команду source:

Как говорилось ранее, команда source выполняет инструкции в рамках текущей оболочки, не отпочковываясь и не создавая новый процесс, что позволяет использовать локальные переменные.

Запуск скрипта по пути, в свою очередь, создает дочерний процесс и запускает дополнительную оболочку со своим пуллом переменных:


$ ps -auxf
\_ /bin/bash
\_ /bin/bash ./test.sh


Если переменная оболочки не была переведена в переменную окружения через ключевое слово "export", дочерний процесс не сможет к ней обратиться. В таком случае, необходимо явно передать и определить ее при запуске:


$ MY_VAR=123
$ source noscript.sh
123
$ MY_VAR="$MY_VAR" noscript.sh
123


Также, нужно помнить, что, когда вы вызываете скрипт по имени, для корректной работы следует прописывать shebang "#!<path to app>" в начале файла. Таким образом, системе будет понятно то, каким приложением необходимо обработать указанные инструкции:


#!/usr/bin/make -f

install:
dh_installdirs
dh_install


В случае с source это не имеет смысла - тут мы работаем на уровне текущей оболочки. Операционной системой не будет запущен очередной интерпретатор, как следствие, данная строка будет проигнорирована.

Пример использования команды source:

Как говорилось в начале поста, я наткнулся на source, пока шарился на сборочном сервере. Стояла задача дебианизировать пакет, который должен был при инсталляции корректно встроить в систему ряд медиа библиотек и конфигов для декодирования видео на GPU.

Как правило, проекты такой сложности требуют выполнения немалого количества действий на разных этапах: при конфигурации нужно передать "миллион" флагов в cmake, при установке построить глубокую иерархию директорий, перенести файлы по путям и т.д.

Все эти процессы могли бы быть отображены и проработаны в файле rules, но тогда в нем было бы безумно тяжело ориентироваться. Было принято решение разделить логику на группу функций: src_install(), src_compile(), src_config(). После чего, локально, не в рамках новой оболочки, их определять и вызывать.

Определения были скомпонованы в отдельном файле, что позволило красиво и локанично оформить rules:


install:
source debian/pipeline.build && src_config && src_install

build:
source debian/pipeline.build && src_config && src_compile
👍31🔥6❤‍🔥3🍓1👾1
Cборка бинарного (.deb) пакета:

Ранее мы уже говорили о том, что такое бинарный пакет. Сегодня разберемся с тем, как его создать, рассмотрим архитектурные правила сборки и узнаем про практическую ценность некоторых файлов, которые используются при дебианизации.

Сразу хочу указать на то, что данный пост не является абсолютным HOWTO по созданию пакетов. Тут мы разберем основы и потом, в следующий публикациях будем уходить вглубь по отдельным аспектам, тем самым, шаг за шагом, формируя целостную картину.

Что такое дебианизация?

Дебианизация - это процесс упаковки ПО в .deb бинарный пакет для распространения внутри "Debian based" операционных системах, таких как Ubuntu, Mint, сам Debian и т.д. Хорошо проработанный пакет позволит без особых проблем развернуть необходимое ПО на целевой системе, без необходимости в ручной компиляции и сборке.

Что нужно для создания .deb пакета?

На примере моего любимого композитора picom разберем основные правила дебианизации, посмотрим на уже рабочую структуру и поймем, что к чему.

Сборка любого .deb пакета начинается с создания debian директории в корне проекта. Данный каталог будет содержать в себе все необходимые для дебианизации файлы, в которых будет прописан ряд правил по упаковке софта:


$ cd picom-10.2/debian
$ ls -l
-rw-rw-r-- changelog
-rw-rw-r-- control
drwxrwxr-x patches
-rwxrwxr-x rules
...


Для конфигурации пакета может использоваться множество различных файлов, основными необходимыми являются control, rules и changelog:

1. control - содержит различного рода информацию, необходимую инструментам пакетирования: dpkgapt-getapt-cache и т.д. В данный файл принято прописывать список зависимостей, которые пакетный менеджер будет проверять и, по возможности, подтягивать из репозиториев.

Control может включать в себя уйму полей. Как пример, Package: <name>, необходим для определения имени пакета и создания, на этапе сборки, каталога установки:


$ pwd
picom-10.2/debian/picom/
$ ls
etc usr
$ cd usr/bin && ls
compton picom


При инсталляции, файлы, которые лежать внутри picom, по идентичной иерархии перенесутся в системные директории.

2. rules - исполняемый Makefile, который в полной мере управляет процессом сборки и отрабатывает через утилиту make. Тут можно указать набор правил и инструкций, которые будут выполняться на разных этапах:

1) на этапе конфигурации создаем директорию build, в которю помещяем результат работы команды meson:


override_dh_auto_configure:
mkdir -p debian/build
cd debian/build
meson --prefix=/usr ../..


2) на этапе сборки вызываем, сгенерированные утилитой meson, ninja файлы и выполняем компиляцию проекта. Результат компиляции будет лежать в рамках каталога build:


override_dh_auto_build:
cd debian/build && ninja -v


3) на этапе установки заходим в директорию build, записываем в переменную DESTDIR путь, по которому ninja install выполнит перенос готовых бинарников и конфигов:


override_dh_auto_install:
cd debian/build
DESTDIR=${CURDIR}/debian/picom ninja install


3. changelog - файл версионирования, который содержит историю изменений, внесенных в ПО. Его роль не ограничивается только отслеживанием правок. По указанной в нем информации, которая находится после названия приложения (<версия>-<ревизия>), формируется итоговое имя пакета:


picom (9.1-1) unstable; urgency=medium

* New upstream version 9.1

-- Nikos Tsipinakis <nikos@tsipinakis.com>


В результате сборки мы получим пакет с именем picom_9.1-1_amd64.deb, где picom сформировался по значению поля Package из файла control, версия 9.1-1 подставилась из changelog и архитектура amd64 определилась автоматически.

И вот уже с этим минимальным набором файлов можно создать бинарный пакет. После того, как конфигурация готова, выходим из директории debian на уровень выше и запускаем сборочный процесс:


$ cd ..
$ sudo dpkg-buildpackage -b -us -uc
❤‍🔥106🔥6👍3👾1
Файловая система proc

Ранее мы уже затрагивали виртуальную файловую систему proc, когда говорили про команду lsof. Сегодня копнем глубже и научимся получать из нее различную информацию о системе и процессах.

В старых реализациях UNIX не было простого способа выполнить интроспективный анализ атрибутов ядра для получения ответов на следующие вопросы:

1. Сколько процессов запущено в системе и кто их владельцы?
2. Какие файлы открыты процессом?
3. Какие файлы в данный момент заблокированы и какие процессы удерживают эти блокировки?
4. Какие сокеты используются в системе?

Чтобы предоставить более легкий доступ к информации ядра, во многих современных реализациях UNIX предусмотрена VFS (Virtual File System) proc. Она находится в одноименном каталоге и содержит различные файлы, предоставляющие информацию о ядре. Называется она виртуальной потому, что фактически не располагается на диске и заполняется ядром на лету.

Процессам можно беспрепятственно считывать эту информацию и, в некоторых случаях, вносить в нее изменения, используя обычные системные вызовы файлового ввода-вывода: read, write, open, close и т.д.

Получение информации о процессе (/proc/PID):

Для каждого процесса в системе ядро создает соответствующий каталог по имени /proc/PID (process id). Внутри этого каталога находятся различные файлы и подкаталоги, содержащие информацию о процессе. Важно помнить, что данные директории не существуют постоянно и затираются, как только процесс прекратил свое существование.

Например, просмотрев файлы в каталоге /proc/1, можно получить информацию о процессе init, PID которого всегда имеет значение 1. Давайте посмотрим на базовую информацию процесса init через файл status, который существует в каждом каталоге /proc/PID и предоставляет множество данных о целевом процессе:


$ cat /proc/1/status

Name: init - Имя исполняемого файла
State: S (sleeping) - Состояние процесса
Tgid: 1 - ID группы потоков (обычный PID, getpid())
Pid: 1 - Фактически ID потока (gettid())
PPid: 0 - ID родительского процесса
TracerPid: 0 - PID отслеживающего процесса
...


Описание файлов и директорий для каждого каталога (/proc/PID):

1) cmdline - аргументы командной строки;
2) cwd - символьная ссылка на текущий рабочий каталог;
3) environ - пары вида ИМЯ=значение списка переменных среды;
4) exe - символьная ссылка на исполняемый файл;
5) fd - каталог, содержащий символьные ссылки на файлы, открытые процессом;
6) maps - отображения памяти;
7) mem - виртуальная память процесса;
8) mounts - точки монтирования для рассматриваемого процесса;
9) root - символьная ссылка на корневой каталог;
10) status - различная информация (идентификаторы процесса, права, использование памяти, сигналы);
11) task - содержит по одному подкаталогу для каждого потока в процессе;

Системная информация, находящаяся в proc:

Доступ к информации, распространяющейся на всю систему также предоставляется через различные файлы и директории внутри VFS proc. Давайте посмотрим на назначения отдельных из них:

1) /proc/net - информация состояния сети и сокетов;
2) /proc/sys/fs - настройки, относящиеся к файловым системам;
3) /proc/sys/kernel - различные общие настройки ядра;
4) /proc/sys/net - настройки сети и сокетов;
5) /proc/sys/vm - настройки, касающиеся управления памятью;
6) /proc/sysvipc - информация об IPC-объектах System V;
7) /proc/cpuinfo - информация о центральном процессоре;

Обычно, команд cat, more и less должно хватать для того, чтобы разобрать различную информацию внутри proc. В качестве примера, давайте выхватим немного данных про наш CPU:


$ cat /proc/cpuinfo

processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 154
model name : 12th Gen Intel(R) Core(TM) i7-1260P
stepping : 3
microcode : 0x423
cpu MHz : 710.883
cache size : 18432 KB


Однако из некоторых файлов бывает тяжело выцепить что-то полезное. Для таких случаев существуют утилиты lsof, lspci, apm и top, которые являются интерфейсом для proc и предоставляют легко читаемую для пользователя информацию.
👍21❤‍🔥6🔥62👾1
Итоги квартала

Для простоты навигации по контенту попробуем внедрить практику подведения квартальных результатов:

Разделяемые библиотеки:

1. Общая информация про разделяемые библиотеки
2. Компоновка с динамическими библиотеками [1]
3. Компоновка с динамическими библиотеками [2]
4. Компоновка с динамическими библиотеками [3]
5. Версионирование разделяемых библиотек
6. Отложенное связывание символов (Lazy Binding)
7. Ускорение работы библиотек: отключение ленивого связывания
8. Использование флага компоновщика -Bsymbolic
9. Ускорение работы библиотек: отключение перехвата функций

Разбор команд:

1. Разбор команд: strace
2. Разбор команд: strace -c
3. Разбор команд: lsof
4. Разбор команд: source

Базовый linux:

1. Процессы и программы
2. Структура памяти процесса
3. Системные и библиотечные вызовы [1]
4. Файловая система proc

Создание бинарных пакетов:

1. Разбор пакетов: build-essential
2. Что такое бинарный пакет (deb, rpm)?
3. Cборка бинарного (.deb) пакета
15👍35❤‍🔥16🔥11🫡1
LinuxCamp | DevOps pinned «Итоги квартала Для простоты навигации по контенту попробуем внедрить практику подведения квартальных результатов: Разделяемые библиотеки: 1. Общая информация про разделяемые библиотеки 2. Компоновка с динамическими библиотеками [1] 3. Компоновка с динамическими…»
Установка Decky Loader через терминал

Decky Loader - это самодельный лаунчер плагинов для Steam Deck, который позволяет вам, через подкачку различных дополнений, кастомизировать ваше устройство по всем фронтам: стилизовать меню, изменять системные звуки, модифицировать экран загрузки и т.д.

Сам поставил себе это расширение, т.к не осталось баллов для анимаций, да и ассортимент в магазине стима, будем честны, требует расширения)

Для установки требуется:

1. Создать пароль для пользователя:


$ passwd deck


2. Подгрузить установочный .sh скрипт и передать его интерпретатору sh на выполнение:


curl -L https://github.com/SteamDeckHomebrew/decky-installer/releases/latest/download/install_release.sh | sh


Тут вам и команда curl и перенаправление вывода через '|' pipe. Аххх, ладно, все это мы еще разберем в отдельных постах, сегодня чилл 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
👍134❤‍🔥31