rxd_txd – Telegram
rxd_txd
302 subscribers
523 photos
31 videos
22 files
2.81K links
Download Telegram
Forwarded from commit -m "better"
https://nickb.dev/blog/default-musl-allocator-considered-harmful-to-performance/

"Default musl allocator considered harmful (to performance)"

В общем, ничего нового, аллокатор из musl не может рассматриваться иначе, как затычка, для совсем непритязательных программ.

Автор рекомендует использовать #mimalloc, так же, как работает Chimera Linux с musl - https://chimera-linux.org/docs/configuration/musl, я рекомендую #tcmalloc.
Forwarded from linkmeup
Если OpenSSH несколько пропатчить, то можно получить годную проксю между жертвой и целевым сервером для аккуратного складирования паролей и прочего на диск. Единственный минус – SSH-клиент спалит изменение ключа сервера. Однако есть подозрение, что немалая часть юзеров пробурчит нечто типа «Ой, ну давай уже пускай меня в консоль, где там Ок» и не особо вчитываясь побежит дальше.
А если недавно на стороне сервера ещё и работы были, так это и вовсе будет ожидаемым событием.
https://github.com/jtesta/ssh-mitm
#kubernetes #secrets #api

(заметка не несёт никакой ценности, лишь мысли)

Иногда, для самого себя, я провожу теоретические, вперемешку с практическими, изыскания.
Выбираю узкопрофильную тему и ковыряю, пока не дохожу до кишков.

Это может быть знания зачем EXPOSE в докер файле и на что это влияет, какая разница между cgroup v1 и cgroup v2 или различия хранилищ для больших данных и миллиардов мелких файлов по 6 KB.
Практической ценности такие изыскания обычно не имеют, это больше любопытство и разминка для ума. Лишь иногда попадаются настоящие "бриллианты".

Мне захотелось узнать, а какие есть способы, чтобы снизить нагрузку на Kubernetes API.
Все мы знаем про кучу операторов, которые не хило нагружают апишку, но что, если снизить средствами самого кубера?
У нас есть несколько VERBs.
https://kubernetes.io/docs/reference/using-api/api-concepts/

Знания и поиск по документации привел к тому, что есть WATCH запрос, который идёт каждый раз от kubelet, когда стартует под или скейлится или происходит редеплой через любую из стратегий, при использовании секрета кубернетиса.
То есть каждый раз при этих действиях идёт WATCH.
Сам по себе секрет, просто лежащий в кубере, никакой нагрузки не несёт.
Пока secret не примонтирован(как переменная или файл) и пока не было рестарта/скейла/редеплоя, апишку никто не дёргает.
Однако при активном скейлинге (все мои проекты), это прям попадание в точку.
Да, вочей хватает.
sum by (verb) (rate(apiserver_request_total{ cluster=~"$cluster"}[$__rate_interval]))

Затем мои поиски вывели на отличную опцию immutable в секретах (вру, я слышал и знал о ней раньше, но прям в проде не использовал).
https://kubernetes.io/docs/concepts/configuration/secret/#secret-immutable
С этой опцией нельзя поменять значение секрета. Его можно только реплейснуть или удалить и создать с нуля.
Копнув дальше, я узнал, что тут можно немного снизить нагрузку из-за интересного механизма.
"если секрет иммутабл, то кублет(с каждой ноды) не делает WATCH запрос в апишку".

"О господи! Оно!" - подумал я. Это было нечто новое, захотелось сразу использовать. И сразу в проде 😀
Начал смотреть какие есть реализации:
- исправление своих чартов, чтобы секреты были иммутабл и были хуки(иначе при редеплое и изменении секрета хелм упадёт с ошибкой).
- написание мутейшн хука или оператора, который все задеплоенные секреты помечает сразу иммутабл, а все команды переучить, чтобы в их чартах были хуки

В целом неплохая картина: немного изменил флоу в командах по релизам, добавил хуки, все секреты в кубе иммутабл и получаем:
- меньше латенси WATCH и CONNECT запросов (проверено, кубер 1.33, Linode)
sum(rate(apiserver_request_duration_seconds_sum{job=~"kubernetes-apiservers|apiserver", cluster=~"$cluster"}[$__rate_interval])) by (verb)
/
sum(rate(apiserver_request_duration_seconds_count{job=~"kubernetes-apiservers|apiserver", cluster=~"$cluster"}[$__rate_interval])) by (verb)

- меньшее количество WATCH запросов (проверено, кубер 1.33, Linode + AWS)
sum by (verb) (rate(apiserver_request_total{ cluster=~"$cluster"}[$__rate_interval]))

- меньше памяти в ETCD. Это теоретически, большинство клауд провайдеров не дают прямой доступ к метрикам ETCD(я тестировал на AWS + linode), а потому доказать не могу. Барметал с нуля поднимать лень, так что пусть это окажется лишь теорией.

Всё выглядит как сказка, а что на деле?

Тут я вспомнил, что работал в замечательном банке с синим логотипом, и там до сих пор во всех департаментах работают очень крутые инженеры (всем привет, кто читает, вы солнышки❤️).
Тема интересная, заменшил в паблик чате @kubernetes_ru и меня тут же спустили на землю.

Оказалось что ребята это уже пробовали у себя и быстро от этого ушли.
Беда в том , что если такой immutable секрет замонитирован на ноде более, чем в один под(разные деплойменты) то такой секрет не подтянется при изменим даже при рестарте.
Проверил - да, у меня есть много секретов общих для нескольких деплойментов.
Безусловно это ставит крест на моей задумке, баги мне не нужны ради 1.5-3% экономии нагрузки.

Ладно, время на изыскания вышло, эх, и на этот раз не бриллиант.😭
Please open Telegram to view this post
VIEW IN TELEGRAM
fixed
1🔥1🫡1
Forwarded from Кубернетичек
http://github.com/bchess/k8s-1m

Ну, почему бы и да

Ps: single instance с in-memory etcd без постинга лиз и ивентов, а целом, удивился, что не стал лизы и ивенты в отделный етцд выносить, ну да ладно.
Forwarded from Zhovner Hub
Самая короткая команда для проверки интернета:

ping 1.1

Такая запись автоматически преобразуется в 1.0.0.1 — это публичный DNS от Cloudflare http://1.1.1.1

Мало кто знает, что по стандарту ipv4 пропущенные октеты преобразуются в нули. Почему-то это активно используется только в ipv6 типа fe20::baba
👍2
Forwarded from linkmeup
This media is not supported in your browser
VIEW IN TELEGRAM
Просто немного наглядности, как машинный код можно развернуть в ассемблерный.
Не то чтобы много кто поймёт, что там происходит, но красиво же.
Forwarded from linkmeup
Тут ребятушки из Docker всем подарок новогодний решили выкатить ещё на прошлой неделе. Подарок в виде раскрытия исходников более тысячи Hardened Images под лицензией второго апача.

Если кто пропустил, то это типа супер-пупер со всех сторон облизанные образа, которые раньше можно было получить только за деньги. Среди основных плюшек обещали практически полное отсутствие известных CVE и сборку из сорцов, без патченных бинарей и прочего странного.

https://www.docker.com/blog/docker-hardened-images-for-every-developer/

Каталог образов тут:https://hub.docker.com/hardened-images/catalog

Осталось понять причины такого внезапного приступа щедрости...
Eventually Consistent СУБД — всё?

Костя Ратвин написал прекрасную ретроспективную статью о взлете и падении eventually consistent СУБД, а Костя Осипов её откомментировал.

https://habr.com/ru/articles/980082/