CORTEL – Telegram
CORTEL
4.13K subscribers
1.86K photos
158 videos
156 files
1.58K links
Помогаем ИТ-директорам, DevOps и системным инженерам снижать TCO и поднимать SLA. Кейсы, инструменты и гайды.

Сайт:
https://cortel.cloud

Cотрудничество:
@ivan_cmo
Download Telegram
Сейчас Вероника рассказывает про кейсы обработки ПДН на реальных примерах.

Присоединяйтесь 🥳

👉 ПРЯМАЯ ТРАНСЛЯЦИЯ
Please open Telegram to view this post
VIEW IN TELEGRAM
13🔥12👏2
Media is too big
VIEW IN TELEGRAM
🤗 Спасибо всем за участие в мероприятии!

Вероника еще успела дать мини интервью 🥰

В завершение темы персональных данных мы собрали подборку статей с подсказками и разъяснениями:

Что смотрит Роскомнадзор при проверках
Биометрия, политика обработки, оценка эффективности.
Персональные данные медицинских организаций
Персональные данные на сайте компании: главные правила

Video by: Медиа.Hub
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥3👏32
❤️ Пропустили выступление Вероники?

На следующей неделе будет сразу два шанса!

💎15 октября. Форум ITSEC*

Тема: «152-ФЗ без простоев: один контур защиты для ритейла, медицины и финансов»

💎16 октября. ГАРДА. Сохранить ВСЁ*

Тема: «Гибридные угрозы: кибершпионаж, дезинформация, саботаж»

*Регистрация и условия участия ищите на официальных сайтах мероприятий.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍3👏3
🤭 Вот так бы откатить понедельник до субботы ...

— лишь бы таймлайн не зациклить 😳

P.S. С началом трудовой недели
Please open Telegram to view this post
VIEW IN TELEGRAM
😁31👏6🔥3
🔥 Пожар в дата-центре Южной Кореи: данные гос-облака безвозвратно утрачены

В конце сентября в ДЦ NIRS в Тэджоне сгорели 96 критичных систем, а облачное хранилище G-Drive — уничтожено: внешних резервных копий не было, копии в том же контуре погибли вместе с системой.

За последние 5 лет было несколько показательных катастроф с потерей данных и простоями:

🔥 Страсбург, OVHcloud в марте 2021. Пожар на кампусе SBG уничтожил часть инфраструктуры; у клиентов — утраты данных, совокупные требования по искам — > €10 млн. Среди пострадавших публично отчиталась и российская компания — её бэкапы лежали рядом с продом и сгорели вместе с ним.

🔥 Париж, Google Cloud europe-west9 в апреле 2023. Протечка воды в здании подрядчика попала в зал источников бесперебойного питания (ИБП), вызвала возгорание и многочасовое отключение одного из зданий региона; у клиентов с данными и снапшотами в одной зоне часть дисков оказалась невосстановимой.

💀 Дания, CloudNordic/AzeroCloud в августе 2023. Атака ransomware (вымогатель-шифровальщик) задела инфраструктуру и бэкапы в том же контуре — провайдер сообщил, что у большинства клиентов утрачены все данные.

⚡️ Бэкап сам по себе — не стратегия: он может сгореть вместе с продом, не влезть в окно RTO или стоить как крыло от самолёта.

Лучше соблюсти баланс между надёжностью (что поднимется и когда) и выгодностью (сколько это стоит), с регулярными тест-ресторами для подтверждения готовности и минимизацией затрат за счёт архитектуры хранения (offsite/immutable, разнесённые контуры, lifecycle-политики).

🥂 Такая схема переживёт пожар, потоп и шифровальщика — и не разорит бюджет.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍6👏43
💤 Бэкапы. Как выбрать правильную стратегию?

Где хранить
— в облаке, на серверах или на лентах? И как быть уверенным, что восстановление реально сработает в нужный момент?

Ответы зависят не только от технологий, но и от бизнес-задач: насколько быстро нужно подняться после сбоя, сколько информации допустимо потерять и какие ресурсы готов выделить бизнес.

➡️ В карточках кратко разбираем, на что опираться при выборе схемы хранения и восстановления бэкапов.

#гайды
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥6👏3
⚙️ Схема резервного копирования исходя из задачи. Пример

#гайды
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85🔥4
🖥 Надёжный способ бэкапа PostgreSQL

pg_dump — утилита для создания логических бэкапов PostgreSQL.

В отличие от физического бэкапа, она выгружает объекты (схемы/данные) в переносимый вид. Дамп, как правило, корректно восстанавливается в такую же или более новую версию Postgres.

Основные сценарии

Бэкап одной базы (plain SQL)

pg_dump mydb > backup.sql


Бэкап с компрессией «на лету» (для plain)

pg_dump mydb | gzip > backup.sql.gz


То же, но со встроенной компрессией (для custom/tar/directory)

pg_dump -Fc -Z 9 mydb > backup.dump


Только схема без данных:

pg_dump -s mydb > schema_only.sql
# или выборочно по схемам:
pg_dump -s -n public -N audit mydb > schema_public.sql


Бэкап конкретной таблицы:

pg_dump -t public.users mydb > users_backup.sql
# исключение таблиц:
pg_dump -T public.logs mydb > no_logs.sql


Параллельный бэкап (работает только с -Fd)

pg_dump -Fd /backups/mydb_$(date +%F) -j 4 mydb


Бэкап всего кластера (все БД + роли/табл.пространства)

pg_dumpall > all_databases.sql
# только «глобалы» (роли, табличные пространства):
pg_dumpall -g > globals.sql


Удаляем бэкапы старше 7 дней (недавний пост про find)

find /backups -type f -name "*.sql.gz" -mtime +7 -delete


👀 Дополнительно

-Fc — custom-формат: компактно, выборочное и параллельное восстановление через pg_restore.

-Fd — directory-формат: поддерживает параллельный дамп (-j) и гибкое восстановление.

--no-owner --no-privileges — удобно для переноса между серверами/окружениями.

--exclude-table-data=... — дамп схем без данных отдельных «тяжёлых» таблиц.

⚙️ pg_dump делает снапшот на момент старта дампа, поэтому данные консистентны даже при параллельных транзакциях. Это достигается через механизм MVCC PostgreSQL.
Необходимо учесть, что логические дампы не подходят для PITR — для этого нужны физические бэкапы + WAL.

🔘 Связка pg_dump(-Fc/-Fd) [| gzip] + find -delete — простой и надёжный пайплайн. Но периодически проверяйте восстановление на тестовом стенде и следите за версиями сервера/клиента.

#заметкиИнженера
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥4👏2
⚙️ Velero
— инструмент для бэкапа, миграции и аварийного восстановления Kubernetes-кластеров и их данных.

Позволяет безопасно сохранять и восстанавливать ресурсы кластера (поды, deployment, конфигурации), включая прикреплённые тома через снапшоты.

📍 Основной функционал:
— Резервное копирование ресурсов кластера и их восстановление в том же или другом кластере
— Снапшоты постоянных томов (PV)
— Миграция ресурсов между кластерами и облачными платформами
— Планирование бэкапов по расписанию
— Выборочное восстановление ресурсов с фильтрацией по namespace, меткам

📍 Ключевые особенности:
— Поддержка Restic для бэкапа любых томов (включая NFS, hostPath)
— Интеграция с облачными хранилищами (S3, GCS, Azure Blob)
— Расширяемая архитектура через плагины
— Ролевая модель доступа для безопасного использования

Velero превращает сложную задачу резервного копирования Kubernetes в предсказуемый и управляемый процесс.

👉 Git
#полезное
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥3👏21
📸 LVM Snapshot: быстрые снимки без простоя

Снимок LVM — это точное состояние логического тома (LV) на момент создания. Он занимает место только для изменённых блоков и создаётся без остановки сервиса.

Как это работает (Copy-on-Write, CoW)

— При создании снимка исходный том и снимок ссылаются на одни и те же данные

— При изменении данных в исходном томе, старые блоки копируются в область снимка перед записью

— Таким образом, снимок хранит только те данные, которые были изменены после его создания

*Речь про «классические» снимки LVM. У thin-томов механика и команды отличаются.

🧑‍💻 Практика

Создать снимок (2 ГиБ под изменения)

lvcreate -s -n my_lv_snapshot -L 2G /dev/my_vg/my_lv


Паспорт snapshot через lvdisplay

lvdisplay /dev/my_vg/my_lv_snapshot

--- Logical volume ---
LV Path /dev/my_vg/my_lv_snapshot
LV Name my_lv_snapshot
VG Name my_vg
LV UUID y9FV7q-8UxB-7MmE-S8No-5A3F-2QJi-8x9LAD
LV Write Access read/write
LV snapshot status active destination for my_lv
LV Status available
# open 0
LV Size 3.00 GiB
Current LE 768
COW-table size 2.00 GiB
COW-table LE 512
...


Смонтировать для проверки (читать безопаснее в ro)

mkdir -p /mnt/snapshot
mount -o ro /dev/my_vg/my_lv_snapshot /mnt/snapshot
# Для XFS добавьте: -o ro,nouuid


Откат к снимку (merge)

# Если origin смонтирован, снимите его:
umount /mnt/data

# Запустить merge:
lvconvert --merge /dev/my_vg/my_lv_snapshot

# Если origin был активен/смонтирован, merge произойдёт при следующей активации LV
# (часто это выглядит как "после перезапуска сервиса/узла").

После успешного merge сам snapshot-LV исчезает — это нормально.

Удалить снимок (если не нужен)

lvremove /dev/my_vg/my_lv_snapshot


Важные нюансы

Размер снимка должен покрывать ожидаемый объём изменений. Если CoW-область переполнится, снимок станет неконсистентным и будет потерян.

Снимки читаются и монтируются как обычные тома; писать в snapshot можно, но обычно это не требуется.

Производительность: CoW даёт накладные расходы на запись в origin.

Merge требует, чтобы origin был не смонтирован/не активен; иначе откат откладывается до следующей активации.

Thin LVM: у thin-томов своя логика снапшотов и квот; команды и возможности merge отличаются от classic snapshots.

👍 Отличный способ создать точку возврата перед обновлениями/миграциями: быстрый откат без полного бэкапа и долгого восстановления. (Бэкапы всё равно нужны — снапшоты не заменяют резервное копирование.)

#линуксятина
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥4👏2