BA & SA | 10000 Interview questions – Telegram
BA & SA | 10000 Interview questions
8.65K subscribers
132 photos
7 videos
273 links
Вопросы и задачи, которые задают на собеседованиях на позицию Бизнес и Системного аналитика. По вопросам сотрудничества- @StarlinkGPT
Download Telegram
ХОЧЕШЬ ИДТИ В НОГУ С ТЕХНОЛОГИЯМИ ?! … или наблюдать, как другие зарабатывают на ИИ? - РЕШАТЬ ТЕБЕ ! ! !

Мы подготовили для тебя ПАПКУ с лучшими каналами про ИИ после которой ИИ станет твоим главным инструментом, а не загадкой 🧐

🎁 Забирай папку с ТОП ИИ Каналами 👉 https://news.1rj.ru/str/addlist/OabgMkJT_09lNWM8

Внутри — концентрат пользы без воды:
* практические советы от экспертов
* инструменты, которые экономят часы работы
* идеи и кейсы, которые уже приносят деньги

Пока нейросети не ушли далеко вперёд без тебя,
подписывайся прямо сейчас. Ссылка на ПОДБОРКУ 👈 ➡️ https://news.1rj.ru/str/addlist/OabgMkJT_09lNWM8

Что найдёшь в подборке:
⚡️ мощные промпты для текстов, изображений и контента
⚡️ гайд по созданию ИИ-ассистента 24/7
⚡️ рабочие схемы продаж с помощью нейросетей — без теории, только практика

📦 Забирай доступ к подборке и бонусам 🗝
В любой момент его могут закрыть
👉 https://news.1rj.ru/str/addlist/OabgMkJT_09lNWM8
№4661 категория вопросов: #DBMS
4661. При проектировании высоконагруженного чата вы решили хранить сообщения в реляционной БД.. Какой подход к первичному ключу таблицы Messages наиболее оптимален?
Anonymous Quiz
16%
INT AUTO_INCREMENT (последовательный числовой)
21%
UUID (случайный универсальный идентификатор)
34%
BIGINT, генерируемый распределенной Snowflake-алгоритмом
29%
Составной ключ (dialog_id, created_at)
👩‍🏫Объяснение:
Для высоконагруженных систем с горизонтальным масштабированием (шардингом) важны распределенные и временно-упорядоченные идентификаторы. AUTO_INCREMENT (A) создает горячую точку (hotspot) на одном сервере и не подходит для шардинга. UUID (B) случайный, что убивает локальность данных и приводит к фрагментации индексов, ухудшая производительность вставки и выборки. Snowflake-алгоритм (C) генерирует монотонно возрастающие ID, которые упорядочены по времени и уникальны в распределенной среде — это оптимально для шардинга и кластеризованных индексов. Составной ключ (D) усложняет связи и не является глобально уникальным.
№4662 категория вопросов: #DBMS
4662. В legacy-системе обнаружилась критическая проблема: из-за ошибки в коде в таблицу Transactions были внесены некорректные данные за последние 3 часа. Как можно восстановить целостность данных с минимальными потерями?
Anonymous Quiz
5%
Восстановить всю БД из утреннего бэкапа.
73%
Использовать Point-in-Time Recovery (PITR), если включено ведение журнала транзакций (WAL).
5%
Вручную откатить некорректные изменения, написав обратные UPDATE-запросы.
17%
Запустить процедуру логического восстановления из бинарного лога (binary log).
👩‍🏫Объяснение:
Этот кейс проверяет знание механизмов восстановления. Point-in-Time Recovery (PITR) — единственный способ откатить изменения до определенного момента без потери всех данных, накопленных после бэкапа. Он требует, чтобы был включен журнал транзакций (WAL в PostgreSQL, бинарный лог в MySQL). Восстановление из полного бэкапа (A) откатит и все валидные данные за день. Ручные правки (C) рискованны и ненадежны. Вариант D близок к B, но бинарный лог — это именно механизм PITR в MySQL, однако формулировка B общая и покрывает разные СУБД.
🕓Доступ к папке «ИИ, AL и IT» на 24 часа

В одном месте — всё самое ценное о заработке на ИИ и технологиях будущего.

Живите по правилам нового времени. Узнайте, как выстраивать карьеру и бизнес в мире, где технологии задают правила игры.
Автоматизируйте и масштабируйтесь. Внедряйте ИИ-менеджеров, которые приводят заявки и клиентов 24/7.
Продавайте дороже и проще. Как перевести бизнес на автопилот с помощью ИИ-инструментов.

Подписывайтесь и прокачивайте свои навыки уже сейчас.
Все здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
№4663 категория вопросов: #DBMS
4663. Вы проектируете систему сбора телеметрии с IoT-устройств. Устройства отправляют 100 000 событий в секунду. Нужно писать события с минимальной задержкой и раз в час строить агрегационные отчеты. Какую стратегию хранения выбрать на первом этапе?
Anonymous Quiz
16%
Писать сразу в колоночную БД (ClickHouse) с высокой степенью сжатия.
11%
Писать в реляционную БД (PostgreSQL) в таблицу с партиционированием по часам.
52%
Писать в шину событий (Kafka), а оттуда batch-ами загружать в хранилище данных.
20%
Писать в документную БД (MongoDB), используя TTL-индексы для автоматического удаления старых данных.
👩‍🏫Объяснение:
При таком объеме и требовании к минимальной задержке записи, прямая запись в аналитическое или транзакционное хранилище (A, B) создаст чрезмерную нагрузку. Правильный паттерн — буферизация через шину событий (Kafka). Она гарантирует прием высокого потока, обеспечивает отказоустойчивость и позволяет затем гибко направлять данные в разные системы (в холодное хранилище, в real-time агрегатор и т.д.). Вариант D не решает проблему аналитической обработки и может стать дорогим из-за объема.
№4664 категория вопросов: #DBMS
👩‍🏫Объяснение:
Этот кейс на стыке compliance и архитектуры. Требования: 1) Неизменяемость операций (нужны для аудита), 2) Право на забвение. Физическое удаление (A) нарушает первое. Soft-delete (B) не соответствует GDPR, так как данные остаются в исходном виде. Архивация (D) не решает проблему обезличивания. Криптографическое удаление (crypto-shredding) — отраслевой best practice: чувствительные поля (ФИО, email) шифруются отдельным ключом на пользователя; при удалении ключ уничтожается, делая данные нечитаемыми, при этом неизменяемые метаданные операции (сумма, время) остаются.
👍1
№4665 категория вопросов: #DBMS
4665. В таблице Users есть текстовое поле search_vector (full-text search) и часто выполняется запрос WHERE search_vector @@ to_tsquery('keyword'). При росте таблицы до 5 млн записей запрос стал медленным. Индекс GIN уже существует. Что делать?
Anonymous Quiz
4%
Добавить больше оперативной памяти для кэша СУБД.
46%
Провести партиционирование таблицы по диапазонам ID.
42%
Перестроить индекс GIN с изменением параметра заполнения (fillfactor).
8%
Заменить GIN-индекс на GiST-индекс.
👩‍🏫Объяснение:
На практике, если GIN-индекс уже есть и запросы тормозят на 5 млн записей, часто проблема не в индексе, а в селективности запроса. Если запрос возвращает тысячи строк (например, по популярному слову), то основное время уходит на их чтение и сортировку. Партиционирование (B) может помочь, если разделить данные по какому-либо признаку (например, по дате регистрации) и делать запрос только по актуальным партициям. Однако, если запрос всегда сканирует все партиции, то выигрыша не будет. Перестройка индекса (C) может помочь, если индекс разросся и стал неэффективным. Но в реальности чаще требуется оптимизация самого запроса (например, добавление дополнительных условий для повышения селективности) или использование специализированной поисковой системы (Elasticsearch). В контексте экзамена правильнее B, так как это масштабное изменение структуры для больших данных.
Ребята, классные новости 🙌

Нас добавили в ламповую папку с самыми годными телеграм-каналами про ИТ 🐱

Внутри — технологии, ИИ, карьера в ИТ, полезные разборы и контент без воды.

Короче, всё, что хочется видеть в ленте, если вы в теме (или только хотите войти)

Тык 👉 https://news.1rj.ru/str/addlist/Tgpq6yK7iYMzNWRi — добавить папку себе
И пусть в ленте будет больше пользы и меньше случайного шума

❤️Поделитесь с тем, кто тоже хочет прокачиваться в ИТ и читать только толковый контент
Please open Telegram to view this post
VIEW IN TELEGRAM
2
№4666 категория вопросов: #DBMS
4666. При репликации «master-slave» в MySQL возникла проблема: на slave-сервере в некоторых таблицах появляются дубликаты записей по уникальному ключу, хотя на master-дублей нет. В чем наиболее вероятная причина?
Anonymous Quiz
3%
Недостаточно места на диске slave-сервера.
63%
AUTO_INCREMENT auto_increment_increment и auto_increment_offset в master-master репликации.
5%
Разные версии MySQL на master и slave.
28%
Асинхронная репликация и задержки между серверами.
👩‍🏫Объяснение:
Это очень конкретный и частый кейс при настройке репликации с автоинкрементными полями. Если топология не просто «master-slave», а «master-master» или «circular replication», и на обоих серверах могут писаться данные в одну таблицу, то без специальных настроек auto_increment_increment (шаг) и auto_increment_offset (смещение) оба сервера начнут генерировать одинаковые ID, что приведет к конфликтам и дубликатам на slave. Остальные варианты (A, C, D) к дубликатам по уникальному ключу обычно не приводят.