SQL-Interview-Questions.pdf
1.2 MB
Подготовлен свежий сборник из 40 SQL-вопросов для технических собеседований. В него вошли все ключевые темы, которые обычно проверяют на позиции, связанные с базами данных
👉 @SQLPortal
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤2
Доступ к атрибутам JSON, хранящимся в Oracle AI Database, можно организовать через простую точечную нотацию или через функции семейства JSON_VALUE.
Точечная нотация выглядит как <alias>.<column>.<path>.<to><attr> и позволяет обращаться к атрибутам прямо из SQL.
Аналогичный доступ можно оформить через JSON_VALUE(column, '$.<path>.<to><attr>'). Разница в том, что точечная нотация вернёт NULL, если не сможет обработать путь, а JSON_VALUE позволяет задавать поведение при ошибках и управлять типами возвращаемых данных.
JSON можно хранить в колонках VARCHAR2/CLOB/BLOB и проверять с помощью ограничения IS JSON. Для выборки подойдут как точечная нотация, так и JSON_VALUE, JSON_QUERY или JSON_TABLE.
Пример:
👉 @SQLPortal
Точечная нотация выглядит как <alias>.<column>.<path>.<to><attr> и позволяет обращаться к атрибутам прямо из SQL.
Аналогичный доступ можно оформить через JSON_VALUE(column, '$.<path>.<to><attr>'). Разница в том, что точечная нотация вернёт NULL, если не сможет обработать путь, а JSON_VALUE позволяет задавать поведение при ошибках и управлять типами возвращаемых данных.
JSON можно хранить в колонках VARCHAR2/CLOB/BLOB и проверять с помощью ограничения IS JSON. Для выборки подойдут как точечная нотация, так и JSON_VALUE, JSON_QUERY или JSON_TABLE.
Пример:
CREATE TABLE json_data ( data BLOB CHECK ( data IS JSON ) );
INSERT INTO json_data VALUES
( ' { array : [ 1, 2, 3 ], string : "text", date : "2023-01-01" }' );
SELECT j.data.array[0] string_number, -- по умолчанию varchar2(4000)
JSON_VALUE ( data, '$.array[2]' RETURNING NUMBER ) number_number,
JSON_VALUE ( data, '$.date' ) string_date,
JSON_VALUE ( data, '$.date' RETURNING NUMBER DEFAULT 0 ON ERROR ) not_number
FROM json_data j
WHERE j.data.string = 'text';
STRING_NUMBER NUMBER_NUMBER STRING_DATE NOT_NUMBER
-------------- -------------- ------------ ----------
1 3 2023-01-01 0
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍3🔥2
Ты правда шаришь в SQL? 😊
Какой запрос вернёт накопительный итог продаж по дате?
A.
B.
C.
👉 @SQLPortal
Какой запрос вернёт накопительный итог продаж по дате?
A.
SELECT Date, SUM(Amount)
FROM Sales GROUP BY Date;
B.
SELECT Date, SUM(Amount) OVER (ORDER BY Date)
FROM Sales;
C.
SELECT Date, RUNNING(Amount) FROM Sales;
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
Postgres 18 получил поддержку виртуальных вычисляемых колонок. Вычисляемые STORED-колонки в Postgres уже были несколько версий подряд.
Вычисляемые колонки позволяют:
• создавать колонку на основе других данных
• ссылаться на значения из других колонок
• заранее считать колляции или любые вычисления в базе, а не в приложении
Синтаксис GENERATED ALWAYS AS открывает выражение, а в конце указывается режим VIRTUAL или STORED.
Виртуальные вычисляемые колонки пересчитываются при каждом чтении, поэтому не подходят для тяжёлых вычислений. Для таких случаев лучше использовать STORED-колонку или даже expression index. Но они удобны, когда значение нужно редко и его логично вычислять на лету.
Пример:
👉 @SQLPortal
Вычисляемые колонки позволяют:
• создавать колонку на основе других данных
• ссылаться на значения из других колонок
• заранее считать колляции или любые вычисления в базе, а не в приложении
Синтаксис GENERATED ALWAYS AS открывает выражение, а в конце указывается режим VIRTUAL или STORED.
Виртуальные вычисляемые колонки пересчитываются при каждом чтении, поэтому не подходят для тяжёлых вычислений. Для таких случаев лучше использовать STORED-колонку или даже expression index. Но они удобны, когда значение нужно редко и его логично вычислять на лету.
Пример:
CREATE TABLE products (
id serial PRIMARY KEY,
price numeric,
tax_rate numeric DEFAULT 0.05,
total_price numeric GENERATED ALWAYS AS (price * (1 + tax_rate)) VIRTUAL
);
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍5❤3
Postgres 18 меняет дефолтные настройки целостности данных
В новом релизе опция data checksums теперь включена по умолчанию. Раньше админам нужно было явно передавать --data-checksums при initdb, иначе кластер поднимался без проверки страниц на тихую порчу. Теперь достаточно обычного initdb -D /data/pg18 — каждая 8KB-страница таблиц и индексов получает checksum, который проверяется при чтении. Это тот же механизм, на который опирается pgBackRest при валидации бэкапов.
При этом меняются и правила игры для апгрейдов через pg_upgrade: старый и новый кластеры должны быть подняты с одинаковыми настройками checksums. Если ваш текущий кластер без checksums, прямой апгрейд на «дефолтный» Postgres 18 провалится. Временный обходной путь — инициализировать новый кластер с флагом --no-data-checksums, чтобы выровнять конфигурацию. Более правильная стратегия будет, заранее включить checksums с помощью pg_checksums (да, с даунтаймом), а в больших инсталляциях сначала включать их на реплике и переключаться уже на неё.
В итоге checksums из рекомендованной опции превращаются в норму по умолчанию. Если вы до сих пор жили без них, самое время заложить в план обслуживания включение checksums и пересмотреть сценарии major-апгрейдов Postgres.
👉 @SQLPortal
В новом релизе опция data checksums теперь включена по умолчанию. Раньше админам нужно было явно передавать --data-checksums при initdb, иначе кластер поднимался без проверки страниц на тихую порчу. Теперь достаточно обычного initdb -D /data/pg18 — каждая 8KB-страница таблиц и индексов получает checksum, который проверяется при чтении. Это тот же механизм, на который опирается pgBackRest при валидации бэкапов.
При этом меняются и правила игры для апгрейдов через pg_upgrade: старый и новый кластеры должны быть подняты с одинаковыми настройками checksums. Если ваш текущий кластер без checksums, прямой апгрейд на «дефолтный» Postgres 18 провалится. Временный обходной путь — инициализировать новый кластер с флагом --no-data-checksums, чтобы выровнять конфигурацию. Более правильная стратегия будет, заранее включить checksums с помощью pg_checksums (да, с даунтаймом), а в больших инсталляциях сначала включать их на реплике и переключаться уже на неё.
В итоге checksums из рекомендованной опции превращаются в норму по умолчанию. Если вы до сих пор жили без них, самое время заложить в план обслуживания включение checksums и пересмотреть сценарии major-апгрейдов Postgres.
Please open Telegram to view this post
VIEW IN TELEGRAM
Crunchy Data
Postgres 18 New Default for Data Checksums and How to Deal with Upgrades | Crunchy Data Blog
Postgres 18 defaults to checksums on. This is a good feature for data integrity but might catch you off guard with an upgrade.
👍2
Работаешь с массивами? Оператор ANY позволяет проверить список и увидеть, совпадает ли хоть один элемент.
color = 'red' срабатывает только для одиночного значения
'Red' = ANY(...) работает, когда у тебя колонка со списком вроде ['red', 'blue', 'green']
👉 @SQLPortal
SELECT * FROM products
WHERE 'Red' = ANY(colors);
color = 'red' срабатывает только для одиночного значения
'Red' = ANY(...) работает, когда у тебя колонка со списком вроде ['red', 'blue', 'green']
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12❤4
SQL Case Files
Изучай SQL, параллельно разбирая детективные расследования.
Пиши запросы, чтобы узнать больше о подозреваемых, находить улики и закрывать дела.
Играть здесь: https://sqlcasefiles.com
👉 @SQLPortal
Изучай SQL, параллельно разбирая детективные расследования.
Пиши запросы, чтобы узнать больше о подозреваемых, находить улики и закрывать дела.
Играть здесь: https://sqlcasefiles.com
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3
DuckLake теперь поддерживает встраивание данных для каталогов PostgreSQL и SQLite! Можно обойти проблему мелких файлов в lakehouse с любым каталогом, который поддерживает DuckLake.
Обнови расширение DuckLake в любом клиенте на DuckDB 1.4.x, чтобы использовать эту фичу.
P.S. Не забудь сделать flush!
👉 @SQLPortal
Обнови расширение DuckLake в любом клиенте на DuckDB 1.4.x, чтобы использовать эту фичу.
P.S. Не забудь сделать flush!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Продвинутый планировщик задач, который живёт в экосистеме PostgreSQL
Утилита полностью управляемая через базу без серверных конфигов. Поддерживает пайплайны задач, запуск SQL и внешних команд, умные ретраи после сбоев и контроль параллельного запуска тяжёлых джобов.
👉 @SQLPortal
Утилита полностью управляемая через базу без серверных конфигов. Поддерживает пайплайны задач, запуск SQL и внешних команд, умные ретраи после сбоев и контроль параллельного запуска тяжёлых джобов.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
SelfDB — самостоятельно размещенный BaaS как альтернатива Supabase, ориентированная на тех, кто хочет держать базу, схемы и запросы под полным контролем, а не прятать всё за абстракциями
👉 @SQLPortal
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3
SQL for Data Science 📈.pdf
225.1 KB
Чтобы быстро освежить в голове SQL-паттерны, которые постоянно встречаются в аналитике и задачах на данных. Удобно как мини-шпаргалка перед собесом, тестовым или когда нужно быстро накидать запрос и не тупить на синтаксисе. ⛄️
👉 @SQLPortal
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4😁3❤2
До Postgres 18 планировщик не рассматривал многоколонные B-tree индексы, если в запросе не использовался их самый левый столбец.
С появлением skip scan многоколонный индекс теперь может использоваться для выполнения запросов по любому из столбцов.
👉 @SQLPortal
С появлением skip scan многоколонный индекс теперь может использоваться для выполнения запросов по любому из столбцов.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥3🤔1
Зимняя уборка в Postgres: посмотрите на самые медленные запросы — где не хватает индексов или есть простор для оптимизации.
В туториале по анализу производительности запросов:
- как использовать pg_stat_statements
- примеры SQL для поиска самых медленных запросов — можно просто скопировать😉
👉 @SQLPortal
В туториале по анализу производительности запросов:
- как использовать pg_stat_statements
- примеры SQL для поиска самых медленных запросов — можно просто скопировать
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🔥2😁1
Хорошие новости для пользователей Postgres под конец года. Команда TimescaleDB выпустила и открыла исходники расширения pg_textsearch.
В Postgres уже есть встроенный полнотекстовый поиск, а это расширение делает его более современным и продвинутым за счёт добавления ранжирования BM25.
👉 @SQLPortal
В Postgres уже есть встроенный полнотекстовый поиск, а это расширение делает его более современным и продвинутым за счёт добавления ранжирования BM25.
Please open Telegram to view this post
VIEW IN TELEGRAM
Tiger Data Blog
From ts_rank to BM25. Introducing pg_textsearch: True BM25 Ranking and Hybrid Retrieval Inside Postgres | Tiger Data
pg_textsearch brings BM25 ranking to enable hybrid search to Postgres. Build RAG systems with keyword precision and vector semantics in one database.
👍2😁1
Зимняя уборка в Postgres: проверь неиспользуемые индексы и удали их.
Это ускорит записи, снизит расход памяти и освободит место на диске на следующий год.
👉 @SQLPortal
Это ускорит записи, снизит расход памяти и освободит место на диске на следующий год.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤1
Хочешь наглядно разобраться в устройстве Oracle AI Database:
- процессы
- память
- объекты
- файлы
Загляни в документацию с диаграммами технической архитектуры.
Там есть интерактивные схемы: можно кликать и смотреть, как компоненты связаны между собой.
Либо открыть все диаграммы сразу здесь
👉 @SQLPortal
- процессы
- память
- объекты
- файлы
Загляни в документацию с диаграммами технической архитектуры.
Там есть интерактивные схемы: можно кликать и смотреть, как компоненты связаны между собой.
Либо открыть все диаграммы сразу здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Обобщённые инвертированные индексы (GIN) - мощный инструмент в Postgres.
Они хороши тем, что переворачивают привычную модель индексации.
Вместо логики вида: строка с ID 2 содержит значение "become a database expert", индекс хранит обратное соответствие: токен "database" указывает на строки с ID 1, 2 и 3, а "expert" — на строку с ID 2.
GIN-индексу на вход подаётся набор значений для каждой строки, которую нужно проиндексировать. Каждое уникальное значение становится ключом в индексе и сопоставляется с набором CTID (идентификаторов кортежей строк), в которых это значение встречается.
У такого подхода есть несколько сценариев применения, и один из самых популярных - полнотекстовый поиск. В MySQL для этого есть отдельный тип индекса FULLTEXT, а в Postgres похожая функциональность строится на более универсальных GIN-индексах.
Как это выглядит на практике:
(a) Добавляем колонку tsvector в таблицу:
(b) Заполняем её лексемами (нормализованными словами):
(c) Создаём GIN-индекс по лексемам:
(d) И выполняем запросы:
В итоге получаем быстрый и гибкий полнотекстовый поиск прямо внутри Postgres, без отдельных движков и костылей.
👉 @SQLPortal
Они хороши тем, что переворачивают привычную модель индексации.
Вместо логики вида: строка с ID 2 содержит значение "become a database expert", индекс хранит обратное соответствие: токен "database" указывает на строки с ID 1, 2 и 3, а "expert" — на строку с ID 2.
GIN-индексу на вход подаётся набор значений для каждой строки, которую нужно проиндексировать. Каждое уникальное значение становится ключом в индексе и сопоставляется с набором CTID (идентификаторов кортежей строк), в которых это значение встречается.
У такого подхода есть несколько сценариев применения, и один из самых популярных - полнотекстовый поиск. В MySQL для этого есть отдельный тип индекса FULLTEXT, а в Postgres похожая функциональность строится на более универсальных GIN-индексах.
Как это выглядит на практике:
(a) Добавляем колонку tsvector в таблицу:
CREATE TABLE post (
author TEXT,
publish_date DATE,
content TEXT NOT NULL,
search_vector tsvector
);
(b) Заполняем её лексемами (нормализованными словами):
UPDATE post
SET search_vector =
to_tsvector('english', content);
(c) Создаём GIN-индекс по лексемам:
CREATE INDEX post_search_idx
ON post USING GIN(search_vector);
(d) И выполняем запросы:
SELECT * FROM post
WHERE search_vector @@
to_tsquery('english', 'database & expert');
В итоге получаем быстрый и гибкий полнотекстовый поиск прямо внутри Postgres, без отдельных движков и костылей.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4❤3
Какой запрос корректно выбирает 3 наибольшие различные зарплаты?
Anonymous Quiz
61%
SELECT DISTINCT Salary FROM Employees ORDER BY Salary DESC LIMIT 3;
22%
SELECT Salary FROM Employees ORDER BY Salary DESC LIMIT 3;
16%
SELECT TOP 3 DISTINCT Salary FROM Employees
Зимняя уборка в Postgres:
Проверь, сколько места реально занимают базы и каков физический размер диска. Убедись, что запаса хватит на 2026 год.
Посмотреть список всех БД на сервере и их размеры, отсортированные по убыванию:
👉 @SQLPortal
Проверь, сколько места реально занимают базы и каков физический размер диска. Убедись, что запаса хватит на 2026 год.
Посмотреть список всех БД на сервере и их размеры, отсортированные по убыванию:
SELECT
datname AS database_name,
pg_size_pretty(pg_database_size(datname)) AS size
FROM
pg_database
ORDER BY
pg_database_size(datname) DESC;
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4