🤔 Вопрос: Что является верным утверждением на тему отличий Entity от Value object в DDD?
Anonymous Quiz
15%
1️⃣ Entity идентифицируется по своим аттрибутам, а Value object по уникальному идентификатору
66%
2️⃣ Value object идентифицируется по своим аттрибутам, а Entity по уникальному идентификатору
14%
3️⃣ Entity неизменяемы, а Value object изменяемы
5%
4️⃣ Entity наследуются от Value object
👍4
Какого контента больше хотелось бы?
Anonymous Poll
17%
Квизы
81%
Небольшие статьи
2%
Напишу в комментах
⚡️OLTP vs OLAP
1️⃣ OLTP (Online Transactional Processing) - система обработки данных, при которой происходят частые короткие транзакции, преимущественно на запись.
- В качестве запросов используются простые insert, update, delete
- Время ответа: миллисекунды или меньше
- Объем БД обычно не очень большой
- Примеры СУБД: PostgreSQL, MongoDB, MySQL
2️⃣ OLAP (Online Analytical Processing) - система обработки данных, суть которой заключается в долгих читающих аналитических запросах.
- В качестве запросов используются сложные select запросы, обычно с join-ами, агрегациями и выборками большого числа строк
- Время ответа: до нескольких дней
- Объем БД может быть очень большим
- Примеры СУБД: Apache HBase, Clickhouse, Elasticsearch
1️⃣ OLTP (Online Transactional Processing) - система обработки данных, при которой происходят частые короткие транзакции, преимущественно на запись.
- В качестве запросов используются простые insert, update, delete
- Время ответа: миллисекунды или меньше
- Объем БД обычно не очень большой
- Примеры СУБД: PostgreSQL, MongoDB, MySQL
2️⃣ OLAP (Online Analytical Processing) - система обработки данных, суть которой заключается в долгих читающих аналитических запросах.
- В качестве запросов используются сложные select запросы, обычно с join-ами, агрегациями и выборками большого числа строк
- Время ответа: до нескольких дней
- Объем БД может быть очень большим
- Примеры СУБД: Apache HBase, Clickhouse, Elasticsearch
👍9🔥1
Если кому-то интересна Kotlin разработка, то welcome на мой второй канал с аналогичным контентом, но уже по Kotlin 🙂
👍3
⚡️2PC (Two Phase Commit)
❓Проблема:
Есть несколько систем, у каждой своя база данных. Хотим сделать распределенную транзакцию, то есть действие, охватывающее все базы, которое либо применится во всех базах, либо не применится ни в одной.
✅ Решение:
Разделим нашу распределенную транзакцию на несколько этапов:
1. Просим все базы подготовить транзакции к коммиту. После этого этапа пока никаких изменений в базах не произошло.
❗️Важно, что СУБД должна поддерживать эту возможность, и что подготовка транзакции должна гарантировать успешный коммит в будущем.
2. Если одна из баз ответила, что не может подготовить транзакцию, то во все базы отправляем запросы на отмену транзакций. Если все базы ответили OK - шлем запросы на коммит транзакции во все базы.
❗️На втором этапе также могут быть проблемы: например, после коммита транзакции в первой базе, вторая база стала недоступна. Самым простым решением здесь будет пытаться ретраить запрос, но есть и другие политики обработки подобных ситуаций.
❓Проблема:
Есть несколько систем, у каждой своя база данных. Хотим сделать распределенную транзакцию, то есть действие, охватывающее все базы, которое либо применится во всех базах, либо не применится ни в одной.
✅ Решение:
Разделим нашу распределенную транзакцию на несколько этапов:
1. Просим все базы подготовить транзакции к коммиту. После этого этапа пока никаких изменений в базах не произошло.
❗️Важно, что СУБД должна поддерживать эту возможность, и что подготовка транзакции должна гарантировать успешный коммит в будущем.
2. Если одна из баз ответила, что не может подготовить транзакцию, то во все базы отправляем запросы на отмену транзакций. Если все базы ответили OK - шлем запросы на коммит транзакции во все базы.
❗️На втором этапе также могут быть проблемы: например, после коммита транзакции в первой базе, вторая база стала недоступна. Самым простым решением здесь будет пытаться ретраить запрос, но есть и другие политики обработки подобных ситуаций.
👍11🔥1
🤔 Вопрос: Что является верным утверждением на тему отличий L3 и L7 балансировки?
Anonymous Quiz
16%
1. Ширина канала, по которому передаются данные
7%
2. Эффективность работы с мультимедийными файлами
63%
3. Уровень абстракции сетевого протокола
14%
4. Степень защищенности передаваемых данных
🔥3👍2
🤔 Вопрос: Зачем нужны распределенные блокировки?
Anonymous Quiz
5%
1. Для лимитирования числа запросов к API
74%
2. Для ограничения одновременного использования разделяемого ресурса распределенными узлами
11%
3. Для масштабирования количества обрабатываемых запросов
10%
4. Для упрощения межсервисного взаимодействия
👍6🔥3
Какие темы статей были бы интересны?
Anonymous Poll
22%
Распределенные блокировки с помощью Redis
19%
Немного подробностей про L3 и L7 балансировку
55%
И то и другое
4%
Обе темы неинтересны, напишу свой вариант в комментах
🔥3
⚡️Почему большинство баз данных на самом деле не CP и не AP?
Крутая статья от Мартина Клеппмана (автор той самой книги с кабанчиком) на тему того, что на самом деле означают Consistency, Availability, Partition tolerance из CAP-теоремы, и почему большинство популярных БД удоволетворяют лишь Partition tolerance.
Крутая статья от Мартина Клеппмана (автор той самой книги с кабанчиком) на тему того, что на самом деле означают Consistency, Availability, Partition tolerance из CAP-теоремы, и почему большинство популярных БД удоволетворяют лишь Partition tolerance.
👍13🔥7🤔1🎉1🏆1
⚡Distributed Locking в Redis
❓Проблема:
Есть некоторый ресурс, для которого мы хотим обеспечить эксклюзивный доступ. При этом этот ресурс доступен в рамках нескольких процессов (например, ресурс - объект в БД, процессы - поднятые контейнеры микросевиса).
✅ Решение:
Используем Redis в качестве механизма синхронизации.
1. У нас один Redis мастер. В этом случае все просто:
1) Создаем запись, если таковая не существует по заданному ключу (NX) с таймаутом в 30000 миллисекунд (PX)
1) Получаем текущее время
2) Пытаемся сходить во все узлы и захватить там лок
3) Считаем время, которое потребовалось на захваты локов.
4) Если лок успешно захвачен на большинстве (n/2 + 1) узлов и время захвата меньше времени таймаута лока - то считаем, что лок успешно захвачен. В противном случае шлем запросы на разблокировку во все узлы.
❗️В обоих алгоритмах используется допущение, что вы гарантированно завершите работу с ресурсом за время истечения лока, иначе никаких гарантий эксклюзивности уже нет. Если это невозможно гарантировать, нужно использовать идею fencing token.
❗️Во втором алгоритме считается, что часы между узлами синхронизированы.
❗️Если локи нужны для обеспечения консистентности данных, то будьте очень осторожны с этими алгоритмами, в противном случае есть риск получать ситуацию, когда два потока одновременно используют ресурс.
❓Проблема:
Есть некоторый ресурс, для которого мы хотим обеспечить эксклюзивный доступ. При этом этот ресурс доступен в рамках нескольких процессов (например, ресурс - объект в БД, процессы - поднятые контейнеры микросевиса).
✅ Решение:
Используем Redis в качестве механизма синхронизации.
1. У нас один Redis мастер. В этом случае все просто:
1) Создаем запись, если таковая не существует по заданному ключу (NX) с таймаутом в 30000 миллисекунд (PX)
SET resource_name random_value NX PX 300002) Далее после использования ресурса удаляем лок, если он еще принадлежит нам - именно для этого используется random_value при блокировании.
if redis.call("get",KEYS[1]) == ARGV[1] then
return redis.call("del",KEYS[1])
else
return 0
end
2. У нас несколько Redis мастеров. Используем алгоритм Redlock, основная идея которого в следующем:1) Получаем текущее время
2) Пытаемся сходить во все узлы и захватить там лок
3) Считаем время, которое потребовалось на захваты локов.
4) Если лок успешно захвачен на большинстве (n/2 + 1) узлов и время захвата меньше времени таймаута лока - то считаем, что лок успешно захвачен. В противном случае шлем запросы на разблокировку во все узлы.
❗️В обоих алгоритмах используется допущение, что вы гарантированно завершите работу с ресурсом за время истечения лока, иначе никаких гарантий эксклюзивности уже нет. Если это невозможно гарантировать, нужно использовать идею fencing token.
❗️Во втором алгоритме считается, что часы между узлами синхронизированы.
❗️Если локи нужны для обеспечения консистентности данных, то будьте очень осторожны с этими алгоритмами, в противном случае есть риск получать ситуацию, когда два потока одновременно используют ресурс.
👍10🔥10🌚2
⚡Идемпотентность API
❓Проблема:
Иногда возникает потребность, что несколько вызовов метода API должны иметь тот же эффект, что и один вызов. Например, чтобы в случае ретраев из-за сетевых проблем POST запрос не создавал снова ту же сущность.
✅ Решение:
Использование ключа идемпотентности, который будет выступать в роли идентификатора запроса, по которому мы сможем понять, что два запроса одинаковые.
❗️Существуют различные реализации механизма проверки, что запрос таким ключом уже обрабатывался. Но всегда стоит помнить, что наивная реализация check-then-act без каких-либо блокировок подвержена race-conditions (оба клиента почти одновременно проверили, что заданного ключа нет, и оба пошли исполнять запрос).
Имхо, наиболее простая реализация, когда хранилищем выступает реляционная БД с одним шардом, выглядит так:
Создадим таблицу для хранения уже обработанных ключей:
И теперь обработка нашего запроса выглядит примерно так:
insert … on conflict do nothing в рамках транзакции блокирует вставку с данным ключом, пока текущая транзакция либо не закомитится, либо не роллбекнется, что решает проблему с check-then-act: второй клиент просто будет ждать, пока первый успешно/неуспешно обработает запрос.
❓Проблема:
Иногда возникает потребность, что несколько вызовов метода API должны иметь тот же эффект, что и один вызов. Например, чтобы в случае ретраев из-за сетевых проблем POST запрос не создавал снова ту же сущность.
✅ Решение:
Использование ключа идемпотентности, который будет выступать в роли идентификатора запроса, по которому мы сможем понять, что два запроса одинаковые.
❗️Существуют различные реализации механизма проверки, что запрос таким ключом уже обрабатывался. Но всегда стоит помнить, что наивная реализация check-then-act без каких-либо блокировок подвержена race-conditions (оба клиента почти одновременно проверили, что заданного ключа нет, и оба пошли исполнять запрос).
Имхо, наиболее простая реализация, когда хранилищем выступает реляционная БД с одним шардом, выглядит так:
Создадим таблицу для хранения уже обработанных ключей:
create table used_keys (
value varchar(256) not null primary key
);
И теперь обработка нашего запроса выглядит примерно так:
begin transaction;
— проверка
insert into used_keys (value)
values ('some_key')
on conflict do nothing
returning *;
— если запрос ничего не вернул, значит уже обрабатывали
— если вернул, то обрабатываем запрос
commit;
insert … on conflict do nothing в рамках транзакции блокирует вставку с данным ключом, пока текущая транзакция либо не закомитится, либо не роллбекнется, что решает проблему с check-then-act: второй клиент просто будет ждать, пока первый успешно/неуспешно обработает запрос.
👍32🔥15🙏2
⚡Декомпозиция системы на модули/микросервисы
Хороший доклад на тему того, как разбить систему так, чтобы она не превратилась в Big ball of mud, и чтобы свести к минимуму синхронизацию между различными сервисами.
Хороший доклад на тему того, как разбить систему так, чтобы она не превратилась в Big ball of mud, и чтобы свести к минимуму синхронизацию между различными сервисами.
YouTube
Алексей Жидков — Рациональный подход к декомпозиции систем на модули или микросервисы
Подробнее о Java-конференциях:
— весной — JPoint: https://jrg.su/gTrwHx
— осенью — Joker: https://jrg.su/h7yvG4
— —
Задача поиска оптимальной декомпозиции системы на модули всегда была важной и сложной частью разработки ПО. С распространением микросервисной…
— весной — JPoint: https://jrg.su/gTrwHx
— осенью — Joker: https://jrg.su/h7yvG4
— —
Задача поиска оптимальной декомпозиции системы на модули всегда была важной и сложной частью разработки ПО. С распространением микросервисной…
🔥9👍6
⚡Session and Token Authentication
❓Проблема:
Хотим аутентифицировать пользователя и хранить какую-то сессионную информацию, привязанную к пользователю.
✅ Решение:
1. Session based Authentication
Принцип работы обычно выглядит так:
- Пользователь отправляет POST запрос /login с телом {username, password}
- Сервер сохраняет в БД сессию и отдает sessionId пользователю в куки
- При повторных обращениях клиент передает sessionId, а сервер по нему аутентифицирует простым лукапом в базе
В этом случае пользовательская сессия хранится в базе данных на сервере.
2. Token based Authentication
Принцип работы обычно выглядит так:
- Пользователь отправляет POST запрос /login с телом {username, password}
- Сервер отдает Json Web Token, клиент у себя его локально сохраняет
- При повторных обращениях JWT передается в хедере запроса, сервер его валидирует и достает данные пользователя
В этом случае токен хранится в локальном хранилище на клиенте.
❗️Если у вас ожидается много пользователей и высокая нагрузка, то вероятно стоит сразу задуматься о JWT. Поскольку для Session based Authentication требуется где-то на сервере хранить эти сессии, валидация требует обращения к БД. Если хранилище шардированное, нужно контролировать, чтобы запросы по одной и той же сессии приходили на один и тот же шард. В свою очередь, JWT позволяет производить stateless валидацию и не хранить сессионные данные на сервере.
❓Проблема:
Хотим аутентифицировать пользователя и хранить какую-то сессионную информацию, привязанную к пользователю.
✅ Решение:
1. Session based Authentication
Принцип работы обычно выглядит так:
- Пользователь отправляет POST запрос /login с телом {username, password}
- Сервер сохраняет в БД сессию и отдает sessionId пользователю в куки
- При повторных обращениях клиент передает sessionId, а сервер по нему аутентифицирует простым лукапом в базе
В этом случае пользовательская сессия хранится в базе данных на сервере.
2. Token based Authentication
Принцип работы обычно выглядит так:
- Пользователь отправляет POST запрос /login с телом {username, password}
- Сервер отдает Json Web Token, клиент у себя его локально сохраняет
- При повторных обращениях JWT передается в хедере запроса, сервер его валидирует и достает данные пользователя
В этом случае токен хранится в локальном хранилище на клиенте.
❗️Если у вас ожидается много пользователей и высокая нагрузка, то вероятно стоит сразу задуматься о JWT. Поскольку для Session based Authentication требуется где-то на сервере хранить эти сессии, валидация требует обращения к БД. Если хранилище шардированное, нужно контролировать, чтобы запросы по одной и той же сессии приходили на один и тот же шард. В свою очередь, JWT позволяет производить stateless валидацию и не хранить сессионные данные на сервере.
👍38🔥5
⚡️Согласованность данных в межсервисных транзакциях
Зачастую некоторые бизнес-операции охватывают сразу несколько сервисов, у каждого из которых своя база данных. Появляется закономерное желание сделать эту “транзакцию” атомарной - чтобы соответствующее действие либо выполнилось во всех сервисах, либо не выполнилось ни в одном. В докладе описывается паттерн Saga, призванный решить эту проблему, обеспечив согласованность в конечном счете.
Зачастую некоторые бизнес-операции охватывают сразу несколько сервисов, у каждого из которых своя база данных. Появляется закономерное желание сделать эту “транзакцию” атомарной - чтобы соответствующее действие либо выполнилось во всех сервисах, либо не выполнилось ни в одном. В докладе описывается паттерн Saga, призванный решить эту проблему, обеспечив согласованность в конечном счете.
👍9🔥7
⚡Sticky sessions
❓Проблема:
Есть один инстанс приложения, использующего веб-сокеты, например, мессенджера. Хотим добиться горизонтального масштабирования, добавив несколько инстансов приложения + балансировщик нагрузки.
✅ Решение:
Использовать Sticky session load balancing, который заключается в том, что запросы от одного клиента будут приходить на один и тот же сервер. В контексте веб-сокетов это особенно важно, поскольку часто требуется, чтобы запросы от клиента приходили на тот же бэкенд, с которым изначально было установлено соединение. Например, это полезно, если у нас есть локальный кеш, в котором хранятся клиентские данные, и мы хотим чтобы после разрыва соединения, следующий запрос на установку соединения пришел на тот же бэкенд.
Принцип работы следующий: балансировщик нагрузки смотрит на какие-то параметры запроса, которые будут постоянны для одного клиента/одной сессии и по ним определяет, на какой сервер переадресовать запрос. Например, можно использовать хеш ip адреса клиента.
❓Проблема:
Есть один инстанс приложения, использующего веб-сокеты, например, мессенджера. Хотим добиться горизонтального масштабирования, добавив несколько инстансов приложения + балансировщик нагрузки.
✅ Решение:
Использовать Sticky session load balancing, который заключается в том, что запросы от одного клиента будут приходить на один и тот же сервер. В контексте веб-сокетов это особенно важно, поскольку часто требуется, чтобы запросы от клиента приходили на тот же бэкенд, с которым изначально было установлено соединение. Например, это полезно, если у нас есть локальный кеш, в котором хранятся клиентские данные, и мы хотим чтобы после разрыва соединения, следующий запрос на установку соединения пришел на тот же бэкенд.
Принцип работы следующий: балансировщик нагрузки смотрит на какие-то параметры запроса, которые будут постоянны для одного клиента/одной сессии и по ним определяет, на какой сервер переадресовать запрос. Например, можно использовать хеш ip адреса клиента.
👍29🔥5
⚡Паттерны обработки ошибок в Apache Kafka
❓Проблема:
При работе с очередями сообщений возникает вопрос, что делать с сообщением, если его не получилось обработать.
✅ Решение:
Ответ зависит от специфики приложения: проигнорировать это сообщение, остановить чтение, перебросить в error-топик и тд. В статье описываются популярные паттерны обработки ошибок в Apache Kafka вместе с вариантами использования.
❓Проблема:
При работе с очередями сообщений возникает вопрос, что делать с сообщением, если его не получилось обработать.
✅ Решение:
Ответ зависит от специфики приложения: проигнорировать это сообщение, остановить чтение, перебросить в error-топик и тд. В статье описываются популярные паттерны обработки ошибок в Apache Kafka вместе с вариантами использования.
Confluent
Error Handling Patterns in Kafka
From dead letter queues to related events processed out of order, here are 5 common issues in event streaming applications, and how to fix them with sequential retries.
🔥15👍4
⚡Виды индексов в БД
❓Проблема:
Когда таблица увеличивается, длительность seq scan (последовательного чтения строк) растет линейно по отношению к размеру таблицы. Когда размер доходит до нескольких миллионов, простые запросы, например, поиск по идентификатору, начинают работать несколько секунд.
✅ Решение:
Использовать индексы - структуры данных, призванные ускорить поиск. Существует довольно много типов индексов, рассмотрим наиболее популярные:
1. B-Tree
B-Tree - наиболее распространенный и универсальный тип индекса. Представляет собой сбалансированное дерево поиска, которое позволяет быстро производить поиск по равенству, ренжу, префиксу строки.
2. Hash
Hash-индексы работают на основе хеш-таблицы. Позволяют производить быстрый поиск по равенству.
3. GIN
GIN (Generalized Inverted Index) представляет собой инвертированный индекс, который строится по столбцу с типом ts_vector для проведения эффективного полнотекстового поиска. Также (в Postgres) для GIN существуют operator classes, как, например, gin_trgm_ops, который позволяет эффективно искать по текстовому столбцу по запросам … where column like ‘%query%’ с помощью разбиения текста на триграммы.
❓Проблема:
Когда таблица увеличивается, длительность seq scan (последовательного чтения строк) растет линейно по отношению к размеру таблицы. Когда размер доходит до нескольких миллионов, простые запросы, например, поиск по идентификатору, начинают работать несколько секунд.
✅ Решение:
Использовать индексы - структуры данных, призванные ускорить поиск. Существует довольно много типов индексов, рассмотрим наиболее популярные:
1. B-Tree
B-Tree - наиболее распространенный и универсальный тип индекса. Представляет собой сбалансированное дерево поиска, которое позволяет быстро производить поиск по равенству, ренжу, префиксу строки.
2. Hash
Hash-индексы работают на основе хеш-таблицы. Позволяют производить быстрый поиск по равенству.
3. GIN
GIN (Generalized Inverted Index) представляет собой инвертированный индекс, который строится по столбцу с типом ts_vector для проведения эффективного полнотекстового поиска. Также (в Postgres) для GIN существуют operator classes, как, например, gin_trgm_ops, который позволяет эффективно искать по текстовому столбцу по запросам … where column like ‘%query%’ с помощью разбиения текста на триграммы.
🔥24👍9
⚡Индексирование больших таблиц
❓Проблема:
Есть большая таблица, хотим накатить на нее индекс. Обычный
✅ Решение:
Использовать конструкцию
Пример: хотим накатить следующий индекс
Для этого перед деплоем приложения руками делаем
И в файле миграции пишем
Смысл накатывания индекса руками в том, что инструменты для миграции схемы БД обычно применяют миграции синхронно, что при деплое приложения заставило бы ждать существенное время.
❓Проблема:
Есть большая таблица, хотим накатить на нее индекс. Обычный
create index блокирует таблицу на время создания индекса. В случае таблиц с сотнями миллионами строк длительность создания индекса может достигать часа. В это время все пишущие запросы будут падать с lock timeout из-за невозможности взятия блокировки => сервис начнет пятисотить => фактически получаем даунтайм.✅ Решение:
Использовать конструкцию
create index concurrently. Она позволяет создать индекс, не блокируя пишущие запросы, однако создание индекса в таком режиме занимает существенно больше времени.Пример: хотим накатить следующий индекс
create index idx__big_table__column
on big_table(column)
Для этого перед деплоем приложения руками делаем
create index concurrently idx__big_table__column
on big_table(column)
И в файле миграции пишем
create index if not exist idx__big_table__column
on big_table(column)
Смысл накатывания индекса руками в том, что инструменты для миграции схемы БД обычно применяют миграции синхронно, что при деплое приложения заставило бы ждать существенное время.
👍57🔥16
⚡Оптимистические блокировки в СУБД
❓Проблема:
В БД есть обновляемая сущность. Период между чтением сущности и записью может быть большим. При этом хотим, чтобы если пользователь отправляет запрос на обновление, он не перезаписывал изменения другого пользователя. То есть хотим избежать ситуаций
✅ Решение:
Использовать оптимистические блокировки. Они заключаются в том, что перед обновлением мы проверяем, что на руках имеем актуальную версию сущности. Реализовать это можно так:
1. Добавляем в сущность БД колонку
2. Навешиваем триггер, чтобы при каждом апдейте колонка инкрементилась
3. При обновлении проверяем версию
Запрос на обновление будет выглядеть так:
Далее если returning * ничего не вернул, значит мы имеем неактуальное состояние. Если вернул, то мы имели актуальное состояние и успешно сделали апдейт.
❓Проблема:
В БД есть обновляемая сущность. Период между чтением сущности и записью может быть большим. При этом хотим, чтобы если пользователь отправляет запрос на обновление, он не перезаписывал изменения другого пользователя. То есть хотим избежать ситуаций
user1: read
user2: read
user1: write
user2: write (перезаписали обновления user1)
✅ Решение:
Использовать оптимистические блокировки. Они заключаются в том, что перед обновлением мы проверяем, что на руках имеем актуальную версию сущности. Реализовать это можно так:
1. Добавляем в сущность БД колонку
revision с дефолтом 02. Навешиваем триггер, чтобы при каждом апдейте колонка инкрементилась
3. При обновлении проверяем версию
Запрос на обновление будет выглядеть так:
update entity
set …
where id = <entity_id>
and revision = <revision>
returning *;
Далее если returning * ничего не вернул, значит мы имеем неактуальное состояние. Если вернул, то мы имели актуальное состояние и успешно сделали апдейт.
👍32🔥9🙏4
⚡Оптимизация производительности приложений
Качественный обзорный доклад про роль, общие принципы профилирования при разработке ПО, а также про отличия оптимизаций в “зеленой”, “желтой” и “красной” зонах с множеством примеров.
Качественный обзорный доклад про роль, общие принципы профилирования при разработке ПО, а также про отличия оптимизаций в “зеленой”, “желтой” и “красной” зонах с множеством примеров.
YouTube
Алексей Шипилёв — Перформанс: Что В Имени Тебе Моём?
Подробнее о Java-конференциях:
— весной — JPoint: https://jrg.su/gTrwHx
— осенью — Joker: https://jrg.su/h7yvG4
— —
. . . . Алексей Шипилёв — Перформанс: Что В Имени Тебе Моём?
Java-конференция Joker 2016, Санкт-Петербург, 14-15.10.2016
Оптимизация производительности…
— весной — JPoint: https://jrg.su/gTrwHx
— осенью — Joker: https://jrg.su/h7yvG4
— —
. . . . Алексей Шипилёв — Перформанс: Что В Имени Тебе Моём?
Java-конференция Joker 2016, Санкт-Петербург, 14-15.10.2016
Оптимизация производительности…
🔥10👍4
⚡Deadline propagation
❓Проблема:
Есть бизнес-операция, задействующая несколько сервисов, с некоторым SLA времени ответа. В случае отказа одного из сервисов, мы не хотим заставлять пользователя ждать и нагружать остальные сервисы, а просто выводим понятное сообщение об ошибке.
✅ Решение:
Использовать технику deadline propagation. Она заключается в том, что на стороне клиента генерируется дедлайн, до которого нужно исполнить операцию, и отправляется вместе с запросом серверу. В случае межсервисных взаимодействий дедлайн пересылается от сервиса к сервису, что позволяет избежать ситуаций, когда изначальный запрос уже отменился, но у нас остались подвешенные межсервисные запросы.
❓Проблема:
Есть бизнес-операция, задействующая несколько сервисов, с некоторым SLA времени ответа. В случае отказа одного из сервисов, мы не хотим заставлять пользователя ждать и нагружать остальные сервисы, а просто выводим понятное сообщение об ошибке.
✅ Решение:
Использовать технику deadline propagation. Она заключается в том, что на стороне клиента генерируется дедлайн, до которого нужно исполнить операцию, и отправляется вместе с запросом серверу. В случае межсервисных взаимодействий дедлайн пересылается от сервиса к сервису, что позволяет избежать ситуаций, когда изначальный запрос уже отменился, но у нас остались подвешенные межсервисные запросы.
👍31🔥5