Конец зимы получается очень горячим! 🔥
Не успел опомниться от Winter Analytical Weekend, а скоро уже и весенний Flow, где я эксперт и член ПК.
Программа Flow готова уже на 100%, это будет интенсив в онлайне 12 марта, и будет много докладов про самые практические вещи в работе аналитика: про требования, интеграции и архитектуру. Ну и про ИИ, куда же теперь без него!
Часть программы уже на сайте, а цена более чем демократичная.
Вероятно, я там буду в качестве эксперта представлять некоторые доклады, а может даже и вести дискуссию в главной студии. Хороший подарок прямо к моему дню рождения!🎁
А ещё лично меня можно увидеть в марте на классическом курсе-боевике "Системный анализ. Разработка требований в ИТ-проектах" от школы системного анализа и проектирования Systems.Education.
Курс, на самом деле, просто ставит голову системного аналитика на место и даёт четкий и последовательный план работы над проектом требований к новой системе. Как писать требования, когда применять use cases, как думать про НФТ и зачем нужна контекстная диаграмма и модель предметной области — всё расскажу. Идёт уже больше 10 лет, практически живая легенда, а не курс! Буду вести его очно в Москве 21-23 марта.
А в апреле будет его сиквел: разработка проекта интеграции, для опытных аналитиков — "Основы проектирования интеграций ИТ-систем". Тут мы разбираемся с интеграциями систем во всех видах, от обмена файлами до брокеров сообщений, и, конечно, особенно подробно с проектированием REST API. Это уже апрель, тоже очно в Москве, с 4 по 6.
Потом я до лета ухожу в отпуск, и буду работать только точечно с людьми, которые у меня консультируются и проходят менторинг (есть и такая опция!)
А ещё в ближайшее время будет запускается несколько курсов от хороших друзей, о чем напишу на неделе, не переключайтесь! 📺👀
Не успел опомниться от Winter Analytical Weekend, а скоро уже и весенний Flow, где я эксперт и член ПК.
Программа Flow готова уже на 100%, это будет интенсив в онлайне 12 марта, и будет много докладов про самые практические вещи в работе аналитика: про требования, интеграции и архитектуру. Ну и про ИИ, куда же теперь без него!
Часть программы уже на сайте, а цена более чем демократичная.
Вероятно, я там буду в качестве эксперта представлять некоторые доклады, а может даже и вести дискуссию в главной студии. Хороший подарок прямо к моему дню рождения!
А ещё лично меня можно увидеть в марте на классическом курсе-боевике "Системный анализ. Разработка требований в ИТ-проектах" от школы системного анализа и проектирования Systems.Education.
Курс, на самом деле, просто ставит голову системного аналитика на место и даёт четкий и последовательный план работы над проектом требований к новой системе. Как писать требования, когда применять use cases, как думать про НФТ и зачем нужна контекстная диаграмма и модель предметной области — всё расскажу. Идёт уже больше 10 лет, практически живая легенда, а не курс! Буду вести его очно в Москве 21-23 марта.
А в апреле будет его сиквел: разработка проекта интеграции, для опытных аналитиков — "Основы проектирования интеграций ИТ-систем". Тут мы разбираемся с интеграциями систем во всех видах, от обмена файлами до брокеров сообщений, и, конечно, особенно подробно с проектированием REST API. Это уже апрель, тоже очно в Москве, с 4 по 6.
Потом я до лета ухожу в отпуск, и буду работать только точечно с людьми, которые у меня консультируются и проходят менторинг (есть и такая опция!)
А ещё в ближайшее время будет запускается несколько курсов от хороших друзей, о чем напишу на неделе, не переключайтесь! 📺
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15
Продолжу про чек-листы из Essence (из ГОСТ 57195).
Я, когда не забываю, обязательно включаю формулировки из них в план проекта. Эти чек-листы "капитанские", но, как любой чек-лист, почти всегда выполняются, но если вдруг один пункт не выполняется — это окупает все предыдущие разы.
Вот, например, чек-листы к "Требованиям":
Состояние "Сформулированы":
✅ Первоначальная группа заинтересованных сторон согласна, что система должна быть произведена.
✅ Заинтересованные стороны, которые будут использовать новую систему, идентифицированы.
✅ Заинтересованные стороны, которые профинансируют начальную работу по созданию новой системы, идентифицированы.
✅ Существует очевидная возможность, которую реализует новая система.
Тут вроде всё очевидно, нужно понять — что делаем, зачем, кто будет пользоваться и кто оплатит.
Состояние "Требования ограничены":
✅ Заинтересованные стороны, вовлеченные в разработку новой системы, идентифицированы.
✅ Заинтересованные стороны согласны с назначением новой системы.
✅ Определено, что будет считаться положительным эффектом от внедрения новой системы.
✅ Заинтересованные стороны имеют одинаковое понимание пределов предлагаемого решения.
✅ Технология описания требований согласована.
✅ Механизмы управления требованиями есть в наличии.
✅ Приоритезационная схема ясна.
✅ Ограничения определены и приняты во внимание.
✅ Допущения ясно сформулированы.
Вот тут уже начинаются проблемы. Положительный эффект? Далеко не в каждом проекте удается зафиксировать. Пределы решения? (Можно ещё перевести, как границы). Не всегда фиксируют. Да ещё чтобы все их поняли?
Технология описания. То есть, мы в каком виде требования формулируем? User story? JTBD? Классические ФТ?
Механизмы управления требованиями? Это вообще что?
и т.д.
Конечно, можно прожить и без этого. Тут как с дефектами: само по себе наличие дефектов в системе ещё не означает, что это дефект проявится. То, что вы не поставили галочку в чек-листе, ещё не значит, что проект обязательно провалится. Но это риск. В стандарте этого нет, но к каждому пункту можно приписать набор рисков, которые могут сработать, если это состояние не достигнуто.
Отсутствие приоритезационной схемы может повлечь впихивание в продукт функций по принципу "приоритет у того, кто громче кричит". Отсутствие механизмов управления приводит к проблемам с устаревшими требованиями и соотнесением релизов с набором требований.
Про непроговоренные со стейкхолдерами пределы, допущения и ограничения даже не буду говорить, не люблю ужастики.
В общем, всё это может не выстрелить, но в какой-то момент — особенно когда вы руководите системным анализом не одном проекте, а, скажем, в пяти-шести.
Я так в один момент обнаружил, что у меня в проекте есть в каком-то виде все 30 процессов, описанных в ISO 12207, и за всеми нужно приглядывать, и хорошо бы их как-то разложить на людей, а не контролировать каждый самому. Первый признак инженерной деятельности — систематизация.
Возвращаясь к чек-листам: замечательные пункты
✅ Происхождение требований ясно.
✅ Обоснование требований ясно.
Вот тут, боюсь, 80% проектов и срежется. Откуда вообще эти требования взялись? Ну, это же "по умолчанию". Это "система так требует". "Эти требования мы всегда вписываем". "Нам на курсах сказали, что так надо". "Это было в примере". "Заказчик сказал, что это нужно обязательно". Нет, я понимаю, что никогда нет времени разбираться с этим, потому что и так часов мало. Но тогда какие риски мы принимаем и не учитываем?
Я, когда не забываю, обязательно включаю формулировки из них в план проекта. Эти чек-листы "капитанские", но, как любой чек-лист, почти всегда выполняются, но если вдруг один пункт не выполняется — это окупает все предыдущие разы.
Вот, например, чек-листы к "Требованиям":
Состояние "Сформулированы":
✅ Первоначальная группа заинтересованных сторон согласна, что система должна быть произведена.
✅ Заинтересованные стороны, которые будут использовать новую систему, идентифицированы.
✅ Заинтересованные стороны, которые профинансируют начальную работу по созданию новой системы, идентифицированы.
✅ Существует очевидная возможность, которую реализует новая система.
Тут вроде всё очевидно, нужно понять — что делаем, зачем, кто будет пользоваться и кто оплатит.
Состояние "Требования ограничены":
✅ Заинтересованные стороны, вовлеченные в разработку новой системы, идентифицированы.
✅ Заинтересованные стороны согласны с назначением новой системы.
✅ Определено, что будет считаться положительным эффектом от внедрения новой системы.
✅ Заинтересованные стороны имеют одинаковое понимание пределов предлагаемого решения.
✅ Технология описания требований согласована.
✅ Механизмы управления требованиями есть в наличии.
✅ Приоритезационная схема ясна.
✅ Ограничения определены и приняты во внимание.
✅ Допущения ясно сформулированы.
Вот тут уже начинаются проблемы. Положительный эффект? Далеко не в каждом проекте удается зафиксировать. Пределы решения? (Можно ещё перевести, как границы). Не всегда фиксируют. Да ещё чтобы все их поняли?
Технология описания. То есть, мы в каком виде требования формулируем? User story? JTBD? Классические ФТ?
Механизмы управления требованиями? Это вообще что?
и т.д.
Конечно, можно прожить и без этого. Тут как с дефектами: само по себе наличие дефектов в системе ещё не означает, что это дефект проявится. То, что вы не поставили галочку в чек-листе, ещё не значит, что проект обязательно провалится. Но это риск. В стандарте этого нет, но к каждому пункту можно приписать набор рисков, которые могут сработать, если это состояние не достигнуто.
Отсутствие приоритезационной схемы может повлечь впихивание в продукт функций по принципу "приоритет у того, кто громче кричит". Отсутствие механизмов управления приводит к проблемам с устаревшими требованиями и соотнесением релизов с набором требований.
Про непроговоренные со стейкхолдерами пределы, допущения и ограничения даже не буду говорить, не люблю ужастики.
В общем, всё это может не выстрелить, но в какой-то момент — особенно когда вы руководите системным анализом не одном проекте, а, скажем, в пяти-шести.
Я так в один момент обнаружил, что у меня в проекте есть в каком-то виде все 30 процессов, описанных в ISO 12207, и за всеми нужно приглядывать, и хорошо бы их как-то разложить на людей, а не контролировать каждый самому. Первый признак инженерной деятельности — систематизация.
Возвращаясь к чек-листам: замечательные пункты
✅ Происхождение требований ясно.
✅ Обоснование требований ясно.
Вот тут, боюсь, 80% проектов и срежется. Откуда вообще эти требования взялись? Ну, это же "по умолчанию". Это "система так требует". "Эти требования мы всегда вписываем". "Нам на курсах сказали, что так надо". "Это было в примере". "Заказчик сказал, что это нужно обязательно". Нет, я понимаю, что никогда нет времени разбираться с этим, потому что и так часов мало. Но тогда какие риски мы принимаем и не учитываем?
👍17❤3
На WAW много говорили о развитии системных аналитиков и возможном карьерном пути.
Почему-то считается, что следующий шаг в карьере для СА — это архитектор (развитие технической экспертизы и навыков проектирования) или продакт-менеджер (развитие в сторону бизнес-потребностей, выявления и представления интересов пользователей, когда их очень много, и с каждым не поговоришь).
Между этими направлениями есть Technical Product Manager, человек, отвечающий за стратегию технологического развития продукта (такой продвинутый в технике Product Owner), в отличие от PMа, который больше про продуктовые метрики и маркетинг. Да, менеджеры продуктов тоже постоянно находятся в поисках себя и самоопределении.
Но был также доклад Бориса Вольфсона, который описал ещё одно направление развития: стратегический консалтинг. Это разработка и имплементация не просто технической стратегии, а бизнесовой. И у опытного фулл-стек аналитика есть все качества для этого:
🔸умение прослеживать связи от бизнес-показателей до конкретных процессов;
🔸 учёт многих факторов и точек зрения;
🔸 умение организовать и фасилитировать продуктивные встречи;
🔸 навык упаковки идей в компактную форму с отточенными формулировками;
🔸 навык проектирования метрик для процессов;
🔸 навык убеждения :)
🔸 и одно из самых важных: навык говорить "нет" и отказываться от лишних фич, а в случае стратегии — о лишних продуктов, рынков и направлений, т.к. стратегия — это про фокусировку.
Я не очень-то думал в эту сторону, хотя сам занимался построением стратегии и проведением стратегических сессий! И знаю людей, которые тоже выходят на разработку стратегии, находясь на высоких позициях в анализе.
Борис, со своей стороны, считает, что системность подхода и внимательность к деталям — это то, что может очень здорово помочь топам, т.к. они зачастую этими качествами не обладают. И это тоже правда, у них там другое — смелость, харизма, политическое чутье, умение воспользоваться шансом, а вот проработка детальных стратегий, на удивление, не всегда сильная сторона.
В докладе был предложен конкретный фреймворк (мы же любим фреймворки!):
Playing-to-Win.
Модель из 5 частей:
Winning Aspiration — наше стремление, зачем вообще существует эта организация или команда?
Where to play — где мы играем? Что является нашим рынком и как его описать? И куда мы точно не идём.
How to win — как мы выигрываем? Что мы конкретно делаем, чтобы выиграть? В чём наше "нечестное преимущество"? И чего мы точно не делаем?
Capabilities — какие способности должны быть у компании, чтобы сыграть так, как мы спланировали? Что компания должна уметь делать? Можно оформить это в виде Activity System Map, которую предложил Портер.
Management System — и наконец, как всё это управляется?
Ответы на эти 5 вопросов и составляют стратегию, а книге (ну конечно, есть книга! Playing to Win: How Strategy Really Works, Roger Martin, Alan G. Lafley, 2013) описан в деталях воркшоп по разработке стратегии.
А Борис, со своей стороны, разработал "6-страничник" для описания стратегии, основанный на этом подходе.
Так что, если выдаётся возможность, старайтесь участвовать в разработке стратегии для вашей компании, это очень увлекательно и полезно! :)
Почему-то считается, что следующий шаг в карьере для СА — это архитектор (развитие технической экспертизы и навыков проектирования) или продакт-менеджер (развитие в сторону бизнес-потребностей, выявления и представления интересов пользователей, когда их очень много, и с каждым не поговоришь).
Между этими направлениями есть Technical Product Manager, человек, отвечающий за стратегию технологического развития продукта (такой продвинутый в технике Product Owner), в отличие от PMа, который больше про продуктовые метрики и маркетинг. Да, менеджеры продуктов тоже постоянно находятся в поисках себя и самоопределении.
Но был также доклад Бориса Вольфсона, который описал ещё одно направление развития: стратегический консалтинг. Это разработка и имплементация не просто технической стратегии, а бизнесовой. И у опытного фулл-стек аналитика есть все качества для этого:
🔸умение прослеживать связи от бизнес-показателей до конкретных процессов;
🔸 учёт многих факторов и точек зрения;
🔸 умение организовать и фасилитировать продуктивные встречи;
🔸 навык упаковки идей в компактную форму с отточенными формулировками;
🔸 навык проектирования метрик для процессов;
🔸 навык убеждения :)
🔸 и одно из самых важных: навык говорить "нет" и отказываться от лишних фич, а в случае стратегии — о лишних продуктов, рынков и направлений, т.к. стратегия — это про фокусировку.
Я не очень-то думал в эту сторону, хотя сам занимался построением стратегии и проведением стратегических сессий! И знаю людей, которые тоже выходят на разработку стратегии, находясь на высоких позициях в анализе.
Борис, со своей стороны, считает, что системность подхода и внимательность к деталям — это то, что может очень здорово помочь топам, т.к. они зачастую этими качествами не обладают. И это тоже правда, у них там другое — смелость, харизма, политическое чутье, умение воспользоваться шансом, а вот проработка детальных стратегий, на удивление, не всегда сильная сторона.
В докладе был предложен конкретный фреймворк (мы же любим фреймворки!):
Playing-to-Win.
Модель из 5 частей:
Winning Aspiration — наше стремление, зачем вообще существует эта организация или команда?
Where to play — где мы играем? Что является нашим рынком и как его описать? И куда мы точно не идём.
How to win — как мы выигрываем? Что мы конкретно делаем, чтобы выиграть? В чём наше "нечестное преимущество"? И чего мы точно не делаем?
Capabilities — какие способности должны быть у компании, чтобы сыграть так, как мы спланировали? Что компания должна уметь делать? Можно оформить это в виде Activity System Map, которую предложил Портер.
Management System — и наконец, как всё это управляется?
Ответы на эти 5 вопросов и составляют стратегию, а книге (ну конечно, есть книга! Playing to Win: How Strategy Really Works, Roger Martin, Alan G. Lafley, 2013) описан в деталях воркшоп по разработке стратегии.
А Борис, со своей стороны, разработал "6-страничник" для описания стратегии, основанный на этом подходе.
Так что, если выдаётся возможность, старайтесь участвовать в разработке стратегии для вашей компании, это очень увлекательно и полезно! :)
👍14🔥3❤2😁1
Фреймворк Playing-to-Win и пример Activity System Map.
Интересно также, что стратегические сессии компании проводят часто по множеству различных причин, но только не для того, чтобы разработать стратегию и следовать ей 🤷🏼♂️
А ещё — будьте тут аккуратны! — несколько раз я сталкивался с тем, что участвовал в разработке стратегии, но после этого не только не получал предложения реализовать её, а даже наоборот — получал настойчивое предложение покинуть компанию. При этом стратегия дальше реализовывалась как раз во многом по моим предложениям. Люди по-разному относятся к тем, кто приносит им неожиданные идеи и заставляет взглянуть на себя честно, и часто правда их возмущает (самый одиозный случай был с одним крупным бизнесменом, который считал, что хочет развивать образование и предпринимательство, а на самом деле хотел стать celebrity. Что мы с PR-директором ему и написали в стратегии, после чего тут же были уволены, но дальше он именно в эту сторону и начал работать).
Интересно также, что стратегические сессии компании проводят часто по множеству различных причин, но только не для того, чтобы разработать стратегию и следовать ей 🤷🏼♂️
А ещё — будьте тут аккуратны! — несколько раз я сталкивался с тем, что участвовал в разработке стратегии, но после этого не только не получал предложения реализовать её, а даже наоборот — получал настойчивое предложение покинуть компанию. При этом стратегия дальше реализовывалась как раз во многом по моим предложениям. Люди по-разному относятся к тем, кто приносит им неожиданные идеи и заставляет взглянуть на себя честно, и часто правда их возмущает (самый одиозный случай был с одним крупным бизнесменом, который считал, что хочет развивать образование и предпринимательство, а на самом деле хотел стать celebrity. Что мы с PR-директором ему и написали в стратегии, после чего тут же были уволены, но дальше он именно в эту сторону и начал работать).
🔥6👍1🎄1
Иии у нас очередной запуск курса Ветчинкина по микросервисам!
(напоминаю, что это лучший☝🏻 курс по микросервисам на русском языке)
Учитывая критику предыдущего объявления, я провел собственное исследование и выяснил, что на HH требование знания микросервисов в вакансиях системных аналитиков встречается примерно в каждой десятой вакансии, зато зарплаты по таким вакансиям начинаются сразу от 180 тыс., а в среднем таким аналитикам обещают 260 тыс.
Ну и даже если компания не выставляет таких вакансий, всё равно в тайне мечтает перейти на микросервисы :) Например, довольно часто вижу запрос на каталогизацию и описание мкиросервисов ("дайте шаблон описания микросервиса"), эту работу обычно поручают аналитику.
И лучшего варианта разобраться с микросервисами, чем курс Кирилла, нет.
Заодно можно погрузиться в задачи архитектора, если вы планируете расти в эту сторону — можно, скажем, удивиться (спойлер!) что архитектор, например, очень много времени уделяет формированию команд и распространению знаний между командами.
(вместе с ограничением знаний между командами). Это неочевидно — снаружи кажется, что архитекторы в основном продумывают технические аспекты, но кроме CAP-теоремы, в разработке работают законы Брукса и Конвея:
А вы читали классическую книгу по управлению программными проектами Брукса "Мифический человеко-месяц"? Вот ту, откуда пришли фразы "серебряной пули не существует", "эффект второй системы", расчет сложности ПО (создание хорошо отлаженного и документированного программного продукта с внешними интеграциями обходится в 9 раз дороже, чем просто "запрогать это"), и тезисы типа "планируйте выбросить первую версию" (термин MVP тогда ещё не изобрели) и "сценарий взаимодействия обычно разрабатывают не перед, а после реализации". Очень любопытно, уже в 1975 всё было понятно про нашу индустрию. Микросервисы — как раз один из возможных ответов на эти вызовы.
Закон Конвея:
Есть и обратный закон Конвея: структура системы определяет структуру организации.
Так что микросервисы и архитектура, на удивление, очень сильно связана с организацией команд и управлением знаниями.
(напоминаю, что это лучший☝🏻 курс по микросервисам на русском языке)
Учитывая критику предыдущего объявления, я провел собственное исследование и выяснил, что на HH требование знания микросервисов в вакансиях системных аналитиков встречается примерно в каждой десятой вакансии, зато зарплаты по таким вакансиям начинаются сразу от 180 тыс., а в среднем таким аналитикам обещают 260 тыс.
Ну и даже если компания не выставляет таких вакансий, всё равно в тайне мечтает перейти на микросервисы :) Например, довольно часто вижу запрос на каталогизацию и описание мкиросервисов ("дайте шаблон описания микросервиса"), эту работу обычно поручают аналитику.
И лучшего варианта разобраться с микросервисами, чем курс Кирилла, нет.
Заодно можно погрузиться в задачи архитектора, если вы планируете расти в эту сторону — можно, скажем, удивиться (спойлер!) что архитектор, например, очень много времени уделяет формированию команд и распространению знаний между командами.
(вместе с ограничением знаний между командами). Это неочевидно — снаружи кажется, что архитекторы в основном продумывают технические аспекты, но кроме CAP-теоремы, в разработке работают законы Брукса и Конвея:
«Добавляя людских ресурсов, мы задерживаем окончание программного проекта» (Брукс, 1975).
А вы читали классическую книгу по управлению программными проектами Брукса "Мифический человеко-месяц"? Вот ту, откуда пришли фразы "серебряной пули не существует", "эффект второй системы", расчет сложности ПО (создание хорошо отлаженного и документированного программного продукта с внешними интеграциями обходится в 9 раз дороже, чем просто "запрогать это"), и тезисы типа "планируйте выбросить первую версию" (термин MVP тогда ещё не изобрели) и "сценарий взаимодействия обычно разрабатывают не перед, а после реализации". Очень любопытно, уже в 1975 всё было понятно про нашу индустрию. Микросервисы — как раз один из возможных ответов на эти вызовы.
Закон Конвея:
Организации, проектирующие системы, создают программные структуры, повторяющие структуру коммуникации, сложившуюся в этих организациях
(Конвей, 1968)
Есть и обратный закон Конвея: структура системы определяет структуру организации.
Так что микросервисы и архитектура, на удивление, очень сильно связана с организацией команд и управлением знаниями.
👍12🔥2
Забавное применение ChatGPT: пользовательское тестирование требований.
Как известно, пока пользователь не увидит систему, он не может сказать, что ему ещё нужно.
Чтобы не разрабатывать систему, можно попросить ChatGPT эмулировать работу системы, описанной требованиями.
То есть, даём ChatGPT набор требований (тут мы будем ограничены длиной промпта или двух), а потом просим его отвечать — может ли система, описанная этими требованиями, выполнить действия, которые пользователь формирует на своём языке. Можно представителя пользователя рядом посадить и предложить представить типичные ситуации, а ИИ будет говорить — можно ли это сделать при описанных требованиях. В общем, похоже на текстовую RPG 😀
Промпт:
Как вариант, можно попросить описать с точностью до экранов:
ChatGPT Plus — со встроенным DALL-E — может сразу генерировать изображения экранов (ну, с подписями будет не очень, тут либо визуальное расположение, либо подписи).
Отсюда: https://arxiv.org/abs/2303.07839 ChatGPT Prompt Patterns for Improving Code Quality, Refactoring, Requirements Elicitation, and Software Design. Jules White, Sam Hays, Quchen Fu, Jesse Spencer-Smith, Douglas C. Schmidt
Также там описаны промпты для выявления неоднозначностей в требованиях (что может быть понято двусмысленно),
симулятор API, генерация примеров для API, подсказка по возможным вариантам архитектуры и анализ запросов на изменения (насколько сложно будет реализовать новую функцию).
Как известно, пока пользователь не увидит систему, он не может сказать, что ему ещё нужно.
Чтобы не разрабатывать систему, можно попросить ChatGPT эмулировать работу системы, описанной требованиями.
То есть, даём ChatGPT набор требований (тут мы будем ограничены длиной промпта или двух), а потом просим его отвечать — может ли система, описанная этими требованиями, выполнить действия, которые пользователь формирует на своём языке. Можно представителя пользователя рядом посадить и предложить представить типичные ситуации, а ИИ будет говорить — можно ли это сделать при описанных требованиях. В общем, похоже на текстовую RPG 😀
Промпт:
Now, I want you to act as this system. Use the requirements to guide your behavior. I am going to say, I want to do X, and you will tell me if X is possible given the requirements. If X is possible, provide a step-by-step set of instructions on how I would accomplish it and provide additional details that would help implement the requirement. If I can’t do X based on the requirements, write the missing requirements to make it possible as user stories.
Как вариант, можно попросить описать с точностью до экранов:
Now, I want you to act as this system in a textbased simulator of the system. Use the requirements to guide your behavior. You will describe the user interface for the system, based on the requirements, and what I can do on each screen. I am going to say, I want to do X, and you will tell me if X is possible given the requirements and the current screen. If X is possible, provide a step-by-step set of instructions how I would accomplish it and provide additional details that would help implement the requirement.
If I can’t do X based on the requirements, write the missing requirements to make it possible as user stories. Whenever the state of the user interface changes, update the user on what they are looking at.
Tell me what I am looking at in the system and ask me what I want to do.
ChatGPT Plus — со встроенным DALL-E — может сразу генерировать изображения экранов (ну, с подписями будет не очень, тут либо визуальное расположение, либо подписи).
Отсюда: https://arxiv.org/abs/2303.07839 ChatGPT Prompt Patterns for Improving Code Quality, Refactoring, Requirements Elicitation, and Software Design. Jules White, Sam Hays, Quchen Fu, Jesse Spencer-Smith, Douglas C. Schmidt
Также там описаны промпты для выявления неоднозначностей в требованиях (что может быть понято двусмысленно),
симулятор API, генерация примеров для API, подсказка по возможным вариантам архитектуры и анализ запросов на изменения (насколько сложно будет реализовать новую функцию).
👍22🔥3❤2
Postman, кроме того, что производит инструмент для тестирования API, ещё собирает лучшие практики проектирования.
Для этого у них есть отдельная команда Postman Open Technologies, которая также собирает информацию о стандартах, отраслевых форматах и спецификациях, открытых API.
Каталог практик и паттернов оформлен как рабочее пространство Postman: https://www.postman.com/postman/workspace/postman-open-technologies-openapi-governance-templates/overview (открывается прямо в Postman!)
Смысл каталога в том, чтобы не придумывать каждый раз "как мы будем возвращать сумму платежа" или "как будем делать пагинацию", а брать готовое решение.
На текущий момент там описаны следующие паттерны:
🔸 Форматы данных:
🔹Коды стран (ISO 3166)
🔹Коды валют (ISO 4217)
🔹Дата, время и временные промежутки (ISO 8601)
🔹Числа с десятичными дробями
🔹Кастомные заголовки HTTP
🔹Расширенное описание ошибки (RFC 9457 - кстати, очень хороший формат для передачи смысла ошибки HTTP)
🔸Управление кэшированием:
🔹Параметр Cache-control
🔹Параметр Etag
🔹Параметр Expires
🔸Фильтрация:
🔹Параметры поискового запроса
🔹Точное соответствие
🔹Диапазон значений поля
🔹Выбор полей для ответа
🔸Пагинация:
🔹Заголовки page and per_page (rfc 5988)
🔹Курсор / NextRecordKey
🔹Параметры Limit и Offset
🔸Сортировка:
🔹По одному полю - параметры sort_by, sort_order
🔹По нескольким полям
🔸Версионирование:
🔹На уровне URL API
🔹На уровне отдельного ресурса
🔹Через заголовок Accept-Version
🔹Через заголовок Accept
🔸Информация:
🔹Контакты разработчиков
🔹Лицензия
🔹Условия использования
🔹Заголовок Sunset (предупреждение, что ресурс станет недоступным в определенное время)
Набор паттернов интересный, я, например, про RFC 9457, версионирование на уровне ресурсов и Sunset header раньше не слышал.
Для этого у них есть отдельная команда Postman Open Technologies, которая также собирает информацию о стандартах, отраслевых форматах и спецификациях, открытых API.
Каталог практик и паттернов оформлен как рабочее пространство Postman: https://www.postman.com/postman/workspace/postman-open-technologies-openapi-governance-templates/overview (открывается прямо в Postman!)
Смысл каталога в том, чтобы не придумывать каждый раз "как мы будем возвращать сумму платежа" или "как будем делать пагинацию", а брать готовое решение.
На текущий момент там описаны следующие паттерны:
🔸 Форматы данных:
🔹Коды стран (ISO 3166)
🔹Коды валют (ISO 4217)
🔹Дата, время и временные промежутки (ISO 8601)
🔹Числа с десятичными дробями
🔹Кастомные заголовки HTTP
🔹Расширенное описание ошибки (RFC 9457 - кстати, очень хороший формат для передачи смысла ошибки HTTP)
🔸Управление кэшированием:
🔹Параметр Cache-control
🔹Параметр Etag
🔹Параметр Expires
🔸Фильтрация:
🔹Параметры поискового запроса
🔹Точное соответствие
🔹Диапазон значений поля
🔹Выбор полей для ответа
🔸Пагинация:
🔹Заголовки page and per_page (rfc 5988)
🔹Курсор / NextRecordKey
🔹Параметры Limit и Offset
🔸Сортировка:
🔹По одному полю - параметры sort_by, sort_order
🔹По нескольким полям
🔸Версионирование:
🔹На уровне URL API
🔹На уровне отдельного ресурса
🔹Через заголовок Accept-Version
🔹Через заголовок Accept
🔸Информация:
🔹Контакты разработчиков
🔹Лицензия
🔹Условия использования
🔹Заголовок Sunset (предупреждение, что ресурс станет недоступным в определенное время)
Набор паттернов интересный, я, например, про RFC 9457, версионирование на уровне ресурсов и Sunset header раньше не слышал.
👍33🔥9❤4
Я в последнее время много писал про сложные темы, а между тем обнаружил, что на русском языке нет простого объяснения про запросы, представления, хранимые процедуры и пользовательские функции.
То есть, можно Википедию почитать, можно посмотреть (довольно занудные) видео-лекции для программистов, а вот так чтобы на пальцах объяснили — не нашел.
Отсюда два вопроса:
1) Попадалось ли вам простое объяснение этих тем? Вот чтобы для начинающего системного аналитика, с целью разобраться в этих материях.
2) Нужно ли вам самим или вашим сотрудникам такое объяснение? Ставьте лайк, если да.
Ну интересно послушать — как вы сами разобрались с этой темой, или что вам интересно про неё узнать, если ещё не разобрались. Пишите в комментариях
👇👇👇
То есть, можно Википедию почитать, можно посмотреть (довольно занудные) видео-лекции для программистов, а вот так чтобы на пальцах объяснили — не нашел.
Отсюда два вопроса:
1) Попадалось ли вам простое объяснение этих тем? Вот чтобы для начинающего системного аналитика, с целью разобраться в этих материях.
2) Нужно ли вам самим или вашим сотрудникам такое объяснение? Ставьте лайк, если да.
Ну интересно послушать — как вы сами разобрались с этой темой, или что вам интересно про неё узнать, если ещё не разобрались. Пишите в комментариях
👇👇👇
👍66❤10🔥3
tables_views_sp.pdf
281.5 KB
В общем, я вижу, интерес к теме хранимых процедур есть, поэтому я сделал небольшую презентацию с объяснением совсем базовых вещей.
Держите, пользуйтесь, задавайте вопросы!
Держите, пользуйтесь, задавайте вопросы!
❤40🔥32❤🔥9👍6
Продолжу тему нефункциональных требований, или показателей качества.
Давно хотел завести гонзо-обзоры стандартов, относящихся к ИТ.
Сегодня — про ISO 25000, System and Software Quality Requirements and Evaluation, SQuaRE (по-английски — что-то типа "скучный, занудный, не модный"). У нас его эквивалент — ГОСТ Р ИСО 25000:2021, свеженький, введен в апреле 2022 г. (Там серия: управление качеством, модели качества, измерение качества, требования к качеству, оценка качества. Можно надолго погрузиться)
Возможно, вы слышали про стандарт управления качеством ISO 9000. Так вот ISO 25000 плюет на ISO 9000 и отстраивается от него, хотя оба говорят про качество. Отстройка такая: 9000 — это про качество процессов, а 25000 — про качество систем и программной продукции. Это в стандартах сплошь и рядом, например, про качество данных у нас есть два стандарта.
Собственно, качество данных — одна из моделей качества, которую вводит ISO 25000. Ещё качество при использовании и качество продукта. Само понятие качества определяется как степень удовлетворения системой заявленных и подразумеваемых потребностей различных заинтересованных сторон.
Модель качества определяет характеристики, которые нас могут интересовать, и их показатели (что можно измерить). Вот, например, качество в использовании. Об этом часто говорят, как о юзабилити/UX, но посмотрите, что нам тут рекомендуют измерять:
➡️ Результативность
⭐️ Выполненные задачи (% задач, которые выполняются правильно без посторонней помощи)
⭐️ Достигнутые цели (% целей, которые достигаются правильно без посторонней помощи)
⭐️ Ошибки в задаче (Количество ошибок, допущенных пользователем во время выполнения задачи)
⭐️ Задачи с ошибками (% задач, в которых пользователь допустил ошибки)
⭐️ Интенсивность ошибок задачи (% пользователей, совершающих ошибку при выполнении задачи)
➡️ Эффективность
⭐️ Время выполнения задачи
⭐️ Эффективность затраченного времени (число достигнутых целей / время работы пользователя)
⭐️ Экономическая эффективность (стоимость выполнения задач / количество достигнутых целей)
⭐️ Коэффициент полезного времени (время, затраченное на выполнение задачи за вычетом времени, потраченного на получение помощи или помощь; времени на восстановление после ошибок; времени на неэффективный поиск)
⭐️ Ненужные действия
⭐️ Последствия усталости (Снижение производительности после непрерывной работы)
➡️ Удовлетворенность
⭐️ Полезность
⭐️ Удовлетворенность функциями (по опросам пользователей)
⭐️ Дискреционное использование (% потенциальных пользователей, решивших использовать систему или функцию, от всех, кто мог бы использовать эту функцию).
⭐️ Использование функций (% пользователей системы, использующих функцию).
⭐️ Доля жалующихся пользователей (% от всех активных пользователей).
⭐️ Доля жалоб пользователей на функцию (% относительно числа всех пользователей этой функции).
Подхарактеристики, которые измеряются по опросникам:
Доверие
Удовольствие
Комфорт
➡️ Свобода от рисков
Снижение экономических рисков - а вот тут, внезапно, не UX, а расчет окупаемости и возврата инвестиций! Рентабельность, время окупаемости, экономическая эффективность, преимущества внедрения ИТ(по сравнению с другими способами решения задачи!), выручка от клиента, доля ошибок с экономическими последствиями.
➡️ Покрытие контекста
⭐️ Полнота контекста (Доля предполагаемых контекстов использования, в которых продукт или система могут использоваться с приемлемым удобством использования и риском)
⭐️ Гибкость: степень, в которой продукт может использоваться в дополнительных контекстах без модификаций
⭐️ Простота, с которой продукт может быть изменен в соответствии с дополнительными требованиями пользователя
⭐️ Независимость от специальных знаний и навыков пользователя.
Вот такие характеристики качества в использовании. Интересно, сколько из них рассматривают аналитики или UX-дизайнеры.
Возможно, это не их вопросы, но чьи?..
Давно хотел завести гонзо-обзоры стандартов, относящихся к ИТ.
Сегодня — про ISO 25000, System and Software Quality Requirements and Evaluation, SQuaRE (по-английски — что-то типа "скучный, занудный, не модный"). У нас его эквивалент — ГОСТ Р ИСО 25000:2021, свеженький, введен в апреле 2022 г. (Там серия: управление качеством, модели качества, измерение качества, требования к качеству, оценка качества. Можно надолго погрузиться)
Возможно, вы слышали про стандарт управления качеством ISO 9000. Так вот ISO 25000 плюет на ISO 9000 и отстраивается от него, хотя оба говорят про качество. Отстройка такая: 9000 — это про качество процессов, а 25000 — про качество систем и программной продукции. Это в стандартах сплошь и рядом, например, про качество данных у нас есть два стандарта.
Собственно, качество данных — одна из моделей качества, которую вводит ISO 25000. Ещё качество при использовании и качество продукта. Само понятие качества определяется как степень удовлетворения системой заявленных и подразумеваемых потребностей различных заинтересованных сторон.
Модель качества определяет характеристики, которые нас могут интересовать, и их показатели (что можно измерить). Вот, например, качество в использовании. Об этом часто говорят, как о юзабилити/UX, но посмотрите, что нам тут рекомендуют измерять:
⭐️ Выполненные задачи (% задач, которые выполняются правильно без посторонней помощи)
⭐️ Достигнутые цели (% целей, которые достигаются правильно без посторонней помощи)
⭐️ Ошибки в задаче (Количество ошибок, допущенных пользователем во время выполнения задачи)
⭐️ Задачи с ошибками (% задач, в которых пользователь допустил ошибки)
⭐️ Интенсивность ошибок задачи (% пользователей, совершающих ошибку при выполнении задачи)
⭐️ Время выполнения задачи
⭐️ Эффективность затраченного времени (число достигнутых целей / время работы пользователя)
⭐️ Экономическая эффективность (стоимость выполнения задач / количество достигнутых целей)
⭐️ Коэффициент полезного времени (время, затраченное на выполнение задачи за вычетом времени, потраченного на получение помощи или помощь; времени на восстановление после ошибок; времени на неэффективный поиск)
⭐️ Ненужные действия
⭐️ Последствия усталости (Снижение производительности после непрерывной работы)
⭐️ Полезность
⭐️ Удовлетворенность функциями (по опросам пользователей)
⭐️ Дискреционное использование (% потенциальных пользователей, решивших использовать систему или функцию, от всех, кто мог бы использовать эту функцию).
⭐️ Использование функций (% пользователей системы, использующих функцию).
⭐️ Доля жалующихся пользователей (% от всех активных пользователей).
⭐️ Доля жалоб пользователей на функцию (% относительно числа всех пользователей этой функции).
Подхарактеристики, которые измеряются по опросникам:
Доверие
Удовольствие
Комфорт
Снижение экономических рисков - а вот тут, внезапно, не UX, а расчет окупаемости и возврата инвестиций! Рентабельность, время окупаемости, экономическая эффективность, преимущества внедрения ИТ(по сравнению с другими способами решения задачи!), выручка от клиента, доля ошибок с экономическими последствиями.
⭐️ Полнота контекста (Доля предполагаемых контекстов использования, в которых продукт или система могут использоваться с приемлемым удобством использования и риском)
⭐️ Гибкость: степень, в которой продукт может использоваться в дополнительных контекстах без модификаций
⭐️ Простота, с которой продукт может быть изменен в соответствии с дополнительными требованиями пользователя
⭐️ Независимость от специальных знаний и навыков пользователя.
Вот такие характеристики качества в использовании. Интересно, сколько из них рассматривают аналитики или UX-дизайнеры.
Возможно, это не их вопросы, но чьи?..
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍7🔥1
Часть программы Flow, по традиции , будет доступна бесплатно (после регистрации). Билеты и так не дорогие, но топовые доклады — точнее, доклад и два обсуждения — и вовсе бесплатно:
"Удобство использования" есть ещё в модели качества продукта.
Хотите оценить качество программного продукта или сравнить два продукта между собой? На это тоже есть ГОСТ! ГОСТ Р ИСО/МЭК 25023-2021, можете ссылаться.
Также можно использовать этот набор показателей при постановке задач на проектирование интерфейсов и создание документации/справки/онбординга/обучающих материалов.
Вот что в части удобства использования можно измерить:
➡️ Достаточность описания (для определения пригодности — подойдет ли нам этот продукт для решения наших задач?):
⭐️ Полнота описания — какая часть сценариев описана в документации? (" — А для чего эта кнопка? — Да никто не знает")
⭐️ Демонстрационное покрытие — какая часть сценариев имеет наглядную демонстрацию, чтобы можно было определить их пригодность?
➡️ Обучаемость:
⭐️ Полнота руководства пользователя — какая часть сценариев описана в справке или документации в такой степени, чтобы пользователь мог ими воспользоваться? Тут, кстати, в стандарте говорится не только о документации, но и о соответствии концептуальной модели системы ментальной модели пользователя(!) это, по сути, практически DDD: как пользователь представляет себе предметный домен, и как этот домен отражен в системе и её интерфейсах.
⭐️ Приведение значений по умолчанию — какая часть полей ввода данных, имеющие значения по умолчанию, автоматически заполняются этими значениями? (добавлю тут от себя — какая часть полей ввода содержит описание форматов и примеры заполнения?)
⭐️ Понятность сообщений об ошибках — какая часть сообщений об ошибках предоставляет информацию о причинах возникновения ошибки и методах ее устранения?
⭐️ Самоописательность пользовательского интерфейса — какая часть элементов интерфейса, с которыми взаимодействует пользователь в ходе выполнения операций, позволяет выполнить данные операции без дополнительного обучения и подготовки?
➡️ Эксплуатационная пригодность:
⭐️ Эксплуатационная согласованность: в какой степени поведение системы постоянно в ходе выполнения группы схожих операций? (например, насколько похоже реализованы функции оплаты картой или оплатой по СБП? насколько похоже по логике и поведению добавление сообщения в общий форум всего курса и комментирование одного видео/задания из курса? и т.д.)
⭐️ Корректность сообщений — какая часть сообщений, получаемых от системы, имеет корректный результат или приводит инструкции пользователю?
⭐️ Функциональная настраиваемость — какую часть функций и процедур пользователь может настроить для своего удобства? (настройка которых может быть полезна. Например, сохранить какие-то шаблоны, значения по умолчанию, убрать ненужные шаги).
⭐️ Настраиваемость интерфейса — какую часть элементов интерфейса пользователь может настроить? (для которых это имеет смысл — например, скрыть неиспользуемые элементы интерфейса).
⭐️ Возможность мониторинга — какие состояния могут быть отслежены во время эксплуатации?
⭐️ Возможность отмены действий — какая часть сценариев использования предусматривает отмену или изменение?
⭐️ Понятность категоризации информации — в какой степени организация информации, используемая в программном продукте или системе, понятна пользователям и удобна для решения ими своих задач? Измеряется как число структур данных, понятных пользователю, к общему числу структур данных в продукте. Опять про DDD, да?
⭐️ Постоянство представления — одинаковые элементы данных схожим образом представлены в разных местах продукта.
⭐️ Поддержка устройств ввода
➡️ Защита от пользовательских ошибок:
⭐️ Защита — число действий, обрабатываемых с целью защиты от ошибок ввода
⭐️ Коррекция — число ошибок, по которым предлагается корректный вариант ("возможно, вы имели в виду ...")
➡️ Доступность:
⭐️ Доступность для пользователей с ограниченными возможностями
⭐️ Языковая поддержка
И, наконец, та-дам!
➡️ Эстетичность представления пользовательского интерфейса. "Чтобы было красиво"
Измеряется, вы не поверите, просто как отношение эстетически приятных интерфейсов ко всем имеющимся в продукте 🤷🏼♂️🤡👩🏻🎨
Хотите оценить качество программного продукта или сравнить два продукта между собой? На это тоже есть ГОСТ! ГОСТ Р ИСО/МЭК 25023-2021, можете ссылаться.
Также можно использовать этот набор показателей при постановке задач на проектирование интерфейсов и создание документации/справки/онбординга/обучающих материалов.
Вот что в части удобства использования можно измерить:
⭐️ Полнота описания — какая часть сценариев описана в документации? (" — А для чего эта кнопка? — Да никто не знает")
⭐️ Демонстрационное покрытие — какая часть сценариев имеет наглядную демонстрацию, чтобы можно было определить их пригодность?
⭐️ Полнота руководства пользователя — какая часть сценариев описана в справке или документации в такой степени, чтобы пользователь мог ими воспользоваться? Тут, кстати, в стандарте говорится не только о документации, но и о соответствии концептуальной модели системы ментальной модели пользователя(!) это, по сути, практически DDD: как пользователь представляет себе предметный домен, и как этот домен отражен в системе и её интерфейсах.
⭐️ Приведение значений по умолчанию — какая часть полей ввода данных, имеющие значения по умолчанию, автоматически заполняются этими значениями? (добавлю тут от себя — какая часть полей ввода содержит описание форматов и примеры заполнения?)
⭐️ Понятность сообщений об ошибках — какая часть сообщений об ошибках предоставляет информацию о причинах возникновения ошибки и методах ее устранения?
⭐️ Самоописательность пользовательского интерфейса — какая часть элементов интерфейса, с которыми взаимодействует пользователь в ходе выполнения операций, позволяет выполнить данные операции без дополнительного обучения и подготовки?
⭐️ Эксплуатационная согласованность: в какой степени поведение системы постоянно в ходе выполнения группы схожих операций? (например, насколько похоже реализованы функции оплаты картой или оплатой по СБП? насколько похоже по логике и поведению добавление сообщения в общий форум всего курса и комментирование одного видео/задания из курса? и т.д.)
⭐️ Корректность сообщений — какая часть сообщений, получаемых от системы, имеет корректный результат или приводит инструкции пользователю?
⭐️ Функциональная настраиваемость — какую часть функций и процедур пользователь может настроить для своего удобства? (настройка которых может быть полезна. Например, сохранить какие-то шаблоны, значения по умолчанию, убрать ненужные шаги).
⭐️ Настраиваемость интерфейса — какую часть элементов интерфейса пользователь может настроить? (для которых это имеет смысл — например, скрыть неиспользуемые элементы интерфейса).
⭐️ Возможность мониторинга — какие состояния могут быть отслежены во время эксплуатации?
⭐️ Возможность отмены действий — какая часть сценариев использования предусматривает отмену или изменение?
⭐️ Понятность категоризации информации — в какой степени организация информации, используемая в программном продукте или системе, понятна пользователям и удобна для решения ими своих задач? Измеряется как число структур данных, понятных пользователю, к общему числу структур данных в продукте. Опять про DDD, да?
⭐️ Постоянство представления — одинаковые элементы данных схожим образом представлены в разных местах продукта.
⭐️ Поддержка устройств ввода
⭐️ Защита — число действий, обрабатываемых с целью защиты от ошибок ввода
⭐️ Коррекция — число ошибок, по которым предлагается корректный вариант ("возможно, вы имели в виду ...")
⭐️ Доступность для пользователей с ограниченными возможностями
⭐️ Языковая поддержка
И, наконец, та-дам!
Измеряется, вы не поверите, просто как отношение эстетически приятных интерфейсов ко всем имеющимся в продукте 🤷🏼♂️🤡👩🏻🎨
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🥱2❤1🔥1
8 марта вновь вспоминаем всех женщин, стоявших у истоков ИТ: придумавших первые языки программирования, компилятор, доменную систему имен, базовые алгоритмы сетевого обмена и т.д.
И, конечно, Аду Лавлейс. Хотя её и считают первым программистом, сама она называла себя Аналитиком:
И, помимо остальных заслуг, Аде принадлежит идея, что счётные машины могут не только щелкать цифрами — они могут в виде цифр представлять и другие объекты реального мира, устанавливать связи между ними, вычислять логические закономерности и это радикально изменит науку и обшество. В качестве примеров она приводила музыку и изображения в цифровом виде (а кино тогда ещё не изобрели).
В общем, действовала, как настоящий аналитик: думала о применении аналитических машин для полезных дел в разных областях, а не только о том, какой бы прикольный код написать.
Чего в этот день всем и желаю! И спасибо дорогим женщинам за ключевой вклад в ИТ и приземеление абстрактных идей на решение реальных проблем.
С праздником! Процветания и независимости! И побольше радости! 💐🌺🌸🌷🪻
И, конечно, Аду Лавлейс. Хотя её и считают первым программистом, сама она называла себя Аналитиком:
I am in good spirits; for I hope another year will make me really something of an Analyst. The more I study, the more insatiable do I feel my genius for it to be.
I do not believe that my father was (or ever could have been) such a Poet as I shall be an Analyst, (& Metaphysician); for with me the two go together indissolubly.
И, помимо остальных заслуг, Аде принадлежит идея, что счётные машины могут не только щелкать цифрами — они могут в виде цифр представлять и другие объекты реального мира, устанавливать связи между ними, вычислять логические закономерности и это радикально изменит науку и обшество. В качестве примеров она приводила музыку и изображения в цифровом виде (а кино тогда ещё не изобрели).
В общем, действовала, как настоящий аналитик: думала о применении аналитических машин для полезных дел в разных областях, а не только о том, какой бы прикольный код написать.
Чего в этот день всем и желаю! И спасибо дорогим женщинам за ключевой вклад в ИТ и приземеление абстрактных идей на решение реальных проблем.
С праздником! Процветания и независимости! И побольше радости! 💐🌺🌸🌷🪻
🔥40👍5🎉2
Представьте себе, что у вас под рукой в любой момент есть база данных, в которой есть гарантировано актуальная информация обо всех системах в организации:
✅ что за система, какие бизнес-сервисы она поддерживает (реестр бизнес-сервисов у вас тоже есть актуальный!)
✅ с какими смежными системами взаимодействует:
➡️ какие API выставляет
➡️ по каким API обращается
➡️ в какие топики очереди сообщений пишет, какие читает
✅ к каким базам данных есть доступ у системы, и какие бизнес-объекты в ней учитываются или изменяются
✅ где развернуты экземпляры системы, кто имеет доступ к ним
✅ какая команда какие системы разрабатывает, кто участвует и участвовал в разработке, кто за что отвечает (кто владелец, кто архитектор и т.д.)
Кроме того, у вас есть реестр бизнес-сервисов, то есть продуктов и услуг компании, и про каждый продукт известно:
➡️ из каких услуг он складывается
➡️ на какую аудиторию он ориентирован
➡️ через какие каналы предоставляется услуга
➡️ какие отделы внутри компании оказывают услугу
Соответственно, всё это связано друг с другом, и вы можете делать к базе произвольные запросы. Например:
❓ какие зависимости есть у системы (что нужно проверить, если вы хотите внести изменения, или переписать систему)
❓ какие клиенты есть у системы и
❓ какие сейчас есть потоки данных (например, чтобы отправлять какую-то дополнительную информацию)
❓ кто работает или работал над какой системой, кого спросить или позвать на встречу
❓ какие системы поддерживают какие бизнес-услуги, кто ими пользуется?
и так далее.
Была бы такая база полезна? Сколько бы это времени вам сэкономило?
Я, честно говоря, когда впервые увидел такую штуку, был в полном восхищении. А увидел я её на отборе докладов на Flow: это выступление Романа Цирульникова из ЮMoney. Надеюсь, сегодня вы его тоже посмотрели, называется скромно: "Модель архитектуры предприятия на графе".
Конечно, технологически поддерживать такую базу непросто, и требует определенного уровня зрелости процессов развертывания: всё на скриптах, под контролем и As Code -- чтобы потом по этому коду можно было всё собрать.
Но результат выглядит потрясающе. Кажется, где-то здесь лежит будущее системного анализа (или его погибель, смотря как вы настроены).
Я вот настроен в целом позитивно: мне сегодня исполняетсястрашно сказать, сколько , я на это наше ИТ смотрю уже больше 25 лет, и надеюсь, что увижу ещё много чудес впереди. Чего и вам желаю!
Осваивайте новые технологии! А я пошел тортик есть🎂
✅ что за система, какие бизнес-сервисы она поддерживает (реестр бизнес-сервисов у вас тоже есть актуальный!)
✅ с какими смежными системами взаимодействует:
➡️ какие API выставляет
➡️ по каким API обращается
➡️ в какие топики очереди сообщений пишет, какие читает
✅ к каким базам данных есть доступ у системы, и какие бизнес-объекты в ней учитываются или изменяются
✅ где развернуты экземпляры системы, кто имеет доступ к ним
✅ какая команда какие системы разрабатывает, кто участвует и участвовал в разработке, кто за что отвечает (кто владелец, кто архитектор и т.д.)
Кроме того, у вас есть реестр бизнес-сервисов, то есть продуктов и услуг компании, и про каждый продукт известно:
➡️ из каких услуг он складывается
➡️ на какую аудиторию он ориентирован
➡️ через какие каналы предоставляется услуга
➡️ какие отделы внутри компании оказывают услугу
Соответственно, всё это связано друг с другом, и вы можете делать к базе произвольные запросы. Например:
❓ какие зависимости есть у системы (что нужно проверить, если вы хотите внести изменения, или переписать систему)
❓ какие клиенты есть у системы и
❓ какие сейчас есть потоки данных (например, чтобы отправлять какую-то дополнительную информацию)
❓ кто работает или работал над какой системой, кого спросить или позвать на встречу
❓ какие системы поддерживают какие бизнес-услуги, кто ими пользуется?
и так далее.
Была бы такая база полезна? Сколько бы это времени вам сэкономило?
Я, честно говоря, когда впервые увидел такую штуку, был в полном восхищении. А увидел я её на отборе докладов на Flow: это выступление Романа Цирульникова из ЮMoney. Надеюсь, сегодня вы его тоже посмотрели, называется скромно: "Модель архитектуры предприятия на графе".
Конечно, технологически поддерживать такую базу непросто, и требует определенного уровня зрелости процессов развертывания: всё на скриптах, под контролем и As Code -- чтобы потом по этому коду можно было всё собрать.
Но результат выглядит потрясающе. Кажется, где-то здесь лежит будущее системного анализа (или его погибель, смотря как вы настроены).
Я вот настроен в целом позитивно: мне сегодня исполняется
Осваивайте новые технологии! А я пошел тортик есть
Please open Telegram to view this post
VIEW IN TELEGRAM
🍾33👍9🔥8🎉5❤2
Сегодня международный день числа Пи!
Отмечается вот прямо сейчас — 3/14 в 1:59:26
Нужно печь пи-роги и пить напитки, начинающиеся на "пи".
Удачно совпало с Масленицей, блины же тоже круглые!
В разработке ПО нет таких известных констант, но есть множество законов разной степени доказанности — от формальных теорем до эмпирических наблюдений. И все очень полезные! В основном они относятся к управлению, архитектуре или UX. Вот небольшой список:
Закон Брукса:
Добавление людей в запаздывающий проект вызывает ещё большее отставание.
(Это из книги "Мифический человеко-месяц", принципиальные вещи оттуда не изменились за почти 50 лет. Там много интересного, например формула, по которой "просто программа" обходится в 9 раз дешевле, чем протестированный, документированный и интегрированный программный продукт).
Закон Хофштадтера (того самого, который автор книги "Гёдель, Эшер, Бах: бесконечная гирлянда"):
Любое дело занимает больше времени, чем вы ожидали, даже если учесть Закон Хофштадтера.
Закон Конвея (это не тот Конвей, который изобрел игру "Жизнь" и сюрреальные числа. А сам закон очень важен для организации команд — отсюда растет DDD и микросервисы):
Организации, проектирующие системы, создают архитектуры, повторяющие структуру коммуникации этих организаций.
Принцип Постела (важен для интеграций):
Система должна быть консервативна в том, что она отправляет, и либеральна в том, что она принимает на вход.
Принцип Парето (применительно к ПО):
80% пользы получается от 20% функций системы.
Закон Линуса (Торвальдса, создателя Linux):
Под множеством взглядов все дефекты всплывают на поверхность.
(очень важно для нагруженных систем: мне рассказывали, что на главной странице Яндекса, к которой обращаются больше 1,5 млрд раз в день, сбои, вероятность которых 0,0000001%, происходят 10 раз в день! То есть, для нормальной работы вероятности сбоев должны быть сильно меньше.)
Закон Вирта:
ПО становится медленнее быстрее чем железо становится быстрее.
Фундаментальная теорема программной инженерии:
Любая проблема может быть решена добавлением ещё одного уровня абстракции.
Эти законы шуточные, но есть и формально доказанные теоремы. На удивление, их не очень много.
Одна из них — Теорема Кодда (создателя реляционной алгебры), которая доказывает эквивалентность операций реляционной алгебры и языка SQL. Несмотря на критику, реляционные базы до сих пор актуальны, т.к. под ними лежит формальная математическая теория со строгими доказательствами.
Другая, очень часто поминаемая в архитектуре распределенных систем: CAP-теорема (или теорема Брюера). Она утверждает, что в распределенной системе можно обеспечить не более двух свойств из триады:
🔸согласованность данных (Consistency) — во всех вычислительных узлах в один момент времени данные не противоречат друг другу;
🔹доступность (Availability) — любой запрос к распределённой системе завершается откликом, однако без гарантии, что ответы всех узлов системы совпадают;
🔻устойчивость к разделению (Partition tolerance) — расщепление распределённой системы на несколько изолированных секций не приводит к некорректности отклика от каждой из секций.
Сформулированная как эмпирическое утверждение, CAP-теорема была впоследствии формализована и доказана, а также показана важность синхронизации часов в распределенных системах. Почему-то редко слышу про это в разговорах о микросервисах, но служба точного времени становится критически важной для синхронизации последовательных операций, там, где это важно (и для журналирования при интеграциях).
CAP-теорему часто критикуют за то, что под согласованностью и доступностью в своем формальном виде она имеет в виду не совсем то, что обычно под этим подразумевают. Но знать её всё равно нужно, чтобы осмысленно разговаривать с архитекторами и принимать обоснованные решения.
Расширение CAP — теорема PACELC (добавляет выбор между задержками — Latency — и согласованностью, даже если система не разделена, т.к. информация по сети не передается мгновенно).
Эти законы и теоремы стоит знать и учитывать (а про CAP-теорему бывает и на собеседованиях спрашивают!)
Отмечается вот прямо сейчас — 3/14 в 1:59:26
Нужно печь пи-роги и пить напитки, начинающиеся на "пи".
Удачно совпало с Масленицей, блины же тоже круглые!
В разработке ПО нет таких известных констант, но есть множество законов разной степени доказанности — от формальных теорем до эмпирических наблюдений. И все очень полезные! В основном они относятся к управлению, архитектуре или UX. Вот небольшой список:
Закон Брукса:
Добавление людей в запаздывающий проект вызывает ещё большее отставание.
(Это из книги "Мифический человеко-месяц", принципиальные вещи оттуда не изменились за почти 50 лет. Там много интересного, например формула, по которой "просто программа" обходится в 9 раз дешевле, чем протестированный, документированный и интегрированный программный продукт).
Закон Хофштадтера (того самого, который автор книги "Гёдель, Эшер, Бах: бесконечная гирлянда"):
Любое дело занимает больше времени, чем вы ожидали, даже если учесть Закон Хофштадтера.
Закон Конвея (это не тот Конвей, который изобрел игру "Жизнь" и сюрреальные числа. А сам закон очень важен для организации команд — отсюда растет DDD и микросервисы):
Организации, проектирующие системы, создают архитектуры, повторяющие структуру коммуникации этих организаций.
Принцип Постела (важен для интеграций):
Система должна быть консервативна в том, что она отправляет, и либеральна в том, что она принимает на вход.
Принцип Парето (применительно к ПО):
80% пользы получается от 20% функций системы.
Закон Линуса (Торвальдса, создателя Linux):
Под множеством взглядов все дефекты всплывают на поверхность.
(очень важно для нагруженных систем: мне рассказывали, что на главной странице Яндекса, к которой обращаются больше 1,5 млрд раз в день, сбои, вероятность которых 0,0000001%, происходят 10 раз в день! То есть, для нормальной работы вероятности сбоев должны быть сильно меньше.)
Закон Вирта:
ПО становится медленнее быстрее чем железо становится быстрее.
Фундаментальная теорема программной инженерии:
Любая проблема может быть решена добавлением ещё одного уровня абстракции.
Эти законы шуточные, но есть и формально доказанные теоремы. На удивление, их не очень много.
Одна из них — Теорема Кодда (создателя реляционной алгебры), которая доказывает эквивалентность операций реляционной алгебры и языка SQL. Несмотря на критику, реляционные базы до сих пор актуальны, т.к. под ними лежит формальная математическая теория со строгими доказательствами.
Другая, очень часто поминаемая в архитектуре распределенных систем: CAP-теорема (или теорема Брюера). Она утверждает, что в распределенной системе можно обеспечить не более двух свойств из триады:
🔸согласованность данных (Consistency) — во всех вычислительных узлах в один момент времени данные не противоречат друг другу;
🔹доступность (Availability) — любой запрос к распределённой системе завершается откликом, однако без гарантии, что ответы всех узлов системы совпадают;
🔻устойчивость к разделению (Partition tolerance) — расщепление распределённой системы на несколько изолированных секций не приводит к некорректности отклика от каждой из секций.
Сформулированная как эмпирическое утверждение, CAP-теорема была впоследствии формализована и доказана, а также показана важность синхронизации часов в распределенных системах. Почему-то редко слышу про это в разговорах о микросервисах, но служба точного времени становится критически важной для синхронизации последовательных операций, там, где это важно (и для журналирования при интеграциях).
CAP-теорему часто критикуют за то, что под согласованностью и доступностью в своем формальном виде она имеет в виду не совсем то, что обычно под этим подразумевают. Но знать её всё равно нужно, чтобы осмысленно разговаривать с архитекторами и принимать обоснованные решения.
Расширение CAP — теорема PACELC (добавляет выбор между задержками — Latency — и согласованностью, даже если система не разделена, т.к. информация по сети не передается мгновенно).
Эти законы и теоремы стоит знать и учитывать (а про CAP-теорему бывает и на собеседованиях спрашивают!)
🔥13👍8❤4👏1😁1
В области UX есть множество ещё более удивительных законов:
Закон Фиттса:
В большую и близко расположенную цель легче попасть [курсором или пальцем], чем в маленькую и удаленную.
Это, кстати, экспериментально доказанный факт, даже с формулой:
T = a + b * log ( D / W + 1),
где T - среднее время, затрачиваемое на совершение действия, a - среднее время запуска/остановки движения, b - величина, зависящая от типичной скорости движения, D - дистанция от точки старта до центра цели, W - ширина цели, измеренная вдоль оси движения.
Практический вывод: не заставляйте пользователя совершать очень точные движения и попадать в маленькие элементы. Делайте элементы управления большими! Избегайте длинных выпадающих списков. Группируйте действия, которые могут выполняться последовательно.
Закон Хикса:
Время на принятие решения растет с числом вариантов решения.
(поэтому не заставляйте пользователя думать!)
Как использовать: подсвечивайте и устанавливайте по умолчанию наиболее очевидную опцию; скрывайте редко используемые варианты; разбивайте сложную задачу (форму) на отдельные шаги.
Закон Якоба:
Пользователь проводит большую часть своего времени НЕ в вашем приложении.
Как использовать: делайте интерфейс похожим на другие приложения, к которым привык ваш пользователь (кради как художник!), избегайте радикального редизайна.
Закон Миллера:
Средний человек может удерживать в кратковременной памяти 7±2 элемента (скорее 5).
Закон Теслера:
Каждая система имеет определенный минимальный уровень сложности, который не может быть упрощен ещё сильнее.
(У нас очень сложный интерфейс? Так у нас и система сложная! Все приводят в пример поисковую строку Google, а вы когда-нибудь видели интерфейс Google Analytics или Ads? Вот где UX-то плакал)
Эффект фон Ресторфф:
Из набора однотипных объектов лучше всего запоминается один, который отличается от остальных.
Эффект Зейгарник:
Пользователь помнит незавершенные задачи дольше, чем завершенные.
(если задача не завершена — не может перестать про неё думать, не закрыт гештальт).
На практике это означает, что нужно показывать пользователю индикатор прогресса и явный знак его завершения.
Закон прегнатности:
Если есть несколько вариантов восприятия объектов, мозг выбирает наиболее простую форму их группировки.
То есть, если мы видим несколько объектов, расположенных рядом друг с другом, то мозг не воспринимает их по одиночке — он объединяет их в группу ("о, тут какие-то поля про личные данные").
Есть факторы, способствующие такому объединению:
🔸 близость: элементы, находящиеся близко друг к другу, воспринимаются как связанные;
🔸 сходство: похожие элементы воспринимаются, как связанные (или вообще как единое целое). Похожесть может быть в разных признаках: форме, цвете, размере.
🔸 "хорошее продолжение": если элементы выстраиваются в простую понятную фигуру, мозг воспринимает их, как единую фигуру, даже если часть этой "фигуры" перекрыта.
🔸 "общая судьба": это динамический фактор — если элементы движутся в одну сторону — они связаны.
🔸 симметрия: симметричные объекты воспринимаются как связанные
🔸 однотипная связь: объекты, соединенные линиями, уж точно связаны!
Это всё принципы гештальт-психологии, стремления к целостности.
Как применять: группировать визуально поля на формах и в отчетах по логике их связей; избегать случайных группировок (например, из соображений симметрии); следить за тем, чтобы в группу связанных элементов не попадали элементы, не относящиеся к этой области; следить за тем, чтобы одинаковые элементы отображались одинаково, а разные — по-разному.
Вроде бы, все эти "законы" довольно очевидны, но как часто мы видим их нарушение в дизайне! И это то, что можно формально проверить, когда дизайнер предлагает вам макет интерфейса.
Про законы в UX есть даже целый сайт: https://lawsofux.com/ , там можно прочесть про них подробнее, посмотреть примеры и советы по применению.
UPD: а вот на русском: https://lawsofux.ru/
Закон Фиттса:
В большую и близко расположенную цель легче попасть [курсором или пальцем], чем в маленькую и удаленную.
Это, кстати, экспериментально доказанный факт, даже с формулой:
T = a + b * log ( D / W + 1),
где T - среднее время, затрачиваемое на совершение действия, a - среднее время запуска/остановки движения, b - величина, зависящая от типичной скорости движения, D - дистанция от точки старта до центра цели, W - ширина цели, измеренная вдоль оси движения.
Практический вывод: не заставляйте пользователя совершать очень точные движения и попадать в маленькие элементы. Делайте элементы управления большими! Избегайте длинных выпадающих списков. Группируйте действия, которые могут выполняться последовательно.
Закон Хикса:
Время на принятие решения растет с числом вариантов решения.
(поэтому не заставляйте пользователя думать!)
Как использовать: подсвечивайте и устанавливайте по умолчанию наиболее очевидную опцию; скрывайте редко используемые варианты; разбивайте сложную задачу (форму) на отдельные шаги.
Закон Якоба:
Пользователь проводит большую часть своего времени НЕ в вашем приложении.
Как использовать: делайте интерфейс похожим на другие приложения, к которым привык ваш пользователь (кради как художник!), избегайте радикального редизайна.
Закон Миллера:
Средний человек может удерживать в кратковременной памяти 7±2 элемента (скорее 5).
Закон Теслера:
Каждая система имеет определенный минимальный уровень сложности, который не может быть упрощен ещё сильнее.
(У нас очень сложный интерфейс? Так у нас и система сложная! Все приводят в пример поисковую строку Google, а вы когда-нибудь видели интерфейс Google Analytics или Ads? Вот где UX-то плакал)
Эффект фон Ресторфф:
Из набора однотипных объектов лучше всего запоминается один, который отличается от остальных.
Эффект Зейгарник:
Пользователь помнит незавершенные задачи дольше, чем завершенные.
(если задача не завершена — не может перестать про неё думать, не закрыт гештальт).
На практике это означает, что нужно показывать пользователю индикатор прогресса и явный знак его завершения.
Закон прегнатности:
Если есть несколько вариантов восприятия объектов, мозг выбирает наиболее простую форму их группировки.
То есть, если мы видим несколько объектов, расположенных рядом друг с другом, то мозг не воспринимает их по одиночке — он объединяет их в группу ("о, тут какие-то поля про личные данные").
Есть факторы, способствующие такому объединению:
🔸 близость: элементы, находящиеся близко друг к другу, воспринимаются как связанные;
🔸 сходство: похожие элементы воспринимаются, как связанные (или вообще как единое целое). Похожесть может быть в разных признаках: форме, цвете, размере.
🔸 "хорошее продолжение": если элементы выстраиваются в простую понятную фигуру, мозг воспринимает их, как единую фигуру, даже если часть этой "фигуры" перекрыта.
🔸 "общая судьба": это динамический фактор — если элементы движутся в одну сторону — они связаны.
🔸 симметрия: симметричные объекты воспринимаются как связанные
🔸 однотипная связь: объекты, соединенные линиями, уж точно связаны!
Это всё принципы гештальт-психологии, стремления к целостности.
Как применять: группировать визуально поля на формах и в отчетах по логике их связей; избегать случайных группировок (например, из соображений симметрии); следить за тем, чтобы в группу связанных элементов не попадали элементы, не относящиеся к этой области; следить за тем, чтобы одинаковые элементы отображались одинаково, а разные — по-разному.
Вроде бы, все эти "законы" довольно очевидны, но как часто мы видим их нарушение в дизайне! И это то, что можно формально проверить, когда дизайнер предлагает вам макет интерфейса.
Про законы в UX есть даже целый сайт: https://lawsofux.com/ , там можно прочесть про них подробнее, посмотреть примеры и советы по применению.
UPD: а вот на русском: https://lawsofux.ru/
🔥26👍5❤4
Курс по технике разработки требований уже на этой неделе! Осталость ещё пара мест, можно успеть.
Дальше по плану — онлайн-конференция "Проектирование промышленных ИТ-систем", тоже от Systems.Education, и программа там просто огонь! Это 20-21 апреля. https://systemsdesign.online/
Потом уже в мае в Санкт-Петербурге сначала Analyst Days (24-25), а потом Анализ & Управление от Инфостарта (30-1).
А там и ЛАФ в июле!
Очень насыщенный событиями для аналитиков год, выбирай — не хочу!
А ещё лично меня можно увидеть в марте на классическом курсе-боевике "Системный анализ. Разработка требований в ИТ-проектах" от школы системного анализа и проектирования Systems.Education.
Курс просто ставит голову системного аналитика на место и даёт четкий и последовательный план работы над проектом требований к новой системе. Как писать требования, когда применять use cases, как думать про НФТ и зачем нужна контекстная диаграмма и модель предметной области — всё расскажу. Идёт уже больше 10 лет, практически живая легенда, а не курс! Буду вести его очно в Москве 21-23 марта.
А в апреле будет его продолжение: разработка проекта интеграции, для опытных аналитиков — "Основы проектирования интеграций ИТ-систем". Тут мы разбираемся с интеграциями систем во всех видах, от обмена файлами до брокеров сообщений, и, конечно, особенно подробно с проектированием REST API. Это уже апрель, тоже очно в Москве, с 4 по 6.
Дальше по плану — онлайн-конференция "Проектирование промышленных ИТ-систем", тоже от Systems.Education, и программа там просто огонь! Это 20-21 апреля. https://systemsdesign.online/
Потом уже в мае в Санкт-Петербурге сначала Analyst Days (24-25), а потом Анализ & Управление от Инфостарта (30-1).
А там и ЛАФ в июле!
Очень насыщенный событиями для аналитиков год, выбирай — не хочу!
👍5
Из перечисленных выше законов хочу обратить внимание на принцип Постела или Принцип устойчивости (Robustness principle).
Изначально его сформулировал Джон Постел, разработчик множества интернет-протоколов. Многих учёных и инженеров называют "отцами" и "матерями" Интернета, а Постела ещё при жизни звали "God of the Internet", хотя он сам был против такого именования.
Принцип устойчивости впервые приведен в RFC 760 со скромным названием "Internet Protocol". Позже переформулирован в RFC 1122: "Требования к хостам Internet". То есть, принцип изначально относится к приему и отправке IP-пакетов, и звучит так:
Всё это так же справедливо и на прикладном уровне, то есть в API. Особенно если вы проектируете открытые API или API микросервисов. Либерализм в том, что ваше API принимает на вход, позволяет развивать API, не создавая излишней связности между сервисом и его клиентами. Вот хорошая статья с примерами.
В этом есть некоторое противоречие: когда вам рассказывают про API, обязательно говорят про схемы запросов и ответов (json-schema, xsd, схема в OpenAPI), и эти схемы исподволь продвигают идею контроля: больше правил валидации, точное указание типов данных и набора полей. Одновременно схема используется для генерации кода на клиентах и сервере. Удобно, если вы можете менять клиентов и сервер одновременно. Но это и означает связанность и синхронизацию релизов!
Так можно делать, если:
1) ваше API внутреннее;
И/ИЛИ
2) стабильность вашего сервиса важнее удобства клиентов (вы намного главнее и не зависите от клиентов - например, вы гос.орган, под который все подстроятся)
А вот расшивка клиентов и сервера требует сооблюдения принципа устойчивости. Для API это означает, что схема запросов должна:
🔸допускать в запросах неизвестные поля и параметры (сервер должен игнорировать их и не выдавать ошибку);
🔸принимать значения в виде строк, а не чисел/булевых;
🔸не ограничивать значения набором символов, масками и регулярными выражениями;
🔸избегать перечислимых типов (enum);
🔸не ограничивать максимальный размер списков;
Это не означает, что вообще не нужно делать никакие проверки — это означает, что не следует отправлять ошибку сразу при проверке запроса, до обработки. То есть, приняли, как есть, попытались обработать, всё, что не соответствует ожидаемому формату — записали в журнал. Проверки делаем не на уровне API, а немного за ним, поближе к логике: форматы и валидацию делаем там, а заодно санитарную обработку запроса — удаляем разные варианты инъекций, XML-бомб и т.п. И никогда не передавать/принимать напрямую бизнес-объекты без валидации и проверок!
То же касается и клиента, которых должен уметь обрабатывать ответ сервера и не рушиться, несмотря на лишние поля и "неправильные" типы данных. Это позволит не синхронизировать обновления клиентов и сервера, и жить в период рассинхронизации — когда изменения не доехали или откатились.
Изначально его сформулировал Джон Постел, разработчик множества интернет-протоколов. Многих учёных и инженеров называют "отцами" и "матерями" Интернета, а Постела ещё при жизни звали "God of the Internet", хотя он сам был против такого именования.
Принцип устойчивости впервые приведен в RFC 760 со скромным названием "Internet Protocol". Позже переформулирован в RFC 1122: "Требования к хостам Internet". То есть, принцип изначально относится к приему и отправке IP-пакетов, и звучит так:
Программы должны уметь обрабатывать все мыслимые ошибки; не имеет значения вероятность возникновения той или иной ошибки - раньше или позже пакет с любой возможной комбинацией ошибок и/или атрибутов будет получен и программа должна быть готова к обработке такого пакета.Если программа не может эффективно обрабатывать ошибки, она приведет прямой дорогой к хаосу.В общем случае лучше предположить, что сеть наводнена зловредными объектами, которые постоянно передают пакеты, предназначенные для нанесения максимального вреда. Такое предположение обеспечит высокий уровень защиты.Наиболее серьезные проблемы в Internet связаны с неисследованными механизмами, включающимися с малой вероятностью; намерения обычных злоумышленников никогда не могут принести такого вреда!
На всех уровнях программ хостов Internet должны быть реализованы средства адаптации.Если спецификация протокола предполагает четыре возможных кода ошибки, приложение должно уметь обрабатывать по крайней мере пять типов ошибок (4 заданных и все остальные).Появление не определенных в спецификации кодов должно протоколироваться, но не должно нарушать работу системы.
Всё это так же справедливо и на прикладном уровне, то есть в API. Особенно если вы проектируете открытые API или API микросервисов. Либерализм в том, что ваше API принимает на вход, позволяет развивать API, не создавая излишней связности между сервисом и его клиентами. Вот хорошая статья с примерами.
В этом есть некоторое противоречие: когда вам рассказывают про API, обязательно говорят про схемы запросов и ответов (json-schema, xsd, схема в OpenAPI), и эти схемы исподволь продвигают идею контроля: больше правил валидации, точное указание типов данных и набора полей. Одновременно схема используется для генерации кода на клиентах и сервере. Удобно, если вы можете менять клиентов и сервер одновременно. Но это и означает связанность и синхронизацию релизов!
Так можно делать, если:
1) ваше API внутреннее;
И/ИЛИ
2) стабильность вашего сервиса важнее удобства клиентов (вы намного главнее и не зависите от клиентов - например, вы гос.орган, под который все подстроятся)
А вот расшивка клиентов и сервера требует сооблюдения принципа устойчивости. Для API это означает, что схема запросов должна:
🔸допускать в запросах неизвестные поля и параметры (сервер должен игнорировать их и не выдавать ошибку);
🔸принимать значения в виде строк, а не чисел/булевых;
🔸не ограничивать значения набором символов, масками и регулярными выражениями;
🔸избегать перечислимых типов (enum);
🔸не ограничивать максимальный размер списков;
Это не означает, что вообще не нужно делать никакие проверки — это означает, что не следует отправлять ошибку сразу при проверке запроса, до обработки. То есть, приняли, как есть, попытались обработать, всё, что не соответствует ожидаемому формату — записали в журнал. Проверки делаем не на уровне API, а немного за ним, поближе к логике: форматы и валидацию делаем там, а заодно санитарную обработку запроса — удаляем разные варианты инъекций, XML-бомб и т.п. И никогда не передавать/принимать напрямую бизнес-объекты без валидации и проверок!
То же касается и клиента, которых должен уметь обрабатывать ответ сервера и не рушиться, несмотря на лишние поля и "неправильные" типы данных. Это позволит не синхронизировать обновления клиентов и сервера, и жить в период рассинхронизации — когда изменения не доехали или откатились.
❤17👍5
Ну вот, кстати, по поводу либеральной обработки входной информации. Не дотянули немного до 1 апреля 😆
Зато смотрите, как грамотно: ошибки http с кодами 2xx — это успешно выполненные запросы. Там уже есть 200 OK, 201 — Created, 202 — принято на обработку, запущен долгий процесс, 203 — информация не из первичного источника, 206 — возвращена запрошенная часть ресурса.
Сомнительно, впрочем, что API возвращают такие ответы, а клиенты умеют их обрабатывать. Обычно всё ограничивается 200 — окэй.
Зато смотрите, как грамотно: ошибки http с кодами 2xx — это успешно выполненные запросы. Там уже есть 200 OK, 201 — Created, 202 — принято на обработку, запущен долгий процесс, 203 — информация не из первичного источника, 206 — возвращена запрошенная часть ресурса.
Сомнительно, впрочем, что API возвращают такие ответы, а клиенты умеют их обрабатывать. Обычно всё ограничивается 200 — окэй.
😁24❤7👍2