Приветики, я тут пока затих, майские, сами понимаете 🙂
Махнули в автотрип по Черногории, 550км до побережья, и вдоль по всем интересным городкам.
Проехали заповедник, Херцег-нови и Пераст, сегодня Порто Монтенегро, Котор и Будва.
Шашлыков пока не обнаружено 😐
Махнули в автотрип по Черногории, 550км до побережья, и вдоль по всем интересным городкам.
Проехали заповедник, Херцег-нови и Пераст, сегодня Порто Монтенегро, Котор и Будва.
Шашлыков пока не обнаружено 😐
👍19❤8🔥5😁1
📌 Когортный анализ
Многие из вас слышали про когортный анализ, а кто-то даже его проводил. Но не все понимают как его использовать для управлением обновлениями.
Как мы уже ранее разобрали — когорты это группы аудитории с привязкой к какому-то временному интервалу. Например к месяцу установки приложения. Период лучше выбирать исходя из длительности спринта разработки. Спринт, по классическому определению, завершается релизом, а значит каждая когорта будет стартовать с какой-то своей версии продукта.
Что мы хотим отслеживать? Часто в когортный анализ засовывают метрики роста, типа MAU, но на практике это применимо, разве что, в маркетинговом анализе. Мы же сейчас поговорим о продуктовом.
Давай разберём эту задачу на составные продуктовые шаги:
Первым шагом после установки может быть прохождение онбординга➡️ Потом схватывание a-ha момента ➡️ Первая оплата ➡️ Последующая оплата.
Успешность этих шагов очень сильно привязана к UX (user experience), который даёт приложение. А именно UX нам и интересен в первую очередь, так как даже незначительные изменения в дизайне могут сильно упростить или усложнить жизнь юзеров.
Отслеживание этих шагов уже даст много информации — переделали онбординг, изменили главную страницу, сломали воронку — всё это быстро отслеживается на новой когорте.
В отличии от анализа метрик в динамике, когортный анализ помогает смотреть свежим взглядом на каждую новую версию продукта без привязки к истории. Вот на прошлой неделе всё было хорошо с прохождением каталога, а сейчас плохо — что сделали? Увеличили количество категорий. Окей, это нам не надо, откатываем.
Для полноты картины, в список метрик можно добавить продуктовый набор типа retention, ARPU, LTV или среднй чек.
Многие из вас слышали про когортный анализ, а кто-то даже его проводил. Но не все понимают как его использовать для управлением обновлениями.
Как мы уже ранее разобрали — когорты это группы аудитории с привязкой к какому-то временному интервалу. Например к месяцу установки приложения. Период лучше выбирать исходя из длительности спринта разработки. Спринт, по классическому определению, завершается релизом, а значит каждая когорта будет стартовать с какой-то своей версии продукта.
Что мы хотим отслеживать? Часто в когортный анализ засовывают метрики роста, типа MAU, но на практике это применимо, разве что, в маркетинговом анализе. Мы же сейчас поговорим о продуктовом.
Немного лирического отступления — у каждого приложения есть какая-то задача, которая ведёт к верхнеуровневым целям (например, заработать денег). Этой задачей обычно является формирование привычки пользоваться приложением у юзера и, как следствие, мотивировать его совершать много последовательных платежей.
Давай разберём эту задачу на составные продуктовые шаги:
Первым шагом после установки может быть прохождение онбординга
Успешность этих шагов очень сильно привязана к UX (user experience), который даёт приложение. А именно UX нам и интересен в первую очередь, так как даже незначительные изменения в дизайне могут сильно упростить или усложнить жизнь юзеров.
Отслеживание этих шагов уже даст много информации — переделали онбординг, изменили главную страницу, сломали воронку — всё это быстро отслеживается на новой когорте.
В отличии от анализа метрик в динамике, когортный анализ помогает смотреть свежим взглядом на каждую новую версию продукта без привязки к истории. Вот на прошлой неделе всё было хорошо с прохождением каталога, а сейчас плохо — что сделали? Увеличили количество категорий. Окей, это нам не надо, откатываем.
Для полноты картины, в список метрик можно добавить продуктовый набор типа retention, ARPU, LTV или среднй чек.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤2🔥2
Набросал тут небольшую памятку для начинающих изучать SQL. Без совсем уж основных основ, но в целом уровень аналитический, а не инженерный.
Про структуру запроса, порядок его выполнения и простые практики по базовой оптимизации.
🍿
https://telegra.ph/Pamyatka-po-SQL-05-15
Про структуру запроса, порядок его выполнения и простые практики по базовой оптимизации.
https://telegra.ph/Pamyatka-po-SQL-05-15
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Памятка по SQL
Небольшая памятка для начинающих учить SQL. В каком порядке выполняется запрос, как его можно быстро и дёшево оптимизировать и несколько часто используемых полезных практик. §1. Структура SQL-запроса и последовательность выполнения Для начала давай разберёмся…
👍30🔥9
Вопрос может показаться странным, учитывая специфику группы, но всё же) Если представить, что вы можете пойти в любое направление аналитики, куда больше душа лежит?
Anonymous Poll
19%
Аналитика данных
44%
Продуктовая аналитика
5%
Маркетинговая аналитика
8%
BI-аналитика
16%
ML-инженерия и Data science
8%
Дата инженерия
📌 Задача предсказания UX
Если подумать, какая задача в моей карьере была самой популярной и желанной для заказчиков, то сразу вспоминаются попытки предикта поведения юзера. Серьёзно, она была почти во всех командах 🙂
Это просто золотой грааль для компаний. Все мечтают на ранних этапах предсказывать в какой сегмент попадёт юзер (хотя бы на уровне "отвалится или будет платящим"). В идеале сразу при регистрации. Имея эту информацию, можно уже много чего наворотить в UX пользователя, в зависимости от ожиданий.
И мы даже много раз пытались такое провернуть силами продуктовой аналитики (естественно, не всегда удачно). К слову, у нас никогда не было классного ML-спеца, поэтому сильно глубоко мы никогда не копали.
А нет, вру, один раз была команда DS, которая занималась этой задачей основательно, но они начали её делать до моего прихода в компанию, и не закончили когда я ушёл, так что не считается 🙂
😅 Сложно (особенно заказчику) принять факт, что с первого запуска, не имея никаких поведенческих показателей юзера, сложно как-то магическим образом предсказывать его будущее. Ни гео, ни времени суток регистрации, ни даже источника траффика никогда не достаточно. А жаль, конечно.
Это конечно не даёт ответ на вопрос “а что делать-то в первый день с ними, кого активнее пушить а на кого не давить и просто дать время?”, но в целом, иметь какие-никакие прогнозы по юзеру через неделю выглядит всё ещё полезнее, чем не иметь никаких.
Это одна из тех задач, где нет какого-то единого алгоритма решения. На хабре все подходы отличаются диаметрально, т.к. всё ещё и сильно зависит от конкретного бизнеса.
Сталкивались с такими задачами? Как решали? 🙂
Если подумать, какая задача в моей карьере была самой популярной и желанной для заказчиков, то сразу вспоминаются попытки предикта поведения юзера. Серьёзно, она была почти во всех командах 🙂
Это просто золотой грааль для компаний. Все мечтают на ранних этапах предсказывать в какой сегмент попадёт юзер (хотя бы на уровне "отвалится или будет платящим"). В идеале сразу при регистрации. Имея эту информацию, можно уже много чего наворотить в UX пользователя, в зависимости от ожиданий.
И мы даже много раз пытались такое провернуть силами продуктовой аналитики (естественно, не всегда удачно). К слову, у нас никогда не было классного ML-спеца, поэтому сильно глубоко мы никогда не копали.
😅 Сложно (особенно заказчику) принять факт, что с первого запуска, не имея никаких поведенческих показателей юзера, сложно как-то магическим образом предсказывать его будущее. Ни гео, ни времени суток регистрации, ни даже источника траффика никогда не достаточно. А жаль, конечно.
Проблему мы частично решали простым сдвигом точки анализа хотя бы на недельку. Обычно за это время у юзера происходит или ранний отток, или какая-то движуха, по которой можно пытаться планировать его жизнь наперёд. Предикторы типа наличия первого платежа, его суммы, времени на “подумать”, а так же всякие триггеры посещения отдельных разделов — уже раскрывают юзера намного детальнее.
Это конечно не даёт ответ на вопрос “а что делать-то в первый день с ними, кого активнее пушить а на кого не давить и просто дать время?”, но в целом, иметь какие-никакие прогнозы по юзеру через неделю выглядит всё ещё полезнее, чем не иметь никаких.
Это одна из тех задач, где нет какого-то единого алгоритма решения. На хабре все подходы отличаются диаметрально, т.к. всё ещё и сильно зависит от конкретного бизнеса.
Сталкивались с такими задачами? Как решали? 🙂
👍9
📌 Откуда удобно заходить в ПА
В продуктовую аналитику я пришёл веб-студии, в которой занимался много чем, от верстки до дизайна. Но больше времени моим делом было, наверное проектирование интерфейсов.
Эта работа не просто про рисование квадратиков. Проект включает в себя много исследовательских моментов — построение всяких CJM / JTBD, персонажей, воронок, карточных сортировок, проведение интервью, построение карт метрик и иногда даже разметку событий и т.д. Такое углубленное изучение UX / экономики проекта.
Многие вещи оттуда отлично вписываются в продуктовую аналитику.
Из каких ещё сфер можно относительно легко зайти в ПА?
🔵 Маркетинг (web). Как и проектирование, маркетинг сначала досконально изучает пользователей, их привычки, желания, цели и особенности поведения. А ещё бонусом опыт работы с инструментами веб-аналитики и понимание подкапотного устройства сайта на уровне HTML-CSS-JS.
🔵 Социология. Социологи хорошо знакомы со статистикой и умеют изучать людей, проводить исследования и делать выводы. Аналитическое мышление развивается очень хорошо. Знал бы я в универе, что мне эта специальность в будущем подойдёт, забил бы на энергофак не думая 🙂
🔵 Экономика. Как по мне, немного дальше социологии, но всё ещё формирует очень много полезных навыков, особенно для работы с будущей юнит-экономикой проекта.
🔵 Психология. У этих ребят имеется глубокое понимание поведения и мотивации людей, что очень ценно для анализа поведения юзеров и понимания почему юзеры ведут себя именно так.
🔵 Ну и, конечно же, смежная аналитика (например, дата-). Хороший набор хардов, аналитическое мышление и умение работать с данными и делать выводы.
И это только то, что на поверхности 🙂
В продуктовую аналитику я пришёл веб-студии, в которой занимался много чем, от верстки до дизайна. Но больше времени моим делом было, наверное проектирование интерфейсов.
Эта работа не просто про рисование квадратиков. Проект включает в себя много исследовательских моментов — построение всяких CJM / JTBD, персонажей, воронок, карточных сортировок, проведение интервью, построение карт метрик и иногда даже разметку событий и т.д. Такое углубленное изучение UX / экономики проекта.
Многие вещи оттуда отлично вписываются в продуктовую аналитику.
Из каких ещё сфер можно относительно легко зайти в ПА?
И это только то, что на поверхности 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15❤2
Ох, ну что тут сказать, было очень круто 😅
Атмосфера то ли Готэма, в котором Бэтмэн проиграл, то ли Мордора, где Саурон собрал себе все кольца. Мрачно, мощно, лампово. Звук отличный, шоу вообще отвал всего. Дым, огонь, фейрверки — со всех сторон.
Сначала не понял почему трибуны так далеко, а потом как понял. Сама группа тут скорее как бонус, главный герой — сцена. Этот монстр размером этажей с 10, весь обвешан прожекторами и огнемётами 🙂
p.s. Передвижение по толпе в лодках и прожарка чувака в котле из огнепушки на месте 👌
p.p. s. Закину в чатик пару видосиков
Атмосфера то ли Готэма, в котором Бэтмэн проиграл, то ли Мордора, где Саурон собрал себе все кольца. Мрачно, мощно, лампово. Звук отличный, шоу вообще отвал всего. Дым, огонь, фейрверки — со всех сторон.
Сначала не понял почему трибуны так далеко, а потом как понял. Сама группа тут скорее как бонус, главный герой — сцена. Этот монстр размером этажей с 10, весь обвешан прожекторами и огнемётами 🙂
p.s. Передвижение по толпе в лодках и прожарка чувака в котле из огнепушки на месте 👌
p.p. s. Закину в чатик пару видосиков
🔥18👍2
📌 Data Driven vs Data Informed
Мне нравится наблюдать за развитием аналитической культуры на рынке, и очень радует тенденция перехода от Data Driven к Data Informed подходу.
Для тех, кто пропустил, так образно называют стиль управления продуктом.
🔵 Data Driven (DD) — это подход к принятию решений, завязанный исключительно на данные, цифры и результаты исследований. Если ты уверен что решение А будет правильным, но решение Б выглядит лучше на цифрах, то компания принимает решение Б без обсуждений.
🔵 Data Informed (DI) — более лояльный подход к идеям, тут данные это просто хорошая точка опоры, но не истина в последней инстанции.
И вот значит, когда аналитика только начинала активно развиваться в продуктовых командах, все придерживались DI подхода. Вероятно, так было потому что ресурс аналитики был не особо развит и мониторить вообще всё было затруднительно или просто долго. Ещё одной причиной был страх — данные данными, но эта ваша аналитика какой-то неведомый зверь.
С ростом аналитических мощностей, все массово переключились на DD. Где-то в 15-20 годах это был прям золотой грааль, все хотели сильный аналитический отдел и ни шагу в сторону, без подтверждённых экспериментами, идей. Золотое время для вкатывания было, вакансии летели со всех сторон, а свободных спецов с мало-мальским опытом почти не было.
В геймдеве тот же Ubisoft со своими ассасинами — типичный пример 100%-ного DD. Делаем то, что работает, а инновации оставим господинам Винке и Кодзиме. Не в геймдеве чистый DD (до недавнего времени) это, пожалуй Netflix.
И вот теперь опять прослеживается тенденция переката от DD обратно к DI (что не может не радовать). Но в этот раз не от страха, а от осознания, что кроме цифр есть ещё и эмоции юзеров. Если раньше катили успешный, но не самый этичный тест, не думая, то теперь цифры противопоставляют потенциальной реакции пользователей и работают больше в сторону хорошего UX. Что очень правильно, так как успешный UX в первую очередь формирует привычку и лояльность.
А это самые дорогие метрики в перспективе.
Мне нравится наблюдать за развитием аналитической культуры на рынке, и очень радует тенденция перехода от Data Driven к Data Informed подходу.
Для тех, кто пропустил, так образно называют стиль управления продуктом.
И вот значит, когда аналитика только начинала активно развиваться в продуктовых командах, все придерживались DI подхода. Вероятно, так было потому что ресурс аналитики был не особо развит и мониторить вообще всё было затруднительно или просто долго. Ещё одной причиной был страх — данные данными, но эта ваша аналитика какой-то неведомый зверь.
С ростом аналитических мощностей, все массово переключились на DD. Где-то в 15-20 годах это был прям золотой грааль, все хотели сильный аналитический отдел и ни шагу в сторону, без подтверждённых экспериментами, идей. Золотое время для вкатывания было, вакансии летели со всех сторон, а свободных спецов с мало-мальским опытом почти не было.
В геймдеве тот же Ubisoft со своими ассасинами — типичный пример 100%-ного DD. Делаем то, что работает, а инновации оставим господинам Винке и Кодзиме. Не в геймдеве чистый DD (до недавнего времени) это, пожалуй Netflix.
И вот теперь опять прослеживается тенденция переката от DD обратно к DI (что не может не радовать). Но в этот раз не от страха, а от осознания, что кроме цифр есть ещё и эмоции юзеров. Если раньше катили успешный, но не самый этичный тест, не думая, то теперь цифры противопоставляют потенциальной реакции пользователей и работают больше в сторону хорошего UX. Что очень правильно, так как успешный UX в первую очередь формирует привычку и лояльность.
А это самые дорогие метрики в перспективе.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27
Хотел написать пост про важность софт скилов, но youtube как по запросу вынес видос на тему. И он настолько базовый и в точку, что я даже не вижу смысла как-то ещё его дополнять, в общем, посмотрите лучше его, он прекрасен 🍿
https://youtu.be/OffQFYSI2qQ?si=r1g9pz7ghPM-wqnc
https://youtu.be/OffQFYSI2qQ?si=r1g9pz7ghPM-wqnc
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Сколько стоит улыбка программиста? Или как с помощью soft skills поднять зарплату в IT и стать лучше
Таймкоды и ссылки:
00:00 – зачем нужны софт скилы
02:24 – как стать лучшим на работе
03:30 – за что платят деньги в IT
04:22 – ошибки мышления кодеров
06:52 – самое главное качество программиста
07:58 – главная ошибка в айти
11:45 – отрицание важности коллектива…
00:00 – зачем нужны софт скилы
02:24 – как стать лучшим на работе
03:30 – за что платят деньги в IT
04:22 – ошибки мышления кодеров
06:52 – самое главное качество программиста
07:58 – главная ошибка в айти
11:45 – отрицание важности коллектива…
👍10❤7🔥1
На вебе всю жизнь для быстрого поиска по аналитическому стриму использую DataSlayer и меня в нём всё устраивает. Ты просто прокликиваешь нужные элементы и смотришь логи где как что отправилось. Удобно.
А встречал ли кто такие аналоги для приложений? Я пол интернета перевернул, протестил кучу отладчиков — и нифига. Инфу про фронт пожалуйста — структуру разбирают легко, а вот чё там по аналитике никто не знает. Вроде ж не то чтобы это слишком секьюрная инфа (учитывая что браузеры отдают её бесплатно, без смс и регистрации), но как будто вот эта магазинная политика изоляции приложений прям всё глушит.
Есть тут разработчики? Без SDK никак не получится, да? 🥲
А встречал ли кто такие аналоги для приложений? Я пол интернета перевернул, протестил кучу отладчиков — и нифига. Инфу про фронт пожалуйста — структуру разбирают легко, а вот чё там по аналитике никто не знает. Вроде ж не то чтобы это слишком секьюрная инфа (учитывая что браузеры отдают её бесплатно, без смс и регистрации), но как будто вот эта магазинная политика изоляции приложений прям всё глушит.
Есть тут разработчики? Без SDK никак не получится, да? 🥲
🤔3❤1👍1
Ля чё нашёл 😃 Я это написал в апреле и забыл запостить сюда. Мои мысли на бесконечную тему универсализации метрик для оценки различных продуктовых фичей. Предлагаю свой вариант решения, с объяснением почему я сделал так и зачем вообще это всё.
Не истина в последней инстанции, но как один из вариантов🍿
https://habr.com/ru/articles/807585/
Не истина в последней инстанции, но как один из вариантов
https://habr.com/ru/articles/807585/
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Базовый анализ продуктовых фичей
Привет, я работаю продуктовым аналитиком и мои задачи, в большей степени, связаны с анализом пользовательского поведения в продукте. Пожалуй, чаще всего, мне приходится работать с разного рода...
🔥15👍8❤1
📌 График плотности для оценки распределения
Сейчас в очередной раз перечитываю статистику и заметил, что часто для визуальной оценки распределения используют гистограммы.
Как-то так получилось, что я не особо люблю их. Там нужно настраивать бины, а это не всегда удобно на слишком больших или слишком маленьких данных. Или всё очень мельчает или наоборот очень сильно съёживается. Не то чтобы это большая проблема, да и решается просто, но исторически так сложилось, что для первичной оценки распределения я пересел с гистограмм на графики плотности (density plot).
Смысл у них такой же как у гистограмм, кроме одного нюанса. В то время, как гистограмма представляет данные в виде бинов, где каждый показывает частоту значений в диапазоне, график плотности даёт сглаженную оценку распределения данных в виде непрерывной линии.
Технически вся разница в оси Y — график плотности соответствует отображению гистограммы как доли, а не количеств и вычисляется через ядерную оценку плотности, а не через подсчёт наблюдений.
Сама ядерная оценка плотности — это непараметрический способ оценки плотности вероятности случайной величины. Она используется для построения гладкой аппроксимации распределения данных на основе выборки. Но это отдельная тема. Смысл тут как раз в сглаживании.
Такие графики помогают лучше оценить общую форму распределения и они менее чувствительны к выбору параметров. Да и выглядят они просто круче, особенно когда их несколько сразу 🙂
Сейчас в очередной раз перечитываю статистику и заметил, что часто для визуальной оценки распределения используют гистограммы.
Как-то так получилось, что я не особо люблю их. Там нужно настраивать бины, а это не всегда удобно на слишком больших или слишком маленьких данных. Или всё очень мельчает или наоборот очень сильно съёживается. Не то чтобы это большая проблема, да и решается просто, но исторически так сложилось, что для первичной оценки распределения я пересел с гистограмм на графики плотности (density plot).
Смысл у них такой же как у гистограмм, кроме одного нюанса. В то время, как гистограмма представляет данные в виде бинов, где каждый показывает частоту значений в диапазоне, график плотности даёт сглаженную оценку распределения данных в виде непрерывной линии.
Технически вся разница в оси Y — график плотности соответствует отображению гистограммы как доли, а не количеств и вычисляется через ядерную оценку плотности, а не через подсчёт наблюдений.
Сама ядерная оценка плотности — это непараметрический способ оценки плотности вероятности случайной величины. Она используется для построения гладкой аппроксимации распределения данных на основе выборки. Но это отдельная тема. Смысл тут как раз в сглаживании.
Такие графики помогают лучше оценить общую форму распределения и они менее чувствительны к выбору параметров. Да и выглядят они просто круче, особенно когда их несколько сразу 🙂
👍20❤1
🔗 Популярные виды распределений
Я вообще тут не просто так про распределения начал. Читал тут статейку одну про распределения и решил собрать такую небольшую шпаргалку по популярным видам распределений.
Не то чтобы при анализе ты прям ходишь такой “о, это распределение Вейбулла” (на практике чаще классифицируешь их по форме, симметричные или скошенные) но хотя бы названия и форму их знать полезно, особенно на вопросах типа “какие распределения ты знаешь?”. 🙂
Добавил основные характеристики и пример использования, чтобы это была более полноценная шпаргалка.
Функции плотности вероятности не добавил, телеграф не умеет в Latex, а в строку эти и без того жуткие формулы превращаются в мясо. Загуглите если надо.
Бонусом в конце добавил ссылку на гигантскую карту распределений.
https://telegra.ph/Populyarnye-vidy-raspredelenij-06-12
#собесы #инструменты
Я вообще тут не просто так про распределения начал. Читал тут статейку одну про распределения и решил собрать такую небольшую шпаргалку по популярным видам распределений.
Не то чтобы при анализе ты прям ходишь такой “о, это распределение Вейбулла” (на практике чаще классифицируешь их по форме, симметричные или скошенные) но хотя бы названия и форму их знать полезно, особенно на вопросах типа “какие распределения ты знаешь?”. 🙂
Добавил основные характеристики и пример использования, чтобы это была более полноценная шпаргалка.
Функции плотности вероятности не добавил, телеграф не умеет в Latex, а в строку эти и без того жуткие формулы превращаются в мясо. Загуглите если надо.
Бонусом в конце добавил ссылку на гигантскую карту распределений.
https://telegra.ph/Populyarnye-vidy-raspredelenij-06-12
#собесы #инструменты
Telegraph
Популярные виды распределений
Равномерное распределение Распределение Бернулли Биномиальное распределение Геометрическое распределение Отрицательное биномиальное распределение Гипергеометрическое распределение Распределение Пуассона Экспоненциальное распределение Распределение Вейбулла…
🔥23👍1🤔1
В Белграде последние деньки прохлады (+28), все гуляют. На низком старте неделя в +36 🌡️
Ходили сегодня на пикник, организованный местным IT-комьюнити, 0 разговоров о работе, уважаемо 🙂
Ходили сегодня на пикник, организованный местным IT-комьюнити, 0 разговоров о работе, уважаемо 🙂
❤12👍4😎3
📌 UX-артефакты в продуктовой аналитике
В дизайне, продакт-менеджменте и маркетинге есть такие популярные инструменты для проектирования пользовательского опыта, как например CJM (Customer Journey Map) и JTBD (Jobs To Be Done).
В общем смысле это методологии для построения хорошего UX твоего продукта.
🔵 CJM — это такая визуализация пути юзера с сопутствующими каждому этапу проблемами, эмоциями, решениями и т.д. Её цель в том, чтобы понимать направленность пользовательского опыта (негативный, позитивный или нейтральный) на каждом этапе воронки, выявить сложности и проблемы, и через эту призму улучшать каждый шаг взаимодействия.
🔵 JTBD — это не столько про опыт в плане эмоций, сколько про фокус на задачах и целях, ради которых клиент “нанял” твой продукт. Цель этой методологии — понять что именно мотивирует клиентов приобретать и использовать продукт и какие "работы" они пытаются выполнить с его помощью.
Раньше построением этих артефактов нередко занимались и продуктовые аналитики. В свой первый продукт на ПА я прошёл по тестовому, где нужно было как раз заревьюить CJM ребят и дать рекомендации к улучшению 🙂
Потом дизайнеры стали больше про проектирование и меньше про картинки, и благополучно забрали эту работу себе. А мы с удовольствием и отдали. И очень зря.
В теории сейчас артефакты по изучению UX не являются зоной ответственности ПА, но я настоятельно рекомендую в них разобраться, если ещё не. Если ты уже можешь составить хорошую CJM для своего продукта, то поздравляю — ты, вероятно, хорошо его чувствуешь и у тебя есть то самое погружение в контекст. А это, в свою очередь, уже является требованием к ПА. Ну или хотя бы ожидается от тебя.
☝️ Кроме того, это хорошее упражнение на развитие продуктового мышления.
Недавно натыкался на хабре на пост, где ребята начали работать с гипотезами через CJM и ни о чем не жалеют. Как старый проектировщик, такое я одобряю 🙂
Гонять по 10-му кругу очередной курс сукеля и питона — это конечно хорошо, но оставим это дата аналитикам. Мы тут чтобы деньги зарабатывать бизнесу, а не скрипты туда-сюда перекладывать.
В дизайне, продакт-менеджменте и маркетинге есть такие популярные инструменты для проектирования пользовательского опыта, как например CJM (Customer Journey Map) и JTBD (Jobs To Be Done).
В общем смысле это методологии для построения хорошего UX твоего продукта.
Раньше построением этих артефактов нередко занимались и продуктовые аналитики. В свой первый продукт на ПА я прошёл по тестовому, где нужно было как раз заревьюить CJM ребят и дать рекомендации к улучшению 🙂
Потом дизайнеры стали больше про проектирование и меньше про картинки, и благополучно забрали эту работу себе. А мы с удовольствием и отдали. И очень зря.
В теории сейчас артефакты по изучению UX не являются зоной ответственности ПА, но я настоятельно рекомендую в них разобраться, если ещё не. Если ты уже можешь составить хорошую CJM для своего продукта, то поздравляю — ты, вероятно, хорошо его чувствуешь и у тебя есть то самое погружение в контекст. А это, в свою очередь, уже является требованием к ПА. Ну или хотя бы ожидается от тебя.
☝️ Кроме того, это хорошее упражнение на развитие продуктового мышления.
Недавно натыкался на хабре на пост, где ребята начали работать с гипотезами через CJM и ни о чем не жалеют. Как старый проектировщик, такое я одобряю 🙂
Гонять по 10-му кругу очередной курс сукеля и питона — это конечно хорошо, но оставим это дата аналитикам. Мы тут чтобы деньги зарабатывать бизнесу, а не скрипты туда-сюда перекладывать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍4🔥2
📌 Оконки LEAD и LAG
Любое уважающее себя (но это не точно ) техническое интервью обязательно содержит вопрос или задачку про эти функции. Понятия не имею откуда это пошло — не то чтобы это были какие-то сверхпопулярные оконки, скорее даже редкие, но имеем что имеем.
Если ты, по каким-то загадочным причинам, слышишь об этом в первый раз, то гоу разбираться.
Смысл этих функций в притягивании соседа ДО или соседа ПОСЛЕ.
В общем виде выглядит как и любая другая оконка:
Т.е. “внутри каждого потока
Как и любую другую оконку можно засунуть эту конструкцию прямиком в
А что по примерам использования, когда полезно?
🟡 При анализе пользовательских путей, если нужно достать название страницы / экрана, который предшествовал заданному. Например для поиска ключевых точек типа откуда юзеры чаще всего попадают на страницу товара;
🟡 При осмотре каких-то метрик на текущий момент, чтобы быстро сравнить с предыдущим периодом и показать разницу, растёт или падает. Такое чаще практикуется в репортах, когда нужна одна конкретная цифра “на сейчас” и стрелка вверх-вниз;
🟡 При анализе оттока, чтобы быстро посчитать разницу в количестве дней от текущей даты и последней датой активности юзера. Хотя тут и есть более ходовой вариант через max(date), тем не менее юзабельно;
🟡 При построении всяких недельных саммари, когда нужно учитывать, например, только рабочие дни.
#собесы
Любое уважающее себя (
Если ты, по каким-то загадочным причинам, слышишь об этом в первый раз, то гоу разбираться.
Смысл этих функций в притягивании соседа ДО или соседа ПОСЛЕ.
В общем виде выглядит как и любая другая оконка:
lag(some_col) over(partition by some_id order by some_dt)
Т.е. “внутри каждого потока
some_id отсортируй строки по some_dt и достань мне предыдущее значение столбца some_col”.Как и любую другую оконку можно засунуть эту конструкцию прямиком в
select, в условие case или where, а при особом желании даже в join можно затянуть.А что по примерам использования, когда полезно?
#собесы
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Спёр в рабочем слаке) Ох, если бы оно всё было так просто 😄
Please open Telegram to view this post
VIEW IN TELEGRAM
😁22👍1
Здраво, я тут чёт выпал на недельку, ну да ладно. Завтра будет кулстори как я учил SQL, работал, как потом понял что вообще нифига не умею на нём писать и как в итоге научился.
А пока гоу накидаем своих рабочих плейлистов 🙂
Начну, вот эти два основных, отлично работают, когда нужно сосредоточиться и подумать:
🎧 ностальгический (if u know u know) эмбиент на музыку Кая Розенкранца: https://www.youtube.com/watch?v=dJEngIaeEso&ab_channel=CraftofAmbience
🎧 просто 10 часов дождя с грозой 🙂 https://www.youtube.com/watch?v=l6fyiqeytaA&ab_channel=RainSoundNatural
Если думать не надо, то тут по настроению, разброс большой — от меланхоличных In Extremo и Corvus Corax (тут нужен мем про весьма специфичные вкусы), до драйвовых Talco или Goldfinger ✌️
А пока гоу накидаем своих рабочих плейлистов 🙂
Начну, вот эти два основных, отлично работают, когда нужно сосредоточиться и подумать:
Если думать не надо, то тут по настроению, разброс большой — от меланхоличных In Extremo и Corvus Corax (тут нужен мем про весьма специфичные вкусы), до драйвовых Talco или Goldfinger ✌️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍1
📌 Про SQL в обучении и в жизни, путь самурая
У меня такое было с SQL, правда в начале я и сам не знал что получается плохо 🙂
Когда я учил SQL, затронул наверное все форматы — были и курсы, которые накинули теории, и сайты с задачками и даже книжку по постгре купил (правда даже не дочитал её до середины, настолько душной она была).
Но судя по задачкам с сайтов, я был уверен, что в принципе, понимаю что это такое и как оно устроено. Да у меня даже работа уже была (я был там первым и единственным аналитиком), где помимо всего прочего надо было вести борды в редаше (а это SQL-based BI). Ну там в основном мелочи всякие надо было писать, типа один запрос — один график, а это часто 5-10 строк кода. Что-то сложнее могло пойти на стаковерфлоу, но в целом было норм.
Это подпитывало мою уверенность что да, вот так обычно все и делают. Ну и в учёбе задачки такого же уровня были, на крайняк хитрая функция, но задача всегда линейна.
А потом я попал в компанию с развитой аналитической командой, где мне в первый же день скинули на изучение скрипт витрины для гигаборда, который считал огромную пачку ключевых метрик. Это была не какая-то красивая и удобная витринка для менеджеров, а прям официальная документация аналитиков — зацеплены все основные метрики (штук 50 точно было) и бОльшая часть популярных структур данных. Тонны джоинов и обращений к словарям, чтобы максимально всё нужное захватить.
Стоит ли говорить что он был реально огромный, чтобы просто докрутить этот скрипт до конца, скроллить нужно было секунд 10. Порог в 1000 строк он там явно перешагнул.
Первые дни я сидел с мыслями: "это вообще что такое, это что sql? Ну вот и смерть моя пришла, земля прощай, нас такому не учили и жизнь не готовила". На мой немойахуй , лид только улыбался и говорил что-то типа “да он лёгкий, просто… ну большой получился))0)”.
Я там недели две наверное вдуплял что к чему, медленно, но уверенно, как Рокки Бальбоа, впитывал структуру и фиксировал интересные моменты, которые не сложные, а скорее хитрые, и до которых я сам не додумался. Радовался что даже что-то начинаю понимать.
И вот когда я с ним разобрался — оно щёлкнуло — я понял как работает SQL. Реально, всего за одну задачку (пусть и через все стадии принятия) мой уровень запросов сменился от подсчёта количества строк (”воу, 20 строк, вот это я машина”) к ощущению задачи и поискам путей решения, к пониманию структуры запроса и планированию скрипта сильно наперёд.
#кулстори
Знаете вот это чувство, когда ты что-то делаешь, у тебя не получается или получается со скрипом, и это действие требует повышенной концентрации. А потом в один момент хоба — и ты его делаешь случайно, очень легко и даже получается не ужасно.
В этот момент в голове что-то щёлкает, типа “а, вот как надо было” — и всё, ты научился, дальше так же легко повторяется снова и снова. И потом даже смешно становится, что раньше ты тут прикладывал максимум усилий, а сейчас делаешь одной рукой с закрытыми глазами.
У меня такое было с SQL, правда в начале я и сам не знал что получается плохо 🙂
Когда я учил SQL, затронул наверное все форматы — были и курсы, которые накинули теории, и сайты с задачками и даже книжку по постгре купил (правда даже не дочитал её до середины, настолько душной она была).
Но судя по задачкам с сайтов, я был уверен, что в принципе, понимаю что это такое и как оно устроено. Да у меня даже работа уже была (я был там первым и единственным аналитиком), где помимо всего прочего надо было вести борды в редаше (а это SQL-based BI). Ну там в основном мелочи всякие надо было писать, типа один запрос — один график, а это часто 5-10 строк кода. Что-то сложнее могло пойти на стаковерфлоу, но в целом было норм.
Это подпитывало мою уверенность что да, вот так обычно все и делают. Ну и в учёбе задачки такого же уровня были, на крайняк хитрая функция, но задача всегда линейна.
А потом я попал в компанию с развитой аналитической командой, где мне в первый же день скинули на изучение скрипт витрины для гигаборда, который считал огромную пачку ключевых метрик. Это была не какая-то красивая и удобная витринка для менеджеров, а прям официальная документация аналитиков — зацеплены все основные метрики (штук 50 точно было) и бОльшая часть популярных структур данных. Тонны джоинов и обращений к словарям, чтобы максимально всё нужное захватить.
Стоит ли говорить что он был реально огромный, чтобы просто докрутить этот скрипт до конца, скроллить нужно было секунд 10. Порог в 1000 строк он там явно перешагнул.
Первые дни я сидел с мыслями: "это вообще что такое, это что sql? Ну вот и смерть моя пришла, земля прощай, нас такому не учили и жизнь не готовила". На мой немой
Я там недели две наверное вдуплял что к чему, медленно, но уверенно, как Рокки Бальбоа, впитывал структуру и фиксировал интересные моменты, которые не сложные, а скорее хитрые, и до которых я сам не додумался. Радовался что даже что-то начинаю понимать.
И вот когда я с ним разобрался — оно щёлкнуло — я понял как работает SQL. Реально, всего за одну задачку (пусть и через все стадии принятия) мой уровень запросов сменился от подсчёта количества строк (”воу, 20 строк, вот это я машина”) к ощущению задачи и поискам путей решения, к пониманию структуры запроса и планированию скрипта сильно наперёд.
#кулстори
👍27❤6🔥3👎1🤔1😎1