Forwarded from BigQuery Insights
Как-то посмотрел отчет коллег по результатам AB теста. И в нем целевой показатель - конверсия из сессии, в которой был показан вариант эксперимента (тестовый или контрольный) в сессию с заказом. В чем проблема? А в том, что в данном случае измерять в сессиях неправильно. И вот почему.
Одно из важнейших условий проведения AB теста - независимость наблюдений. И у нас, например, перекраска кнопки "В корзину" из красного в синий, это изменение показывается постоянно.
Если пользователь утром зашел на сайт и увидел новую кнопку, мы засчитали сессию с показом. Когда он снова вечером снова зайдет на сайт и снова увидит новую кнопку, снова будет засчитана сессия с показом, итого уже две. В таком случае у нас получились два измерения, и они одно из них зависимо от другого - так как второй сессии могло не быть без первой. То же самое может быть с заказами - может быть много сессий в заказом у одного пользователя.
Таким образом, у нас нарушается обязательное требование о независимости измерений. В данном случае мы должны были считать конверсию из пользователя, увидевшего кнопку, в пользователя, совершившего заказ.
Одно из важнейших условий проведения AB теста - независимость наблюдений. И у нас, например, перекраска кнопки "В корзину" из красного в синий, это изменение показывается постоянно.
Если пользователь утром зашел на сайт и увидел новую кнопку, мы засчитали сессию с показом. Когда он снова вечером снова зайдет на сайт и снова увидит новую кнопку, снова будет засчитана сессия с показом, итого уже две. В таком случае у нас получились два измерения, и они одно из них зависимо от другого - так как второй сессии могло не быть без первой. То же самое может быть с заказами - может быть много сессий в заказом у одного пользователя.
Таким образом, у нас нарушается обязательное требование о независимости измерений. В данном случае мы должны были считать конверсию из пользователя, увидевшего кнопку, в пользователя, совершившего заказ.
На прошлой неделе прошел митап от Expf и Сберамаркета. Обсудили проблематику создания платформы для проведения AB тестов, выбора наиболее подходящих метрик.
https://youtu.be/1blbhx9BYxk
https://youtu.be/1blbhx9BYxk
YouTube
online meetup EXPF x СберМаркет
online meetup EXPF x СберМаркет
18:00–18:30, Платформа А/Б тестирований: создание универсальной системы для проведения экспериментов на онлайн платформах
Станислав Романихин, head of DS sever x
18:30–19:00, Метрики для метрик
Виталий Черемисинов, co…
18:00–18:30, Платформа А/Б тестирований: создание универсальной системы для проведения экспериментов на онлайн платформах
Станислав Романихин, head of DS sever x
18:30–19:00, Метрики для метрик
Виталий Черемисинов, co…
Forwarded from Trisigma — про эксперименты
Когда останавливать A/B-тест? Часть 1: MDE
«Сколько ждать?» – самый частый вопрос, который приходится слышать до и во время проведения эксперимента.
Мы написали новую статью (правильнее было бы назвать это руководством) про то, как стоит подходить к решению этой задачи. А именно от чего в первую очередь зависит прогнозируемое время и как это считать + с кодом на питоне.
В первой части рассматривается концепция Fixed time Horizon, которая основана на расчете MDE. Следующая часть выйдет через несколько недель. А может и раньше, следите за обновлениями в этом канале
Читать статью на медиуме
«Сколько ждать?» – самый частый вопрос, который приходится слышать до и во время проведения эксперимента.
Мы написали новую статью (правильнее было бы назвать это руководством) про то, как стоит подходить к решению этой задачи. А именно от чего в первую очередь зависит прогнозируемое время и как это считать + с кодом на питоне.
В первой части рассматривается концепция Fixed time Horizon, которая основана на расчете MDE. Следующая часть выйдет через несколько недель. А может и раньше, следите за обновлениями в этом канале
Читать статью на медиуме
Forwarded from Аналитика. Это просто
Только сегодня досмотрел митап от EXPF и СберМаркет - https://youtu.be/1blbhx9BYxk.
Для меня самым интересным был доклад Виталия Черемисина про чувствительность метрик. Виталий очень доступно все разжевал и рассказал о том, как оценивать эту самую чувствительность метрик. Ниже небольшой конспект этой части его выступления.
Для того, что оценить чувствительность той или иной метрики, нужно моделировать рост нашей метрики на некоторой выборке и оценивать, при каком условии чувствительность максимальная.
1. Нужно взять некоторую группу пользователей, разбить ее на две группы, так чтобы в обеих группах наша метрика была равна.
2. Выбрать несколько значений uplift. Шаг может быть разным, исходя из эмпирического опыта.
3. И по каждому из значений uplift нужно произвести операции:
- В одной из выборок (пусть она будет B) увеличить значение метрики на величину uplift. Это нужно делать не коэффициентом умножить на вреднее, а некоторым пользователям добавить конверсии, каким-то убрать - в результате получится полноценная выборка с дополнительными конверсиями.
- Делать множественные подвыборки (например, 1000) из обеих групп, сравнивать их показатели, рассчитывать pvalue.
- В результате у нас получится 1000 значений pvalue. Считаем, какой в каком проценте из них pvalue был ниже 0,05. Например, их будет 65%. Вот это процент и есть чувствительность нашей метрики при увеличении на некоторую величину.
- Фиксируем данные. И то же самое теперь производим с остальными значениям uplift.
4. В результате у нас получится таблица, в которой у нас посчитана чувствительность метрики при разных значениях ее увеличения. И можно сделать вывод, при каком росте конверсии можно рассчитывать зафиксировать эффект, если он есть.
Для чего это можно использовать:
1. Чтобы сделать вывод, нужно при проводить эксперимент. Например, выяснится, что, чтобы получить чувствительность 80%, нужно увеличить конверсию на 30%, что считается невозможным при данных изменениях. Значит, на данный момент нужно отказаться от тестирования данной гипотезы.
2. Чтобы приоритизировать гипотезы для проведения экспериментов. Проверив чувствительность многих метрик и предполагая их увеличение на определенный процент, можно понимать, какие гипотезы про какие метрики являются более перспективными с точки зрения возможности увидеть положительный эффект. Становится понятно, с каких метрик и каких гипотез лучше начать тестирование изменений.
Для меня самым интересным был доклад Виталия Черемисина про чувствительность метрик. Виталий очень доступно все разжевал и рассказал о том, как оценивать эту самую чувствительность метрик. Ниже небольшой конспект этой части его выступления.
Для того, что оценить чувствительность той или иной метрики, нужно моделировать рост нашей метрики на некоторой выборке и оценивать, при каком условии чувствительность максимальная.
1. Нужно взять некоторую группу пользователей, разбить ее на две группы, так чтобы в обеих группах наша метрика была равна.
2. Выбрать несколько значений uplift. Шаг может быть разным, исходя из эмпирического опыта.
3. И по каждому из значений uplift нужно произвести операции:
- В одной из выборок (пусть она будет B) увеличить значение метрики на величину uplift. Это нужно делать не коэффициентом умножить на вреднее, а некоторым пользователям добавить конверсии, каким-то убрать - в результате получится полноценная выборка с дополнительными конверсиями.
- Делать множественные подвыборки (например, 1000) из обеих групп, сравнивать их показатели, рассчитывать pvalue.
- В результате у нас получится 1000 значений pvalue. Считаем, какой в каком проценте из них pvalue был ниже 0,05. Например, их будет 65%. Вот это процент и есть чувствительность нашей метрики при увеличении на некоторую величину.
- Фиксируем данные. И то же самое теперь производим с остальными значениям uplift.
4. В результате у нас получится таблица, в которой у нас посчитана чувствительность метрики при разных значениях ее увеличения. И можно сделать вывод, при каком росте конверсии можно рассчитывать зафиксировать эффект, если он есть.
Для чего это можно использовать:
1. Чтобы сделать вывод, нужно при проводить эксперимент. Например, выяснится, что, чтобы получить чувствительность 80%, нужно увеличить конверсию на 30%, что считается невозможным при данных изменениях. Значит, на данный момент нужно отказаться от тестирования данной гипотезы.
2. Чтобы приоритизировать гипотезы для проведения экспериментов. Проверив чувствительность многих метрик и предполагая их увеличение на определенный процент, можно понимать, какие гипотезы про какие метрики являются более перспективными с точки зрения возможности увидеть положительный эффект. Становится понятно, с каких метрик и каких гипотез лучше начать тестирование изменений.
YouTube
online meetup EXPF x СберМаркет
online meetup EXPF x СберМаркет
18:00–18:30, Платформа А/Б тестирований: создание универсальной системы для проведения экспериментов на онлайн платформах
Станислав Романихин, head of DS sever x
18:30–19:00, Метрики для метрик
Виталий Черемисинов, co…
18:00–18:30, Платформа А/Б тестирований: создание универсальной системы для проведения экспериментов на онлайн платформах
Станислав Романихин, head of DS sever x
18:30–19:00, Метрики для метрик
Виталий Черемисинов, co…
Много накопилось материалов по использованию Байесовских методов в AB тестах. Собрал их в единый список:
- https://telegra.ph/Primenenie-Bayesian-podhoda-v-AB-testah-03-02
- https://vidogreg.shinyapps.io/bayes-conversion-test/
- http://varianceexplained.org/r/bayesian_ab_baseball/
- https://medium.com/convoy-tech/the-power-of-bayesian-a-b-testing-f859d2219d5
- https://www.youtube.com/playlist?list=PLAKBwakacHbRRw278HMXpCsOOIIcLYGX5
- https://mobiledevmemo.com/its-time-to-abandon-a-b-testing/
- https://cxl.com/blog/bayesian-frequentist-ab-testing/
- https://cxl.com/blog/bayesian-ab-test-evaluation/
- https://towardsdatascience.com/bayesian-a-b-testing-with-python-the-easy-guide-d638f89e0b8a
- https://academy.yandex.ru/posts/prostoy-gid-po-bayesovskomu-a-b-testirovaniyu-na-python
- http://blog.analytics-toolkit.com/2017/5-reasons-bayesian-ab-testing-debunked/
- https://towardsdatascience.com/why-you-should-try-the-bayesian-approach-of-a-b-testing-38b8079ea33a
- https://www.countbayesie.com/blog/2016/5/1/a-guide-to-bayesian-statistics
- https://www.countbayesie.com/blog/2015/4/25/bayesian-ab-testing
- https://towardsdatascience.com/bayesian-ab-testing-part-i-conversions-ac2635f878ec
- https://towardsdatascience.com/bayesian-ab-testing-part-ii-revenue-1fbcf04f96cd
- https://towardsdatascience.com/bayesian-ab-testing-part-iii-test-duration-f2305215009c
- https://telegra.ph/Primenenie-Bayesian-podhoda-v-AB-testah-03-02
- https://vidogreg.shinyapps.io/bayes-conversion-test/
- http://varianceexplained.org/r/bayesian_ab_baseball/
- https://medium.com/convoy-tech/the-power-of-bayesian-a-b-testing-f859d2219d5
- https://www.youtube.com/playlist?list=PLAKBwakacHbRRw278HMXpCsOOIIcLYGX5
- https://mobiledevmemo.com/its-time-to-abandon-a-b-testing/
- https://cxl.com/blog/bayesian-frequentist-ab-testing/
- https://cxl.com/blog/bayesian-ab-test-evaluation/
- https://towardsdatascience.com/bayesian-a-b-testing-with-python-the-easy-guide-d638f89e0b8a
- https://academy.yandex.ru/posts/prostoy-gid-po-bayesovskomu-a-b-testirovaniyu-na-python
- http://blog.analytics-toolkit.com/2017/5-reasons-bayesian-ab-testing-debunked/
- https://towardsdatascience.com/why-you-should-try-the-bayesian-approach-of-a-b-testing-38b8079ea33a
- https://www.countbayesie.com/blog/2016/5/1/a-guide-to-bayesian-statistics
- https://www.countbayesie.com/blog/2015/4/25/bayesian-ab-testing
- https://towardsdatascience.com/bayesian-ab-testing-part-i-conversions-ac2635f878ec
- https://towardsdatascience.com/bayesian-ab-testing-part-ii-revenue-1fbcf04f96cd
- https://towardsdatascience.com/bayesian-ab-testing-part-iii-test-duration-f2305215009c
Telegraph
Применение Bayesian подхода в A/B тестах
Я очень увлечен оптимизацией процессов, и классический вариант проведения A/B тестов меня не устраивал долгое время. Ощущение что все, или почти все продакты просто приняли способ обработки теста как так должно быть и не ищут новых путей. Есть калькулятор…
Forwarded from Product Analytics
Как увеличить мощность критериев для A/B-тестирования, используя машинное обучение? Дима Лунин, аналитик AvitoTech, подробно рассказал в своей статье, а ещё:
🔹 что такое CUPED-метод и как улучшить CUPED-алгоритм;
🔹 как использовать Uplift-модель в качестве статистического критерия;
🔹 методы и критерии, разработанные и придуманные командой AvitoTech.
🔹 что такое CUPED-метод и как улучшить CUPED-алгоритм;
🔹 как использовать Uplift-модель в качестве статистического критерия;
🔹 методы и критерии, разработанные и придуманные командой AvitoTech.
Хабр
ML-критерии для A/B-тестов
Всем привет! Меня зовут Дима Лунин, и я аналитик в Авито. Как и в большинстве компаний, наш основной инструмент для принятия решений — это A/B-тесты. Мы уделяем им большое внимание: проверяем на...
Небольшой чек-лист для проведение АБ теста. Полезно им руководствоваться, чтобы не упустить какую-нибудь "мелочь".
https://www.notion.so/AB-dc3c2f5b1c394124ba65ef7f6100bbee
https://www.notion.so/AB-dc3c2f5b1c394124ba65ef7f6100bbee
Alexandr's Notion on Notion
Проведение AB теста
Этапы проведения AB теста
И небольшой кейс по результатам AB теста. Просто и полезно.
http://holoway.io/page15625650.html
http://holoway.io/page15625650.html
holoway.io
Как А/В тесты помогли увидеть увеличение конверсии в 1% при небольшом изменении формы заказа
Forwarded from Trisigma — про эксперименты
Когда останавливать A/B-тест? Часть 2: Monte Carlo
Мы написали вторую часть статьи по планированию времени на проведение эксперимента. На этот раз речь пойдет про метод Монте-Карло. Он универсален для любых метрик и любых статистических критериев (включая ранговых). В статье подсвечиваются моменты, в которых он лучше аналитического подхода по расчету MDE, а также с кодовыми примерами
Читать статью на медиуме
Мы написали вторую часть статьи по планированию времени на проведение эксперимента. На этот раз речь пойдет про метод Монте-Карло. Он универсален для любых метрик и любых статистических критериев (включая ранговых). В статье подсвечиваются моменты, в которых он лучше аналитического подхода по расчету MDE, а также с кодовыми примерами
Читать статью на медиуме
Отличная статья по приоритизации гипотез, разбираются несколько фреймворков, их плюсы и минусы: https://cxl.com/blog/better-way-prioritize-ab-tests/.
Собственно, это не только для AB теста полезно, и для любых фич, нововведений, даже если по ним нет возможности провести тест.
Собственно, это не только для AB теста полезно, и для любых фич, нововведений, даже если по ним нет возможности провести тест.
CXL
PXL: A Better Way to Prioritize Your A/B Tests
If you're doing it right, you probably have a large list of A/B testing ideas in your pipeline. Some good ones (data-backed or result of a careful
Статья от Joom о процессе запуска A/B теста - как определиться с гипотезой, задизайнить эксперимент, выбрать аудиторию, метрики, продолжительность.
https://habr.com/ru/company/joom/blog/661639/
https://habr.com/ru/company/joom/blog/661639/
Хабр
Как устроен запуск экспериментов в ИТ-продукте на примере Joom
Привет, Хабр! Меня зовут Леонид Огрель, я работаю аналитиком в Джум Лабс. В этой статье я расскажу, зачем нужен эксперимент в ИТ-продукте, и на что нужно обратить внимание при его запуске. Как...
Forwarded from Trisigma — про эксперименты
Как раскатывать фичи в A/B с помощью подхода CRL
Все мы привыкли, что фазы раскатки фичи в A/B следуют планомерному увеличению траффика по ходу эксперимента (например, с 1% до 100%). В этом подходе мы хотим учесть, что на маленькой доле траффика много не потеряем на случай, если вдруг целевые метрики просели. Если все ок, то выкатываемся на полную. Такой подход понятен, он работает как часы. Однако, в таком подходе все равно всегда есть риск, что плохой эффект заметен будет не сразу, а чуть погодя. В первую очередь это может коснуться метрик лояльности (например, spu – sessions per user)
В Microsoft и других крупных компаниях практикуется альтернативный подход, в котором фазы лишь условно следуют этому правилу. Подход именуем как Controlled Rollout (CRL). Условность в том, что раскатка зависит не от доли траффика, а от аудитории. Пользователей можно поделить на 4 сегмента: Dogfood, Internal, Insiders, Production.
- Dogfood – по сути внутренняя разработка, оунеры фичи и интересанты
- Internal – внутренние сотрудники, которые могут исчисляться сотнями или тысячами в зависимости от размера компании
- Insiders – внешние пользователи/потребители продукта, которые ранее проявляли интерес к новшевствам сервиса и готовые получать их как можно раньше
- Production – все внешние пользователи
Для каждой аудитории выделены свои критерии и чекеры, говорящие об успешной фазе раскатки и не везде нужно ориентироваться на целевые (OEC) метрики, как это принято при поэтапной раскатке, постепенно увеличивая долю траффика. Что это за метрики и как устроена методология – можно почитать в пейпере
Все мы привыкли, что фазы раскатки фичи в A/B следуют планомерному увеличению траффика по ходу эксперимента (например, с 1% до 100%). В этом подходе мы хотим учесть, что на маленькой доле траффика много не потеряем на случай, если вдруг целевые метрики просели. Если все ок, то выкатываемся на полную. Такой подход понятен, он работает как часы. Однако, в таком подходе все равно всегда есть риск, что плохой эффект заметен будет не сразу, а чуть погодя. В первую очередь это может коснуться метрик лояльности (например, spu – sessions per user)
В Microsoft и других крупных компаниях практикуется альтернативный подход, в котором фазы лишь условно следуют этому правилу. Подход именуем как Controlled Rollout (CRL). Условность в том, что раскатка зависит не от доли траффика, а от аудитории. Пользователей можно поделить на 4 сегмента: Dogfood, Internal, Insiders, Production.
- Dogfood – по сути внутренняя разработка, оунеры фичи и интересанты
- Internal – внутренние сотрудники, которые могут исчисляться сотнями или тысячами в зависимости от размера компании
- Insiders – внешние пользователи/потребители продукта, которые ранее проявляли интерес к новшевствам сервиса и готовые получать их как можно раньше
- Production – все внешние пользователи
Для каждой аудитории выделены свои критерии и чекеры, говорящие об успешной фазе раскатки и не везде нужно ориентироваться на целевые (OEC) метрики, как это принято при поэтапной раскатке, постепенно увеличивая долю траффика. Что это за метрики и как устроена методология – можно почитать в пейпере
Интересно, когда обычный AB тест заменяется "когортным анализом". Мы все знаем, что ничего это не даст, но делаем вид, что экономим время.
Видимо, чтобы получить ответ типа "Лучше бы провели AB тест". Тем временем прошёл месяц.
Видимо, чтобы получить ответ типа "Лучше бы провели AB тест". Тем временем прошёл месяц.
Forwarded from Аналитика. Это просто
Коллеги из Delivery Club написали о внедрении switchback в A/B тестировании, https://habr.com/ru/company/deliveryclub/blog/670762/
Хабр
Как мы научились А/B-тестировать алгоритмы с помощью switchback-тестов
Привет! На связи Евгений Бокарев и Надежда Грачёва, в этой статье мы расскажем про внедрение switchback A/B-тестов в логистике Delivery Club. Обсудим, как оценивать результат эксперимента, если...
Forwarded from Trisigma — про эксперименты (Iskαnder)
How Airbnb Safeguards Changes in Production
Статья от Airbnb про их процесс выкатки A/B-тестов:
Introduction
По мере того, как Airbnb выросла до компании с более чем 1200 разработчиками, количество платформ и каналов для внесения изменений в наш продукт — и количество ежедневных изменений, которые мы вносим в прод, — также значительно выросло. Перед лицом этого роста нам постоянно необходимо масштабировать возможности обнаруживать ошибки до того, как они попадут в рабочую среду. Однако ошибки неизбежно ускользают от предварительной проверки, поэтому мы также вкладываем значительные ресурсы в механизмы для быстрого обнаружения ошибок, когда они все же попадают в прод. В этом статье мы рассмотрим причины и фундамент системы защиты изменений в рабочей среде, которую мы называем безопасным развертыванием (Safe Deploys). В двух следующих постах будет подробно рассказано о технической архитектуре, о том, как мы применяли ее к традиционным A/B-тестам и развертыванию кода соответственно
https://medium.com/airbnb-engineering/how-airbnb-safeguards-changes-in-production-9fc9024f3446
Статья от Airbnb про их процесс выкатки A/B-тестов:
Introduction
По мере того, как Airbnb выросла до компании с более чем 1200 разработчиками, количество платформ и каналов для внесения изменений в наш продукт — и количество ежедневных изменений, которые мы вносим в прод, — также значительно выросло. Перед лицом этого роста нам постоянно необходимо масштабировать возможности обнаруживать ошибки до того, как они попадут в рабочую среду. Однако ошибки неизбежно ускользают от предварительной проверки, поэтому мы также вкладываем значительные ресурсы в механизмы для быстрого обнаружения ошибок, когда они все же попадают в прод. В этом статье мы рассмотрим причины и фундамент системы защиты изменений в рабочей среде, которую мы называем безопасным развертыванием (Safe Deploys). В двух следующих постах будет подробно рассказано о технической архитектуре, о том, как мы применяли ее к традиционным A/B-тестам и развертыванию кода соответственно
https://medium.com/airbnb-engineering/how-airbnb-safeguards-changes-in-production-9fc9024f3446
Medium
How Airbnb Safeguards Changes in Production
Part I: Evolution of Airbnb’s experimentation platform
Несколько материалов про мощность в A/B тестах:
https://medium.com/statistics-experiments/когда-останавливать-a-b-тест-часть-1-mde-7d39b668b488
https://towardsdatascience.com/understanding-power-analysis-in-ab-testing-14808e8a1554
https://r-analytics.blogspot.com/2012/10/t.html
https://cxl.com/blog/statistical-power/
https://core-analytics.ru/power/
https://medium.com/statistics-experiments/когда-останавливать-a-b-тест-часть-1-mde-7d39b668b488
https://towardsdatascience.com/understanding-power-analysis-in-ab-testing-14808e8a1554
https://r-analytics.blogspot.com/2012/10/t.html
https://cxl.com/blog/statistical-power/
https://core-analytics.ru/power/
Medium
Когда останавливать A/B-тест? Часть 1: MDE
Как оценить время на проведение эксперимента? Что необходимо учесть, чтобы точнее проанализировать его результаты? Теория и python
Повышаем чувствительность метрик в A/B тестах:
https://medium.com/statistics-experiments/statistics-experiments/увеличиваем-чувствительность-экспериментов-при-помощи-ранговой-трансформации-32a4f72a86fc
https://medium.com/statistics-experiments/cuped-или-увеличение-чувствительности-метрики-de7183fc964c
https://www.microsoft.com/en-us/research/group/experimentation-platform-exp/articles/beyond-power-analysis-metric-sensitivity-in-a-b-tests/
https://www.youtube.com/watch?v=DtDGYUW0oGY
https://www.youtube.com/watch?v=KswPj6MVvD4
https://www.youtube.com/watch?v=eA9KY1TxmEg
https://medium.com/statistics-experiments/statistics-experiments/увеличиваем-чувствительность-экспериментов-при-помощи-ранговой-трансформации-32a4f72a86fc
https://medium.com/statistics-experiments/cuped-или-увеличение-чувствительности-метрики-de7183fc964c
https://www.microsoft.com/en-us/research/group/experimentation-platform-exp/articles/beyond-power-analysis-metric-sensitivity-in-a-b-tests/
https://www.youtube.com/watch?v=DtDGYUW0oGY
https://www.youtube.com/watch?v=KswPj6MVvD4
https://www.youtube.com/watch?v=eA9KY1TxmEg
Medium
Увеличиваем чувствительность экспериментов при помощи ранговой трансформации
Это перевод статьи booking.ai про увеличение чувствительности метрик в экспериментах с маленькими эффектами.
Forwarded from Аналитика. Это просто
Гайд_по_студии_анализа_данных_в_GA4_Бизнес_Метрика.pdf
5.5 MB
Многие из Вас уже во всю опробовали Google Analytics 4, а остальные либо осваивают по-немногу, либо вовсе не используют.
В этом 75 страничном PDF Руководстве вы найдете путеводитель
1) как настроить ga4
2) в чем отличие старой от новой аналитики
3) полный обзор новых инструментов анализа данных в GA4.
Скачивайте гайд и начинайте свой переход на новую аналитику, ведь старая будет выключена уже в следующем году!
В этом 75 страничном PDF Руководстве вы найдете путеводитель
1) как настроить ga4
2) в чем отличие старой от новой аналитики
3) полный обзор новых инструментов анализа данных в GA4.
Скачивайте гайд и начинайте свой переход на новую аналитику, ведь старая будет выключена уже в следующем году!
Forwarded from Время Валеры
Мой близкий друг Саша Сахнов - человек который на мой взгляд лучше всех разбирается в а/б тестах
Еще в далеком 2018 году мы с ним и рядом других людей начали писать на Хабр про А/Б.
Сейчас он запустил цикл статей про А/Б, где каждая статья будет сложнее предыдущей - первая довольно базовая статья про Бутстрап (Обратите внимание на центральный доверительный интервал)
Еще интересен небольшой разбор стратификации для повышения чувствительности тестов
Еще можно посмотреть это видео
Еще в далеком 2018 году мы с ним и рядом других людей начали писать на Хабр про А/Б.
Сейчас он запустил цикл статей про А/Б, где каждая статья будет сложнее предыдущей - первая довольно базовая статья про Бутстрап (Обратите внимание на центральный доверительный интервал)
Еще интересен небольшой разбор стратификации для повышения чувствительности тестов
Еще можно посмотреть это видео
Хабр
Бутстреп и А/Б тестирование
Привет, Хабр! В этой статье разберёмся, как с помощью бутстрепа оценивать стандартное отклонение, строить доверительные интервалы и проверять гипотезы. Узнаем, когда бутстреп незаменим, и в чём его...
❤1