Forwarded from karpov.courses
В материале выше разобрано бакетное преобразование метрики – этот метод очень часто применяется в промышленном A/B-тестировании. В материале коллег из ВКонтакте разбираются выборки длины 5000, попробуйте увеличить размер выборки, например, до 10000, а затем поварьируйте количество бакетов (скажем, от 10 до 100 с шагом в 10), чтобы проследить, как с изменением количества бакетов меняются (и меняются ли) чувствительность теста и контроль \alpha за false positive rate. Кроме того, над результатами бакетного преобразования можно запустить тест Манна-Уитни. Проверьте, как будут меняться чувствительность и контроль в зависимости от количества бакетов для теста Манна-Уитни. Также стоит поварьировать скошенность распределений просмотров и истинных CTR. Посмотрите, используя полученные данные, в каких пределах работает бакетное преобразование.
Если вы смогли самостоятельно провернуть все действия выше – поздравляем, вы освоили новый метод! Если нет – вебинар состоится 17 июня в 19:00.
Еще раз приносим свои извинения, и спасибо, что вы нас поддерживаете!
Если вы смогли самостоятельно провернуть все действия выше – поздравляем, вы освоили новый метод! Если нет – вебинар состоится 17 июня в 19:00.
Еще раз приносим свои извинения, и спасибо, что вы нас поддерживаете!
Forwarded from Product Analytics
Хороший пример оптимизации отклика на рекламные активности через анализ результатов A/B-тестирования от Starbucks.
Описание решения с примерами кода на Python.
via @ProductAnalytics
Описание решения с примерами кода на Python.
via @ProductAnalytics
Написал небольшой калькулятор для рассчета продолжительности теста. Он повторяет калькулятор Эвана Миллера и пока работает только для равного деления трафика и одного тестового варианта.
Но немного экономит времени
https://github.com/a-efimov/Pre-Calculate-AB-test
Но немного экономит времени
https://github.com/a-efimov/Pre-Calculate-AB-test
GitHub
GitHub - a-efimov/Pre-Calculate-AB-test
Contribute to a-efimov/Pre-Calculate-AB-test development by creating an account on GitHub.
Forwarded from Trisigma — про эксперименты
Как измерить влияние социального эффекта в A/B-тесте?
В нашем блоге вышла новая статья! Мы уже неоднократно рассказывали про социальные эффекты на митапах и конференциях, а также публиковали статьи про Switchback-эксперименты вместе с нашими друзьями из Ситимобил.
Борьба с социальными эффектами в экспериментах обладает своими особенностями. Во-первых, в каждом эксперименте должно соблюдаться предположение о том, что изменения в тесте воздействуют только на тестовую группу, а на контроль нет (SUTVA). Во-вторых, чтобы эта борьба не была напрасной, необходимо каким-то образом замерять влияние соц. эффекта. Это не так очевидно, как может показаться на первый взгляд.
Ксения Мензорова (DS Маркетплейса Ситимобил) сделала разбор статьи от LinkedIn, где приводится методика по определению влияния соц. эффекта в экспериментах
Читать на медиуме
В нашем блоге вышла новая статья! Мы уже неоднократно рассказывали про социальные эффекты на митапах и конференциях, а также публиковали статьи про Switchback-эксперименты вместе с нашими друзьями из Ситимобил.
Борьба с социальными эффектами в экспериментах обладает своими особенностями. Во-первых, в каждом эксперименте должно соблюдаться предположение о том, что изменения в тесте воздействуют только на тестовую группу, а на контроль нет (SUTVA). Во-вторых, чтобы эта борьба не была напрасной, необходимо каким-то образом замерять влияние соц. эффекта. Это не так очевидно, как может показаться на первый взгляд.
Ксения Мензорова (DS Маркетплейса Ситимобил) сделала разбор статьи от LinkedIn, где приводится методика по определению влияния соц. эффекта в экспериментах
Читать на медиуме
Forwarded from Аналитика. Это просто
Почти все калькуляторы для АБ тестов - черные ящики: в них засовываешь параметры, получаешь некий результат. И не видно, что и как рассчитывается. Многие знают про калькулятор размера выборки АБ теста от Эвана Миллера. Код, по которому работает этот калькулятор: https://gist.github.com/mottalrd/7ddfd45d14bc7433dec2
Gist
Evan Miller source code for sample size from my blog post http://www.alfredo.motta.name/ab-testing-from-scratch/
Evan Miller source code for sample size from my blog post http://www.alfredo.motta.name/ab-testing-from-scratch/ - gist:7ddfd45d14bc7433dec2
AB тесты и все вот про это вот все
Написал небольшой калькулятор для рассчета продолжительности теста. Он повторяет калькулятор Эвана Миллера и пока работает только для равного деления трафика и одного тестового варианта. Но немного экономит времени https://github.com/a-efimov/Pre-Calculate…
Выложил второй ноутбук, со вторым калькулятором. Он называется Pre Calculate AB tests ratio. Может рассчитывать объем трафика для тестов с неравным делением трафика. Уверен, такие эксперименты не только у меня происходят.
https://github.com/a-efimov/Pre-Calculate-AB-test
https://github.com/a-efimov/Pre-Calculate-AB-test
GitHub
GitHub - a-efimov/Pre-Calculate-AB-test
Contribute to a-efimov/Pre-Calculate-AB-test development by creating an account on GitHub.
Немного о делении трафика для АБ теста. То, что чем ближе деление трафика к равномерному, тем лучше, всем известно. Мне захотелось посмотреть на это визуально.
Построил два графика. Первый показывает зависимость продолжительности теста от равномерности деления трафика, другой - зависимость мощности от деления трафика.
Для построения первого графика взяты показатели:
- текущая CR 30%
- необходимый uplift конверсии 7%
- pvalue 0.05
- несколько вариантов деления трафика 0.5, 0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85, 0.9, 0.95, где 0.5 это 50%/50%, 0.95 - 95%/5%
И получилось, что после деления трафика больше 0.8 кривая уже очень сильно ползет вверх.
Для построения второго графика взяты показатели:
- текущая CR 6%
- получившийся uplift конверсии 5%
- pvalue 0.05
- количество пользователей в тесте 300 000
- такие же варианты деления трафика 0.5, 0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85, 0.9, 0.95, где 0.5 это 50%/50%, 0.95 - 95%/5%
Здесь видим подобную картину, что при делении трафика больше 0.8 кривая уже очень сильно ползет вниз и пересекает нужный показатель мощности 0.8. Т.е., получая одни и те же результаты эксперимента, мы все меньше можем им верить, несмотря на то, что pvalue 0.05 и все вроде бы хорошо.
Понятно, что в каждом тесте будут свои цифры и кривые, но графики будут похожи. Вполне себе аргумент поторговаться перед запуском теста за приближение деления трафика к равномерному.
Построил два графика. Первый показывает зависимость продолжительности теста от равномерности деления трафика, другой - зависимость мощности от деления трафика.
Для построения первого графика взяты показатели:
- текущая CR 30%
- необходимый uplift конверсии 7%
- pvalue 0.05
- несколько вариантов деления трафика 0.5, 0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85, 0.9, 0.95, где 0.5 это 50%/50%, 0.95 - 95%/5%
И получилось, что после деления трафика больше 0.8 кривая уже очень сильно ползет вверх.
Для построения второго графика взяты показатели:
- текущая CR 6%
- получившийся uplift конверсии 5%
- pvalue 0.05
- количество пользователей в тесте 300 000
- такие же варианты деления трафика 0.5, 0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85, 0.9, 0.95, где 0.5 это 50%/50%, 0.95 - 95%/5%
Здесь видим подобную картину, что при делении трафика больше 0.8 кривая уже очень сильно ползет вниз и пересекает нужный показатель мощности 0.8. Т.е., получая одни и те же результаты эксперимента, мы все меньше можем им верить, несмотря на то, что pvalue 0.05 и все вроде бы хорошо.
Понятно, что в каждом тесте будут свои цифры и кривые, но графики будут похожи. Вполне себе аргумент поторговаться перед запуском теста за приближение деления трафика к равномерному.
Трилогия статей про Байесовское AB тестирование:
1. https://towardsdatascience.com/bayesian-ab-testing-part-i-conversions-ac2635f878ec
2. https://towardsdatascience.com/bayesian-ab-testing-part-ii-revenue-1fbcf04f96cd
3. https://towardsdatascience.com/bayesian-ab-testing-part-iii-test-duration-f2305215009c
1. https://towardsdatascience.com/bayesian-ab-testing-part-i-conversions-ac2635f878ec
2. https://towardsdatascience.com/bayesian-ab-testing-part-ii-revenue-1fbcf04f96cd
3. https://towardsdatascience.com/bayesian-ab-testing-part-iii-test-duration-f2305215009c
Towards Data Science
Bayesian AB Testing - Part I - Conversions | Towards Data Science
How to model, use and analyse conversion based metrics in bayesian product experiments
Forwarded from Trisigma — про эксперименты
Как устроена экспериментальная платформа у Linkedin?
Оказывается, в тех-блоге Linkedin подробно описано как устроена инфраструктура их АБшницы изнутри. Я думаю какую-то аннотацию писать бессмысленно, просто прочтите заголовки вот этих 3 статей:
- A/B testing at LinkedIn: Assigning variants at scale
- Our evolution towards T-REX: The prehistory of experimentation infrastructure at LinkedIn
- Making the LinkedIn experimentation engine 20x faster
Оказывается, в тех-блоге Linkedin подробно описано как устроена инфраструктура их АБшницы изнутри. Я думаю какую-то аннотацию писать бессмысленно, просто прочтите заголовки вот этих 3 статей:
- A/B testing at LinkedIn: Assigning variants at scale
- Our evolution towards T-REX: The prehistory of experimentation infrastructure at LinkedIn
- Making the LinkedIn experimentation engine 20x faster
Linkedin
A/B testing at LinkedIn: Assigning variants at scale
Forwarded from Trisigma — про эксперименты
Проведение A/B для оптимизации SEO
Как задизайнить a/b для оптимизации ранжирования в поисковой выдаче (гугла, яндекса, другого поисковика)?
Это довольно таки распространенный вопрос и решение лежит в плоскости создания синтетических контролей. Вариантов здесь целое множество: хочешь бери байевские временные ряды (prophet или causal impact), хочешь что-то более традиционное (arima или, в частности, sarimax), а можно еще Diff-in-Diff.
Синтетические контроли редко используются на практике в силу проблем, связанных с обучением модели и последующей интепретацией. Тем не менее про подход Diff-in-Diff, часто используемый в социологических иссследованиях, вполне развернуто написали Airbnb:
Читать статью на medium
Как задизайнить a/b для оптимизации ранжирования в поисковой выдаче (гугла, яндекса, другого поисковика)?
Это довольно таки распространенный вопрос и решение лежит в плоскости создания синтетических контролей. Вариантов здесь целое множество: хочешь бери байевские временные ряды (prophet или causal impact), хочешь что-то более традиционное (arima или, в частности, sarimax), а можно еще Diff-in-Diff.
Синтетические контроли редко используются на практике в силу проблем, связанных с обучением модели и последующей интепретацией. Тем не менее про подход Diff-in-Diff, часто используемый в социологических иссследованиях, вполне развернуто написали Airbnb:
Читать статью на medium
Medium
Experimentation & Measurement for Search Engine Optimization
Leveraging a market-level approach to measure landing page effectiveness on Airbnb.
Forwarded from BigQuery Insights
Как-то посмотрел отчет коллег по результатам AB теста. И в нем целевой показатель - конверсия из сессии, в которой был показан вариант эксперимента (тестовый или контрольный) в сессию с заказом. В чем проблема? А в том, что в данном случае измерять в сессиях неправильно. И вот почему.
Одно из важнейших условий проведения AB теста - независимость наблюдений. И у нас, например, перекраска кнопки "В корзину" из красного в синий, это изменение показывается постоянно.
Если пользователь утром зашел на сайт и увидел новую кнопку, мы засчитали сессию с показом. Когда он снова вечером снова зайдет на сайт и снова увидит новую кнопку, снова будет засчитана сессия с показом, итого уже две. В таком случае у нас получились два измерения, и они одно из них зависимо от другого - так как второй сессии могло не быть без первой. То же самое может быть с заказами - может быть много сессий в заказом у одного пользователя.
Таким образом, у нас нарушается обязательное требование о независимости измерений. В данном случае мы должны были считать конверсию из пользователя, увидевшего кнопку, в пользователя, совершившего заказ.
Одно из важнейших условий проведения AB теста - независимость наблюдений. И у нас, например, перекраска кнопки "В корзину" из красного в синий, это изменение показывается постоянно.
Если пользователь утром зашел на сайт и увидел новую кнопку, мы засчитали сессию с показом. Когда он снова вечером снова зайдет на сайт и снова увидит новую кнопку, снова будет засчитана сессия с показом, итого уже две. В таком случае у нас получились два измерения, и они одно из них зависимо от другого - так как второй сессии могло не быть без первой. То же самое может быть с заказами - может быть много сессий в заказом у одного пользователя.
Таким образом, у нас нарушается обязательное требование о независимости измерений. В данном случае мы должны были считать конверсию из пользователя, увидевшего кнопку, в пользователя, совершившего заказ.
На прошлой неделе прошел митап от Expf и Сберамаркета. Обсудили проблематику создания платформы для проведения AB тестов, выбора наиболее подходящих метрик.
https://youtu.be/1blbhx9BYxk
https://youtu.be/1blbhx9BYxk
YouTube
online meetup EXPF x СберМаркет
online meetup EXPF x СберМаркет
18:00–18:30, Платформа А/Б тестирований: создание универсальной системы для проведения экспериментов на онлайн платформах
Станислав Романихин, head of DS sever x
18:30–19:00, Метрики для метрик
Виталий Черемисинов, co…
18:00–18:30, Платформа А/Б тестирований: создание универсальной системы для проведения экспериментов на онлайн платформах
Станислав Романихин, head of DS sever x
18:30–19:00, Метрики для метрик
Виталий Черемисинов, co…
Forwarded from Trisigma — про эксперименты
Когда останавливать A/B-тест? Часть 1: MDE
«Сколько ждать?» – самый частый вопрос, который приходится слышать до и во время проведения эксперимента.
Мы написали новую статью (правильнее было бы назвать это руководством) про то, как стоит подходить к решению этой задачи. А именно от чего в первую очередь зависит прогнозируемое время и как это считать + с кодом на питоне.
В первой части рассматривается концепция Fixed time Horizon, которая основана на расчете MDE. Следующая часть выйдет через несколько недель. А может и раньше, следите за обновлениями в этом канале
Читать статью на медиуме
«Сколько ждать?» – самый частый вопрос, который приходится слышать до и во время проведения эксперимента.
Мы написали новую статью (правильнее было бы назвать это руководством) про то, как стоит подходить к решению этой задачи. А именно от чего в первую очередь зависит прогнозируемое время и как это считать + с кодом на питоне.
В первой части рассматривается концепция Fixed time Horizon, которая основана на расчете MDE. Следующая часть выйдет через несколько недель. А может и раньше, следите за обновлениями в этом канале
Читать статью на медиуме
Forwarded from Аналитика. Это просто
Только сегодня досмотрел митап от EXPF и СберМаркет - https://youtu.be/1blbhx9BYxk.
Для меня самым интересным был доклад Виталия Черемисина про чувствительность метрик. Виталий очень доступно все разжевал и рассказал о том, как оценивать эту самую чувствительность метрик. Ниже небольшой конспект этой части его выступления.
Для того, что оценить чувствительность той или иной метрики, нужно моделировать рост нашей метрики на некоторой выборке и оценивать, при каком условии чувствительность максимальная.
1. Нужно взять некоторую группу пользователей, разбить ее на две группы, так чтобы в обеих группах наша метрика была равна.
2. Выбрать несколько значений uplift. Шаг может быть разным, исходя из эмпирического опыта.
3. И по каждому из значений uplift нужно произвести операции:
- В одной из выборок (пусть она будет B) увеличить значение метрики на величину uplift. Это нужно делать не коэффициентом умножить на вреднее, а некоторым пользователям добавить конверсии, каким-то убрать - в результате получится полноценная выборка с дополнительными конверсиями.
- Делать множественные подвыборки (например, 1000) из обеих групп, сравнивать их показатели, рассчитывать pvalue.
- В результате у нас получится 1000 значений pvalue. Считаем, какой в каком проценте из них pvalue был ниже 0,05. Например, их будет 65%. Вот это процент и есть чувствительность нашей метрики при увеличении на некоторую величину.
- Фиксируем данные. И то же самое теперь производим с остальными значениям uplift.
4. В результате у нас получится таблица, в которой у нас посчитана чувствительность метрики при разных значениях ее увеличения. И можно сделать вывод, при каком росте конверсии можно рассчитывать зафиксировать эффект, если он есть.
Для чего это можно использовать:
1. Чтобы сделать вывод, нужно при проводить эксперимент. Например, выяснится, что, чтобы получить чувствительность 80%, нужно увеличить конверсию на 30%, что считается невозможным при данных изменениях. Значит, на данный момент нужно отказаться от тестирования данной гипотезы.
2. Чтобы приоритизировать гипотезы для проведения экспериментов. Проверив чувствительность многих метрик и предполагая их увеличение на определенный процент, можно понимать, какие гипотезы про какие метрики являются более перспективными с точки зрения возможности увидеть положительный эффект. Становится понятно, с каких метрик и каких гипотез лучше начать тестирование изменений.
Для меня самым интересным был доклад Виталия Черемисина про чувствительность метрик. Виталий очень доступно все разжевал и рассказал о том, как оценивать эту самую чувствительность метрик. Ниже небольшой конспект этой части его выступления.
Для того, что оценить чувствительность той или иной метрики, нужно моделировать рост нашей метрики на некоторой выборке и оценивать, при каком условии чувствительность максимальная.
1. Нужно взять некоторую группу пользователей, разбить ее на две группы, так чтобы в обеих группах наша метрика была равна.
2. Выбрать несколько значений uplift. Шаг может быть разным, исходя из эмпирического опыта.
3. И по каждому из значений uplift нужно произвести операции:
- В одной из выборок (пусть она будет B) увеличить значение метрики на величину uplift. Это нужно делать не коэффициентом умножить на вреднее, а некоторым пользователям добавить конверсии, каким-то убрать - в результате получится полноценная выборка с дополнительными конверсиями.
- Делать множественные подвыборки (например, 1000) из обеих групп, сравнивать их показатели, рассчитывать pvalue.
- В результате у нас получится 1000 значений pvalue. Считаем, какой в каком проценте из них pvalue был ниже 0,05. Например, их будет 65%. Вот это процент и есть чувствительность нашей метрики при увеличении на некоторую величину.
- Фиксируем данные. И то же самое теперь производим с остальными значениям uplift.
4. В результате у нас получится таблица, в которой у нас посчитана чувствительность метрики при разных значениях ее увеличения. И можно сделать вывод, при каком росте конверсии можно рассчитывать зафиксировать эффект, если он есть.
Для чего это можно использовать:
1. Чтобы сделать вывод, нужно при проводить эксперимент. Например, выяснится, что, чтобы получить чувствительность 80%, нужно увеличить конверсию на 30%, что считается невозможным при данных изменениях. Значит, на данный момент нужно отказаться от тестирования данной гипотезы.
2. Чтобы приоритизировать гипотезы для проведения экспериментов. Проверив чувствительность многих метрик и предполагая их увеличение на определенный процент, можно понимать, какие гипотезы про какие метрики являются более перспективными с точки зрения возможности увидеть положительный эффект. Становится понятно, с каких метрик и каких гипотез лучше начать тестирование изменений.
YouTube
online meetup EXPF x СберМаркет
online meetup EXPF x СберМаркет
18:00–18:30, Платформа А/Б тестирований: создание универсальной системы для проведения экспериментов на онлайн платформах
Станислав Романихин, head of DS sever x
18:30–19:00, Метрики для метрик
Виталий Черемисинов, co…
18:00–18:30, Платформа А/Б тестирований: создание универсальной системы для проведения экспериментов на онлайн платформах
Станислав Романихин, head of DS sever x
18:30–19:00, Метрики для метрик
Виталий Черемисинов, co…
Много накопилось материалов по использованию Байесовских методов в AB тестах. Собрал их в единый список:
- https://telegra.ph/Primenenie-Bayesian-podhoda-v-AB-testah-03-02
- https://vidogreg.shinyapps.io/bayes-conversion-test/
- http://varianceexplained.org/r/bayesian_ab_baseball/
- https://medium.com/convoy-tech/the-power-of-bayesian-a-b-testing-f859d2219d5
- https://www.youtube.com/playlist?list=PLAKBwakacHbRRw278HMXpCsOOIIcLYGX5
- https://mobiledevmemo.com/its-time-to-abandon-a-b-testing/
- https://cxl.com/blog/bayesian-frequentist-ab-testing/
- https://cxl.com/blog/bayesian-ab-test-evaluation/
- https://towardsdatascience.com/bayesian-a-b-testing-with-python-the-easy-guide-d638f89e0b8a
- https://academy.yandex.ru/posts/prostoy-gid-po-bayesovskomu-a-b-testirovaniyu-na-python
- http://blog.analytics-toolkit.com/2017/5-reasons-bayesian-ab-testing-debunked/
- https://towardsdatascience.com/why-you-should-try-the-bayesian-approach-of-a-b-testing-38b8079ea33a
- https://www.countbayesie.com/blog/2016/5/1/a-guide-to-bayesian-statistics
- https://www.countbayesie.com/blog/2015/4/25/bayesian-ab-testing
- https://towardsdatascience.com/bayesian-ab-testing-part-i-conversions-ac2635f878ec
- https://towardsdatascience.com/bayesian-ab-testing-part-ii-revenue-1fbcf04f96cd
- https://towardsdatascience.com/bayesian-ab-testing-part-iii-test-duration-f2305215009c
- https://telegra.ph/Primenenie-Bayesian-podhoda-v-AB-testah-03-02
- https://vidogreg.shinyapps.io/bayes-conversion-test/
- http://varianceexplained.org/r/bayesian_ab_baseball/
- https://medium.com/convoy-tech/the-power-of-bayesian-a-b-testing-f859d2219d5
- https://www.youtube.com/playlist?list=PLAKBwakacHbRRw278HMXpCsOOIIcLYGX5
- https://mobiledevmemo.com/its-time-to-abandon-a-b-testing/
- https://cxl.com/blog/bayesian-frequentist-ab-testing/
- https://cxl.com/blog/bayesian-ab-test-evaluation/
- https://towardsdatascience.com/bayesian-a-b-testing-with-python-the-easy-guide-d638f89e0b8a
- https://academy.yandex.ru/posts/prostoy-gid-po-bayesovskomu-a-b-testirovaniyu-na-python
- http://blog.analytics-toolkit.com/2017/5-reasons-bayesian-ab-testing-debunked/
- https://towardsdatascience.com/why-you-should-try-the-bayesian-approach-of-a-b-testing-38b8079ea33a
- https://www.countbayesie.com/blog/2016/5/1/a-guide-to-bayesian-statistics
- https://www.countbayesie.com/blog/2015/4/25/bayesian-ab-testing
- https://towardsdatascience.com/bayesian-ab-testing-part-i-conversions-ac2635f878ec
- https://towardsdatascience.com/bayesian-ab-testing-part-ii-revenue-1fbcf04f96cd
- https://towardsdatascience.com/bayesian-ab-testing-part-iii-test-duration-f2305215009c
Telegraph
Применение Bayesian подхода в A/B тестах
Я очень увлечен оптимизацией процессов, и классический вариант проведения A/B тестов меня не устраивал долгое время. Ощущение что все, или почти все продакты просто приняли способ обработки теста как так должно быть и не ищут новых путей. Есть калькулятор…
Forwarded from Product Analytics
Как увеличить мощность критериев для A/B-тестирования, используя машинное обучение? Дима Лунин, аналитик AvitoTech, подробно рассказал в своей статье, а ещё:
🔹 что такое CUPED-метод и как улучшить CUPED-алгоритм;
🔹 как использовать Uplift-модель в качестве статистического критерия;
🔹 методы и критерии, разработанные и придуманные командой AvitoTech.
🔹 что такое CUPED-метод и как улучшить CUPED-алгоритм;
🔹 как использовать Uplift-модель в качестве статистического критерия;
🔹 методы и критерии, разработанные и придуманные командой AvitoTech.
Хабр
ML-критерии для A/B-тестов
Всем привет! Меня зовут Дима Лунин, и я аналитик в Авито. Как и в большинстве компаний, наш основной инструмент для принятия решений — это A/B-тесты. Мы уделяем им большое внимание: проверяем на...
Небольшой чек-лист для проведение АБ теста. Полезно им руководствоваться, чтобы не упустить какую-нибудь "мелочь".
https://www.notion.so/AB-dc3c2f5b1c394124ba65ef7f6100bbee
https://www.notion.so/AB-dc3c2f5b1c394124ba65ef7f6100bbee
Alexandr's Notion on Notion
Проведение AB теста
Этапы проведения AB теста
И небольшой кейс по результатам AB теста. Просто и полезно.
http://holoway.io/page15625650.html
http://holoway.io/page15625650.html
holoway.io
Как А/В тесты помогли увидеть увеличение конверсии в 1% при небольшом изменении формы заказа