Александр Писаренко из Kepler Leads про 10 примеров по увеличению конверсии в 2 и более раз
текст: https://keplerleads.com/blog/10-sovetov/
текст: https://keplerleads.com/blog/10-sovetov/
Keplerleads
10 примеров по увеличению конверсии в 2 и более раз
Стас Гафаров из Сбербанка про план проверки статистических гипотез
1️⃣ Определить основную (нулевую) гипотезу;
2️⃣ Задать статистический критерий, т.е. задать статистику критерия (читай тип), задать критическую область (тоже тип). Основные типы критериев: параметрические, непараметрические. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа;
3️⃣ Определить уровень значимости;
4️⃣ Выбрать группы для теста. Проверить несколько раз что эти группы не пересекаются;
5️⃣ Сам тест, по сути проверка условия что «данные не противоречат нулевой гипотезе при уровне значимости \alpha». Если да, то гипотеза принимается.
Ссылки на математику по теме проверки гипотез:
🐈 лайтовая: http://statistica.ru/theory/proverka-gipotez/
🦁 хардкорная: http://www.machinelearning.ru/wiki/index.php?noscript=Проверка_статистических_гипотез
1️⃣ Определить основную (нулевую) гипотезу;
2️⃣ Задать статистический критерий, т.е. задать статистику критерия (читай тип), задать критическую область (тоже тип). Основные типы критериев: параметрические, непараметрические. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа;
3️⃣ Определить уровень значимости;
4️⃣ Выбрать группы для теста. Проверить несколько раз что эти группы не пересекаются;
5️⃣ Сам тест, по сути проверка условия что «данные не противоречат нулевой гипотезе при уровне значимости \alpha». Если да, то гипотеза принимается.
Ссылки на математику по теме проверки гипотез:
🐈 лайтовая: http://statistica.ru/theory/proverka-gipotez/
🦁 хардкорная: http://www.machinelearning.ru/wiki/index.php?noscript=Проверка_статистических_гипотез
Станислав Видяев из Google Russia про настройку A/Б-тестирования сайтов с помощью Google Optimize
текст: https://www.thinkwithgoogle.com/intl/ru-ru/ad-solutions/mobile/how-to-ab-test/
видео: https://youtu.be/k8rOXypBuGA
текст: https://www.thinkwithgoogle.com/intl/ru-ru/ad-solutions/mobile/how-to-ab-test/
видео: https://youtu.be/k8rOXypBuGA
Think with Google
Think with Google - Discover Marketing Research & Digital Trends
Uncover the latest marketing research and digital trends with data reports, guides, infographics, and articles from Think with Google.
Олег Якубенков из Facebook про то, почему ваши A/B тесты требуют больше времени, чем могли бы
текст: https://gopractice.ru/exposing_users_to_abtest/
текст: https://gopractice.ru/exposing_users_to_abtest/
GoPractice
ᐈ Почему ваши A/B-тесты требуют больше времени, чем могли бы
Каким образом правильный дизайн эксперимента позволяет сократить время его проведения и проще оценить эффект от изменений.
Steve Urban, Rangarajan Sreenivasan, and Vineet Kannan from NetFlix about The Netflix Experimentation Platform
текст: https://medium.com/netflix-techblog/its-all-a-bout-testing-the-netflix-experimentation-platform-4e1ca458c15
текст: https://medium.com/netflix-techblog/its-all-a-bout-testing-the-netflix-experimentation-platform-4e1ca458c15
Medium
It’s All A/Bout Testing: The Netflix Experimentation Platform
The Netflix Experimentation Platform
The Pitfalls of Running A/B Tests from Ariel Verber
Many people who create digital products have probably heard of the term ‘Designing with Data’. It’s a very obvious practice, that suggests that making intuition-based decisions is not enough, and better decisions are usually supported by quantitative or qualitative evidence.
This leads many teams to run A/B Tests. In short, A/B tests are a way to offer slightly different versions of your product to users of the same initial group, and measure the difference in their behavior. They’re probably one of the best ways to bring actionable data.
The reason A/B tests are so effective, is because they basically mean asking your users absolute questions with 100% truth in the results. For example, by running a simple A/B test you can ask ‘How many extra sales will I make if I offer free shipping worldwide?’. To get an answer for this question, all you need to do is to offer free shipping to 50% of your users, and measure the sales in that group compared to the rest. Then, using simple calculations, you can measure the profitability of adding ‘free shipping’ and decide if it’s worth it or not.
I’ve always been a big advocate of A/B tests, but time led me to learn that they’re highly addictive and sometimes not very justified.
There may be pitfalls that will lead you into making a bad choice. Here are a few examples:
1. Some of the impact may be unforeseen at first
2. Query mistakes are a thing
3. The sample size has to be big enough
4. Numbers don’t have human empathy
5. A/B tests may slow you down
Whole article: https://medium.com/joytunes/the-pitfalls-of-running-a-b-tests-4da7141960d7
Many people who create digital products have probably heard of the term ‘Designing with Data’. It’s a very obvious practice, that suggests that making intuition-based decisions is not enough, and better decisions are usually supported by quantitative or qualitative evidence.
This leads many teams to run A/B Tests. In short, A/B tests are a way to offer slightly different versions of your product to users of the same initial group, and measure the difference in their behavior. They’re probably one of the best ways to bring actionable data.
The reason A/B tests are so effective, is because they basically mean asking your users absolute questions with 100% truth in the results. For example, by running a simple A/B test you can ask ‘How many extra sales will I make if I offer free shipping worldwide?’. To get an answer for this question, all you need to do is to offer free shipping to 50% of your users, and measure the sales in that group compared to the rest. Then, using simple calculations, you can measure the profitability of adding ‘free shipping’ and decide if it’s worth it or not.
I’ve always been a big advocate of A/B tests, but time led me to learn that they’re highly addictive and sometimes not very justified.
There may be pitfalls that will lead you into making a bad choice. Here are a few examples:
1. Some of the impact may be unforeseen at first
2. Query mistakes are a thing
3. The sample size has to be big enough
4. Numbers don’t have human empathy
5. A/B tests may slow you down
Whole article: https://medium.com/joytunes/the-pitfalls-of-running-a-b-tests-4da7141960d7
Medium
The Pitfalls of Running A/B Tests
Many people who create digital products have probably heard of the term ‘Designing with Data’. It’s a very obvious practice, that suggests…
Полина Опарина из DocDoc про A/B тестирование в мобильных приложениях на Product Camp Minsk 2018
Ниже приведён текст самой презентации, опубликованный докладчиком на странице в Facebook.
- - -
Этот доклад будет вам интересен, если
- У вас есть мобильное приложение.
- Вы не делаете A/B тесты, но хотели бы начать.
- Вы выбираете решение для A/B тестирования в приложении.
- Вы уже используете какой-то инструмент, но он вас не устраивает.
Этой зимой у нас появилась задача внедрить инструмент для A/B тестирования в приложении DocDoc.
Первым делом мы проанализировали готовые решения и обнаружили ряд проблем.
Об этом есть отдельный слайд в презентации. Но самым критичным для нас была невозможность выгрузить сырые данные и гибко управлять сплитами.
Инструменты развиваются. И, возможно, сейчас уже нет такой проблемы в Firebase и ему подобных, но на тот момент ни одно готовое решение нас не устроило.
Зато мы поняли, что сделать инструмент для A/B тестирования самим это не rocket science.
Нужно всего лишь сделать:
- Механизм сплитования
- Апишку
- Админку для настройки фич
- Немного магии на стороне мобильной разработки
- Отчётность
Наши сплиты построены на основе случайной части GA Client ID.
Это случайное число от 0 до 255.
В админке для каждой фича задаются правила сплитов. Например, (0; 127) - фича выключена, (128; 255) - фича включена.
Split ID и правила определяют набор фичей, доступных клиенту.
Этот набор закодирован в Feature_status. Вместо конфига мы используем двоичное число. Каждой фича соответствует свой разряд, который может принимать значения 0 (фича выключена) или 1 (фича включена).
Feature_status пробрасывается в GA в Custom dimension. Число пользовательских параметров в GA ограничено (не больше 20). Но мы не упираемся в этой ограничений, тк занимаем всего один кастомный параметр.
Подробнее о техническом решении расскал великолепный Aleksander Krasnov на AppsConf 🖤
Каждый тест проходит такой цикл:
- Заводим новое правило в админке
- Реализуем логику в коде
- Релизим приложение
- Запускаем тест
- Ждём
- Анализируем результаты
- Принимаем решение, какой вариант остаётся
- Включаем в админке победителя на 100%
- Вычищаем из кода проигравший вариант
По сути мы получили инструмент для A/B тестирования + remote config.
Это позволяет нам проверять гипотезы, отслеживать фактическое влияние запущенных фич на метрики, делать постепенную выкатку функционала.
Для любителей цифр:
- На разработку решения мы потратили суммарно около 280 человеко-часов.
- Примерно на 30% увеличивается стоимость разработки и тестирования, если фича делается через A/B.
- Максимальный ROI дают тесты заголовков, конверсионных подписей, текстов пушей.
Презентация: https://goo.gl/qMi7nZ
Ниже приведён текст самой презентации, опубликованный докладчиком на странице в Facebook.
- - -
Этот доклад будет вам интересен, если
- У вас есть мобильное приложение.
- Вы не делаете A/B тесты, но хотели бы начать.
- Вы выбираете решение для A/B тестирования в приложении.
- Вы уже используете какой-то инструмент, но он вас не устраивает.
Этой зимой у нас появилась задача внедрить инструмент для A/B тестирования в приложении DocDoc.
Первым делом мы проанализировали готовые решения и обнаружили ряд проблем.
Об этом есть отдельный слайд в презентации. Но самым критичным для нас была невозможность выгрузить сырые данные и гибко управлять сплитами.
Инструменты развиваются. И, возможно, сейчас уже нет такой проблемы в Firebase и ему подобных, но на тот момент ни одно готовое решение нас не устроило.
Зато мы поняли, что сделать инструмент для A/B тестирования самим это не rocket science.
Нужно всего лишь сделать:
- Механизм сплитования
- Апишку
- Админку для настройки фич
- Немного магии на стороне мобильной разработки
- Отчётность
Наши сплиты построены на основе случайной части GA Client ID.
Это случайное число от 0 до 255.
В админке для каждой фича задаются правила сплитов. Например, (0; 127) - фича выключена, (128; 255) - фича включена.
Split ID и правила определяют набор фичей, доступных клиенту.
Этот набор закодирован в Feature_status. Вместо конфига мы используем двоичное число. Каждой фича соответствует свой разряд, который может принимать значения 0 (фича выключена) или 1 (фича включена).
Feature_status пробрасывается в GA в Custom dimension. Число пользовательских параметров в GA ограничено (не больше 20). Но мы не упираемся в этой ограничений, тк занимаем всего один кастомный параметр.
Подробнее о техническом решении расскал великолепный Aleksander Krasnov на AppsConf 🖤
Каждый тест проходит такой цикл:
- Заводим новое правило в админке
- Реализуем логику в коде
- Релизим приложение
- Запускаем тест
- Ждём
- Анализируем результаты
- Принимаем решение, какой вариант остаётся
- Включаем в админке победителя на 100%
- Вычищаем из кода проигравший вариант
По сути мы получили инструмент для A/B тестирования + remote config.
Это позволяет нам проверять гипотезы, отслеживать фактическое влияние запущенных фич на метрики, делать постепенную выкатку функционала.
Для любителей цифр:
- На разработку решения мы потратили суммарно около 280 человеко-часов.
- Примерно на 30% увеличивается стоимость разработки и тестирования, если фича делается через A/B.
- Максимальный ROI дают тесты заголовков, конверсионных подписей, текстов пушей.
Презентация: https://goo.gl/qMi7nZ
Google Docs
Полина Опарина Product camp A/B тестирование в мобильных приложениях
A/B тестирование в мобильных приложениях: ожидания vs реальность Полина Опарина, DocDoc
Виталий Котов из Badoo про покрытие A/B-тестов UI-тестами
Мы создали интерфейс для удобного контроля над покрытием A/B-тестов; в результате теперь у нас есть вся информация о работе UI-тестов с A/B-тестами;
Мы выработали для себя способ написания временных UI-тестов с простым и эффективным флоу их дальнейшего удаления или перевода в ряды постоянных;
Мы научились легко и безболезненно тестировать релизы A/B-тестов, не мешая другим запущенным UI-тестам, и без излишних коммитов в Git.
Всё это позволило адаптировать автоматизацию тестирования под постоянно меняющиеся фичи, легко контролировать и увеличивать уровень покрытия и не зарастать легаси-кодом.
Ссылка: https://habr.com/company/badoo/blog/434448/
Мы создали интерфейс для удобного контроля над покрытием A/B-тестов; в результате теперь у нас есть вся информация о работе UI-тестов с A/B-тестами;
Мы выработали для себя способ написания временных UI-тестов с простым и эффективным флоу их дальнейшего удаления или перевода в ряды постоянных;
Мы научились легко и безболезненно тестировать релизы A/B-тестов, не мешая другим запущенным UI-тестам, и без излишних коммитов в Git.
Всё это позволило адаптировать автоматизацию тестирования под постоянно меняющиеся фичи, легко контролировать и увеличивать уровень покрытия и не зарастать легаси-кодом.
Ссылка: https://habr.com/company/badoo/blog/434448/
Хабр
Покрываем A/B-тесты UI-тестами. Как не запутаться в собственном коде
Привет, Хабр! Меня зовут Виталий Котов, я работаю в компании Badoo и бо́льшую часть времени занимаюсь вопросами автоматизации тестирования. Решением одного тако...
Как запускать эксперименты в Google.Analytics
🤓 По просьбе подписчика публикую ссылку на справку, в которой подробно описывается как запустить свой первый AБТ в GA.
Ссылка: https://support.google.com/analytics/answer/1745152?hl=ru
🤓 По просьбе подписчика публикую ссылку на справку, в которой подробно описывается как запустить свой первый AБТ в GA.
Ссылка: https://support.google.com/analytics/answer/1745152?hl=ru
Google
Прекращение поддержки экспериментов со страницами - Cправка - Google Analytics
Мы вносим изменения в Google Аналитику и ресурсы для проведения эксперимента Management API. С 7 августа 2019 г. будет не
Forwarded from Product Analytics
A/B-тесты в Яндекс.Браузере. Большой продукт – большая ответственность:
https://www.youtube.com/watch?v=fCcaMp_9gBk
https://www.youtube.com/watch?v=fCcaMp_9gBk
YouTube
A/B-тесты в Яндекс.Браузере. Большой продукт – большая ответственность
ProductSense, 15-16 марта 2018
Докладчики: Дмитрий Тимко и Александр Лукин, Яндекс.Браузер и AppMetrica, Head of Product и Product Manager
Тема: A/B-тесты в Яндекс.Браузере. Большой продукт – большая ответственность
Докладчики: Дмитрий Тимко и Александр Лукин, Яндекс.Браузер и AppMetrica, Head of Product и Product Manager
Тема: A/B-тесты в Яндекс.Браузере. Большой продукт – большая ответственность
Расчёт каннибализации на основе классического A/B-теста и метод bootstrap’а:
https://habr.com/ru/post/451488/
https://habr.com/ru/post/451488/
Хабр
Расчёт каннибализации на основе классического A/B-теста и метод bootstrap’а
В данной статье рассмотрен метод расчёта каннибализации для мобильного приложения на основе классического A/B-теста. В данном случае рассматриваются и оцениваютс...
Подборка статей про AB-тесты от Антона Марцена:
https://medium.com/productscience/awesome-ab-experiments-list-718bbb7bcd26
https://medium.com/productscience/awesome-ab-experiments-list-718bbb7bcd26
Medium
A/B Testing: Materials for In-Depth Study
Become a master in A/B
Шпаргалка по тому, какой статистический критерий(/тест) использовать в разных случаях.
via @ABtesting
via @ABtesting
О статистических критериях:
https://www.youtube.com/watch?v=ZaZYy0YUdY8 – как выбирать, какой стат. тест использовать при анализе различий между статистическими совокупностями
https://www.youtube.com/watch?v=YsalXF5POtY – так что же выбирать, Z-тест или T-тест
https://www.youtube.com/watch?v=pTmLQvMM-1M – T-тест (Стьюдента)
https://www.youtube.com/watch?v=BWJRsY-G8u0 – Z-тест 1-sample, https://www.youtube.com/watch?v=s-r0p2-Mpr4 - 2-sample (для сравнения по сплитам второй)
https://www.youtube.com/watch?v=BT1FKd1Qzjw – U-тест (Манна-Уитни)
https://www.youtube.com/watch?v=WXPBoFDqNVk – хи-квадрат-тест (Пирсона)
https://www.youtube.com/watch?v=9STZ7MxkNVg - bootstrap test
https://www.youtube.com/watch?v=cltWQsmBg0k – K-S-тест (Колмогорова-Смирнова) на то, что распределение в выборке НЕ является нормальным
https://www.youtube.com/watch?v=dRAqSsgkCUc – тест Шапиро-Уилка на то, что распределение в выборке НЕ является нормальным (ну такое, обрывается на R shapiro.test(x) )
https://www.youtube.com/watch?v=EG8AF2B_dps - ещё несколько соображений о том, как понять, что распределение нормальное
https://www.youtube.com/watch?v=MstzroncW28 – доверительный интервал для полученных значений
https://www.youtube.com/watch?v=eGWnP_8QER8 – почему если выбрать тест неправильно, может быть статистически значимо, но ни разу не достоверно
https://www.youtube.com/watch?v=ZaZYy0YUdY8 – как выбирать, какой стат. тест использовать при анализе различий между статистическими совокупностями
https://www.youtube.com/watch?v=YsalXF5POtY – так что же выбирать, Z-тест или T-тест
https://www.youtube.com/watch?v=pTmLQvMM-1M – T-тест (Стьюдента)
https://www.youtube.com/watch?v=BWJRsY-G8u0 – Z-тест 1-sample, https://www.youtube.com/watch?v=s-r0p2-Mpr4 - 2-sample (для сравнения по сплитам второй)
https://www.youtube.com/watch?v=BT1FKd1Qzjw – U-тест (Манна-Уитни)
https://www.youtube.com/watch?v=WXPBoFDqNVk – хи-квадрат-тест (Пирсона)
https://www.youtube.com/watch?v=9STZ7MxkNVg - bootstrap test
https://www.youtube.com/watch?v=cltWQsmBg0k – K-S-тест (Колмогорова-Смирнова) на то, что распределение в выборке НЕ является нормальным
https://www.youtube.com/watch?v=dRAqSsgkCUc – тест Шапиро-Уилка на то, что распределение в выборке НЕ является нормальным (ну такое, обрывается на R shapiro.test(x) )
https://www.youtube.com/watch?v=EG8AF2B_dps - ещё несколько соображений о том, как понять, что распределение нормальное
https://www.youtube.com/watch?v=MstzroncW28 – доверительный интервал для полученных значений
https://www.youtube.com/watch?v=eGWnP_8QER8 – почему если выбрать тест неправильно, может быть статистически значимо, но ни разу не достоверно
YouTube
Статистический метод (критерий): как выбрать для анализа?
Текстовая версия статьи: https://lit-review.ru/biostatistika/vybor-statisticheskogo-kriteriya
Выбор статистического критерия (метода, теста) -- наиболее частый вопрос при анализе данных.
В видео в кратком виде рассмотрен алгоритм выбор статистического критерия.…
Выбор статистического критерия (метода, теста) -- наиболее частый вопрос при анализе данных.
В видео в кратком виде рассмотрен алгоритм выбор статистического критерия.…
Forwarded from Product Analytics
Системный подход к АВ-тестированию в Uber https://eng.uber.com/xp
5 хаков для ускорения AB тестов, видео:
https://youtu.be/Z9gVndEr_70
https://youtu.be/Z9gVndEr_70
YouTube
020. 5 хаков для ускорения AB тестирования – Павел Шишкин
Пять хаков для ускорения AB-тестирования.
Павел Шишкин, менеджер продукта, Chatfuel, сделал этот доклад на ProductCamp — встрече экспертов в области продуктового менеджмента из России и Восточной Европы.
Записи других докладов: https://www.youtube.com/w…
Павел Шишкин, менеджер продукта, Chatfuel, сделал этот доклад на ProductCamp — встрече экспертов в области продуктового менеджмента из России и Восточной Европы.
Записи других докладов: https://www.youtube.com/w…
О проверке статистических гипотез и A/B тестирование:
https://www.youtube.com/watch?v=YULMqwo7Tas
https://www.youtube.com/watch?v=YULMqwo7Tas
YouTube
Data Mining In Action. Проверка статистических гипотез и A/B тестирование
Открытый курс по машинному обучению и анализу данных "Data Mining In Action"
Илья Ирхин
Группа ВК: https://vk.com/data_mining_in_action
Репозиторий курса на гитхабе: https://github.com/applied-data-science/Data_Mining_in_Action_2018_Spring
Илья Ирхин
Группа ВК: https://vk.com/data_mining_in_action
Репозиторий курса на гитхабе: https://github.com/applied-data-science/Data_Mining_in_Action_2018_Spring
Forwarded from WebAnalytics (Осиюк Дмитрий)
Хорошая статья про то, как устроена аналитическая инфраструктура для A/B тестов в Авито. Ребята собирают сотни метрик и умеют детализировать их до бизнес-разрезов: вертикали, регионы, авторизованные пользователи и т. д. Они делают это автоматизированно с помощью единой платформы для экспериментов. В статье достаточно подробно описано, как платформа устроена с описанием некоторых интересных технических деталей и инсайтов, которые будут полезны всем, кто собираются построить свобственное решение для A/B тестов.
via @WebAnalyst
via @WebAnalyst
Про офлайн А/Б-тестирование в ритейле:
https://habr.com/company/ods/blog/416101/
https://habr.com/company/ods/blog/416101/
Habr
Офлайн А/Б тестирование в ритейле
Это реальная история. События, о которых рассказывается в посте, произошли в одной теплой стране в 21ом веке. На всякий случай имена персонажей были изменены. Из уважения к профессии всё рассказано...
4 ошибки при проведении A/B-тестов с помощью Firebase Remote Config:
https://towardsdatascience.com/4-mistakes-that-i-made-while-running-a-b-tests-with-firebase-remote-config-f7b17f18b34a
https://towardsdatascience.com/4-mistakes-that-i-made-while-running-a-b-tests-with-firebase-remote-config-f7b17f18b34a
Medium
4 Mistakes that I made while running A/B Tests with Firebase Remote Config
A dozen experiments later, I am listing down some of my mistakes (so you don’t make them). From targeting, analysis, re-installs & the…
Бесплатный митап про то, как готовить, запускать и анализировать эксперименты (A/B тесты) на ценах и заниматься ценообразованием в компании.
Москва. 17 августа с 10:00 до 16:00.
http://price-discovery.tilda.ws/
Москва. 17 августа с 10:00 до 16:00.
http://price-discovery.tilda.ws/
expf.ru
EXPF Consulting
Консалтинг в области анализа данных