AB тесты и все вот про это вот все – Telegram
AB тесты и все вот про это вот все
1.88K subscribers
23 photos
1 video
4 files
249 links
Полезная информация об A/B тестировании. По любым вопросам можно писать - @ealexandr
Download Telegram
Forwarded from Vit Cheremisinov
Друзья, спасибо что были с нами целые выходные! 1) Ссылки на онлайн трансляцию
28 сентября
Cсылка - http://facecast.net/v/qwelw8
Пароль - Hdjwurufbdb
29 сентября
Cсылка - http://facecast.net/v/tijpqu
Пароль - jkhkfhjgjtjkhf

2) Симулятор a/b тестов
https://experimentfest.shinyapps.io/ExperimentFestCalculator/ 3) Домашнее задание - https://www.notion.so/analyticsvit/dc276e42b6f146b7a7beee9a5cbc348f
Форма для отправки домашнего задания - https://forms.gle/CCrsFVG99qgg5xBt5 Мы вам будем очень благодарны, если вы оставите про нас отзыв в FB со сслылкой на интенсив - https://experiment-fest.ru/ab_course Пройдете небольшой опрос, он займет не больше 5ти минут, нам очень важно знать ваше мнение. https://forms.gle/cVpcD7kAtD9ujCmE9
Forwarded from A/B testing
Полина Опарина из DocDoc про A/B тестирование в мобильных приложениях на Product Camp Minsk 2018

Ниже приведён текст самой презентации, опубликованный докладчиком на странице в Facebook.

- - -

Этот доклад будет вам интересен, если

- У вас есть мобильное приложение.
- Вы не делаете A/B тесты, но хотели бы начать.
- Вы выбираете решение для A/B тестирования в приложении.
- Вы уже используете какой-то инструмент, но он вас не устраивает.

Этой зимой у нас появилась задача внедрить инструмент для A/B тестирования в приложении DocDoc.

Первым делом мы проанализировали готовые решения и обнаружили ряд проблем.
Об этом есть отдельный слайд в презентации. Но самым критичным для нас была невозможность выгрузить сырые данные и гибко управлять сплитами.
Инструменты развиваются. И, возможно, сейчас уже нет такой проблемы в Firebase и ему подобных, но на тот момент ни одно готовое решение нас не устроило.

Зато мы поняли, что сделать инструмент для A/B тестирования самим это не rocket science.

Нужно всего лишь сделать:
- Механизм сплитования
- Апишку
- Админку для настройки фич
- Немного магии на стороне мобильной разработки
- Отчётность

Наши сплиты построены на основе случайной части GA Client ID.
Это случайное число от 0 до 255.
В админке для каждой фича задаются правила сплитов. Например, (0; 127) - фича выключена, (128; 255) - фича включена.

Split ID и правила определяют набор фичей, доступных клиенту.

Этот набор закодирован в Feature_status. Вместо конфига мы используем двоичное число. Каждой фича соответствует свой разряд, который может принимать значения 0 (фича выключена) или 1 (фича включена).

Feature_status пробрасывается в GA в Custom dimension. Число пользовательских параметров в GA ограничено (не больше 20). Но мы не упираемся в этой ограничений, тк занимаем всего один кастомный параметр.

Подробнее о техническом решении расскал великолепный Aleksander Krasnov на AppsConf 🖤

Каждый тест проходит такой цикл:
- Заводим новое правило в админке
- Реализуем логику в коде
- Релизим приложение
- Запускаем тест
- Ждём
- Анализируем результаты
- Принимаем решение, какой вариант остаётся
- Включаем в админке победителя на 100%
- Вычищаем из кода проигравший вариант

По сути мы получили инструмент для A/B тестирования + remote config.

Это позволяет нам проверять гипотезы, отслеживать фактическое влияние запущенных фич на метрики, делать постепенную выкатку функционала.

Для любителей цифр:
- На разработку решения мы потратили суммарно около 280 человеко-часов.
- Примерно на 30% увеличивается стоимость разработки и тестирования, если фича делается через A/B.
- Максимальный ROI дают тесты заголовков, конверсионных подписей, текстов пушей.

Презентация: https://goo.gl/qMi7nZ
Forwarded from A/B testing
Виталий Котов из Badoo про покрытие A/B-тестов UI-тестами

Мы создали интерфейс для удобного контроля над покрытием A/B-тестов; в результате теперь у нас есть вся информация о работе UI-тестов с A/B-тестами;

Мы выработали для себя способ написания временных UI-тестов с простым и эффективным флоу их дальнейшего удаления или перевода в ряды постоянных;

Мы научились легко и безболезненно тестировать релизы A/B-тестов, не мешая другим запущенным UI-тестам, и без излишних коммитов в Git.

Всё это позволило адаптировать автоматизацию тестирования под постоянно меняющиеся фичи, легко контролировать и увеличивать уровень покрытия и не зарастать легаси-кодом.

Ссылка: https://habr.com/company/badoo/blog/434448/
Forwarded from A/B testing
Как запускать эксперименты в Google.Analytics

🤓 По просьбе подписчика публикую ссылку на справку, в которой подробно описывается как запустить свой первый AБТ в GA.

Ссылка: https://support.google.com/analytics/answer/1745152?hl=ru
Forwarded from A/B testing
Шпаргалка по тому, какой статистический критерий(/тест) использовать в разных случаях.

via @ABtesting
Forwarded from A/B testing
О статистических критериях:

https://www.youtube.com/watch?v=ZaZYy0YUdY8 – как выбирать, какой стат. тест использовать при анализе различий между статистическими совокупностями

https://www.youtube.com/watch?v=YsalXF5POtY – так что же выбирать, Z-тест или T-тест

https://www.youtube.com/watch?v=pTmLQvMM-1M – T-тест (Стьюдента)

https://www.youtube.com/watch?v=BWJRsY-G8u0 – Z-тест 1-sample, https://www.youtube.com/watch?v=s-r0p2-Mpr4 - 2-sample (для сравнения по сплитам второй)

https://www.youtube.com/watch?v=BT1FKd1Qzjw – U-тест (Манна-Уитни)

https://www.youtube.com/watch?v=WXPBoFDqNVk – хи-квадрат-тест (Пирсона)

https://www.youtube.com/watch?v=9STZ7MxkNVg - bootstrap test

https://www.youtube.com/watch?v=cltWQsmBg0k – K-S-тест (Колмогорова-Смирнова) на то, что распределение в выборке НЕ является нормальным

https://www.youtube.com/watch?v=dRAqSsgkCUc – тест Шапиро-Уилка на то, что распределение в выборке НЕ является нормальным (ну такое, обрывается на R shapiro.test(x) )

https://www.youtube.com/watch?v=EG8AF2B_dps - ещё несколько соображений о том, как понять, что распределение нормальное

https://www.youtube.com/watch?v=MstzroncW28 – доверительный интервал для полученных значений

https://www.youtube.com/watch?v=eGWnP_8QER8 – почему если выбрать тест неправильно, может быть статистически значимо, но ни разу не достоверно
Forwarded from Product Analytics
Системный подход к АВ-тестированию в Uber https://eng.uber.com/xp