Beards Analytics – Telegram
Beards Analytics
4.26K subscribers
309 photos
15 videos
3 files
583 links
Тут ви дізнаєтеся про новинки, кейси та рішення у веб-аналітиці.

https://beardsanalytics.com/

Для зв'язку @snegireff
Download Telegram
#analyze

Маргарита Евтух о том, как получать пользую от biqQuery для больших ecommerce (Answear)

— очень важно собрать чистые данные без сотрудников, тестовых заказов и тп
— определяем KPI для каждого рынка отдельно
— можно связать данные из CRM с другим данными из аналитики
— грузим затраты по рекламным кампаниям

что можем делать:

— можем разделить разные группы пользователей и работать с каждой
— определяем kpi для разных групп и учитываем вес для новых и повторных пользователей
— используем разные модели атрибуции для разных этапов в покупке
— также можем сегментировать аналитику для разных рынков (для молодых, делаем акцент для роста продаж и рост базы; для сформировавшегося рынка занимаемся реактивацией базы)
— так как собираем данные из CRM можем сегментировать данные по соц дем и анализировать каналы


— а еще можно рассчитать место канала в цепочке и распределить веса конверсии для каналов в цепочках, вытаскивая данные из bq


В целом, если у вас много данных, вы можете грузить все в bigQuery, нарезать разные сегменты и смотреть для каждого сегмента разные kpi для каждого рынка и управлять платной рекламой
#analyze

Павел Лоба из OWOX о том, как использовать Analytics 360

— объединить данные не просто (нужно много кастомных решений чтобы все корректно считалось)
что важно при объединении данных:
— собирать данные в рил-тайм
— экономично и эффективность
— быстро и удобно объединить разные типы данных
— безопасность и надежность

Что можно собирать в BQ:
— стримить из ГА
— периодически стучаться в ГА и собрать уточненные данные и взаимодействие с формами (email …)
— стримим из mailchimp
— все посты в соц сетях (iFT, measurement protocol по факту поста) и упоминания в соц сетях (google alerts)
— help desk
— ERP (инфомрация о продуктах, ценах, вариантов…)
— оплаты
— customer relationship

Как использовать:
— автоматизация email marketing
— alert в slack если что-то пошло не так
— дашборды в датастудо

А еще можно автоматизировать с помощью bigQuery data transfer service выгрузить исторические данные (180 дней) из adwords, youtube. doubleClick

Кроме того, можем передавать произвольные данные (service rest api (the desk) - apps noscript + bq rest api)


Разработка модели данных:
Так как данные в разных форматах, нужно разработать модель, которая позволила стандартизировать данные во всех типов объектов
Схема: объекты + атрибуты объектов со связями с другими объектами

Кейсы:
— можем оценить влияние усилий (звонки, письма, встречи) продавцов на продажи с визуализацией
— определить как изменения ux влияют на поведения пользователей и достижения kpi (дашборды, которые мониторят изменения и ошибки) и также можно сегментировать нужные показатели для разных пользователей, типы подписок, регионы …
— уведомления в slack + email + sms в зависимости от проблем на сайте (ошибки или изменения)
— построить план продаж и скоорденировать маркетинговые усилия по каждому региону (увидеть узкие места)
— собрать данные с турникетов при входе в bigQuery и оценивать кто и как ходит на работу

в целом, bigQuery это круто, если используем вместе с R, то у нас есть возможность реально получать пользу от bigData
#analyze

Виктор Тарнавский о том, как BigData помогает в предсказании вероятности покупки
Задачи:
— больше узнать о пользователях
— пути до покупки
— эффективные каналы

Попробовали кастомные модели атрибуции:
— затухающая по времени с различными весами каналов
— линейная на основе поведения пользователей (на основе поведенческих атрибутов)

bit.ly/ch_webinar

как результат:
очень круто, но не понятно как использовать эти модели атрибуции

Потом попробовали пересечение аудитории продуктов, но тоже не вышло, хотя и много полезных инвайтов

А теперь, предсказания покупки:

- Берем Scoring с разными группами поведения (хорошие, плохие)
- Понимаем аудиторию
- Оптимизация рекламы с использованием сегментов

И берем machine learning для того, чтобы все это сделать:
- важна чистота данных
- потом строим модель
- production process


Инструменты:
- logs api (raw data для всего периода, без ограничения)
- clickhouse (СУБД для OLAP сценариев для аналитикических задач - open source, быстрая, sql)
- алгоритм машинного обучения для построения классификатора

Дальше собираем пользовательские характеристики пользователей и поведенческие и загоняем в модель, и должен получиться хороший результат,
и модель сказала:
— число дней с последнего визита
— число дней с первого визита
— доход
— среднее время на сайт
— средняя глубина
и так далее


Машинное обучение:
— Логистическая регрессия
— Random forest (деревья принятия решений)


Обучаем модели:
— метрика AUC ROC (определение насколько модель не врет)
— hold-out (отложенная выборка, разбиваем на две части большую и меньшую, на одно обучаем, на второй проверяем)
— кросс валидация (разбиваем выборку на разны блоки и оцениваем каждый блок)

После всего этого, применяем модель на базе реальных покупок и получили хороший результат:

— Выяснили, что 80% людей в принципе не готовы покупать.
— А потом разбили на 4 группы в зависимости от вероятности покупок.
— Потом грузим для каждого пользователя характеристику вероятности для каждого пользователя.

А потом, делаем с этим что хотим:
— ремаркетинг
— adwords/директ/facebook
— колл-центр
— bid adjustments
— эксперименты


в целом, доход вырос в два раза, конверсия на 30% (круть!) в ремаркетинге и рся
Что будет нового в Яндекс-метрике:

— новый вебвизор
— планы в сторону user centric (customer journey)
Коллеги, на этом моя трансляция заканчивается. Это мой первый такой журналисткий опыт, и хочу узнать у вас, было ли вам полезно/интересно?
anonymous poll

Да, все было круто – 188
👍👍👍👍👍👍👍 82%

Нет, такой формат не удобен – 30
👍 13%

Нет, контент не понравился – 10
▫️ 4%

👥 228 people voted so far.
Да, совсем забыл про фидбек, буду очень признателен, если вы напишите, что можно улучшить, в личку @snegireff
И вишенка на торте, это трансляция конкурса Analytics Chalange на Analyze 2017

https://youtu.be/mAdqpj92abk
По мотивам #analyze Павел Левчук написал статью о кластеризации и тому, как с этим работать

https://goo.gl/McRxkn
Алексей Колоколов собрал информацию о лучших авторах по визаулизации данных и сделал прикольную инфографику

https://goo.gl/YsWxjr
Рассказал MMR о дизайне для e-commerce. Как отличить «ехать» от «шашечек» при разработке или редизайне интернет-магазина или сайта, который продаёт. Что действительно повышает продажи.

Читай и применяй на своих проектах
http://lnk.al/4fyQ
Как всегда, подробный материал от Netpeak, в этот раз про то как работать с Google Optimize https://goo.gl/bAWi1E
Небольшой лайхак, если у вас тупит отладчик GTM (они там что-то обнавляют) и если используется кэширование, отладчик не работет. Чтобы каждый раз не чистить кэш, идем в консоль, включаем Disable cache
Привет! Хочу порекомендовать канал @webmagic и лично Женю Дуброву-Аликсюк, у которой сегодня, кстати, день рождение)

Она собирает все самые интересные и свежие новости о инструментах платного трафика и о том, как правильно использовать Яндекс Директ и Google AdWords. Подписывайтесь!
Недавно прошла конференция Analyze — и в этом году в каждом докладе прямо или косвенно упоминался язык R. Сегодня R стал универсальным средством автоматизации множества маркетинговых задач, R Studio установлена даже у тех специалистов, которые никогда не слышали о других языках программирования. По крайней мере в агентстве Netpeak.

О применении R в маркетинге блог начал писать одним из первых в Рунете, и сегодня я решил собрать и структурировать этот материал. Впереди большие выходные — воспользуйтесь возможностью прокачать свои скиллы.

https://goo.gl/002eJN
Интерсный материал в блоге KissMetrics о том, как Netfilx использулет аналитику для подбора сериалов и много другого: https://goo.gl/dxeLws


И в догонку, лекция на TED: https://goo.gl/HbGnh7
Офигенная статья о выборе цвета при визуализации данных

https://goo.gl/2XyKjg
Тем кому скучано на выходные могут посмотреть на анонимный опросник по зарплатам в штатах — https://goo.gl/7wfb4A
Или на другие открытые spreadsheets — https://goo.gl/mIHNSH