Beards Analytics – Telegram
Beards Analytics
4.26K subscribers
309 photos
15 videos
3 files
583 links
Тут ви дізнаєтеся про новинки, кейси та рішення у веб-аналітиці.

https://beardsanalytics.com/

Для зв'язку @snegireff
Download Telegram
Что-то пошло не так с этим ботом для опросов, поэтмоу давай-те еще раз)
Коллеги, 20 апреля я буду на конференции Ananlyze! (https://goo.gl/YUcKTV), где будет много интересного контента. Хотите ли вы телеграм-трансляцию с этой конференции?

Да, жги конечно! – 281
👍👍👍👍👍👍👍 92%

Нет, так много читать я не готов( – 25
👍 8%

👥 306 people voted so far. Poll closed.
Google приучил меня, что документация по продуктам может быть годной и полезной. Вот и Microsoft не отстает, по ссылке вы найдете «Рекомендации по проектированию отчетов и визуализаций», по сути, большой мануал по работе с инструментом, очень много полезного.

#powerBI

https://goo.gl/OCcwRe
Привет! Конференция скоро начинается и первый доклад мой, с Димой Булахом, так что расскажу потом)
Андрей Бондарь из SerpStat рассказывает о том как мониторить долю вашего трафика в органике:

— как сравнить себя с непрямыми конкурентами в выдаче поиска
— как провести анализ по нишам и регионам
— точно посчитать прибыль и заказы нельзя (соотнести из с выдачей, привет Google!)
— например, у serpstat есть показатель видимости вашего сайта (количество топ фраз в выдаче + частотность фраз)
— и мониторинг конкурентов у них есть)

— что не стоит делать для анализа конкурентов в выдаче:
не сравнивайте трафик (много разных товарных позиций)
не сравнивайте готовые тематики
не смотрите только свой сайт (что логично для сравнения)
— анализ шторма в выдаче в serpstat (если падают позицию у всех)
— история снипетов

#analyze
в общем, можем получить вот такую динамику себя (своего сайта) в выдаче результатов поиска

— а также они добавили API
http://serp-stat.com/api

#analyze
И в завершении всего, зачем всё это надо?

#analyze
Сережа Яременко расскажет о том, зачем использовать инфраструктуру для аналитики

#analyze
GA и Метрика это black box, и это не круто
— а еще семплирование
— не все нужные отчеты и данные
— сложно сделать что-то не стандартное
поэтому используем bigQuery или clickHouse или redShift #analyze
#analyze

что важно:

— это все надо, если у вас большая и сложная система
— если нет, то owox решение для вас
Сергей рассказывать что они поменяли за этот год в своей инфраструктуре для аналитики

#analyze
Если у вас много денег и много данных, используйте tableau как bi систему, будь как macpaw)


#analyze
не R и python единым, получаем ответы с визаулизацей

Пример того, как macpaw ищет какие приложения можно найти для добавления в свою систему, посмотрел на график и сразу принял решение #analyze
Вопросы и ответы: SQL
— учите SQL (все равно это надо)
— или устройтесь в macpaw (там всех учат)

#analyze
Немного поменяю формат трансляции, а то много сообщение не очень удобно.

#analyze

Павел Левчук рассказывает о
— симуляции данных
— распределении чеков по бинам
— распределении чеков и среднего чека
— кластеризации данных


— симуляция данных
вы можете использовать функцию sample в R для создания случайной выборке
но чтобы, все хорошо работало, не плохо было бы учесть вероятности покупки разных продуктов
всегда проверяйте данные перед симуляциями, в том смысле, насколько данные достоверны

— бин это столбец в гистограмме распределения типов номиналов продуктов (1 доллар, 10 долларов и тп)
хороший способ понять, есть ли у вас аудитория, которая покупает дорогие продукты и как их можно найти

— среднее значение это всегда плохо (берет большую картину и сжимает её в одну точку)
и общая картина по распределению заказов не будет для вас точным

— кластеризация (объединение пользователей в группу)
(kmeans алгоритм)
разделения вашей аудитории на похожие группы по нескольким характеристикам (например покупают несколько продуктов)
построить кластер просто, но вот вопрос в интерпретации данных

что можем сделать после всего это:
можем выделить группу аудитории, которая готова покупать продукт за 10 долларов, и нет смысла давать им предложение за 5 или 20 долларов (все равно не купят)
а также другие интересные закономерности (например, есть люди, которые готовы покупать или за 1 дол или за 20 долларов, можем пушить им продукты только за 20 дол)
можем оценить частотность покупок (как часто каждый кластер покупает) и самое интересное, что разные кластеры (группы аудитории) ведут себя по разному при покупках второй и третий раз


итого: средние значения при анализе вашей аудитории бессмысленная штука, используйте кластеры, для корректного разделения вашей аудитории на группы и анализируйте поведение каждого кластера отдельно. И понимание каждого кластера вы сможете сделать более релевантный офер для каждого кластера.
#analyze

Рома Рыбальченко рассказывает о том, как рассчитывать реальный ROAS при продажи софта:

— офигенный скрипт sourcebuster (https://github.com/alexfedoseev/sourcebuster-js)
который сохраняем реальный источник данных по переходу на сайт
— выгружаем статистику из appstore для понимания того, насколько качественный трафик ведет
— in-app аналитика для macOS приложений от macpaw (https://github.com/MacPaw/Google-Analytics-for-OS-X)
— используя все эти данные, сводим в одну таблицу с метриками CR for trial, CPC и тп
— для понимания географии и языков вашей аудитории можно использовать показатель per session value (PSV)
Например, Испания и Италия имеет низкий psv, потому что много «пиратят»
также можем смотреть psv в разрезе версий OS или типа макбуков, чем более новый ноутбук, тем выше psv и используем это в ремаркетинге

— даже если покупка онлайн, вопрос учета конверсий все равно остается, так как есть разные пути при покупке, так что не все так просто.
используйте UserID, чтобы вы смогли установить все возможные пути при покупке

— расчет Real ROI (скачал триал и купил) нужно:
понять как повышает рентабельность с триалом
анализировать специальные предложения
понять нужно ли раздавать бесплатный софт
атрибуцировать источники лида
объединить все действия вокруг пользователя

как это делать:
— запоминаем точный источник трафика на сайте и создаем UserID на базе их email/телефон
— склеиваем пользователей, который регистрировались несколько раз на разных посадочных/сайтах
— склейка транзакций от процессинга (вебхук после продажи к БД) — можно использовать GTM (хотя и урезанный, так как это данные о оплате)
— в процессинга устанавливаем ремаркетинг и другие тэги

— чтобы объединить все данные можно использовать power query и построить сводную таблицу для анализа всего-всего


В общем если очень нужно, то можно объединить данные о покупке софта и все рекламные кампании для большинства пользователей, но не просто