Devaka Talk – Telegram
Devaka Talk
10.9K subscribers
1.41K photos
44 videos
28 files
3.45K links
Канал по просуванню та оптимізації сайтів під Google. Hard SEO.

Зв'язок зі мною: @devaka
(Сергій Кокшаров)

Реклама: @dv_adv
Для донатів: @dv_donate

Навчаю у групах.
https://webpromoexperts.net/courses/seo-pro-online/
Download Telegram
Google представил новую Search Console
https://ln2.in/dQ0ZGfE

Несколько месяцев бета-версию тестировали ограниченное количество вебмастеров, теперь она будет доступна для всех. Новый функционал включает:

Эффективость поиска
Отчеты эффективности показывают важные метрики про работу сайта в результатах поиска: как часто он показывается, какой CTR, и другие фишки. Этот функционал заменит собой текущий про поисковую аналитику. Данные будут храниться 16 месяцев и также доступны через Search Console API.

Индексация
Информация об индексации страниц: какие урлы проиндексированы, какие возникли ошибки, и причины, по которым гугл не проиндексировал определенные страницы.

AMP статус
Отчет, который поможет пофиксить ошибки в AMP-версиях страниц.

Вакансии
Google активно работает над своим сервисом "Google for Jobs", который сейчас доступен пока не для всех регионов. Если на сайте имеются вакансии, то можно будет их связывать с гугловским сервисом, а в панели фиксить ошибки.

В панели будут доступны две версии Search Console, между которыми можно переключаться в один клик. Отчеты можно будет гибко расшаривать сотрудникам. Сейчас гугл собирает фидбек и постепенно выложит изменения.
Минус пузомерка

Сейчас тИЦ чужого сайта измерить можно, но его значение будет ровно таким, как до закрытия Яндекс.Каталога. Актуальное значение будет знать только владелец сайта.

via @devakatalk
Почему страницы, закрытые в robots.txt, попадают в индекс Google и могут появляться в поиске? Потому как этот файл является инструкцией для краулера, а не для индексатора. Поисковый бот (краулер) не будет сканировать закрытые страницы, так как это запрещено в robots.txt. Но индексатор, это отдельный алгоритм, и Google важно показать страницу в индексе, если на нее ссылаются. При закрытии этой страницы в роботсе, он просто сформирует сниппет из других сигналов. Стоит отметить, что в Яндексе, в отличие от Google, robots.txt это также инструкция для индекатора. Все что тут закрыто, не попадет в индекс Яндекса.

Если говорить о мета-теге robots, то здесь содержатся инструкции для обоих алгоритмов. Например,

<meta name="robots" content="noindex, follow" />

noindex — четкая инструкция для индексатора.
follow — инструкция для краулера, стоит ли дальше сканировать сайт по новым ссылкам с этой страницы.

Обратите внимание, что если вы добавите мета-роботс noindex, и при этом закроете страницу в robots, то индексатор о noindex никогда не узнает. Поэтому, чтобы удалять страницы из индекса Google, robots.txt не очень подходит. А что же подходит? Смотрите об этом в новогоднем видео от Игоря Шулежко: https://youtu.be/Zt5VnJu3Ibs
Мой любимый канал про маркетинг сайта — @mflow
Google обновил PageSpeed Insights. Теперь он говорит не только об оптимизации страниц, но и скорости загрузки (данные от пользователей Chrome).
https://developers.google.com/speed/pagespeed/insights/
KeyCollector может стать кроссплатформенным. Никто не обещает, но и не отрицает. Подождем 4й версии.

via @devakatalk
25 января состоится очередная конференция NaZapad, посвященная продвижению на зарубежных рынках. В этот раз, наряду с SEO и контент-маркетингом, организаторы добавили секцию Affiliates, где докладчики поделятся опытом заработка на зарубежных партнерских программах.

Отличное мероприятие, которое уже стало хорошей традицией компании SeoProfy. Онлайн-участие остается бесплатным. Регистрируйтесь!

Анонс и обсуждение:
https://devaka.ru/events/nazapad-8
Сайт конференции и регистрация:
https://nazapad.com/
Forwarded from Markdown
Сервисы, которые я рекомендую всем студентам.

Askusers
Самостоятельный юзабилити-аудит с помощью опроса готовой фокус-группы. Очень удобно. И странно, что мало кто пользуется.

Serpstat
Это уже сервис из ТОП3 для оптимизатора. Анализ конкурентов в разных регионах, семантики и пр.

SEranking
Набор инструментов почти на все случаи жизни сеошника. Раньше почему-то думал, что SEranking это про позиции.

Website Auditor
Одна из лучших программ для технического аудита сайта и анализа контента.

Но список основных инструментов, конечно же, немного больше: https://www.youtube.com/watch?v=HLnNCj9Esog
Большой ошибкой является создание сайта только под органический трафик. Часто это сайты, созданные под партнерки или адсенс. Хорошо отработанная схема: создал сайт, написал статьи, получил трафик. Но последний пункт в этой схеме не гарантируется и даже если раньше органический трафик был, то всегда его можно лишиться.

Пример: человек создал сайт, писал статьи, поисковики давали трафик, партнерки давали деньги. Но в какой-то момент оказалось, что на сайте появилось много статей взрослой тематики и поисковик присвоил ему пометку "взрослый" (так называемый adult-фильтр) и оставил только adult-трафик. Вебмастер бы и хотел удалить статьи взрослой тематики, но фильтр же снимается не моментально, поэтому какое-то неизвестное время нужно будет сидеть без трафика вовсе, а значит и без зарплаты 😐

И это не единственный пример. Лишиться трафика из Яндекса и Google можно в любой день по разным причинам. Класть яйца в одну корзину очень рискованно. Что же делать?

Нужно привлекать на сайт посетителей из разных источников. Отлично, когда органика не привышает 30% всего трафика сайта, а остальное распределяется между реферальными источниками, социальными сетями и директ-трафиком. Разнообразие источников трафика должно быть одной из целей в вашей seo-стратегии. Думайте об этом, когда проектируете сайт, когда пишете контент и когда размещаете где-либо ссылки. Ссылка работает только для органики? Это плохая ссылка, так как будет, как минимум, идти в разрез с вашей seo-стратегией. Контент приводит только "новичков"? Это плохой контент... Есть о чем поразмышлять.

Дерзайте! И да прибудет с вами не-seo трафик :)
Миша Шакин, известный блоггер и специалист по зарубежному продвижению, создал новый канал "Англоязычное SEO" — @burzhunet. Рекомендую! Я уже подписался 🇺🇸
На что делать упор чтобы достичь максимальной эффективности? SEO или рекламный трафик: «яйцо или курица» – одна из распространенных дилемм маркетологов и SEO-специалистов. Хорошему digital-специалисту этот вопрос покажется смешным: очевидно, что SEO и рекламный трафик одинаково важны в достижении результата. На какие еще области следуюет обратить внимание, чтобы достичь эффекта синергии?

Эти вопросы будут раскрыты на открытом вебинаре 23 января в 20:00 по Москве, который состоится в рамках нового курса “Digital Маркетолог” в OTUS! Помимо проблем областей знаний digital-маркетинга в вебинаре будет рассмотрено кросс-канальное взаимодействие и важность бренда в маркетинге, влияние продукта на стратегию продвижения и важность цифрового подхода. Будет интересно!

Преподаватель курса - Виктория Александрова - Head of Marketing в OTUS, экс-сотрудник Яндекса и MailRu, специалист с 7-летним опытом в интернет-продвижении и автор инновационных продуктов по аудиту рекламных компаний и оценке рекламного потенциала поделится своим опытом и расскажет, почему мы (OTUS) отвели в программе курса целый месяц для SEO, почему ставим анализ данных в приоритет и почему так важно комплексное видение в продвижении продукта.

Зарегистрируйтесь на онлайн-трансляцию, чтобы не пропустить: https://otus.pw/jPii/

P.S. Реклама щедро оплачена. Если вы из Украины, для доступа к сайту используйте VPN.
Devaka Digest #11 — свежая подборка полезных ссылок.
https://devaka.ru/articles/digest-11

👨‍🎓 Тренды интернет-маркетинга в 2018 году
https://ln2.in/Pj9AudG

🖊 Как повысить кликабельность тайтла в 2 раза
https://ln2.in/4vxfjIc

📊 Своя модель атрибуции в Power BI для сквозной аналитики
https://ln2.in/IhpBJss

🚀 Турбо-страницы Яндекса. Руководство по применению
https://ln2.in/XPtab0K

См. полный дайджест: https://devaka.ru/articles/digest-11

via @devakatalk #digest #дайджест
Тест Яндекса "Что ищут чаще?"
Яндекс обнаружил, что некоторые слова встречаются в текстах парами. Например, "запад" и "восток", "сша" и "китай", "макдональдс" и "kfc"... и даже соперничают между собой. И вот, опираясь на статистику, Яндекс определил, какое из слов выигрывает, насколько и в каких регионах. На основе этого разработал тест :) проверьте свою интуицию:
https://yandex.ru/company/researches/2018/pairs
После книг Мегре "Анастасия" в славянских странах поднялся интерес к эко-поселениям и вообще, уходу от мирской суеты в своё фермерское поселье. Айтишников этот тренд тоже не обошел, они хотят нормально работать в тихой обстановке с хорошей экологией и интернетом. И ради этого готовы построить новый город, а может быть и страну.

Бывший сотрудник «Яндекса» потратил 11 млн рублей и создал посёлок для программистов в Кировской области, где уже живут 6 семей. Читайте интересное интервью с этим предпринимателем на VC: https://ln2.in/kU0yX6Z
Не только поисковые системы умеют оценивать качество контента, но и любые крупные контент-проекты. Например, Википедия.

Википедия использует около 300 параметров для оценки качества статей. В целом, более качественные статьи на Википедии являются длинными, с большим количеством изображений, примечаний, фактов, внутренних ссылок на статью, используют ссылки согласованным образом, редактируются сотнями авторов, имеют тысячи редакций (версий) и имеют большую посещаемость.

О том, как производится автоматическая оценка качества, поделился польский википедист на Хабре: https://habrahabr.ru/post/347376/

via @devakatalk
Нужна ли вам пагинация? Проверьте, как её используют люди.

Вот пример статистики одного из реальных проектов:
• 415 762 тысяч посетителей
• 388 303 (93.4%) - не использовали пагинацию вовсе

• 12 945 (3.1%) - перешли на 2 страницу
• 6 411 (1.5%) - на 3 стр
• 3 067 (0.7%) - на 4 стр

• 24 348 (5.8%) - использовали до 5 страниц пагинации
• 2 813 (0.7%) - посещали от 6 до 9 страниц пагинации
• 434 (0.1%) - использовали от 10 и более
• Самый настырный пользователь пролистал 45 стр. пагинации из 46.

О чем это говорит? О том, что больше 3-5 страниц пагинации делать смысла нет. Нужно стараться расположить все самое важное на первой странице и именно ей решить пользовательский интент. Если пользователь не решил здесь (на первой стр) свою задачу, то с большой вероятностью он не будет листать дальше.

Есть пару нюансов:
1. У вас может быть все по-другому
2. Хорошо бы еще посмотреть на конверсию
3. Пагинация нужна не только пользователям