Может ли пара плохих страниц снизить трафик всего сайта
На встрече Google для вебмастеров Мюллера спросили, оценивается ли качество контента на уровне страницы или на уровне всего сайта, могут ли несколько плохих страниц повлиять на пенализацию всего сайта?
Мюллер сначала объяснил, что отсутствие трафика это не всегда пенализация. Если страницы не ранжируются хорошо, обычно проблема в контенте, его качестве или релевантности. И это будет неспособностью ранжироваться, а не наложение фильтра. Например, фильтр за дублированный контент это не фильтр, это просто неспособность ранжироваться из-за качества контента. То же самое с фильтром за каннибализацию контента. И если найти причину и пофиксить ее, то сайт сможет нормально ранжироваться. А фильтр накладывается за грубое нарушение правил Google.
Что касается качества контента, по словам Мюллера, Google важнее качество страницы, а не всего сайта. Но это не точно, верней не для всех сайтов. Поисковику важно увидеть всю картину. То есть, одни сайты могут из-за нескольких страниц пострадать полностью, другие не могут.
Все зависит от плотности низкокачественного шума. Если на сайте всего один раздел низакого качества, то он может не повлиять на другие разделы. Но если на сайте повсюду встречаются низкокачественные страницы, наряду с высококачественными, то поисковику сложно решить, как все-таки относиться к сайту.
Другими словами, хорошие страницы часто не будут ранжироваться хорошо просто потому, что на сайте есть много плохих страниц. И наоборот. Что призывает сеошников максимально почистить сайт от плохих сигналов.
Источник
На встрече Google для вебмастеров Мюллера спросили, оценивается ли качество контента на уровне страницы или на уровне всего сайта, могут ли несколько плохих страниц повлиять на пенализацию всего сайта?
Мюллер сначала объяснил, что отсутствие трафика это не всегда пенализация. Если страницы не ранжируются хорошо, обычно проблема в контенте, его качестве или релевантности. И это будет неспособностью ранжироваться, а не наложение фильтра. Например, фильтр за дублированный контент это не фильтр, это просто неспособность ранжироваться из-за качества контента. То же самое с фильтром за каннибализацию контента. И если найти причину и пофиксить ее, то сайт сможет нормально ранжироваться. А фильтр накладывается за грубое нарушение правил Google.
Что касается качества контента, по словам Мюллера, Google важнее качество страницы, а не всего сайта. Но это не точно, верней не для всех сайтов. Поисковику важно увидеть всю картину. То есть, одни сайты могут из-за нескольких страниц пострадать полностью, другие не могут.
Все зависит от плотности низкокачественного шума. Если на сайте всего один раздел низакого качества, то он может не повлиять на другие разделы. Но если на сайте повсюду встречаются низкокачественные страницы, наряду с высококачественными, то поисковику сложно решить, как все-таки относиться к сайту.
Другими словами, хорошие страницы часто не будут ранжироваться хорошо просто потому, что на сайте есть много плохих страниц. И наоборот. Что призывает сеошников максимально почистить сайт от плохих сигналов.
Источник
This media is not supported in your browser
VIEW IN TELEGRAM
Тот случай, когда реклама оплачена, а хостинг нет 😬
Devaka Digest #17 — свежая подборка полезных ссылок.
🧨 Самые распространенные SEO-ошибки на сайте
http://bit.ly/2PRq8gg
📖 Требования к контенту на Rozetka
http://bit.ly/2ZZx9jB
⌚️ Техническое SEO в 2019 году [видео]
https://youtu.be/2XGwXyLGP4s
🇱🇷 Записи конференции Назапад 11 [видео]
https://youtu.be/NmS6j8thxoA
См. полный дайджест: https://devaka.ru/articles/digest-17
via @devakatalk #digest #дайджест
🧨 Самые распространенные SEO-ошибки на сайте
http://bit.ly/2PRq8gg
📖 Требования к контенту на Rozetka
http://bit.ly/2ZZx9jB
⌚️ Техническое SEO в 2019 году [видео]
https://youtu.be/2XGwXyLGP4s
🇱🇷 Записи конференции Назапад 11 [видео]
https://youtu.be/NmS6j8thxoA
См. полный дайджест: https://devaka.ru/articles/digest-17
via @devakatalk #digest #дайджест
Facebook опубликовал подробности обновления их алгоритма ранжирования видео
https://newsroom.fb.com/news/2019/05/updates-to-video-ranking/
Три сигнала, которым в обновлении уделили еще больше внимания:
- Поиск видео и повторные просмотры.
- Длина просмотра (удержание внимание минимум на минуту). Вовлечение очень важно при ранжировании роликов длинее 3х минут.
- Оригинальность видео.
Кстати, посмотрите также полезные фишки от Текстерры по созданию видео-роликов, которые способны удерживать внимание зрителя — https://youtu.be/ts-4LK_vrsg
https://newsroom.fb.com/news/2019/05/updates-to-video-ranking/
Три сигнала, которым в обновлении уделили еще больше внимания:
- Поиск видео и повторные просмотры.
- Длина просмотра (удержание внимание минимум на минуту). Вовлечение очень важно при ранжировании роликов длинее 3х минут.
- Оригинальность видео.
Кстати, посмотрите также полезные фишки от Текстерры по созданию видео-роликов, которые способны удерживать внимание зрителя — https://youtu.be/ts-4LK_vrsg
Хорошая новость! Для рендеринга страниц Google теперь использует последнюю, 74 версию хромиума и планирует постоянно обновляться, чтобы поддерживать современные фишки платформ.
https://webmasters.googleblog.com/2019/05/the-new-evergreen-googlebot.html
Напомню, что еще вчера Google рендерил страницы 41 версией хрома, которая вышла в 2015 году и значительно устарела. Теперь гугл будет видеть весь контент страниц. Но отключать SSR не стоит, так как рендеринг происходит не сразу при сканировании документа, а через какое-то время.
Историю версий Gogole Chrome можно глянуть здесь
https://en.wikipedia.org/wiki/Google_Chrome_version_history
https://webmasters.googleblog.com/2019/05/the-new-evergreen-googlebot.html
Напомню, что еще вчера Google рендерил страницы 41 версией хрома, которая вышла в 2015 году и значительно устарела. Теперь гугл будет видеть весь контент страниц. Но отключать SSR не стоит, так как рендеринг происходит не сразу при сканировании документа, а через какое-то время.
Историю версий Gogole Chrome можно глянуть здесь
https://en.wikipedia.org/wiki/Google_Chrome_version_history
Wix запустил контест SEO BATTLE (для агентств)
https://www.wix.com/contest/seo-battle/
Два агентства будут бороться по запросу "wix seo" в Google. Они разделятся на "почитатели" и "хейтеры", почитатели будут использовать платформу Wix и домен www.wixseolovers.com, а хейтеры любую другую платформу и домен www.wixseohaters.com. Победитель получит приз $25 000, лузер получит $10 000.
Заявки принимаются до 6 июня, а битва начнется 26 июня и продлится до 19 декабря. Почитателей и хейтеров будет выбирать эксперт из Лондона по ряду критериев:
- Ранжирование в гугле
- Опыт, онлайн-присутствие, отзывы
- Количество клиентов
Одно из условий конкурса: использовать правила Google и правила конкурса. А также нужно будет предоставить доступ к Google Analytics и Search Console.
Каждую неделю на сайте wix будет публиковаться статус конкурса.
Двое будут сражаться, тысячи наблюдать.
Финалистам запрещено использовать ряд серых техник, перечисленных в "Приложении А" правил конкурса, среди них манипулирование ссылками.
Реакция экспертов
Джон Мюллер: "SEO-конкурсы бесполезны. Они никогда не отражают реальную жизнь, генерируют тонну спама, которая влияет на всю экосистему, и являются большой тратой времени и сил. Умный подход к seo-конкурсам — просто не участвовать в них. Улучшайте ваш сервис, делайте сайты более крутыми и сильными в долгосрочной перспективе, а не просто бесполезно играйте для получения краткосрочных удовольствий."
Цирус Шепард: "Настоящий seo-контест называется Google SERP. Малый вступительный взнос, миллионы игроков, реальные выплаты, 24/7 таблица лидеров, вся польза идет в дом."
via @devakatalk
https://www.wix.com/contest/seo-battle/
Два агентства будут бороться по запросу "wix seo" в Google. Они разделятся на "почитатели" и "хейтеры", почитатели будут использовать платформу Wix и домен www.wixseolovers.com, а хейтеры любую другую платформу и домен www.wixseohaters.com. Победитель получит приз $25 000, лузер получит $10 000.
Заявки принимаются до 6 июня, а битва начнется 26 июня и продлится до 19 декабря. Почитателей и хейтеров будет выбирать эксперт из Лондона по ряду критериев:
- Ранжирование в гугле
- Опыт, онлайн-присутствие, отзывы
- Количество клиентов
Одно из условий конкурса: использовать правила Google и правила конкурса. А также нужно будет предоставить доступ к Google Analytics и Search Console.
Каждую неделю на сайте wix будет публиковаться статус конкурса.
Двое будут сражаться, тысячи наблюдать.
Финалистам запрещено использовать ряд серых техник, перечисленных в "Приложении А" правил конкурса, среди них манипулирование ссылками.
Реакция экспертов
Джон Мюллер: "SEO-конкурсы бесполезны. Они никогда не отражают реальную жизнь, генерируют тонну спама, которая влияет на всю экосистему, и являются большой тратой времени и сил. Умный подход к seo-конкурсам — просто не участвовать в них. Улучшайте ваш сервис, делайте сайты более крутыми и сильными в долгосрочной перспективе, а не просто бесполезно играйте для получения краткосрочных удовольствий."
Цирус Шепард: "Настоящий seo-контест называется Google SERP. Малый вступительный взнос, миллионы игроков, реальные выплаты, 24/7 таблица лидеров, вся польза идет в дом."
via @devakatalk
Позиции могут быть стабильными, а вот положение в выдаче — нет!
Хорошее исследование от Энди Крестодина про самый большой тренд в Google, который влияет на CTR. Речь про изменение выдачи и появление разнообразных блоков.
https://www.orbitmedia.com/blog/biggest-trend-in-seo/
С годами все больше пользователей находят ответы сразу на выдаче, используя различные элементы. Из-за этого сайты стали получать меньше трафика. По данным исследования Sparktoro и Jumpshot около 61% мобильных запросов и треть десктопных не имеют кликов на серпе.
Все мы знаем, что если позиция по ВЧ немного просядет, то это сильно будет заметно на трафике. Но сейчас даже если позиции в органике улучшаются, трафик может проседать. Знакомо?
Автор видит выход в том, чтобы исследовать запросы на кол-во элементов выдачи и продвигать те из них, которые имеют больший потенциал в плане положения органики на экране, охватывать больше семантики. А также активно работать с другими каналами привлечения трафика, например, email-маркетинг и гостевой блоггинг.
Я считаю, что к этой стратегии полезно добавить продвижение в разных вертикалях (не только органике), попадать в локальную выдачу, в блоки ответов, повышать трафик по видео и изображениям, работать с разметкой и сниппетами, монополизировать выдачу с помощью островков контента.
Тренд беспокойный, но SEO хоронить рано!
Хорошее исследование от Энди Крестодина про самый большой тренд в Google, который влияет на CTR. Речь про изменение выдачи и появление разнообразных блоков.
https://www.orbitmedia.com/blog/biggest-trend-in-seo/
С годами все больше пользователей находят ответы сразу на выдаче, используя различные элементы. Из-за этого сайты стали получать меньше трафика. По данным исследования Sparktoro и Jumpshot около 61% мобильных запросов и треть десктопных не имеют кликов на серпе.
Все мы знаем, что если позиция по ВЧ немного просядет, то это сильно будет заметно на трафике. Но сейчас даже если позиции в органике улучшаются, трафик может проседать. Знакомо?
Автор видит выход в том, чтобы исследовать запросы на кол-во элементов выдачи и продвигать те из них, которые имеют больший потенциал в плане положения органики на экране, охватывать больше семантики. А также активно работать с другими каналами привлечения трафика, например, email-маркетинг и гостевой блоггинг.
Я считаю, что к этой стратегии полезно добавить продвижение в разных вертикалях (не только органике), попадать в локальную выдачу, в блоки ответов, повышать трафик по видео и изображениям, работать с разметкой и сниппетами, монополизировать выдачу с помощью островков контента.
Тренд беспокойный, но SEO хоронить рано!
💥 Serpstat меняет тарифы и убирает Plan A за $19
10 июня команда Serpstat меняет тарифы инструмента.
Цена останется прежней, но будут пересмотрены лимиты и объемы экспортируемых данных для 4 популярных тарифов. К тому же, базовый план за $19 больше нельзя будет приобрести.
Несмотря на все изменения, Serpstat по прежнему остается самым доступным сервисом среди всех аналогичных платформ поискового маркетинга. До 10 июня можно приобрести любой тарифный план на длительный период и зафиксировать его и текущие лимиты на весь срок покупки. Для тарифных планов Plan B и выше есть скидки 20% при покупке на 12 месяцев.
По моему промокоду devakatalk5 вы получите дополнительную скидку на 5%, которая будет суммироваться со скидкой годовой. То есть вы сможете приобрести любой тарифный план (кроме план А) со скидкой -25% на год.
Промокод активен до 09.06
Подробности: http://bit.ly/2JjioTC
10 июня команда Serpstat меняет тарифы инструмента.
Цена останется прежней, но будут пересмотрены лимиты и объемы экспортируемых данных для 4 популярных тарифов. К тому же, базовый план за $19 больше нельзя будет приобрести.
Несмотря на все изменения, Serpstat по прежнему остается самым доступным сервисом среди всех аналогичных платформ поискового маркетинга. До 10 июня можно приобрести любой тарифный план на длительный период и зафиксировать его и текущие лимиты на весь срок покупки. Для тарифных планов Plan B и выше есть скидки 20% при покупке на 12 месяцев.
По моему промокоду devakatalk5 вы получите дополнительную скидку на 5%, которая будет суммироваться со скидкой годовой. То есть вы сможете приобрести любой тарифный план (кроме план А) со скидкой -25% на год.
Промокод активен до 09.06
Подробности: http://bit.ly/2JjioTC
Forwarded from Яндекс
Вот как выглядит карта метро Москвы, если переименовать станции на ней в честь местных центров притяжения. Найдите свою станцию 🙂 ya.cc/5qvoB
#отподписчика
Cloudflare на днях заблокировал для части клиентов доступ роботу Яндекса. Если у вас повылетали страницы или трафик, и вы используете Cloudflare, имейте в виду.
https://www.cloudflarestatus.com/incidents/pld51xj2hlpy
Cloudflare на днях заблокировал для части клиентов доступ роботу Яндекса. Если у вас повылетали страницы или трафик, и вы используете Cloudflare, имейте в виду.
https://www.cloudflarestatus.com/incidents/pld51xj2hlpy
Многие специалисты ищут работу, но далеко не все хотят идти в агентство. Причины разные, кто-то живет в маленьком городе, другие сидят с ребенком или заняты другими делами. Поэтому ищут удаленку.
Вот несколько советов, как найти себе удаленную работу, если все, что вы перепробовали не работает. А попробовали вы, скорей всего, только поиск клиентов на фриланс-сайтах.
1. Найдите себе партнера.
Клиентам нужен полный цикл работ - разработка, дизайн, seo, реклама, создание контента и пр. Приходится для каждого направления искать специалистов, что часто не удобно или затратно по времени. Если у вашего друга-дизайнера есть клиенты, партнертесь с ним, чтобы оказывать его клиентам свои seo-услуги. Если друг занимается seo, а вы можете создавать контент - это будет отличный тандем. Возможно, в будущем у вас получится даже открыть свое небольшое агентство. В одиночку искать клиентов сложней, чем с партнерами.
2. Предложите свои услуги бесплатно.
"Сделаю аудит вашего сайта за отзыв" — На форумах такой формат распространен. Первый месяц вы будете работать бесплатно и нарабатывать себе популярность и отзывы. Дальше от клиентов будет не отбиться.
3. Предложите услуги агентствам.
Нет единой базы клиентов, но есть базы агентств. Выберите себе любимое агентство или несколько и разошлите им предложения, что какую-то работу они могут отдавать вам на аутсорс. Клиенты у них есть, но специалистов может не хватать. Эффективность холодных продаж никто не отменял.
4. Создайте персональный блог.
Сайт-визитка это хорошо, на него можно давать рекламу. Но блог — еще лучше, так как ссылки на его статьи можно распространять бесплатно по разным каналам. Постепенно, клиенты и партнеры сами вас будут находить через блог. Так было у многих, в том числе у меня. Единественное, здесь нужно быть готовым, что ведение блога не даст вам клиентов моментально, а больше сработает в долгосрочной перспективе.
5. Опубликуйте кейс на чужой площадке.
Кейсы — мощный генератор клиентов. Их рассказывают на конференциях, на блогах и бизнес-площадках, в общем, везде, где есть потенциальные клиенты. Если у вас есть красивая история, как вы сделали кого-то счастливым и богатым, какие сложности пришлось преодолеть..., это может принести пользу. И кейсы работают быстрее в плане привлечения клиентов, чем обычное ведение блога.
Удачи в поисках!
Вот несколько советов, как найти себе удаленную работу, если все, что вы перепробовали не работает. А попробовали вы, скорей всего, только поиск клиентов на фриланс-сайтах.
1. Найдите себе партнера.
Клиентам нужен полный цикл работ - разработка, дизайн, seo, реклама, создание контента и пр. Приходится для каждого направления искать специалистов, что часто не удобно или затратно по времени. Если у вашего друга-дизайнера есть клиенты, партнертесь с ним, чтобы оказывать его клиентам свои seo-услуги. Если друг занимается seo, а вы можете создавать контент - это будет отличный тандем. Возможно, в будущем у вас получится даже открыть свое небольшое агентство. В одиночку искать клиентов сложней, чем с партнерами.
2. Предложите свои услуги бесплатно.
"Сделаю аудит вашего сайта за отзыв" — На форумах такой формат распространен. Первый месяц вы будете работать бесплатно и нарабатывать себе популярность и отзывы. Дальше от клиентов будет не отбиться.
3. Предложите услуги агентствам.
Нет единой базы клиентов, но есть базы агентств. Выберите себе любимое агентство или несколько и разошлите им предложения, что какую-то работу они могут отдавать вам на аутсорс. Клиенты у них есть, но специалистов может не хватать. Эффективность холодных продаж никто не отменял.
4. Создайте персональный блог.
Сайт-визитка это хорошо, на него можно давать рекламу. Но блог — еще лучше, так как ссылки на его статьи можно распространять бесплатно по разным каналам. Постепенно, клиенты и партнеры сами вас будут находить через блог. Так было у многих, в том числе у меня. Единественное, здесь нужно быть готовым, что ведение блога не даст вам клиентов моментально, а больше сработает в долгосрочной перспективе.
5. Опубликуйте кейс на чужой площадке.
Кейсы — мощный генератор клиентов. Их рассказывают на конференциях, на блогах и бизнес-площадках, в общем, везде, где есть потенциальные клиенты. Если у вас есть красивая история, как вы сделали кого-то счастливым и богатым, какие сложности пришлось преодолеть..., это может принести пользу. И кейсы работают быстрее в плане привлечения клиентов, чем обычное ведение блога.
Удачи в поисках!
Sitemap Paradox
На западе существует такое понятие, как парадокс sitemap.xml, информацию о котором опубликовали разработчики Stack Overflow в 2010. Заключается он в следующем:
1. Сайтмапы нужны для сайтов, которые сложно краулить.
2. Если Google находит ссылку в sitemap, но при этом не находит ссылку из навигации, то он не дает ей веса и не проиндексирует (в 2019 - скорей не проиндексирует).
Google не дает никаких гарантий, что документ, найденный по ссылке в sitemap.xml, будет проиндексирован.
— Даже если вы создали файл Sitemap, это не гарантирует, что Google будет сканировать и индексировать все ваши страницы, так как эти процедуры выполняются при помощи сложных алгоритмов. Цитата
Такой вот выходит парадокс.
Получается, ссылки в sitemap это лишь рекомендации, и более важными будут ссылки на сайте. То есть, разработка хорошей структуры сайта, чтобы поисковый робот мог найти каждую нужную страницу, это более важно, чем разработка sitemap.xml. По опыту Stack Overflow сайтмапы не помогают.
Стоит отметить, что Stack Overflow это большой сайт, с десятками млн трафика в сутки, 87% которого поисковый.
Google не мог пройти мимо и оставил полезный комментарий.
Сигналы из sitemap.xml используется в основном для следующих целей:
— Обнаружения нового и обновления старого контента.
— Обнаружения предпочтительных адресов для канонизации.
— Отображения количества проиндексированных урлов в Search Console.
— Отображения ошибок краулинга.
Мюллер также дает несколько рекомендаций вебмастерам:
— Используйте краулер для поиска ошибок сканирования. С помощью краулера вы узнаете, какие страницы на сайте находятся, есть ли бесконечные циклы, способен ли сервер выдерживать нагрузку краулинга.
— Проверьте, сколько на самом деле страниц на вашем сайте, и держите sitemap.xml "чистым" (без дубликатов).
— Проверьте записи логов, где присутствует Googlebot. Если там есть страницы, которых нет в вашем sitemap, то нужно перепроверить внутреннюю перелинковку (возможно, еще robots.txt).
— Проверьте, сколько страниц из sitemap на самом деле индексируется.
По словам Мюллера, для небольших сайтов sitemap, действительно, может быть лишним. Но в остальных случаях может оказаться полезным. Но, по-прежнему, гарантии не даются.
Если у вас проблема с краулингом сайта, но урлы есть в sitemap, то в первую очередь, конечно, нужно исправить структуру. — Джон Мюллер
via @devakatalk
На западе существует такое понятие, как парадокс sitemap.xml, информацию о котором опубликовали разработчики Stack Overflow в 2010. Заключается он в следующем:
1. Сайтмапы нужны для сайтов, которые сложно краулить.
2. Если Google находит ссылку в sitemap, но при этом не находит ссылку из навигации, то он не дает ей веса и не проиндексирует (в 2019 - скорей не проиндексирует).
Google не дает никаких гарантий, что документ, найденный по ссылке в sitemap.xml, будет проиндексирован.
— Даже если вы создали файл Sitemap, это не гарантирует, что Google будет сканировать и индексировать все ваши страницы, так как эти процедуры выполняются при помощи сложных алгоритмов. Цитата
Такой вот выходит парадокс.
Получается, ссылки в sitemap это лишь рекомендации, и более важными будут ссылки на сайте. То есть, разработка хорошей структуры сайта, чтобы поисковый робот мог найти каждую нужную страницу, это более важно, чем разработка sitemap.xml. По опыту Stack Overflow сайтмапы не помогают.
Стоит отметить, что Stack Overflow это большой сайт, с десятками млн трафика в сутки, 87% которого поисковый.
Google не мог пройти мимо и оставил полезный комментарий.
Сигналы из sitemap.xml используется в основном для следующих целей:
— Обнаружения нового и обновления старого контента.
— Обнаружения предпочтительных адресов для канонизации.
— Отображения количества проиндексированных урлов в Search Console.
— Отображения ошибок краулинга.
Мюллер также дает несколько рекомендаций вебмастерам:
— Используйте краулер для поиска ошибок сканирования. С помощью краулера вы узнаете, какие страницы на сайте находятся, есть ли бесконечные циклы, способен ли сервер выдерживать нагрузку краулинга.
— Проверьте, сколько на самом деле страниц на вашем сайте, и держите sitemap.xml "чистым" (без дубликатов).
— Проверьте записи логов, где присутствует Googlebot. Если там есть страницы, которых нет в вашем sitemap, то нужно перепроверить внутреннюю перелинковку (возможно, еще robots.txt).
— Проверьте, сколько страниц из sitemap на самом деле индексируется.
По словам Мюллера, для небольших сайтов sitemap, действительно, может быть лишним. Но в остальных случаях может оказаться полезным. Но, по-прежнему, гарантии не даются.
Если у вас проблема с краулингом сайта, но урлы есть в sitemap, то в первую очередь, конечно, нужно исправить структуру. — Джон Мюллер
via @devakatalk
Илья Русаков обратил внимание на сообщение от Я.Справочника, где указано, что подтвержденная владельцем организации информация в справочнике добавляет специальный значок и увеличивает приоритет карточки в поисковой выдаче — пользователи видят их на 20% чаще.
В комментариях разобрались, что речь, к сожалению, не об органике, а о ранжировании на картах при поисковом запросе в картах.
Для локального SEO в Яндексе обновлять карточку организации в Справочнике, отвечать на отзывы и добавлять новые фото раз в квартал - must have.
В комментариях разобрались, что речь, к сожалению, не об органике, а о ранжировании на картах при поисковом запросе в картах.
Для локального SEO в Яндексе обновлять карточку организации в Справочнике, отвечать на отзывы и добавлять новые фото раз в квартал - must have.
Хорошее исследование отзывов и рейтингов организаций на картах Google от RocketData
https://www.seonews.ru/analytics/skolko-otzyvov-nuzhno-kompanii-chtoby-konkurirovat-na-lokalnom-rynke/
— В среднем, местные компании имеют 39 отзывов в Google. Покупатели же доверяют тем, у которых есть хотя бы 40, судя по данным исследования. А для попадания в выдачу local pack, в среднем, организации необходимо 47 отзывов.
— 74% локальных бизнесов имеют, как минимум, один отзыв.
— Бары, рестораны, отели – те категории локального бизнеса, которые имеют больше всего отзывов.
— Средний рейтинг местных компаний в Google – 4.42
— Социальные службы, автосалоны и отели имеют самые низкие рейтинги.
— Всего 5% компаний имеют рейтинг Google ниже 3 звезд, 61% имеют, в среднем, 4–5 звезд.
https://www.seonews.ru/analytics/skolko-otzyvov-nuzhno-kompanii-chtoby-konkurirovat-na-lokalnom-rynke/
— В среднем, местные компании имеют 39 отзывов в Google. Покупатели же доверяют тем, у которых есть хотя бы 40, судя по данным исследования. А для попадания в выдачу local pack, в среднем, организации необходимо 47 отзывов.
— 74% локальных бизнесов имеют, как минимум, один отзыв.
— Бары, рестораны, отели – те категории локального бизнеса, которые имеют больше всего отзывов.
— Средний рейтинг местных компаний в Google – 4.42
— Социальные службы, автосалоны и отели имеют самые низкие рейтинги.
— Всего 5% компаний имеют рейтинг Google ниже 3 звезд, 61% имеют, в среднем, 4–5 звезд.
Сегодня с 11:00 до 13:00 буду отвечать на ваши вопросы по SEO в группе "Центр digital-экспертизы" на Facebook — bit.ly/2WWQLCX
Задавайте!
UPD. Если видите ошибку при переходе по ссылке, то вам нужно сначала вступить в группу http://fb.com/groups/centredigitalexpert
Задавайте!
UPD. Если видите ошибку при переходе по ссылке, то вам нужно сначала вступить в группу http://fb.com/groups/centredigitalexpert
Forwarded from vc.ru
This media is not supported in your browser
VIEW IN TELEGRAM
С августа YouTube будет округлять счётчики подписчиков. Например, вместо 51 389 232 сервис покажет просто «51 млн»: vc.ru/social/68490
Это доставит проблемы компаниям, которые отслеживают взлёты и падения блогеров во время важных для сообщества событий
Это доставит проблемы компаниям, которые отслеживают взлёты и падения блогеров во время важных для сообщества событий
Полный список причин ручных санкций Google
https://support.google.com/webmasters/answer/9044175?hl=ru
1. UGC-спам на сайте
Коммерческие ссылки в комментариях, профилях и прочих местах, которые могут добавить любые пользователи. Модерируйте то, что размещают посетители.
2. Спам-соседи на вашем хостинге
Обычно распространяется на бесплатные хостинги (с большим количеством спама), но не только. Взломать могут и ваш платный хостинг/сервер. Уделяйте внимание защите.
3. Проблемы со структурированными данными
Грубо говоря, спам в микроразметке (в прошлом году этот пункт так и назывался). При использовании микроразметки необходимо следовать рекомендациям по обеспечению ее качества.
4. SEO-ссылки
Которые детектятся как покупные или специально размещенные для SEO. Не палитесь!
5. Продажа ссылок
На этом много не заработаешь, лучше займитесь ревьюшником под партнерку. Фильтр за продажу ссылок - один из самых старых, гугл детектит это очень просто.
6. Бесполезный контент
На английском "контент без добавочной ценности". Обычно это динамически сгенерированные по шаблону страницы, или контент, собранный из других источников.
7. Клоакинг и скрытые редиректы
Когда вы роботу показываете не то же самое, что пользователю. Или редиректите пользователя на страницу, где вход роботу запрещен. Обычно используют порно-сайты. Не спрашивайте, откуда я это знаю.
8. Агрессивный спам
Под этим подразумевается смесь разных спам-методов. Это совсем чернуха, на нормальных сайтах не встречал, разве что на взломанных.
9. Клоакинг изображений
Было ли у вас когда-нибудь, что используете поиск по изображениям, находите нужное, переходите на сайт, а там совсем другое? Это называется маскировка изображений и такое никто не любит. У гугла есть отдельный анализатор на такие вещи.
10. Скрытый seo-текст или переспам ключами
Если какой-то текст или ссылки скрываете, убедитесь, что классификатор гугла не определит его как сеошный. Однажды сталкивался с таким на крупном украинском автобазаре, но ребята быстро исправились, фильтр был снят.
11. Несоответствие AMP-версии страницы и канонической
Приравнивается к клоакингу. Различия в тексте допускаются, но тема и доступные функции должны быть одни и те же.
12. Мобильные редиректы
Их часто используют для монетизации мобильного трафика. Иногда неосознанно, разместив вроде безобидный код нового рекламодателя. Заходите периодически на свои сайты с мобильных устройств.
Кстати, не во всех случаях вы получите уведомление в панель для вебмастеров. Имейте это в виду.
via @devakatalk
https://support.google.com/webmasters/answer/9044175?hl=ru
1. UGC-спам на сайте
Коммерческие ссылки в комментариях, профилях и прочих местах, которые могут добавить любые пользователи. Модерируйте то, что размещают посетители.
2. Спам-соседи на вашем хостинге
Обычно распространяется на бесплатные хостинги (с большим количеством спама), но не только. Взломать могут и ваш платный хостинг/сервер. Уделяйте внимание защите.
3. Проблемы со структурированными данными
Грубо говоря, спам в микроразметке (в прошлом году этот пункт так и назывался). При использовании микроразметки необходимо следовать рекомендациям по обеспечению ее качества.
4. SEO-ссылки
Которые детектятся как покупные или специально размещенные для SEO. Не палитесь!
5. Продажа ссылок
На этом много не заработаешь, лучше займитесь ревьюшником под партнерку. Фильтр за продажу ссылок - один из самых старых, гугл детектит это очень просто.
6. Бесполезный контент
На английском "контент без добавочной ценности". Обычно это динамически сгенерированные по шаблону страницы, или контент, собранный из других источников.
7. Клоакинг и скрытые редиректы
Когда вы роботу показываете не то же самое, что пользователю. Или редиректите пользователя на страницу, где вход роботу запрещен. Обычно используют порно-сайты. Не спрашивайте, откуда я это знаю.
8. Агрессивный спам
Под этим подразумевается смесь разных спам-методов. Это совсем чернуха, на нормальных сайтах не встречал, разве что на взломанных.
9. Клоакинг изображений
Было ли у вас когда-нибудь, что используете поиск по изображениям, находите нужное, переходите на сайт, а там совсем другое? Это называется маскировка изображений и такое никто не любит. У гугла есть отдельный анализатор на такие вещи.
10. Скрытый seo-текст или переспам ключами
Если какой-то текст или ссылки скрываете, убедитесь, что классификатор гугла не определит его как сеошный. Однажды сталкивался с таким на крупном украинском автобазаре, но ребята быстро исправились, фильтр был снят.
11. Несоответствие AMP-версии страницы и канонической
Приравнивается к клоакингу. Различия в тексте допускаются, но тема и доступные функции должны быть одни и те же.
12. Мобильные редиректы
Их часто используют для монетизации мобильного трафика. Иногда неосознанно, разместив вроде безобидный код нового рекламодателя. Заходите периодически на свои сайты с мобильных устройств.
Кстати, не во всех случаях вы получите уведомление в панель для вебмастеров. Имейте это в виду.
via @devakatalk
keywordseverywhere.com — крутой бесплатный плагин, который добавляет данные о частотности ключевых слов везде, где вы их видите. Данные предоставляются из Google Keyword Planner. Позволяет также проводить анализ текста страницы в один клик. Собирать семантическое ядро с этим плагином намного проще.
Можно тянуть отдельно частотности из США, Канады, Австралии и пары других стран. Идеально подходит для работы с англоязычными проектами.
Данные о частотности фраз вы увидите сразу в поисковых подсказках Google, YouTube, Amazon, eBay, Etsy и других платформ. Также данные подтягиваются в таблицы Google Analytics и Search Console. В общем, инструмент - бомба!
via @devakatalk
Можно тянуть отдельно частотности из США, Канады, Австралии и пары других стран. Идеально подходит для работы с англоязычными проектами.
Данные о частотности фраз вы увидите сразу в поисковых подсказках Google, YouTube, Amazon, eBay, Etsy и других платформ. Также данные подтягиваются в таблицы Google Analytics и Search Console. В общем, инструмент - бомба!
via @devakatalk