Горькая правда о SEO: 30-40% рекомендаций из общего аудита не дают никакого эффекта
https://moz.com/blog/surprising-seo-ab-test-results
Иногда тратишь кучу времени, улучшая разные аспекты сайта, но не получаешь ощутимых изменений. В другой раз оптимизируешь заголовки, чтобы добавить новые ключи и сделать их более привлекательными, а позиции при этом падают... Все, что работало для одного проекта может не сработать для другого. Нужно постоянно экспериментировать.
В SEO не нужно делать какие-то вещи на 100% лучше, чем у других; нужно делать 100 разных вещей, но на 1% лучше.
via @devakatalk
https://moz.com/blog/surprising-seo-ab-test-results
Иногда тратишь кучу времени, улучшая разные аспекты сайта, но не получаешь ощутимых изменений. В другой раз оптимизируешь заголовки, чтобы добавить новые ключи и сделать их более привлекательными, а позиции при этом падают... Все, что работало для одного проекта может не сработать для другого. Нужно постоянно экспериментировать.
В SEO не нужно делать какие-то вещи на 100% лучше, чем у других; нужно делать 100 разных вещей, но на 1% лучше.
via @devakatalk
У ссылок есть интересная особенность: они актуальны только на момент, когда вебмастер их поставил.
Представьте Википедию, содержащую сотни миллионов ссылок. С такими объемами их сложно контроллировать. Совсем недавно около 9 млн. ссылок на Википедии были битыми, так как ресурсы, на которые они вели, уже не существовали. Сейчас эти ссылки заменили и они ведут на вебархив, чтобы хоть как-то остаться актуальными. Проекты становятся зависимыми друг от друга.
https://blog.archive.org/2018/10/01/more-than-9-million-broken-links-on-wikipedia-are-now-rescued/
Ссылки в живом вебе ненадежны. И битые ссылки лишь часть проблемы. Хуже, когда ссылка ведет на измененный контент (привет дропам). Поисковики, кстати, эту проблему тоже понимают и, я уверен, учитывают в алгоритмах. По этой причине инвестировать в seo-ссылки, рассчитывая на долгосрочные перспективы — плохая затея. Хотя и без ссылок в SEO сейчас никуда.
Представьте Википедию, содержащую сотни миллионов ссылок. С такими объемами их сложно контроллировать. Совсем недавно около 9 млн. ссылок на Википедии были битыми, так как ресурсы, на которые они вели, уже не существовали. Сейчас эти ссылки заменили и они ведут на вебархив, чтобы хоть как-то остаться актуальными. Проекты становятся зависимыми друг от друга.
https://blog.archive.org/2018/10/01/more-than-9-million-broken-links-on-wikipedia-are-now-rescued/
Ссылки в живом вебе ненадежны. И битые ссылки лишь часть проблемы. Хуже, когда ссылка ведет на измененный контент (привет дропам). Поисковики, кстати, эту проблему тоже понимают и, я уверен, учитывают в алгоритмах. По этой причине инвестировать в seo-ссылки, рассчитывая на долгосрочные перспективы — плохая затея. Хотя и без ссылок в SEO сейчас никуда.
Мы с Игорем Рудником решили продолжить серию вебинаров в формате "на диване". Встречайте, второй сезон! Сегодня поговорим про ИКС, пока еще тема горячая. Что нужно делать обычному вебмастеру, когда ТИЦ стал ИКС?
→ https://youtu.be/OQqSQIv3cGI
А вот ссылка на крутой курс, если еще не знакомы:
→ https://semantica.devaka.ru
→ https://youtu.be/OQqSQIv3cGI
А вот ссылка на крутой курс, если еще не знакомы:
→ https://semantica.devaka.ru
Джон Мюллер на форуме гугла для вебмастеров высказался на счет ссылок, что вызвало волну негодования среди западных оптимизаторов.
https://productforums.google.com/forum/#!topic/webmasters/ZN_kjT7CZDc/discussion
Мюллер: Если вы размещаете на свой сайт качественные обратные ссылки, это не будет соответствовать нашим рекомендациям для вебмастеров, соответственно, эти ссылки определенно не будут рассматриваться, как качественные.
Цирус Шепард прокомментировал в твиттере, что Мюллер был пьян, когда это писал.
Билл Славский сказал, что без ссылок не было бы интернета.
Но больше всего мне понравился комментарий от Питта Майерса:
Линкбилдинг это неестественно? Вообще-то поисковые системы тоже не появились естественным путем. Любая гребанная вещь является неестественной. Ссылки не появляются каким-то магическим способом из-за того, что мы глубоко дышим и верим в космос. Их всегда кто-то ставит.
P.S. А изначальный вопрос, кстати, был про domain authority главного домена при наличии ссылки на поддомен.
https://productforums.google.com/forum/#!topic/webmasters/ZN_kjT7CZDc/discussion
Мюллер: Если вы размещаете на свой сайт качественные обратные ссылки, это не будет соответствовать нашим рекомендациям для вебмастеров, соответственно, эти ссылки определенно не будут рассматриваться, как качественные.
Цирус Шепард прокомментировал в твиттере, что Мюллер был пьян, когда это писал.
Билл Славский сказал, что без ссылок не было бы интернета.
Но больше всего мне понравился комментарий от Питта Майерса:
Линкбилдинг это неестественно? Вообще-то поисковые системы тоже не появились естественным путем. Любая гребанная вещь является неестественной. Ссылки не появляются каким-то магическим способом из-за того, что мы глубоко дышим и верим в космос. Их всегда кто-то ставит.
P.S. А изначальный вопрос, кстати, был про domain authority главного домена при наличии ссылки на поддомен.
Поведенческие факторы - сильный сигнал для поисковой системы. Рэнд как-то попросил в твиттере, чтобы подписчики ввели определенный запрос и выполнили определенный сценарий кликов. Примерно через час сайт с четвертой позиции переместился на первую... Но не стоит просто так просить своих друзей кликать :) просто улучшайте ПФ.
Но что именно подразумевается под ПФ? Нейль Патель считает, что основные составляющие здесь:
- Показатель отказов, просмотры на посетителя, время на сайте
- Дружественность к мобильным устройствам
- Среднее время загрузки
- Процент вернувшихся пользователей
- Процент трафика по брендовым запросам
- CTR
Эти предположения не безосновательны, а получены в результате исследования сайтов, которые никогда не попадали под санкции Google.
См. подробный перевод на SeoNews:
https://www.seonews.ru/analytics/kak-vyglyadyat-sayty-nikogda-ne-popadavshie-pod-sanktsii-google/
Но что именно подразумевается под ПФ? Нейль Патель считает, что основные составляющие здесь:
- Показатель отказов, просмотры на посетителя, время на сайте
- Дружественность к мобильным устройствам
- Среднее время загрузки
- Процент вернувшихся пользователей
- Процент трафика по брендовым запросам
- CTR
Эти предположения не безосновательны, а получены в результате исследования сайтов, которые никогда не попадали под санкции Google.
См. подробный перевод на SeoNews:
https://www.seonews.ru/analytics/kak-vyglyadyat-sayty-nikogda-ne-popadavshie-pod-sanktsii-google/
Крутая идея от Рэнда Фишкина добавить следующий пункт в условия использования сайта:
Пункт 3: Правила для поисковых систем и листингов
Любая поисковая система или автоматический краулер, который перепубликует контент полностью или частично на странице со списком (так называемой "результаты поиска" или "serp") с этого сайта ДОЛЖНА разместить этот контент в самом верху списка/результатов. Расположение любого URL, контента или ресурсов, сосканированных с сайта ниже рекламных блоков, урлов, контента или ресурсов любых других сайтов является нарушением условий использования данного сайта.
И в следующий раз, когда поисковики будут жаловаться, что линкбилдинг или парсинг выдачи нарушает их правила, вы можете сослаться на свои. Просто нет причин, что их правила важнее ваших.
via @devakatalk
Пункт 3: Правила для поисковых систем и листингов
Любая поисковая система или автоматический краулер, который перепубликует контент полностью или частично на странице со списком (так называемой "результаты поиска" или "serp") с этого сайта ДОЛЖНА разместить этот контент в самом верху списка/результатов. Расположение любого URL, контента или ресурсов, сосканированных с сайта ниже рекламных блоков, урлов, контента или ресурсов любых других сайтов является нарушением условий использования данного сайта.
И в следующий раз, когда поисковики будут жаловаться, что линкбилдинг или парсинг выдачи нарушает их правила, вы можете сослаться на свои. Просто нет причин, что их правила важнее ваших.
via @devakatalk
Forwarded from SEO-специалист (seospecialist)
Google опубликовал руководство по динамическому рендерингу
Google опубликовал справочное руководство по динамическому рендерингу – новой технологии, которая призвана облегчить сканирование, индексирование и ранжирование JavaScript-страниц.
Динамический рендеринг состоит в переключении между контентом, обрабатываемым на стороне клиента (client-side rendered), и предварительно обработанным контентом (pre-rendered) для определённых агентов пользователя.
Это значит, что с помощью динамического рендеринга можно предоставлять Google HTML-версию страницы, при этом пользователю показывая JavaScript-версию.
В новом руководстве рассказывается, в каких случаях следует использовать Dynamic Rendering и как его внедрить.
Кому нужно это решение
Согласно Google, в настоящее время поисковым системам сложно обрабатывать JavaScript и не все краулеры способны выполнить эту задачу сразу и успешно. В компании полагают, что в конечном итоге эта проблема будет устранена, но на данный момент рекомендуется использовать как рабочее решение динамический рендеринг.
Как работает динамический рендеринг
Это решение требует, чтобы веб-сервер определял краулеров (например, проверяя агента пользователя). Запросы от краулеров передаются рендереру, а запросы от пользователей обрабатываются в обычном режиме. Когда необходимо, динамический рендерер предоставляет ту версию контента, которая подходит для определённого краулера. Например, это может быть статическая HTML-версия.
Пошаговые инструкции по внедрению этого решения (на английском языке) можно найти в этом разделе документации.
Источник перевода: searchengines
#новости #spa #js via @seospecialist
Google опубликовал справочное руководство по динамическому рендерингу – новой технологии, которая призвана облегчить сканирование, индексирование и ранжирование JavaScript-страниц.
Динамический рендеринг состоит в переключении между контентом, обрабатываемым на стороне клиента (client-side rendered), и предварительно обработанным контентом (pre-rendered) для определённых агентов пользователя.
Это значит, что с помощью динамического рендеринга можно предоставлять Google HTML-версию страницы, при этом пользователю показывая JavaScript-версию.
В новом руководстве рассказывается, в каких случаях следует использовать Dynamic Rendering и как его внедрить.
Кому нужно это решение
Согласно Google, в настоящее время поисковым системам сложно обрабатывать JavaScript и не все краулеры способны выполнить эту задачу сразу и успешно. В компании полагают, что в конечном итоге эта проблема будет устранена, но на данный момент рекомендуется использовать как рабочее решение динамический рендеринг.
Как работает динамический рендеринг
Это решение требует, чтобы веб-сервер определял краулеров (например, проверяя агента пользователя). Запросы от краулеров передаются рендереру, а запросы от пользователей обрабатываются в обычном режиме. Когда необходимо, динамический рендерер предоставляет ту версию контента, которая подходит для определённого краулера. Например, это может быть статическая HTML-версия.
Пошаговые инструкции по внедрению этого решения (на английском языке) можно найти в этом разделе документации.
Источник перевода: searchengines
#новости #spa #js via @seospecialist
19 октября состоится очередная онлайн-конференция SEO Day от WebPromoExperts, по которой, наверняка, вы уже соскучились. Участие онлайн, как всегда, бесплатное.
Из докладов вы узнаете:
— как получить “мощные" ссылки с помощью гостевых постов;
— самые последние новинки и обновления от Google;
— как стать успешным SEO-автоматизатором и какие навыки для этого нужны;
— фишки и лайфхаки в крауд-маркетинге, которые стоит применять на практике;
— как сделать лучший ссылочный профиль, если ты новичок;
— актуальные SEO-методы на 2019 год и многое другое.
Подробности: https://devaka.ru/events/seoday8
Из докладов вы узнаете:
— как получить “мощные" ссылки с помощью гостевых постов;
— самые последние новинки и обновления от Google;
— как стать успешным SEO-автоматизатором и какие навыки для этого нужны;
— фишки и лайфхаки в крауд-маркетинге, которые стоит применять на практике;
— как сделать лучший ссылочный профиль, если ты новичок;
— актуальные SEO-методы на 2019 год и многое другое.
Подробности: https://devaka.ru/events/seoday8
Как вы заметили, в этом канале я размещаю рекламу (и считаю это нормальным и полезным для всех). При этом, я вас никогда не обману и каждый рекламный пост буду помечать, как и раньше, соответствующими тегами #реклама и #постщедрооплачен.
На заказ я не пишу, нативную рекламу не размещаю, а публикую то, что прислал рекламодатель, добавляя пометки. Если же я что-то хочу вам порекомендовать от себя, то рекламирую это от души и денег или чего-либо другого за это не беру.
Отличных вам выходных!
На заказ я не пишу, нативную рекламу не размещаю, а публикую то, что прислал рекламодатель, добавляя пометки. Если же я что-то хочу вам порекомендовать от себя, то рекламирую это от души и денег или чего-либо другого за это не беру.
Отличных вам выходных!
В SEO можно получать опыт самостоятельно, наступая на грабли и месяцами выискивая рабочие стратегии. А можно пойти на курсы к Деваке и, наконец-то, понять, как все работает и сдвинуть свой сайт с места.
Уже через неделю стартует мой новый курс по SEO. Можно участвовать онлайн, можно оффлайн, если вы в Днепре. Записывайтесь, есть места!
→ https://devaka.ru/events/seo-kursy
Мои курсы помогут вам:
— Узнать, как улучшить видимость сайта в Google и Яндексе белыми методами.
— Найти точки роста проекта.
— Изучить последние SEO-техники.
— Создать бесстресовую SEO-стратегию для вашего проекта под моим руководством.
— Открыть глаза на многие вещи.
Даже если вы давно в SEO, полученные знания помогут вам структурировать всю информацию. Курсы ориентированы именно на тех, кто уже понимает основы, но сомневается в правильности действий или хочет узнать больше.
До встречи!
Уже через неделю стартует мой новый курс по SEO. Можно участвовать онлайн, можно оффлайн, если вы в Днепре. Записывайтесь, есть места!
→ https://devaka.ru/events/seo-kursy
Мои курсы помогут вам:
— Узнать, как улучшить видимость сайта в Google и Яндексе белыми методами.
— Найти точки роста проекта.
— Изучить последние SEO-техники.
— Создать бесстресовую SEO-стратегию для вашего проекта под моим руководством.
— Открыть глаза на многие вещи.
Даже если вы давно в SEO, полученные знания помогут вам структурировать всю информацию. Курсы ориентированы именно на тех, кто уже понимает основы, но сомневается в правильности действий или хочет узнать больше.
До встречи!
Поиграли и хватит. Google закрывает свою соцсеть Google+
https://www.searchengines.ru/google-plus-rip.html
https://www.searchengines.ru/google-plus-rip.html
#seoфишка
Как вы знаете, гугловский кеш для многих сайтов поломался после перехода на Mobile Indexing. Попробуйте сменить свой домен в урле на что-то случайное (с существующей доменной зоной) и вы увидите кеш своей страницы.
via @devakatalk
Как вы знаете, гугловский кеш для многих сайтов поломался после перехода на Mobile Indexing. Попробуйте сменить свой домен в урле на что-то случайное (с существующей доменной зоной) и вы увидите кеш своей страницы.
via @devakatalk
Новый выпуск "На диване". Обсуждаем стоимость статей, а также различие между копирайтингом, рерайтингом и авторским контентом. Заодно узнаете, сколько у меня уходит времени на написание статей)
https://youtu.be/MQ5tXiZXZP4
https://youtu.be/MQ5tXiZXZP4
Forwarded from SEO-специалист (seospecialist)
После вчерашнего апдейта сильно тряхнуло коммерцию. Некоторые позиции из ТОП 10 по ВЧ вылетели за ТОП 100, некоторые просели в среднем на 50 пунктов. Ещё наблюдается смена релевантных страниц по поисковым запросам.
❗Без паники. Ниже на скрине ответ представителя Яндекса Елены Першиной, его можно считать официальным.
#новости via @seospecialist
❗Без паники. Ниже на скрине ответ представителя Яндекса Елены Першиной, его можно считать официальным.
#новости via @seospecialist
Получить органический трафик еще можно, но уже намного сложнее, чем раньше. Рэнд Фишкин в своей статье описывает текущие проблемы получения трафика из разных платформ: https://goo.gl/Ke22Qy
Интернет разделяется, и монополистам не интересны ваши сайты, они заинтересованы, чтобы пользователь оставался только внутри их платформы, постепенно его монетизируя. Это уже не новость, но мы должны быть готовы.
— Google дает меньше трафика на сайты впервые за 17-летнюю историю (по крайней мере в США). Ответы на многие вопросы пользователь получает уже на выдаче. Из провайдера трафика гугл стал провайдером информации.
— Органический трафик из Facebook стал мизерным, большая часть вашей аудитории (98%+) не видит ваших постов с ссылкой. Ситуация, где бизнес, говорящий пользователям "следуйте за нами на фейсбуке", становится ироничной.
— Реддит позволяет ссылаться на свои сайты скорей как исключение, а не правило.
— Инстаграм никогда не позволял ссылаться на внешние ресурсы и сейчас среди фаундеров возникают сомнения, стоило ли им продаваться фейсбуку.
— Амазон не борется за трафик с ecommerce-гигантами, а позволяет продавать на своей платформе и покупать рекламу для поиска собственных продуктов.
— Google обещает показывать больше ответов на поиске, прогнозируя потребность пользователя еще до того, как он ее осознаст, и генерируя ответы из вашего контента, но не ссылаясь на источники.
— Apple News дает большое вовлечение пользователей для авторов контента, но держит всех внутри приложения, ограничивая ссылки вовне.
— Линкедин понижает посты с ссылками. Твиттер, похоже, идет по тому же пути. Посты без ссылок имеют больше охвата и вовлечения.
— Ютуб разработал умную систему скрытия ссылок в описании. Нужно кликнуть "посмотреть больше", чтобы увидеть ссылку.
За последние 5 лет не было ни одной крупной платформы, которая бы поощряла или улучшала цитирование внешних ресурсов. Наступила эра менее связного Веба, направленного на вовлечение пользователей, а не на распространение контента.
Уже не получится просто так генерировать органический трафик, рассчитывая на гугл, твиттер и фейсбук. Нужно активно подключать рекламу, email-маркетинг и все другие возможные инструменты.
via @devakatalk
Интернет разделяется, и монополистам не интересны ваши сайты, они заинтересованы, чтобы пользователь оставался только внутри их платформы, постепенно его монетизируя. Это уже не новость, но мы должны быть готовы.
— Google дает меньше трафика на сайты впервые за 17-летнюю историю (по крайней мере в США). Ответы на многие вопросы пользователь получает уже на выдаче. Из провайдера трафика гугл стал провайдером информации.
— Органический трафик из Facebook стал мизерным, большая часть вашей аудитории (98%+) не видит ваших постов с ссылкой. Ситуация, где бизнес, говорящий пользователям "следуйте за нами на фейсбуке", становится ироничной.
— Реддит позволяет ссылаться на свои сайты скорей как исключение, а не правило.
— Инстаграм никогда не позволял ссылаться на внешние ресурсы и сейчас среди фаундеров возникают сомнения, стоило ли им продаваться фейсбуку.
— Амазон не борется за трафик с ecommerce-гигантами, а позволяет продавать на своей платформе и покупать рекламу для поиска собственных продуктов.
— Google обещает показывать больше ответов на поиске, прогнозируя потребность пользователя еще до того, как он ее осознаст, и генерируя ответы из вашего контента, но не ссылаясь на источники.
— Apple News дает большое вовлечение пользователей для авторов контента, но держит всех внутри приложения, ограничивая ссылки вовне.
— Линкедин понижает посты с ссылками. Твиттер, похоже, идет по тому же пути. Посты без ссылок имеют больше охвата и вовлечения.
— Ютуб разработал умную систему скрытия ссылок в описании. Нужно кликнуть "посмотреть больше", чтобы увидеть ссылку.
За последние 5 лет не было ни одной крупной платформы, которая бы поощряла или улучшала цитирование внешних ресурсов. Наступила эра менее связного Веба, направленного на вовлечение пользователей, а не на распространение контента.
Уже не получится просто так генерировать органический трафик, рассчитывая на гугл, твиттер и фейсбук. Нужно активно подключать рекламу, email-маркетинг и все другие возможные инструменты.
via @devakatalk
Раньше была такая схема монетизации ютуба:
- Берется не сильно конкурентная, но востребованная ниша
- Анализируются вопросы в семантике. Например, через answerthepublic.com
- Для каждого вопроса генерируется ответ (например, через парсинг выдачи гугла или других сайтов) с учетом компиляции
- Автоматически генерируется видео с вопросом, текстовым и аудио-ответом (начитанным роботом) и заливается на ютуб
- Включается монетизация - и поехала машина
На днях гугл прикрыл лавочку и отключает от партнерской программы всех, кто размещает у себя на канале дублированный контент:
- Автогенерированный
- Взятый из других источников
- Или с использованием подходов для обхода инструментов по защите авторских прав
→ https://www.searchengines.ru/youtube-dubl.html
P.S. Кстати, иногда классификатор срабатывает неверно и из ПП удаляют нормальные каналы, что видно из комментариев на форуме гугла.
P.P.S. Думаю, скоро в гугле возьмутся и за сеошников, использующих ютуб не по назначению.
- Берется не сильно конкурентная, но востребованная ниша
- Анализируются вопросы в семантике. Например, через answerthepublic.com
- Для каждого вопроса генерируется ответ (например, через парсинг выдачи гугла или других сайтов) с учетом компиляции
- Автоматически генерируется видео с вопросом, текстовым и аудио-ответом (начитанным роботом) и заливается на ютуб
- Включается монетизация - и поехала машина
На днях гугл прикрыл лавочку и отключает от партнерской программы всех, кто размещает у себя на канале дублированный контент:
- Автогенерированный
- Взятый из других источников
- Или с использованием подходов для обхода инструментов по защите авторских прав
→ https://www.searchengines.ru/youtube-dubl.html
P.S. Кстати, иногда классификатор срабатывает неверно и из ПП удаляют нормальные каналы, что видно из комментариев на форуме гугла.
P.P.S. Думаю, скоро в гугле возьмутся и за сеошников, использующих ютуб не по назначению.
При наличии нескольких копий одного документа в сети, наиболее авторитетный становится каноническим, остальные считаются дублями. Входящие ссылки на дубли становятся входящими ссылками на канонический документ. Это называется инвертирование ссылок.
Тему инвертированных ссылок поднял Дэн Петрович
→ https://dejanseo.com.au/link-inversion/
И его сразу же подхватил Билл Славский, рассмотрев свежие патенты по теме
→ http://www.seobythesea.com/2018/10/how-google-might-identify-primary-versions-of-duplicate-pages/
Предположим, сегодня вы публикуете новую страницу на сайте и через несколько дней мелкие сайты копируют ее. У вас максимальный авторитет и ваша страница будет считаться канонической. Все остальные урлы будут дублями и ссылки на них будут учитываться для вашей страницы. Пока очень круто! Но через недельку Google найдет копию на более авторитетном ресурсе. Тепеть уже вы являетесь дублем и все входящие ссылки будут продвигать каноничесчкий документ.
Кстати, в Search Console, вместе с ссылками на ваши страницы вы увидите также ссылки на дубли.
Билл поискал подходящие патенты, чтобы разобраться, что именно влияет на авторитет дубля. Там говорится о мета-данных, которые включают в себя:
- Источник
- Права на контент
- Информация о цитировании
- Ключевые слова
- PageRank и пр.
При анализе научных трудов могут также использоваться имена авторов, время публикации, язык и др.
В общем, Билл считает, что не все так однозначно, как об этом написал Дэн, но в целом, явление инвертированных ссылок есть. Это показывают быстрые тесты на выдаче. Ну и, наверняка, вы уже замечали левые ссылки в Search Console. Если хотите, чтобы Google всегда выбирал ваши страницы как канонические, работайте над авторитетом сайта!
via @devakatalk
Тему инвертированных ссылок поднял Дэн Петрович
→ https://dejanseo.com.au/link-inversion/
И его сразу же подхватил Билл Славский, рассмотрев свежие патенты по теме
→ http://www.seobythesea.com/2018/10/how-google-might-identify-primary-versions-of-duplicate-pages/
Предположим, сегодня вы публикуете новую страницу на сайте и через несколько дней мелкие сайты копируют ее. У вас максимальный авторитет и ваша страница будет считаться канонической. Все остальные урлы будут дублями и ссылки на них будут учитываться для вашей страницы. Пока очень круто! Но через недельку Google найдет копию на более авторитетном ресурсе. Тепеть уже вы являетесь дублем и все входящие ссылки будут продвигать каноничесчкий документ.
Кстати, в Search Console, вместе с ссылками на ваши страницы вы увидите также ссылки на дубли.
Билл поискал подходящие патенты, чтобы разобраться, что именно влияет на авторитет дубля. Там говорится о мета-данных, которые включают в себя:
- Источник
- Права на контент
- Информация о цитировании
- Ключевые слова
- PageRank и пр.
При анализе научных трудов могут также использоваться имена авторов, время публикации, язык и др.
В общем, Билл считает, что не все так однозначно, как об этом написал Дэн, но в целом, явление инвертированных ссылок есть. Это показывают быстрые тесты на выдаче. Ну и, наверняка, вы уже замечали левые ссылки в Search Console. Если хотите, чтобы Google всегда выбирал ваши страницы как канонические, работайте над авторитетом сайта!
via @devakatalk
👍1
5 декабря в Москве состоится Digital-квартирник, на котором, по традиции, собираются все сеошники Рунета и владельцы онлайн-проектов для знакомства, обсуждения трендов и обмена секретами... Смело рекомендую посетить, особенно если любите общаться и тусить. В прошлом году мне понравилось, даже несколько докладов слушал с интересом.
Подробности и регистрация:
→ https://seminary.studiof1.ru
Читатели @devakatalk могут рассчитывать на скидку 25% по промо-коду "devaka".
Подробности и регистрация:
→ https://seminary.studiof1.ru
Читатели @devakatalk могут рассчитывать на скидку 25% по промо-коду "devaka".
Файзан Али, арбитражник из Пакистана, поделился кейсом восстановления трафика сайта после августовского апдейта Google — https://goo.gl/heTfdj
Вероятно вы знаете об этом апдейте. Его назвали медицинским, так как сильней всего апдейт повлиял на нишу здоровья. Али делится своими наблюдениями. Возможно, они вам также помогут восстановить позиции.
Али работает с сайтами, созданными под партнерки и до 1 августа органика на них составляла 35к посетителей в сутки. После апдейта (подождали неделю, пока он устаканится) органический трафик сократился на 15-20%. Это немного, по сравнению с падением у других вебмастеров, которое достигало 50% и больше. Но тоже печально.
Что было сделано? Первым делом были еще раз изучены рекомендации для асессоров "Google Search Quality Guidelines", которые как раз обновлялись в июле, за 10 дней до апдейта (см. кратко об изменениях). В них упоминается такой термин, как E.A.T (Экспертиза, Авторитет и Доверие), хотя еще и с 2014 года. Вероятно, в этом апдейте Google вычистил выдачу от инфосайтов с низким доверием. Больше всего под раздачу попали темы "как быть счастливым, здоровым, финансово-независимым и жить безопасно". Какой-то из сайтов Али попал под эту категорию.
Так как ряд моментов на сайтах соответствовали требованиям качества, они не потеряли много трафика. А именно, по словам автора, изначально были сделаны следующие вещи:
— Контент создавался на основе пользовательских рекомендаций
— Учитывалась тематическая релевантность постов
— У контента были авторитетные обратные ссылки
— Уделялось внимание скорости загрузки на десктопе и мобайле
— Анализировалось и улучшалось пользовательское поведение на мобильных устройствах
А вот что было сделано конкретно после апдейта:
1. Среди авторов издания выделили наиболее авторитетного и назначили его автором главных статей.
По рекомендациям Google автор издания должен иметь доверие. Если у вас нет авторитетных писателей, то нужно их создавать, рассматривать автора как бренд. Доверие к автору также важно, как и доверие к сайту.
2. Создали детальную страницу "О нас" и страницу авторов. Последние это просто страницы с ссылками на статьи, опубликованные конкретным автором.
3. Авторы стали более активными в соцсетях. Лучший способ рекламировать свой контент это поделиться им на страницах авторов. Цель здесь - получить социальное доказательство.
4. Создали тематическую релевантность статей. Допустим, у вас есть статья по теме "Как тренировать собак". Необходимо создавать больше статей на эту тему. И они должны касаться тренировки собак и не отклоняться в сторону их питания. Внутренние ссылки должны идти на похожие темы, чтобы краулер находил только инфу, соответствующую родительскому ключевому слову. Это увеличивает релевантность страницы.
5. Получили упоминания и ссылки с авторитетных РЕЛЕВАНТНЫХ сайтов. Нельзя хорошо ранжироваться без нормальных ссылок, кто бы что не говорил. Но теперь это делать сложнее, так как Google делает акцент на E.A.T. А работа над E.A.T. требует времени, чтобы создать норм контент и распространить его по норм сайтам. Команда Али работала в поте лица, чтобы получить эти ссылки.
Для некоторых статей дополнительно оптимизировались мета-описания для повышения CTR. После внедрения изменений главный ключ вернулся с 10й позиции на 4ю. И несколько других важных ключей вернулись на свои позиции.
Описанные моменты не гарантируют топ1, но Али красавчик, что поделился! Уделите внимание изучению рекомендаций для асессоров, это может сильно помочь. А также работайте над юзабилити мобильной версии, так как Mobile Indexing это не шутка.
via @devakatalk
Вероятно вы знаете об этом апдейте. Его назвали медицинским, так как сильней всего апдейт повлиял на нишу здоровья. Али делится своими наблюдениями. Возможно, они вам также помогут восстановить позиции.
Али работает с сайтами, созданными под партнерки и до 1 августа органика на них составляла 35к посетителей в сутки. После апдейта (подождали неделю, пока он устаканится) органический трафик сократился на 15-20%. Это немного, по сравнению с падением у других вебмастеров, которое достигало 50% и больше. Но тоже печально.
Что было сделано? Первым делом были еще раз изучены рекомендации для асессоров "Google Search Quality Guidelines", которые как раз обновлялись в июле, за 10 дней до апдейта (см. кратко об изменениях). В них упоминается такой термин, как E.A.T (Экспертиза, Авторитет и Доверие), хотя еще и с 2014 года. Вероятно, в этом апдейте Google вычистил выдачу от инфосайтов с низким доверием. Больше всего под раздачу попали темы "как быть счастливым, здоровым, финансово-независимым и жить безопасно". Какой-то из сайтов Али попал под эту категорию.
Так как ряд моментов на сайтах соответствовали требованиям качества, они не потеряли много трафика. А именно, по словам автора, изначально были сделаны следующие вещи:
— Контент создавался на основе пользовательских рекомендаций
— Учитывалась тематическая релевантность постов
— У контента были авторитетные обратные ссылки
— Уделялось внимание скорости загрузки на десктопе и мобайле
— Анализировалось и улучшалось пользовательское поведение на мобильных устройствах
А вот что было сделано конкретно после апдейта:
1. Среди авторов издания выделили наиболее авторитетного и назначили его автором главных статей.
По рекомендациям Google автор издания должен иметь доверие. Если у вас нет авторитетных писателей, то нужно их создавать, рассматривать автора как бренд. Доверие к автору также важно, как и доверие к сайту.
2. Создали детальную страницу "О нас" и страницу авторов. Последние это просто страницы с ссылками на статьи, опубликованные конкретным автором.
3. Авторы стали более активными в соцсетях. Лучший способ рекламировать свой контент это поделиться им на страницах авторов. Цель здесь - получить социальное доказательство.
4. Создали тематическую релевантность статей. Допустим, у вас есть статья по теме "Как тренировать собак". Необходимо создавать больше статей на эту тему. И они должны касаться тренировки собак и не отклоняться в сторону их питания. Внутренние ссылки должны идти на похожие темы, чтобы краулер находил только инфу, соответствующую родительскому ключевому слову. Это увеличивает релевантность страницы.
5. Получили упоминания и ссылки с авторитетных РЕЛЕВАНТНЫХ сайтов. Нельзя хорошо ранжироваться без нормальных ссылок, кто бы что не говорил. Но теперь это делать сложнее, так как Google делает акцент на E.A.T. А работа над E.A.T. требует времени, чтобы создать норм контент и распространить его по норм сайтам. Команда Али работала в поте лица, чтобы получить эти ссылки.
Для некоторых статей дополнительно оптимизировались мета-описания для повышения CTR. После внедрения изменений главный ключ вернулся с 10й позиции на 4ю. И несколько других важных ключей вернулись на свои позиции.
Описанные моменты не гарантируют топ1, но Али красавчик, что поделился! Уделите внимание изучению рекомендаций для асессоров, это может сильно помочь. А также работайте над юзабилити мобильной версии, так как Mobile Indexing это не шутка.
via @devakatalk