Forwarded from Наши сети
Хорошо быть «Фэйсбуком»: два миллиарда пользователей бесплатно создаёт контент для ленты и смотрит рекламу в ней же. Плохо быть «Фэйсбуком»: контент надо проверять, а каждая ошибка перерастает в громкий скандал.
— У модераторов «Фэйсбука» много работы. 7500 человек проверяет миллион постов в день. Результат не устраивает никого: либералы обвиняют соцсеть в оправдании расизма, консерваторы — в цензуре, СМИ — во вреде журналистике. Проверку постов не выходит автоматизировать — нейросети находят порно, спам, пропаганду терроризма и фальшивые профили, но не отличают сарказм от призывов к ненависти.
— «Фэйсбук» пытается быть объективным. Модераторы опираются на блок-схемы, а не здравый смысл. Внутренние тренинги учат оставлять фото с анусом на лице Трампа (ведь он публичное лицо), но удалять их, если в кадре секс-игрушки (ведь это порнография). «Евреи устроили 11 сентября» — разрешённая конспирология, но «жадные евреи устроили 11 сентября» — запрещённое разжигание ненависти. Модераторы путаются в политиках и увольняются из-за стресса спустя несколько месяцев.
— Правила едины для всего мира. Из-за этого фраза «сделаем США страной только для белых» не считается расизмом: «Фэйсбук» допускает призывы к созданию этногосударств, защищая интересы сионистов и ЭТА. При этом соцсеть удаляет шутки про религию в Индии и Пакистане: блокировка государством приведёт к оттоку аудитории. Посты с отрицанием Холокоста удаляют в девяти странах, но оставляют в остальных.
— Соцсеть справляется как может. Марк Закерберг обсуждает с менеджерами спорные сообщества вроде InfoWars. Суициды в прямом эфире вынудили доработать Facebook Live, столкновения в Мьянме — добавить поддержку бирманского в алгоритмы фильтрации. Компания даже предложила загрузить обнажённые фото себя, чтобы сразу удалить их при загрузке кем-то ещё. Время идёт, аудитория растёт, проблемы меняются.
40 минут на чтение
— У модераторов «Фэйсбука» много работы. 7500 человек проверяет миллион постов в день. Результат не устраивает никого: либералы обвиняют соцсеть в оправдании расизма, консерваторы — в цензуре, СМИ — во вреде журналистике. Проверку постов не выходит автоматизировать — нейросети находят порно, спам, пропаганду терроризма и фальшивые профили, но не отличают сарказм от призывов к ненависти.
— «Фэйсбук» пытается быть объективным. Модераторы опираются на блок-схемы, а не здравый смысл. Внутренние тренинги учат оставлять фото с анусом на лице Трампа (ведь он публичное лицо), но удалять их, если в кадре секс-игрушки (ведь это порнография). «Евреи устроили 11 сентября» — разрешённая конспирология, но «жадные евреи устроили 11 сентября» — запрещённое разжигание ненависти. Модераторы путаются в политиках и увольняются из-за стресса спустя несколько месяцев.
— Правила едины для всего мира. Из-за этого фраза «сделаем США страной только для белых» не считается расизмом: «Фэйсбук» допускает призывы к созданию этногосударств, защищая интересы сионистов и ЭТА. При этом соцсеть удаляет шутки про религию в Индии и Пакистане: блокировка государством приведёт к оттоку аудитории. Посты с отрицанием Холокоста удаляют в девяти странах, но оставляют в остальных.
— Соцсеть справляется как может. Марк Закерберг обсуждает с менеджерами спорные сообщества вроде InfoWars. Суициды в прямом эфире вынудили доработать Facebook Live, столкновения в Мьянме — добавить поддержку бирманского в алгоритмы фильтрации. Компания даже предложила загрузить обнажённые фото себя, чтобы сразу удалить их при загрузке кем-то ещё. Время идёт, аудитория растёт, проблемы меняются.
40 минут на чтение
Vice
Here's How Facebook Is Trying to Moderate Its Two Billion Users
Moderating billions of posts a week in more than a hundred languages has become Facebook’s biggest challenge. Leaked documents and nearly two dozen interviews show how the company hopes to solve it.
Встречайте, новый сервис на рынке — https://collaborator.pro/
Это инструмент по маркетингу влияния, который вы можете использовать для SEO и контент-маркетинга. Цель разработчиков — дать удобный инструмент для прямой рекламы между заказчиком и владельцем площадки.
Основные фишки:
1. Фокус на трафик
2. Анонс на главной
3. Трехвалютная система
4. Отзывы
5. И многое другое
Пробуйте сами collaborator.pro и оставляйте фидбек разработчикам https://goo.gl/Y2RCJ9
Это инструмент по маркетингу влияния, который вы можете использовать для SEO и контент-маркетинга. Цель разработчиков — дать удобный инструмент для прямой рекламы между заказчиком и владельцем площадки.
Основные фишки:
1. Фокус на трафик
2. Анонс на главной
3. Трехвалютная система
4. Отзывы
5. И многое другое
Пробуйте сами collaborator.pro и оставляйте фидбек разработчикам https://goo.gl/Y2RCJ9
Горькая правда о SEO: 30-40% рекомендаций из общего аудита не дают никакого эффекта
https://moz.com/blog/surprising-seo-ab-test-results
Иногда тратишь кучу времени, улучшая разные аспекты сайта, но не получаешь ощутимых изменений. В другой раз оптимизируешь заголовки, чтобы добавить новые ключи и сделать их более привлекательными, а позиции при этом падают... Все, что работало для одного проекта может не сработать для другого. Нужно постоянно экспериментировать.
В SEO не нужно делать какие-то вещи на 100% лучше, чем у других; нужно делать 100 разных вещей, но на 1% лучше.
via @devakatalk
https://moz.com/blog/surprising-seo-ab-test-results
Иногда тратишь кучу времени, улучшая разные аспекты сайта, но не получаешь ощутимых изменений. В другой раз оптимизируешь заголовки, чтобы добавить новые ключи и сделать их более привлекательными, а позиции при этом падают... Все, что работало для одного проекта может не сработать для другого. Нужно постоянно экспериментировать.
В SEO не нужно делать какие-то вещи на 100% лучше, чем у других; нужно делать 100 разных вещей, но на 1% лучше.
via @devakatalk
У ссылок есть интересная особенность: они актуальны только на момент, когда вебмастер их поставил.
Представьте Википедию, содержащую сотни миллионов ссылок. С такими объемами их сложно контроллировать. Совсем недавно около 9 млн. ссылок на Википедии были битыми, так как ресурсы, на которые они вели, уже не существовали. Сейчас эти ссылки заменили и они ведут на вебархив, чтобы хоть как-то остаться актуальными. Проекты становятся зависимыми друг от друга.
https://blog.archive.org/2018/10/01/more-than-9-million-broken-links-on-wikipedia-are-now-rescued/
Ссылки в живом вебе ненадежны. И битые ссылки лишь часть проблемы. Хуже, когда ссылка ведет на измененный контент (привет дропам). Поисковики, кстати, эту проблему тоже понимают и, я уверен, учитывают в алгоритмах. По этой причине инвестировать в seo-ссылки, рассчитывая на долгосрочные перспективы — плохая затея. Хотя и без ссылок в SEO сейчас никуда.
Представьте Википедию, содержащую сотни миллионов ссылок. С такими объемами их сложно контроллировать. Совсем недавно около 9 млн. ссылок на Википедии были битыми, так как ресурсы, на которые они вели, уже не существовали. Сейчас эти ссылки заменили и они ведут на вебархив, чтобы хоть как-то остаться актуальными. Проекты становятся зависимыми друг от друга.
https://blog.archive.org/2018/10/01/more-than-9-million-broken-links-on-wikipedia-are-now-rescued/
Ссылки в живом вебе ненадежны. И битые ссылки лишь часть проблемы. Хуже, когда ссылка ведет на измененный контент (привет дропам). Поисковики, кстати, эту проблему тоже понимают и, я уверен, учитывают в алгоритмах. По этой причине инвестировать в seo-ссылки, рассчитывая на долгосрочные перспективы — плохая затея. Хотя и без ссылок в SEO сейчас никуда.
Мы с Игорем Рудником решили продолжить серию вебинаров в формате "на диване". Встречайте, второй сезон! Сегодня поговорим про ИКС, пока еще тема горячая. Что нужно делать обычному вебмастеру, когда ТИЦ стал ИКС?
→ https://youtu.be/OQqSQIv3cGI
А вот ссылка на крутой курс, если еще не знакомы:
→ https://semantica.devaka.ru
→ https://youtu.be/OQqSQIv3cGI
А вот ссылка на крутой курс, если еще не знакомы:
→ https://semantica.devaka.ru
Джон Мюллер на форуме гугла для вебмастеров высказался на счет ссылок, что вызвало волну негодования среди западных оптимизаторов.
https://productforums.google.com/forum/#!topic/webmasters/ZN_kjT7CZDc/discussion
Мюллер: Если вы размещаете на свой сайт качественные обратные ссылки, это не будет соответствовать нашим рекомендациям для вебмастеров, соответственно, эти ссылки определенно не будут рассматриваться, как качественные.
Цирус Шепард прокомментировал в твиттере, что Мюллер был пьян, когда это писал.
Билл Славский сказал, что без ссылок не было бы интернета.
Но больше всего мне понравился комментарий от Питта Майерса:
Линкбилдинг это неестественно? Вообще-то поисковые системы тоже не появились естественным путем. Любая гребанная вещь является неестественной. Ссылки не появляются каким-то магическим способом из-за того, что мы глубоко дышим и верим в космос. Их всегда кто-то ставит.
P.S. А изначальный вопрос, кстати, был про domain authority главного домена при наличии ссылки на поддомен.
https://productforums.google.com/forum/#!topic/webmasters/ZN_kjT7CZDc/discussion
Мюллер: Если вы размещаете на свой сайт качественные обратные ссылки, это не будет соответствовать нашим рекомендациям для вебмастеров, соответственно, эти ссылки определенно не будут рассматриваться, как качественные.
Цирус Шепард прокомментировал в твиттере, что Мюллер был пьян, когда это писал.
Билл Славский сказал, что без ссылок не было бы интернета.
Но больше всего мне понравился комментарий от Питта Майерса:
Линкбилдинг это неестественно? Вообще-то поисковые системы тоже не появились естественным путем. Любая гребанная вещь является неестественной. Ссылки не появляются каким-то магическим способом из-за того, что мы глубоко дышим и верим в космос. Их всегда кто-то ставит.
P.S. А изначальный вопрос, кстати, был про domain authority главного домена при наличии ссылки на поддомен.
Поведенческие факторы - сильный сигнал для поисковой системы. Рэнд как-то попросил в твиттере, чтобы подписчики ввели определенный запрос и выполнили определенный сценарий кликов. Примерно через час сайт с четвертой позиции переместился на первую... Но не стоит просто так просить своих друзей кликать :) просто улучшайте ПФ.
Но что именно подразумевается под ПФ? Нейль Патель считает, что основные составляющие здесь:
- Показатель отказов, просмотры на посетителя, время на сайте
- Дружественность к мобильным устройствам
- Среднее время загрузки
- Процент вернувшихся пользователей
- Процент трафика по брендовым запросам
- CTR
Эти предположения не безосновательны, а получены в результате исследования сайтов, которые никогда не попадали под санкции Google.
См. подробный перевод на SeoNews:
https://www.seonews.ru/analytics/kak-vyglyadyat-sayty-nikogda-ne-popadavshie-pod-sanktsii-google/
Но что именно подразумевается под ПФ? Нейль Патель считает, что основные составляющие здесь:
- Показатель отказов, просмотры на посетителя, время на сайте
- Дружественность к мобильным устройствам
- Среднее время загрузки
- Процент вернувшихся пользователей
- Процент трафика по брендовым запросам
- CTR
Эти предположения не безосновательны, а получены в результате исследования сайтов, которые никогда не попадали под санкции Google.
См. подробный перевод на SeoNews:
https://www.seonews.ru/analytics/kak-vyglyadyat-sayty-nikogda-ne-popadavshie-pod-sanktsii-google/
Крутая идея от Рэнда Фишкина добавить следующий пункт в условия использования сайта:
Пункт 3: Правила для поисковых систем и листингов
Любая поисковая система или автоматический краулер, который перепубликует контент полностью или частично на странице со списком (так называемой "результаты поиска" или "serp") с этого сайта ДОЛЖНА разместить этот контент в самом верху списка/результатов. Расположение любого URL, контента или ресурсов, сосканированных с сайта ниже рекламных блоков, урлов, контента или ресурсов любых других сайтов является нарушением условий использования данного сайта.
И в следующий раз, когда поисковики будут жаловаться, что линкбилдинг или парсинг выдачи нарушает их правила, вы можете сослаться на свои. Просто нет причин, что их правила важнее ваших.
via @devakatalk
Пункт 3: Правила для поисковых систем и листингов
Любая поисковая система или автоматический краулер, который перепубликует контент полностью или частично на странице со списком (так называемой "результаты поиска" или "serp") с этого сайта ДОЛЖНА разместить этот контент в самом верху списка/результатов. Расположение любого URL, контента или ресурсов, сосканированных с сайта ниже рекламных блоков, урлов, контента или ресурсов любых других сайтов является нарушением условий использования данного сайта.
И в следующий раз, когда поисковики будут жаловаться, что линкбилдинг или парсинг выдачи нарушает их правила, вы можете сослаться на свои. Просто нет причин, что их правила важнее ваших.
via @devakatalk
Forwarded from SEO-специалист (seospecialist)
Google опубликовал руководство по динамическому рендерингу
Google опубликовал справочное руководство по динамическому рендерингу – новой технологии, которая призвана облегчить сканирование, индексирование и ранжирование JavaScript-страниц.
Динамический рендеринг состоит в переключении между контентом, обрабатываемым на стороне клиента (client-side rendered), и предварительно обработанным контентом (pre-rendered) для определённых агентов пользователя.
Это значит, что с помощью динамического рендеринга можно предоставлять Google HTML-версию страницы, при этом пользователю показывая JavaScript-версию.
В новом руководстве рассказывается, в каких случаях следует использовать Dynamic Rendering и как его внедрить.
Кому нужно это решение
Согласно Google, в настоящее время поисковым системам сложно обрабатывать JavaScript и не все краулеры способны выполнить эту задачу сразу и успешно. В компании полагают, что в конечном итоге эта проблема будет устранена, но на данный момент рекомендуется использовать как рабочее решение динамический рендеринг.
Как работает динамический рендеринг
Это решение требует, чтобы веб-сервер определял краулеров (например, проверяя агента пользователя). Запросы от краулеров передаются рендереру, а запросы от пользователей обрабатываются в обычном режиме. Когда необходимо, динамический рендерер предоставляет ту версию контента, которая подходит для определённого краулера. Например, это может быть статическая HTML-версия.
Пошаговые инструкции по внедрению этого решения (на английском языке) можно найти в этом разделе документации.
Источник перевода: searchengines
#новости #spa #js via @seospecialist
Google опубликовал справочное руководство по динамическому рендерингу – новой технологии, которая призвана облегчить сканирование, индексирование и ранжирование JavaScript-страниц.
Динамический рендеринг состоит в переключении между контентом, обрабатываемым на стороне клиента (client-side rendered), и предварительно обработанным контентом (pre-rendered) для определённых агентов пользователя.
Это значит, что с помощью динамического рендеринга можно предоставлять Google HTML-версию страницы, при этом пользователю показывая JavaScript-версию.
В новом руководстве рассказывается, в каких случаях следует использовать Dynamic Rendering и как его внедрить.
Кому нужно это решение
Согласно Google, в настоящее время поисковым системам сложно обрабатывать JavaScript и не все краулеры способны выполнить эту задачу сразу и успешно. В компании полагают, что в конечном итоге эта проблема будет устранена, но на данный момент рекомендуется использовать как рабочее решение динамический рендеринг.
Как работает динамический рендеринг
Это решение требует, чтобы веб-сервер определял краулеров (например, проверяя агента пользователя). Запросы от краулеров передаются рендереру, а запросы от пользователей обрабатываются в обычном режиме. Когда необходимо, динамический рендерер предоставляет ту версию контента, которая подходит для определённого краулера. Например, это может быть статическая HTML-версия.
Пошаговые инструкции по внедрению этого решения (на английском языке) можно найти в этом разделе документации.
Источник перевода: searchengines
#новости #spa #js via @seospecialist
19 октября состоится очередная онлайн-конференция SEO Day от WebPromoExperts, по которой, наверняка, вы уже соскучились. Участие онлайн, как всегда, бесплатное.
Из докладов вы узнаете:
— как получить “мощные" ссылки с помощью гостевых постов;
— самые последние новинки и обновления от Google;
— как стать успешным SEO-автоматизатором и какие навыки для этого нужны;
— фишки и лайфхаки в крауд-маркетинге, которые стоит применять на практике;
— как сделать лучший ссылочный профиль, если ты новичок;
— актуальные SEO-методы на 2019 год и многое другое.
Подробности: https://devaka.ru/events/seoday8
Из докладов вы узнаете:
— как получить “мощные" ссылки с помощью гостевых постов;
— самые последние новинки и обновления от Google;
— как стать успешным SEO-автоматизатором и какие навыки для этого нужны;
— фишки и лайфхаки в крауд-маркетинге, которые стоит применять на практике;
— как сделать лучший ссылочный профиль, если ты новичок;
— актуальные SEO-методы на 2019 год и многое другое.
Подробности: https://devaka.ru/events/seoday8
Как вы заметили, в этом канале я размещаю рекламу (и считаю это нормальным и полезным для всех). При этом, я вас никогда не обману и каждый рекламный пост буду помечать, как и раньше, соответствующими тегами #реклама и #постщедрооплачен.
На заказ я не пишу, нативную рекламу не размещаю, а публикую то, что прислал рекламодатель, добавляя пометки. Если же я что-то хочу вам порекомендовать от себя, то рекламирую это от души и денег или чего-либо другого за это не беру.
Отличных вам выходных!
На заказ я не пишу, нативную рекламу не размещаю, а публикую то, что прислал рекламодатель, добавляя пометки. Если же я что-то хочу вам порекомендовать от себя, то рекламирую это от души и денег или чего-либо другого за это не беру.
Отличных вам выходных!
В SEO можно получать опыт самостоятельно, наступая на грабли и месяцами выискивая рабочие стратегии. А можно пойти на курсы к Деваке и, наконец-то, понять, как все работает и сдвинуть свой сайт с места.
Уже через неделю стартует мой новый курс по SEO. Можно участвовать онлайн, можно оффлайн, если вы в Днепре. Записывайтесь, есть места!
→ https://devaka.ru/events/seo-kursy
Мои курсы помогут вам:
— Узнать, как улучшить видимость сайта в Google и Яндексе белыми методами.
— Найти точки роста проекта.
— Изучить последние SEO-техники.
— Создать бесстресовую SEO-стратегию для вашего проекта под моим руководством.
— Открыть глаза на многие вещи.
Даже если вы давно в SEO, полученные знания помогут вам структурировать всю информацию. Курсы ориентированы именно на тех, кто уже понимает основы, но сомневается в правильности действий или хочет узнать больше.
До встречи!
Уже через неделю стартует мой новый курс по SEO. Можно участвовать онлайн, можно оффлайн, если вы в Днепре. Записывайтесь, есть места!
→ https://devaka.ru/events/seo-kursy
Мои курсы помогут вам:
— Узнать, как улучшить видимость сайта в Google и Яндексе белыми методами.
— Найти точки роста проекта.
— Изучить последние SEO-техники.
— Создать бесстресовую SEO-стратегию для вашего проекта под моим руководством.
— Открыть глаза на многие вещи.
Даже если вы давно в SEO, полученные знания помогут вам структурировать всю информацию. Курсы ориентированы именно на тех, кто уже понимает основы, но сомневается в правильности действий или хочет узнать больше.
До встречи!
Поиграли и хватит. Google закрывает свою соцсеть Google+
https://www.searchengines.ru/google-plus-rip.html
https://www.searchengines.ru/google-plus-rip.html
#seoфишка
Как вы знаете, гугловский кеш для многих сайтов поломался после перехода на Mobile Indexing. Попробуйте сменить свой домен в урле на что-то случайное (с существующей доменной зоной) и вы увидите кеш своей страницы.
via @devakatalk
Как вы знаете, гугловский кеш для многих сайтов поломался после перехода на Mobile Indexing. Попробуйте сменить свой домен в урле на что-то случайное (с существующей доменной зоной) и вы увидите кеш своей страницы.
via @devakatalk
Новый выпуск "На диване". Обсуждаем стоимость статей, а также различие между копирайтингом, рерайтингом и авторским контентом. Заодно узнаете, сколько у меня уходит времени на написание статей)
https://youtu.be/MQ5tXiZXZP4
https://youtu.be/MQ5tXiZXZP4
Forwarded from SEO-специалист (seospecialist)
После вчерашнего апдейта сильно тряхнуло коммерцию. Некоторые позиции из ТОП 10 по ВЧ вылетели за ТОП 100, некоторые просели в среднем на 50 пунктов. Ещё наблюдается смена релевантных страниц по поисковым запросам.
❗Без паники. Ниже на скрине ответ представителя Яндекса Елены Першиной, его можно считать официальным.
#новости via @seospecialist
❗Без паники. Ниже на скрине ответ представителя Яндекса Елены Першиной, его можно считать официальным.
#новости via @seospecialist
Получить органический трафик еще можно, но уже намного сложнее, чем раньше. Рэнд Фишкин в своей статье описывает текущие проблемы получения трафика из разных платформ: https://goo.gl/Ke22Qy
Интернет разделяется, и монополистам не интересны ваши сайты, они заинтересованы, чтобы пользователь оставался только внутри их платформы, постепенно его монетизируя. Это уже не новость, но мы должны быть готовы.
— Google дает меньше трафика на сайты впервые за 17-летнюю историю (по крайней мере в США). Ответы на многие вопросы пользователь получает уже на выдаче. Из провайдера трафика гугл стал провайдером информации.
— Органический трафик из Facebook стал мизерным, большая часть вашей аудитории (98%+) не видит ваших постов с ссылкой. Ситуация, где бизнес, говорящий пользователям "следуйте за нами на фейсбуке", становится ироничной.
— Реддит позволяет ссылаться на свои сайты скорей как исключение, а не правило.
— Инстаграм никогда не позволял ссылаться на внешние ресурсы и сейчас среди фаундеров возникают сомнения, стоило ли им продаваться фейсбуку.
— Амазон не борется за трафик с ecommerce-гигантами, а позволяет продавать на своей платформе и покупать рекламу для поиска собственных продуктов.
— Google обещает показывать больше ответов на поиске, прогнозируя потребность пользователя еще до того, как он ее осознаст, и генерируя ответы из вашего контента, но не ссылаясь на источники.
— Apple News дает большое вовлечение пользователей для авторов контента, но держит всех внутри приложения, ограничивая ссылки вовне.
— Линкедин понижает посты с ссылками. Твиттер, похоже, идет по тому же пути. Посты без ссылок имеют больше охвата и вовлечения.
— Ютуб разработал умную систему скрытия ссылок в описании. Нужно кликнуть "посмотреть больше", чтобы увидеть ссылку.
За последние 5 лет не было ни одной крупной платформы, которая бы поощряла или улучшала цитирование внешних ресурсов. Наступила эра менее связного Веба, направленного на вовлечение пользователей, а не на распространение контента.
Уже не получится просто так генерировать органический трафик, рассчитывая на гугл, твиттер и фейсбук. Нужно активно подключать рекламу, email-маркетинг и все другие возможные инструменты.
via @devakatalk
Интернет разделяется, и монополистам не интересны ваши сайты, они заинтересованы, чтобы пользователь оставался только внутри их платформы, постепенно его монетизируя. Это уже не новость, но мы должны быть готовы.
— Google дает меньше трафика на сайты впервые за 17-летнюю историю (по крайней мере в США). Ответы на многие вопросы пользователь получает уже на выдаче. Из провайдера трафика гугл стал провайдером информации.
— Органический трафик из Facebook стал мизерным, большая часть вашей аудитории (98%+) не видит ваших постов с ссылкой. Ситуация, где бизнес, говорящий пользователям "следуйте за нами на фейсбуке", становится ироничной.
— Реддит позволяет ссылаться на свои сайты скорей как исключение, а не правило.
— Инстаграм никогда не позволял ссылаться на внешние ресурсы и сейчас среди фаундеров возникают сомнения, стоило ли им продаваться фейсбуку.
— Амазон не борется за трафик с ecommerce-гигантами, а позволяет продавать на своей платформе и покупать рекламу для поиска собственных продуктов.
— Google обещает показывать больше ответов на поиске, прогнозируя потребность пользователя еще до того, как он ее осознаст, и генерируя ответы из вашего контента, но не ссылаясь на источники.
— Apple News дает большое вовлечение пользователей для авторов контента, но держит всех внутри приложения, ограничивая ссылки вовне.
— Линкедин понижает посты с ссылками. Твиттер, похоже, идет по тому же пути. Посты без ссылок имеют больше охвата и вовлечения.
— Ютуб разработал умную систему скрытия ссылок в описании. Нужно кликнуть "посмотреть больше", чтобы увидеть ссылку.
За последние 5 лет не было ни одной крупной платформы, которая бы поощряла или улучшала цитирование внешних ресурсов. Наступила эра менее связного Веба, направленного на вовлечение пользователей, а не на распространение контента.
Уже не получится просто так генерировать органический трафик, рассчитывая на гугл, твиттер и фейсбук. Нужно активно подключать рекламу, email-маркетинг и все другие возможные инструменты.
via @devakatalk
Раньше была такая схема монетизации ютуба:
- Берется не сильно конкурентная, но востребованная ниша
- Анализируются вопросы в семантике. Например, через answerthepublic.com
- Для каждого вопроса генерируется ответ (например, через парсинг выдачи гугла или других сайтов) с учетом компиляции
- Автоматически генерируется видео с вопросом, текстовым и аудио-ответом (начитанным роботом) и заливается на ютуб
- Включается монетизация - и поехала машина
На днях гугл прикрыл лавочку и отключает от партнерской программы всех, кто размещает у себя на канале дублированный контент:
- Автогенерированный
- Взятый из других источников
- Или с использованием подходов для обхода инструментов по защите авторских прав
→ https://www.searchengines.ru/youtube-dubl.html
P.S. Кстати, иногда классификатор срабатывает неверно и из ПП удаляют нормальные каналы, что видно из комментариев на форуме гугла.
P.P.S. Думаю, скоро в гугле возьмутся и за сеошников, использующих ютуб не по назначению.
- Берется не сильно конкурентная, но востребованная ниша
- Анализируются вопросы в семантике. Например, через answerthepublic.com
- Для каждого вопроса генерируется ответ (например, через парсинг выдачи гугла или других сайтов) с учетом компиляции
- Автоматически генерируется видео с вопросом, текстовым и аудио-ответом (начитанным роботом) и заливается на ютуб
- Включается монетизация - и поехала машина
На днях гугл прикрыл лавочку и отключает от партнерской программы всех, кто размещает у себя на канале дублированный контент:
- Автогенерированный
- Взятый из других источников
- Или с использованием подходов для обхода инструментов по защите авторских прав
→ https://www.searchengines.ru/youtube-dubl.html
P.S. Кстати, иногда классификатор срабатывает неверно и из ПП удаляют нормальные каналы, что видно из комментариев на форуме гугла.
P.P.S. Думаю, скоро в гугле возьмутся и за сеошников, использующих ютуб не по назначению.
При наличии нескольких копий одного документа в сети, наиболее авторитетный становится каноническим, остальные считаются дублями. Входящие ссылки на дубли становятся входящими ссылками на канонический документ. Это называется инвертирование ссылок.
Тему инвертированных ссылок поднял Дэн Петрович
→ https://dejanseo.com.au/link-inversion/
И его сразу же подхватил Билл Славский, рассмотрев свежие патенты по теме
→ http://www.seobythesea.com/2018/10/how-google-might-identify-primary-versions-of-duplicate-pages/
Предположим, сегодня вы публикуете новую страницу на сайте и через несколько дней мелкие сайты копируют ее. У вас максимальный авторитет и ваша страница будет считаться канонической. Все остальные урлы будут дублями и ссылки на них будут учитываться для вашей страницы. Пока очень круто! Но через недельку Google найдет копию на более авторитетном ресурсе. Тепеть уже вы являетесь дублем и все входящие ссылки будут продвигать каноничесчкий документ.
Кстати, в Search Console, вместе с ссылками на ваши страницы вы увидите также ссылки на дубли.
Билл поискал подходящие патенты, чтобы разобраться, что именно влияет на авторитет дубля. Там говорится о мета-данных, которые включают в себя:
- Источник
- Права на контент
- Информация о цитировании
- Ключевые слова
- PageRank и пр.
При анализе научных трудов могут также использоваться имена авторов, время публикации, язык и др.
В общем, Билл считает, что не все так однозначно, как об этом написал Дэн, но в целом, явление инвертированных ссылок есть. Это показывают быстрые тесты на выдаче. Ну и, наверняка, вы уже замечали левые ссылки в Search Console. Если хотите, чтобы Google всегда выбирал ваши страницы как канонические, работайте над авторитетом сайта!
via @devakatalk
Тему инвертированных ссылок поднял Дэн Петрович
→ https://dejanseo.com.au/link-inversion/
И его сразу же подхватил Билл Славский, рассмотрев свежие патенты по теме
→ http://www.seobythesea.com/2018/10/how-google-might-identify-primary-versions-of-duplicate-pages/
Предположим, сегодня вы публикуете новую страницу на сайте и через несколько дней мелкие сайты копируют ее. У вас максимальный авторитет и ваша страница будет считаться канонической. Все остальные урлы будут дублями и ссылки на них будут учитываться для вашей страницы. Пока очень круто! Но через недельку Google найдет копию на более авторитетном ресурсе. Тепеть уже вы являетесь дублем и все входящие ссылки будут продвигать каноничесчкий документ.
Кстати, в Search Console, вместе с ссылками на ваши страницы вы увидите также ссылки на дубли.
Билл поискал подходящие патенты, чтобы разобраться, что именно влияет на авторитет дубля. Там говорится о мета-данных, которые включают в себя:
- Источник
- Права на контент
- Информация о цитировании
- Ключевые слова
- PageRank и пр.
При анализе научных трудов могут также использоваться имена авторов, время публикации, язык и др.
В общем, Билл считает, что не все так однозначно, как об этом написал Дэн, но в целом, явление инвертированных ссылок есть. Это показывают быстрые тесты на выдаче. Ну и, наверняка, вы уже замечали левые ссылки в Search Console. Если хотите, чтобы Google всегда выбирал ваши страницы как канонические, работайте над авторитетом сайта!
via @devakatalk
👍1