Devaka Talk – Telegram
Devaka Talk
11.2K subscribers
1.44K photos
44 videos
28 files
3.49K links
Канал по просуванню та оптимізації сайтів під Google. Hard SEO.

Зв'язок зі мною: @devaka
(Сергій Кокшаров)

Реклама: @dv_adv
Для донатів: @dv_donate

Навчаю у групах.
https://webpromoexperts.net/courses/seo-pro-online/
Download Telegram
Forwarded from Наши сети
Хорошо быть «Фэйсбуком»: два миллиарда пользователей бесплатно создаёт контент для ленты и смотрит рекламу в ней же. Плохо быть «Фэйсбуком»: контент надо проверять, а каждая ошибка перерастает в громкий скандал.
— У модераторов «Фэйсбука» много работы. 7500 человек проверяет миллион постов в день. Результат не устраивает никого: либералы обвиняют соцсеть в оправдании расизма, консерваторы — в цензуре, СМИ — во вреде журналистике. Проверку постов не выходит автоматизировать — нейросети находят порно, спам, пропаганду терроризма и фальшивые профили, но не отличают сарказм от призывов к ненависти.
— «Фэйсбук» пытается быть объективным. Модераторы опираются на блок-схемы, а не здравый смысл. Внутренние тренинги учат оставлять фото с анусом на лице Трампа (ведь он публичное лицо), но удалять их, если в кадре секс-игрушки (ведь это порнография). «Евреи устроили 11 сентября» — разрешённая конспирология, но «жадные евреи устроили 11 сентября» — запрещённое разжигание ненависти. Модераторы путаются в политиках и увольняются из-за стресса спустя несколько месяцев.
— Правила едины для всего мира. Из-за этого фраза «сделаем США страной только для белых» не считается расизмом: «Фэйсбук» допускает призывы к созданию этногосударств, защищая интересы сионистов и ЭТА. При этом соцсеть удаляет шутки про религию в Индии и Пакистане: блокировка государством приведёт к оттоку аудитории. Посты с отрицанием Холокоста удаляют в девяти странах, но оставляют в остальных.
— Соцсеть справляется как может. Марк Закерберг обсуждает с менеджерами спорные сообщества вроде InfoWars. Суициды в прямом эфире вынудили доработать Facebook Live, столкновения в Мьянме — добавить поддержку бирманского в алгоритмы фильтрации. Компания даже предложила загрузить обнажённые фото себя, чтобы сразу удалить их при загрузке кем-то ещё. Время идёт, аудитория растёт, проблемы меняются.

40 минут на чтение
Встречайте, новый сервис на рынке — https://collaborator.pro/

Это инструмент по маркетингу влияния, который вы можете использовать для SEO и контент-маркетинга. Цель разработчиков — дать удобный инструмент для прямой рекламы между заказчиком и владельцем площадки.

Основные фишки:
1. Фокус на трафик
2. Анонс на главной
3. Трехвалютная система
4. Отзывы
5. И многое другое

Пробуйте сами collaborator.pro и оставляйте фидбек разработчикам https://goo.gl/Y2RCJ9
Горькая правда о SEO: 30-40% рекомендаций из общего аудита не дают никакого эффекта
https://moz.com/blog/surprising-seo-ab-test-results

Иногда тратишь кучу времени, улучшая разные аспекты сайта, но не получаешь ощутимых изменений. В другой раз оптимизируешь заголовки, чтобы добавить новые ключи и сделать их более привлекательными, а позиции при этом падают... Все, что работало для одного проекта может не сработать для другого. Нужно постоянно экспериментировать.

В SEO не нужно делать какие-то вещи на 100% лучше, чем у других; нужно делать 100 разных вещей, но на 1% лучше.

via @devakatalk
​​У ссылок есть интересная особенность: они актуальны только на момент, когда вебмастер их поставил.

Представьте Википедию, содержащую сотни миллионов ссылок. С такими объемами их сложно контроллировать. Совсем недавно около 9 млн. ссылок на Википедии были битыми, так как ресурсы, на которые они вели, уже не существовали. Сейчас эти ссылки заменили и они ведут на вебархив, чтобы хоть как-то остаться актуальными. Проекты становятся зависимыми друг от друга.
https://blog.archive.org/2018/10/01/more-than-9-million-broken-links-on-wikipedia-are-now-rescued/

Ссылки в живом вебе ненадежны. И битые ссылки лишь часть проблемы. Хуже, когда ссылка ведет на измененный контент (привет дропам). Поисковики, кстати, эту проблему тоже понимают и, я уверен, учитывают в алгоритмах. По этой причине инвестировать в seo-ссылки, рассчитывая на долгосрочные перспективы — плохая затея. Хотя и без ссылок в SEO сейчас никуда.
​​Мы с Игорем Рудником решили продолжить серию вебинаров в формате "на диване". Встречайте, второй сезон! Сегодня поговорим про ИКС, пока еще тема горячая. Что нужно делать обычному вебмастеру, когда ТИЦ стал ИКС?
https://youtu.be/OQqSQIv3cGI

А вот ссылка на крутой курс, если еще не знакомы:
https://semantica.devaka.ru
Джон Мюллер на форуме гугла для вебмастеров высказался на счет ссылок, что вызвало волну негодования среди западных оптимизаторов.
https://productforums.google.com/forum/#!topic/webmasters/ZN_kjT7CZDc/discussion

Мюллер: Если вы размещаете на свой сайт качественные обратные ссылки, это не будет соответствовать нашим рекомендациям для вебмастеров, соответственно, эти ссылки определенно не будут рассматриваться, как качественные.

Цирус Шепард прокомментировал в твиттере, что Мюллер был пьян, когда это писал.
Билл Славский сказал, что без ссылок не было бы интернета.

Но больше всего мне понравился комментарий от Питта Майерса:
Линкбилдинг это неестественно? Вообще-то поисковые системы тоже не появились естественным путем. Любая гребанная вещь является неестественной. Ссылки не появляются каким-то магическим способом из-за того, что мы глубоко дышим и верим в космос. Их всегда кто-то ставит.

P.S. А изначальный вопрос, кстати, был про domain authority главного домена при наличии ссылки на поддомен.
Поведенческие факторы - сильный сигнал для поисковой системы. Рэнд как-то попросил в твиттере, чтобы подписчики ввели определенный запрос и выполнили определенный сценарий кликов. Примерно через час сайт с четвертой позиции переместился на первую... Но не стоит просто так просить своих друзей кликать :) просто улучшайте ПФ.

Но что именно подразумевается под ПФ? Нейль Патель считает, что основные составляющие здесь:
- Показатель отказов, просмотры на посетителя, время на сайте
- Дружественность к мобильным устройствам
- Среднее время загрузки
- Процент вернувшихся пользователей
- Процент трафика по брендовым запросам
- CTR

Эти предположения не безосновательны, а получены в результате исследования сайтов, которые никогда не попадали под санкции Google.

См. подробный перевод на SeoNews:
https://www.seonews.ru/analytics/kak-vyglyadyat-sayty-nikogda-ne-popadavshie-pod-sanktsii-google/
Крутая идея от Рэнда Фишкина добавить следующий пункт в условия использования сайта:

Пункт 3: Правила для поисковых систем и листингов
Любая поисковая система или автоматический краулер, который перепубликует контент полностью или частично на странице со списком (так называемой "результаты поиска" или "serp") с этого сайта ДОЛЖНА разместить этот контент в самом верху списка/результатов. Расположение любого URL, контента или ресурсов, сосканированных с сайта ниже рекламных блоков, урлов, контента или ресурсов любых других сайтов является нарушением условий использования данного сайта.

И в следующий раз, когда поисковики будут жаловаться, что линкбилдинг или парсинг выдачи нарушает их правила, вы можете сослаться на свои. Просто нет причин, что их правила важнее ваших.

via @devakatalk
Forwarded from SEO-специалист (seospecialist)
​​Google опубликовал руководство по динамическому рендерингу

Google опубликовал справочное руководство по динамическому рендерингу – новой технологии, которая призвана облегчить сканирование, индексирование и ранжирование JavaScript-страниц.

Динамический рендеринг состоит в переключении между контентом, обрабатываемым на стороне клиента (client-side rendered), и предварительно обработанным контентом (pre-rendered) для определённых агентов пользователя.

Это значит, что с помощью динамического рендеринга можно предоставлять Google HTML-версию страницы, при этом пользователю показывая JavaScript-версию.

В новом руководстве рассказывается, в каких случаях следует использовать Dynamic Rendering и как его внедрить.

Кому нужно это решение

Согласно Google, в настоящее время поисковым системам сложно обрабатывать JavaScript и не все краулеры способны выполнить эту задачу сразу и успешно. В компании полагают, что в конечном итоге эта проблема будет устранена, но на данный момент рекомендуется использовать как рабочее решение динамический рендеринг.

Как работает динамический рендеринг

Это решение требует, чтобы веб-сервер определял краулеров (например, проверяя агента пользователя). Запросы от краулеров передаются рендереру, а запросы от пользователей обрабатываются в обычном режиме. Когда необходимо, динамический рендерер предоставляет ту версию контента, которая подходит для определённого краулера. Например, это может быть статическая HTML-версия.

Пошаговые инструкции по внедрению этого решения (на английском языке) можно найти в этом разделе документации.

Источник перевода: searchengines

#новости #spa #js via @seospecialist
​​19 октября состоится очередная онлайн-конференция SEO Day от WebPromoExperts, по которой, наверняка, вы уже соскучились. Участие онлайн, как всегда, бесплатное.

Из докладов вы узнаете:
— как получить “мощные" ссылки с помощью гостевых постов;
— самые последние новинки и обновления от Google;
— как стать успешным SEO-автоматизатором и какие навыки для этого нужны;
— фишки и лайфхаки в крауд-маркетинге, которые стоит применять на практике;
— как сделать лучший ссылочный профиль, если ты новичок;
— актуальные SEO-методы на 2019 год и многое другое.

Подробности: https://devaka.ru/events/seoday8
Как вы заметили, в этом канале я размещаю рекламу (и считаю это нормальным и полезным для всех). При этом, я вас никогда не обману и каждый рекламный пост буду помечать, как и раньше, соответствующими тегами #реклама и #постщедрооплачен.

На заказ я не пишу, нативную рекламу не размещаю, а публикую то, что прислал рекламодатель, добавляя пометки. Если же я что-то хочу вам порекомендовать от себя, то рекламирую это от души и денег или чего-либо другого за это не беру.

Отличных вам выходных!
​​В SEO можно получать опыт самостоятельно, наступая на грабли и месяцами выискивая рабочие стратегии. А можно пойти на курсы к Деваке и, наконец-то, понять, как все работает и сдвинуть свой сайт с места.

Уже через неделю стартует мой новый курс по SEO. Можно участвовать онлайн, можно оффлайн, если вы в Днепре. Записывайтесь, есть места!
https://devaka.ru/events/seo-kursy

Мои курсы помогут вам:
— Узнать, как улучшить видимость сайта в Google и Яндексе белыми методами.
— Найти точки роста проекта.
— Изучить последние SEO-техники.
— Создать бесстресовую SEO-стратегию для вашего проекта под моим руководством.
— Открыть глаза на многие вещи.

Даже если вы давно в SEO, полученные знания помогут вам структурировать всю информацию. Курсы ориентированы именно на тех, кто уже понимает основы, но сомневается в правильности действий или хочет узнать больше.

До встречи!
Лучший аргумент полезности HARD SEO. Спасибо Светлане, она одна из выпускниц.
Поиграли и хватит. Google закрывает свою соцсеть Google+
https://www.searchengines.ru/google-plus-rip.html
​​#seoфишка

Как вы знаете, гугловский кеш для многих сайтов поломался после перехода на Mobile Indexing. Попробуйте сменить свой домен в урле на что-то случайное (с существующей доменной зоной) и вы увидите кеш своей страницы.

via @devakatalk
​​Новый выпуск "На диване". Обсуждаем стоимость статей, а также различие между копирайтингом, рерайтингом и авторским контентом. Заодно узнаете, сколько у меня уходит времени на написание статей)
https://youtu.be/MQ5tXiZXZP4
Forwarded from SEO-специалист (seospecialist)
​​После вчерашнего апдейта сильно тряхнуло коммерцию. Некоторые позиции из ТОП 10 по ВЧ вылетели за ТОП 100, некоторые просели в среднем на 50 пунктов. Ещё наблюдается смена релевантных страниц по поисковым запросам.

Без паники. Ниже на скрине ответ представителя Яндекса Елены Першиной, его можно считать официальным.

#новости via @seospecialist
​​Получить органический трафик еще можно, но уже намного сложнее, чем раньше. Рэнд Фишкин в своей статье описывает текущие проблемы получения трафика из разных платформ: https://goo.gl/Ke22Qy

Интернет разделяется, и монополистам не интересны ваши сайты, они заинтересованы, чтобы пользователь оставался только внутри их платформы, постепенно его монетизируя. Это уже не новость, но мы должны быть готовы.

— Google дает меньше трафика на сайты впервые за 17-летнюю историю (по крайней мере в США). Ответы на многие вопросы пользователь получает уже на выдаче. Из провайдера трафика гугл стал провайдером информации.

— Органический трафик из Facebook стал мизерным, большая часть вашей аудитории (98%+) не видит ваших постов с ссылкой. Ситуация, где бизнес, говорящий пользователям "следуйте за нами на фейсбуке", становится ироничной.

— Реддит позволяет ссылаться на свои сайты скорей как исключение, а не правило.

— Инстаграм никогда не позволял ссылаться на внешние ресурсы и сейчас среди фаундеров возникают сомнения, стоило ли им продаваться фейсбуку.

— Амазон не борется за трафик с ecommerce-гигантами, а позволяет продавать на своей платформе и покупать рекламу для поиска собственных продуктов.

— Google обещает показывать больше ответов на поиске, прогнозируя потребность пользователя еще до того, как он ее осознаст, и генерируя ответы из вашего контента, но не ссылаясь на источники.

— Apple News дает большое вовлечение пользователей для авторов контента, но держит всех внутри приложения, ограничивая ссылки вовне.

— Линкедин понижает посты с ссылками. Твиттер, похоже, идет по тому же пути. Посты без ссылок имеют больше охвата и вовлечения.

— Ютуб разработал умную систему скрытия ссылок в описании. Нужно кликнуть "посмотреть больше", чтобы увидеть ссылку.

За последние 5 лет не было ни одной крупной платформы, которая бы поощряла или улучшала цитирование внешних ресурсов. Наступила эра менее связного Веба, направленного на вовлечение пользователей, а не на распространение контента.

Уже не получится просто так генерировать органический трафик, рассчитывая на гугл, твиттер и фейсбук. Нужно активно подключать рекламу, email-маркетинг и все другие возможные инструменты.

via @devakatalk
Раньше была такая схема монетизации ютуба:
- Берется не сильно конкурентная, но востребованная ниша
- Анализируются вопросы в семантике. Например, через answerthepublic.com
- Для каждого вопроса генерируется ответ (например, через парсинг выдачи гугла или других сайтов) с учетом компиляции
- Автоматически генерируется видео с вопросом, текстовым и аудио-ответом (начитанным роботом) и заливается на ютуб
- Включается монетизация - и поехала машина

На днях гугл прикрыл лавочку и отключает от партнерской программы всех, кто размещает у себя на канале дублированный контент:
- Автогенерированный
- Взятый из других источников
- Или с использованием подходов для обхода инструментов по защите авторских прав
https://www.searchengines.ru/youtube-dubl.html

P.S. Кстати, иногда классификатор срабатывает неверно и из ПП удаляют нормальные каналы, что видно из комментариев на форуме гугла.

P.P.S. Думаю, скоро в гугле возьмутся и за сеошников, использующих ютуб не по назначению.
При наличии нескольких копий одного документа в сети, наиболее авторитетный становится каноническим, остальные считаются дублями. Входящие ссылки на дубли становятся входящими ссылками на канонический документ. Это называется инвертирование ссылок.

Тему инвертированных ссылок поднял Дэн Петрович
https://dejanseo.com.au/link-inversion/
И его сразу же подхватил Билл Славский, рассмотрев свежие патенты по теме
http://www.seobythesea.com/2018/10/how-google-might-identify-primary-versions-of-duplicate-pages/

Предположим, сегодня вы публикуете новую страницу на сайте и через несколько дней мелкие сайты копируют ее. У вас максимальный авторитет и ваша страница будет считаться канонической. Все остальные урлы будут дублями и ссылки на них будут учитываться для вашей страницы. Пока очень круто! Но через недельку Google найдет копию на более авторитетном ресурсе. Тепеть уже вы являетесь дублем и все входящие ссылки будут продвигать каноничесчкий документ.

Кстати, в Search Console, вместе с ссылками на ваши страницы вы увидите также ссылки на дубли.

Билл поискал подходящие патенты, чтобы разобраться, что именно влияет на авторитет дубля. Там говорится о мета-данных, которые включают в себя:
- Источник
- Права на контент
- Информация о цитировании
- Ключевые слова
- PageRank и пр.

При анализе научных трудов могут также использоваться имена авторов, время публикации, язык и др.

В общем, Билл считает, что не все так однозначно, как об этом написал Дэн, но в целом, явление инвертированных ссылок есть. Это показывают быстрые тесты на выдаче. Ну и, наверняка, вы уже замечали левые ссылки в Search Console. Если хотите, чтобы Google всегда выбирал ваши страницы как канонические, работайте над авторитетом сайта!

via @devakatalk
👍1