Devaka Talk – Telegram
Devaka Talk
11K subscribers
1.42K photos
44 videos
28 files
3.46K links
Канал по просуванню та оптимізації сайтів під Google. Hard SEO.

Зв'язок зі мною: @devaka
(Сергій Кокшаров)

Реклама: @dv_adv
Для донатів: @dv_donate

Навчаю у групах.
https://webpromoexperts.net/courses/seo-pro-online/
Download Telegram
SEO-аналитик

В одном кафе я появляюсь так часто, что официантки начали подозревать, что я фрилансер. Сегодня не выдержали и спросили, чем я занимаюсь. Программированием? Дизайном? Пришлось сказать, что продвижением сайтов, хотя это тоже не правда. Большую часть времени я занимаюсь анализом сайтов и данных, чтением интересных материалов, консультациями и обучением, созданием микро-сервисов, публикацией всех наработок в телеграм... :)

И как это просто объяснить другим, я не совсем понимаю. Поэтому никогда не объясняю. Даже жена не особо понимает, чем занимается Девака 😬

Сложности возникают только при общении с пограничниками. Им я просто говорю, что айтишник и еду на айти-конференцию.
"Ашманов и партнеры" обновили рейтинг видимости сайтов. Добавили три новые тематики: путешествия, такси и перевозки, строительство и ремонт. Актуализировали семантические ядра для шести базовых тематик. И, наконец, сделали фильтр по типу устройства: теперь можно смотреть расклад сил отдельно для десктопов, смартфонов и планшетов.
https://www.ashmanov.com/rating/

Рейтинг формируется сервисом Seorate на основе коммерческих запросов для каждой отрасли и её сегментов. Например, ecommerce состоит из 9 сегментов: одежда и обувь, бытовая техника и так далее. Показатели рассчитываются на основании региона "Москва". Брендовые запросы не учитываются.

P.S. Предложения по добавлению новой отрасли или сегмента в рейтинг, или замечания по поводу функционала, присылайте на почту rating@ashmanov.com.
Джон Мюллер недавно прокомментировал июньский апдейт гугла. Нет чего-то одного, что можно пофиксить. Придется переделывать ряд фундаментальных вещей и улучшать сайт.
https://www.seroundtable.com/google-fix-core-update-algorithms-27729.html

Главные три вопроса, которые были упомянуты в видео:
- Выглядит ли сайт неактуальным
- Знают ли читатели, кто является автором
- Используют ли авторы реальные фото, или берут их со стоков

А также Мюллер упомянул пост, который они публиковали еще после внедрения Панды. Перевод можно посмотреть здесь: https://devaka.ru/articles/google-content-quality-factors

В общем, по словам Мюллера, проблема в контенте.
Интересная история, как ребята пометили свой контент и спалили Google на воровстве.

Genius.com публикует тексты песен. И одно время ребята пожаловались, что гугл полностью перепубликует эти тексты у себя на выдаче. Google ответил, что не, ребят, мы таким не занимаемся.

Genius добавляет в тексты песен фразу "пойман с поличным" на азбуке морзе, используя апострофы. Все это вылезло в Google. Последние сказали, что тянут данные у партнеров, канадской компании LyricFind. Но те тоже отрицают, что у кого-то что-то воруют. Это позор!

Новость на русском на SeoNews:
https://www.seonews.ru/events/kak-azbuka-morze-pomogla-genius-com-poymat-google-na-krazhe-kontenta/

Подробности на The Wall Street Journal:
https://www.wsj.com/articles/lyrics-site-genius-com-accuses-google-of-lifting-its-content-11560677400
This media is not supported in your browser
VIEW IN TELEGRAM
Как менялся ТОП10 по популярности социальных сетей. Осторожно, можно залипнуть )

via @devakatalk
Если копирайтер жалуется, что не до конца понимает ТЗ, но при этом, уже давно пишет по таким ТЗ тексты, то это сигнал бить тревогу. И проблема не столько в самом ТЗ, сколько в отсутствии коммуникации внутри команды, отсутствии команды как таковой, а значит ненастроенные процессы, а значит ближайший крах бизнеса.

Когда я спросил одного такого копирайтера, почему-бы не поговорить с редактором, который присылает ТЗ? Он ответил, что редактор тоже их не понимает, так как берет у сеошников. И так ребята работают уже долгое время.

- Сформируйте команду, распределите задачи
- Обучите
- Дайте участникам возможность легко коммуницировать
- У команды должен быть руководитель, тесно с ней взаимодействующий
- Настраивайте и оптимизируйте процессы
- Формирование команды это не одноразовая работа, нужно постоянно этим заниматься

Во всех остальных случаях это не серьезный подход к бизнесу, а игра в предпринимателя, которая быстро закончится.

Копирайтерам же надо учиться работать в команде. Это также важно, как и умение хорошо писать тексты.
Devaka Talk pinned Deleted message
Месяц назад Google начал поддерживать новые форматы schema.org — FAQ и How-to.
https://www.searchengines.ru/google-faq-howto.html

И сеошники уже нашли, что в разметку FAQ можно добавлять ссылки, юникод и эмодзи... 😁
Недавно знакомые обсуждали вопрос, нужно ли в эпоху 5G-интернета все равно заниматься ускорением своих сайтов? Там уже передача данных - гигабиты в секунду. Любой медленный сайт, по идее, будет загружаться быстро. Может не нужно работать над оптимизацией?

На мой взгляд, оптимизировать скорость загрузки сайтов все равно нужно. Во-первых, некоторые сайты загружаются медленно не из-за того, что там много данных, которым нужен широкий канал связи. А потому, что там много составляющих для отбражения одного документа, и много DOM-элементов, где рендеринг требует больших процессорных ресурсов мобильных устройств.

Сравните загрузку медленного и быстрого сайта на телефоне с 3G и на компьютере со скоростным интернетом. На компьютере вы тоже заметите разницу в загрузке этих сайтов.

Во-вторых, несмотря на развитость 4G LTE, покрывает он не все территории. Я сейчас отдыхаю на Алтае, и тут есть людные места, где хорошо, если ты словишь 3G.

Посмотрите карты покрытия 4G.
— для Украины: https://www.mobua.net/maps/?pos=48,31,6
— для России: https://4gltee.ru/zona-pokrytiya-v-rossii/

В основном, хорошее покрытие в крупных городах. Но если вы думаете, что ваши клиенты всегда находятся в крупном городе с хорошим покрытием скоростного мобильного интернета, то это далеко не так.

Ускоряйте ваши сайты даже в эпоху 5g! От этого вы будете только выигрывать.
Один из текущих трендов в мире — это облачные рестораны. За рубежом их называют призрачными. Это уход от традиционного формата и фокусировка на доставке. Грубо говоря, ресторана, куда можно сходить покушать, физически не существует. Максимум есть своя кухня, или арендованная с кем-то в общак. Но обычно это просто сервисы доставки, маскирующиеся под рестораны.
https://ru.wikipedia.org/wiki/Облачный_ресторан

Преимущества в том, что виртуальное меню легко настроить и поменять. Если в регионе у населения есть предпочтения к определенной еде, или какие-то ингридиенты сложно достать, то это все очень просто адаптировать. Здесь не требуются большие инвестиции и есть много пространства для экпериментов.

Чтобы все это дело продвигать, можно вкладываться в пиар и продукт. А можно просто создать большую сеть и собирать локальный трафик из разных регионов, как это делает GrubHub (американский сервис доставки). Они зарегали 23 259 домена (возможно, есть и другие) и на каждом создали сайт ресторана. Продвигают в органике и локальном поиске.
https://docs.google.com/spreadsheets/d/1m9vszEQ9A13tN4AFRXWXVKZamRpQFIltP452wSqAvFM/edit#gid=0

Схема, конечно, рискованная. Если Google все забанит, то бизнес сильно просядет. Сейчас это большущая сеть с миллиардными оборотами. Скорей всего, GrubHub и Google партнеры. Яндекс, также, для своего облачного ресторана может контроллировать весь поисковый трафик о еде. Если захотите повторить успех, думаю, что вас просто так сюда не пустят. Но тема с сателлитами - зачет!
С сегодняшнего дня Google по-умолчанию включает Mobile First Indexing для всех новых доменов.
https://webmasters.googleblog.com/2019/05/mobile-first-indexing-by-default-for.html

Делайте сайты сразу адаптивными.
Классная визуализация работы ссылок от Цируса Шепарда
https://moz.com/blog/20-illustrations-on-search-engines-valuation-of-links

Ссылки дают больше веса
1. С популярных страниц
2. В контексте главного контента
3. Если находятся выше в контенте
4. С релевантным анкором
5. С уникальных доменов
6. Внешние ссылки по сравнению с внутренними
7. Если находятся ближе к трастовым ресурсам
8. С тематических страниц
9. Со свежих/новых страниц

А также
10. Важна скорость появления ссылок
11. Google может обесценить ссылки низкого качества
12. Ссылки могут работать, даже если их уже убрали
13. Сайты, ссылающиеся на авторитетные ресурсы, учитываются больше, чем те, кто не ссылается
14. Документы, ссылающиеся на спам, обесценивают другие ссылки на этой странице
15. Ссылки, закрытые в nofollow могут давать вес
16. Многие яваскрипт-ссылки передают вес, но только после рендеринга
17. Если со страницы есть несколько ссылок на один и тот же документ, то первая имеет приоритет
18. Robots.txt и meta-robots могут влиять на то, будут ли видны ссылки
19. Отклоненные ссылки не передают вес
20. Google может связывать страницы без ссылок, используя сущности

via @devakatalk
Forwarded from SEO for DEP$ / iGaming
Google опубликовал список всех изменений в спецификации robots.txt

В рамках работы по переводу Robots Exclusion Protocol (REP) в разряд официальных интернет-стандартов Google обновил свою документацию по robots.txt.

Все изменения перечислены в новом разделе «What changed» на странице Robots.txt Specifications.

В их числе значатся следующие:
🔸Удалён раздел «Язык требований»;
🔸Robots.txt теперь принимает все протоколы на основе URI;
🔸Google выполняет минимум пять повторений для переадресации. Если файл robots.txt не найден, цикл прекращается и регистрируется ошибка 404. Обработка логических переадресаций к файлу robots.txt на основе HTML-содержания, возвращающего коды 2xx (переадресации на основе фреймов, JavaScript или метатегов обновления) не рассматривается.
🔸Что касается ошибок 5xx, то если robots.txt недоступен более 30 дней, используется последняя копия, сохранённая в кеше. Если она недоступна, Google заключает, что никаких ограничений сканирования не предусмотрено.
🔸Google обрабатывает неудачные запросы или неполные данные как ошибку сервера.
🔸«Записи» теперь называются «строками» или «правилами», в зависимости от ситуации.
🔸Google не поддерживает обработку элементов с простыми ошибками или опечатками (например, «useragent» вместо «user-agent»).
🔸В настоящее время Google обрабатывает файлы robots.txt, размер которых составляет до 500 кибибайт (КиБ), и игнорирует контент, который превышает это ограничение.
🔸Обновлён формальный синтаксис, чтобы он был действительно расширенной формой Бэкуса-Наура (ABNF) в соответствии с RFC5234 и охватывал символы UTF-8 в файле robots.txt.
🔸Обновлено определение «групп», чтобы оно стало короче и лаконичнее. Добавлен пример для пустой группы.
🔸Удалены ссылки на устаревшую схему сканирования Ajax.

В русскоязычной версии документа эти изменения пока не отражены.

https://l.bbk.name/2FK4OFq
#searchengines
📉 Интересная статистика по стоимости SEO услуг в США

Брайан Дин провел опрос 1200 владельцев бизнеса о том, сколько они тратят на SEO, как ищут компании по продвижению, почему предпочитают одну компанию другой, по каким причинам отказываются от работы с SEO компаниями и по другим вопросам.

Приведу часть данных из опроса:

- В среднем малый бизнес в США тратит на SEO $497 в месяц.

- 50% опрошенных бизнесменов тратят на SEO менее $1000 в год. 14% тратят более $5000 в год. 2% тратят более $25 в год.

- Клиенты, которые платят больше $500 в месяц, на 53,3% более довольны результатами, чем те, кто платит меньше $500.

- Большинство владельцев бизнеса находят исполнителей SEO услуг через рекомендации, поиск Google и отзывы в интернете. 8% нашли через рекламные объявления.

- Для 74% бизнесменов репутация SEO компании очень важна.

- 83% бизнесменов хотят, чтобы SEO компании приводили им новых клиентов.

- Только для 26% бизнесменов важно привлечение фолловеров в соцсетях.

- Только 30% ответили, что будут рекомендовать услуги SEO компании, которой сейчас пользуются, своим друзьям или коллегам.

The 2019 SEO Services Report

https://backlinko.com/seo-services-statistics

Михаил Шакин, @burzhunet
Forwarded from SEO for DEP$ / iGaming
В Госдуму внесен законопроект о маркировке запрещенных организаций в агрегаторах

В российскую Госдуму внесен законопроект, согласно которому новостные агрегаторы должны публиковать данные об экстремистских организациях только с указанием того, что те запрещены на территории страны. Документ опубликован на сайте нижней палаты парламента.

Авторами инициативы выступили председатель Государственного собрания Башкортостана Константин Толкачев и депутат Госдумы Павел Качкаев. Изменения коснутся федерального закона «Об информации, информационных технологиях и о защите информации», а также ст. 3.5 и 13.37 Кодекса об административных правонарушениях.

Согласно документу, при распространении информации о нелегальных организациях, агрегаторы и аудиовизуальные сервисы наравне со СМИ должны указывать, что их деятельность прекращена или запрещена на территории России.

Согласно документам, за нарушение правил публикаций на физических лиц предлагают накладывать штрафы в размере от 2 тыс. до 2,5 тыс. руб., на должностных лиц — от 4 тыс. до 5 тыс. руб. и на юрлиц — от 40 тыс. до 50 тыс. руб.

Данные требования предусмотрены ФЗ «О противодействии экстремистской деятельности», утверждают авторы. Отсутствие ограничений, по мнению авторов законопроекта, «создает благоприятную почву» для «неверной интерпретации событий» и позиционирования запрещенных организаций как законно действующих.

Яндекс считает излишним этот законопроект о запрете упоминания запрещенных организаций в новостных агрегаторах без пометки.

Как пояснили в пресс-службе:
«Мы считаем данную инициативу излишней, так как новостные агрегаторы получают информацию от зарегистрированных СМИ, для которых предложенная норма уже действует».

https://l.bbk.name/2xw0oh2
#searchengines
Не смотрите на то, что делают другие, в надежде, что они это делают правильно. Некоторые сайты имеют хорошую видимость в поиске, несмотря на многие вещи.
/ Джон Мюллер, Google /

Этот комментарий Джон написал, как ответ на очередной вопрос про выбор поддоменой или подпапочной структуры. Оптимизаторы змечают, что ряд авторитетных сайтов используют поддомены.

Наблюдая за сайтами, мы никогда не знаем, что для них сработало (обычно это просто авторитет). И часто делаем неверные выводы, выделяя один из важных для нас (но не факт, что важных для поиска) сигналов.
Чтобы о политиках и губернаторах хорошо писали, и был только позитивный ТОП поисковой выдачи, последние за это много платят. Плюс SERM добралось и до Википедии. Но все тайное, рано или поздно, становится явным.

https://meduza.io/feature/2019/07/05/12-zlobnyh-redaktorov
https://tjournal.ru/analysis/105027-delo-12-redaktorov-russkoyazychnoy-vikipedii

По итогам проверки участников, редактировавших в негативном ключе статьи об оппозиционерах, вышли материалы в «Медузе» и TJ.
Крутая игра — https://userinyerface.com/
Можно обучать дизайнеров/верстальщиков (создателей интерфейсов), показывая плохие примеры.

На сайте нужно зарегистрироваться на время, пройдя сквозь кривые интерфейсы. Возможно, вы где-то узнаете себя.

P.S. Осторожно, игра вызывает боль! :) После прохождения вы лучше будете понимать, что такое юзабилити.

via @devakatalk
Агрегаторы в ТОПе - одна из современных проблем в SEO. С ними сложно бороться, на них нужно уметь продвигаться, создавать свои не всегда имеет смысл. Ребята из SEO.ru попросили нескольких специалистов дать обратную связь по этому вопросу — https://vc.ru/72381

В чем ценность агрегаторов и почему они в ТОПе? Как с ними бороться? Имеет ли смысл создавать свой агрегатор и какие прогнозы на будущее? Получилось интересно.
G2 выложили крутой кейс, как они пришли к 1млн органического трафика в месяц с помощью контент-маркетинга. Хороший кейс и отличное оформление.
https://learn.g2.com/hub/1-million

Ребята пересмотрели свой контент и начали использовать правильные ключевые слова. В кейсе описано, как и с помощью каких инструментов они нашли важные ключи. Также оптимизировали все изнутри и изменили стратегию линкбилдинга. Но это далеко не все.

Главный фактор успеха — команда!

Главы из кейса:
1. Как мы пришли к 1млн органического месячного трафика.
2. Как тематическая кластеризация и перелинковка создали авторитет G2.
3. Как мы делали SEO.
4. Как исследование ключевых слов помогло нам создать правильный контент.
5. Контент не пишет себя сам. Как найти и удержать команду контент-маркетинга.
6. Как мы делали масштабируемую стратегию линкбилдинга с нуля.
7. От показов к кликам. Как создать стратегию повышения конверсии.
8. Комьюнити G2. Чтобы поднять ваш блог, необходимо комьюнити.

Рекомендую почитать.
Как бы глупо не казалось, но наличие счетчика на сайте влияет на SEO. Но справедливо отметить, что влияет не всегда в одну и ту же сторону, зависит от сайта.

Мини-кейс на канале Борминцева Александра:
https://news.1rj.ru/str/bortalks/41