Сущность SEO – Telegram
Сущность SEO
181 subscribers
19 photos
34 links
Опыт работы в SEO с 2009 года.
Делюсь своим опытом, инструкциями, SEO-промтами, экспериментами и результатами накрутки поведенческих факторов в Google.

Контакты для связи - @webstudioua_com
Download Telegram
Как проиндексировать страницу на чужом сайте?

1. Сохраняем к себе на сервер исходный код страницы, которой нам нужно проиндексировать.
Под эту задачу лучше создать поддомен, т.к. сначала будут исходящие ссылки, а затем 404 страницы.
2. Добавляем с исходный код тег <base>, в нем указываем адрес страницы, которую нужно проиндексировать (на чужом сайте).
3. Индексируем через Google API или панель вебмастера.
4. Далее можно подождать пару дней или отследить по логам сервера заход Google bot и удалить эту страницу.

Можно все автоматизировать, такой скрипт должны написать даже нейросети.

По моему опыту, страницы индексируется хорошо, но все же не все или не с первого раза.
В основном не индексируются некачественные ИИ тексты (некоторые владельцы сайтов по продажи ссылок такие используют).

Лично я, пока пользуюсь этим ботом - SpeedyIndexBot (реф. ссылка), но планирую запускать своего.

#Полезное
2
Что делать, если текст на странице уже написан, но позиции не растут?

Далее речь пройдет только про текстовые факторы, а не другие, которые влияют на позиции страницы.

Как я делаю сейчас:
1. Копирую текст и прошу Джеминай проверить его, и написать, чего не хватает для раскрытия темы;
2. Добавляю текст в Клод и прошу вписать недостающую информацию естественным образом, а не переписывать текст.

В 90% случаев этого достаточно, но иногда бывает переспам по основным ключевым словам, поэтому нужно подгонять плотность на основе конкурентов.

Ранее я уже описывал логику работы скрипта для создания заданий для копирайтеров, этот же скрипт, с небольшой доработкой, использую для сравнения своего текста с текстами конкурентов.

В скрипт добавляю адрес своей страницы и страницы конкурентов и получаю информацию:
1. Объем текста по каждой странице конкурента;
2. Средний объем текста по всем конкурентам;
3. Количество каждого слова, по каждому конкуренту и вывод разницы по сравнению с моим текстом;
4. Все тоже самое, но сравнение по всем конкурентам;
5. Биграммы и триграммы, сравнение с моим текстом;
6. Список слов, которых нет в моем тексте;
7. Информация по noscript, denoscription, h1, а так же сравнение с моими мета-тегами.

Далее, я выбираю подходящие LSI-слова и прошу Клода вписать их в текст и вручную подгоняю количество основных ключевых слов (нейросети не справляются с этим заданием), далее сравниваю биграммы и триграммы, недостающие добавляю, а так же проверяю мета-теги.

До появления нейросетей, я дорабатывал тексты только этим способом.

Далее нужно подождать 3-4 недели и статья чаще всего выходит в топ-10, потом додавливаю ее ссылками и/или поведенческими.


Вот отличный сервис для доработки статей - https://neuronwriter.com/

Но у него есть недостатки, поэтому я решил написать свой скрипт:
• нет возможности сравнить с каждым конкурентом, а только общая информация по всем.
Лучше ориентироваться на конкурентов из топ 1-3, чем по среднему значению.
• не скачивает информацию с сайтов, у которых стоит защита от ботов.
• не переводит со второго языка, например, с украинского на русский, из-за это результаты получаются смешанные и не точные.

#Полезное
Про LSI-слова.

В интернетах (укр, рус, англ) непрекращающиеся дискуссии, работаю LSI-слова или нет.

"Я гулял на улице и нашел ключ".
Как из этого предложения Google поймет, какой ключ я нашел, инструмент, родник или от замка?

Я попросил Клода написать список LSI-слов, которые описывают данный ключ:
Вода
Родниковая
Источник
Ручей
Живительная
Кристальная
Прозрачная
Чистая
Студёная
Свежая
Журчащая
Прохладная
Целебная
Минеральная
Артезианская
Подземная
Природная
Освежающая
Струящаяся
Бьющая
Ледяная
Бурлящая
Ключевая

Я думаю, становится сразу понятно о каком ключе идет речь?!

Так почему же Google это не использовать?
Если у него, например, 1000 страниц на одну тему, как определить более качественную?

Когда в 2011 у Google вышел новый алгоритм Panda (который продолжает работать, но сильно модифицирован), я изучал его, и попалась информация, что у Google есть огромная база данных отсканированных библиотек, поэтому он может сравнить текст со своей базой, и понять, насколько качественный текст, содержатся ли в нем нужные слова, которые встречаются в книгах.

Вот и Клод подтвердил мои воспоминания, прилагаю скрин.

Очень важный момент, что проверять позиции страницы, после добавления LSI-слов нужно не ранее чем через 3-4 недели, видимо у Google для этого отдельный алгоритм, который делает пересчет, плюс экономия электричества и мощностей.

Вывод: да, LSI-слова отлично работаю, они делают статьи более экспертными, даже рассуждая логически на эту тему, не вижу причин, почему Google их не использовать.

Я в своей работе использую LSI с 2014 года, собираю их для копирайтеров, а вручную проверяю наличие и добавляю их в статью только в том случае, если страница застряла и не выходит в топ.

Но вы никому не верьте и все проверяйте самостоятельно, то, что работало в SEO год назад, сегодня уже может не работать.

Далее я продолжу тему о качестве текстов, поговорим про именованные сущности.

#Полезное
Что такое именованные сущности в SEO?

Или второе название поста - "Большинство знает, что Google нужна полнота ответа, но мало кто знает, как это сделать".

Определение от Джеминай:
В SEO, именованные сущности - это реальные объекты или абстрактные понятия, которые имеют уникальное имя или идентификатор. Они играют важную роль в том, как поисковые системы понимают контекст и релевантность контента.
По сути, они помогают поисковикам "узнать", о чем идет речь на странице, выходя за рамки простого сопоставления ключевых слов.

Типы именованных сущностей:
• Люди: Илон Маск, Стив Джобс
• Организации: Google, Всемирная организация здравоохранения
• Места: Пекин, Эйфелева башня
• События: Олимпийские игры, Чемпионат мира по футболу
• Произведения: "Война и мир", "Звездные войны"
• Продукты: iPhone, Tesla Model S
• Бренды: Nike, Apple
• Абстрактные понятия: любовь, счастье

Пример именованных сущностей для iPhone.
Сущность: iPhone
Тип сущности: Продукт
Связанные сущности:
• Организация: Apple (производитель)
• Люди: Стив Джобс (создатель), Тим Кук (CEO Apple)
• Места: Купертино, Калифорния (штаб-квартира Apple)
• События: WWDC (Worldwide Developers Conference), презентация нового iPhone
• Продукты: iOS (операционная система), App Store, AirPods
• Бренды: Apple, Foxconn (производитель)
• Абстрактные понятия: технологии, инновации, дизайн

Для лучшего понимания, напишу свой пример.
Сущность: напишу про себя
Тип сущности: человек
Связанные сущности:
Имя: Михаил
Профессия: SEO-оптимизатор
Опыт работы: ...
Дополнительные навыки: ...
Год рождения: ...
Место жительства: ...
и т.д.

На первом сайте про меня написано только как меня зовут и профессия, на втором сайте все тоже самое, но с дополнительной информацией про опыт работы и навыки, на третьем сайте все тоже самое, что и на втором сайте, но еще написан год моего рождения и место жительства.

Предположим, что Google про меня все знает, как вы считаете, какой сайт, на какой позиции будет в выдаче, при прочих равных условиях?
Правильно, сначала будет выводится 3-й, затем 2-й и только потом 1-й, т.к. 3-й сайт имеет максимум информации обо мне.

Еще пример с товаром, сущность - полочки, атрибут - материал.
Если в вашем магазине продаются только стеклянные полочки, а Google знает, что еще бывают металлические, нержавеющие, деревянные, пластиковые полочки и др. то скорее всего он не пропустит ваш сайт в топ по общим запросам типа "купить полочки", а только по стеклянным, даже если количество товаров будет больше, чем у конкурентов.

Забавное отступление, когда я только начинал учить SEO, то уже тогда говорили, что для Google важна полнота ответа по теме, в отличии от Яндекса, приводился пример с телефонами Nokia, мол добавляйте на сайт всю информацию по этой теме, подойдут даже ноты для мелодий))
Может кто-то помнит, как на монофонических Nokia из нот набирали мелодии?
https://prnt.sc/fjx4RFIhwwa3

У Google по каждой теме есть свой граф знаний (Knowledge Graph, данные по этой теме), поэтому он знает, на каком сайте более полный ответ.

Так же он знает, какие типы сущностей более популярные (степень близости), например, для запроса "купить iPhone", будут выбраны магазины, у которых полный ассортимент Айфонов, у которых есть информация про операционную систему смартфонов, процессор, камеру и др., а по запросу "что такое iPhone", уже должна быть информация про Стива Джобса, Тима Кука, Купертино, информация про все модели телефонов, их отличия.

Еще пример (не мой), пользователь вводит запрос "лучшие актрисы", далее Google выполняет свой процесс в следующем порядке:
• Определяет связанность других сущностей и присваивает значения;
• Определяет известность этих сущностей и присваивает каждой из них определённое значение;
• Определяет вклад этих сущностей и присваивает значение;
• Определяет, получали ли эти сущности какие-либо награды, и присваивает значение;
• Определяет соответствующий вес каждой из них, исходя из типа запроса;
• Определяет конечную оценку для каждой возможной сущности.
Продолжение предыдущего поста - https://news.1rj.ru/str/google_pf/74

Откуда сеошники все это узнают?
Основная информация получена из патентов Google - https://beanstalkim.com/learn/articles/patent-ranking-search-results-based-on-entity-metrics/
Дополнительная информация из тестов и опыта.


Как я раньше работал с сущностями?
Специально с ними не работал, для копирайтеров собирал LSI-слова конкурентов, а копирайтеры видя слова, понимали, о чем должна быть в статья, поэтому мне еще более непонятна точка зрения специалистов, которые утверждают, что LSI не работает.
Если страница со временем не выходила в топ, то шел анализировать конкурентов, искал информацию, которая есть у конкурентов, но нет на моем сайте.

Как сейчас работаем с сущностями?
С появлением нейросетей сетей, все стало гораздо проще, всю информацию получаю у них.
По моим опытам, под эту задачу, лучше всего подходит Gemini от Google.
Как я сейчас делаю задания для копирайтеров, уже ранее рассказывал - https://news.1rj.ru/str/google_pf/56
Теперь конкуренты анализируют мои сайты, а не я))

Примеры промтов:
1. Пожалуйста, напиши о чем должна быть статья про "стеклянные полочки" для полной экспертизы и раскрытия темы?

Оффтоп. Чаще используйте в своей жизни волшебные слова "пожалуйста" и "спасибо", с ними даже с нейросети выдают лучше результат, проверено, поистине волшебные слова.

Результат: https://prnt.sc/hZuYiR29lg5x, https://prnt.sc/t8PN5y-bo-lp

2. Во первых, проанализируйте и подберите максимальное количество релевантных доменов сущностей для запроса "стеклянные полочки".
Для каждого подобранного домена соберите максимальное количество именованных сущностей.
Для каждой именованной сущности соберите все возможные атрибуты.
Во-вторых, организуйте вывод собранных данных в виде таблицы.
В первом столбце - подобранные домены сущностей и их степень близости к запросу (вывести под названием домена сущностей), во втором столбце - список именованных сущностей для каждого домена сущностей (при этом каждая новая именованная сущность выводится на новой строке - т.е. для каждой ячейки домена - выводится несколько ячеек с сущностями), в третьем столбце - все атрибуты для каждой именованной сущности домена сущностей (каждый атрибут выводится в отдельной, индивидуальной ячейке).

Результат - https://prnt.sc/zoK23JSFygX7
Источник промта - https://news.1rj.ru/str/drmaxseo/516

3. Проанализируй и подбери исчерпывающее количество релевантных доменов сущностей для запроса "стеклянные полочки".
Напиши только список сущностей, без дополнительной информации.
Отсортируй список по максимальной степени близости.

Результат: https://prnt.sc/mfGXk-fMMGGk, https://prnt.sc/feeBil5jpKjz

Попробуйте составить свои промты, возможно получатся лучше результаты.
Лично я использую 1-й вариант.

Далее всю эту информацию сбрасываем копирайтеру.
После того, как копирайтер отойдет от шока, обсуждаем стоимость, сроки и дополнительную информацию))

Еще важно, если у вас коммерческий сайт, то и статья должна быть написана с коммерческим или с транзакционным интентом.
Получаются гибриды, статьи с коммерческим интентом, но с раскрытием информационной темы.
Не знаю, что будет в будущем, но сейчас это очень хорошо работает, даже в конкурентных темах, чаще всего статья сразу выходит в топ 10-30.

Тема сложная и объемная, я рассказал малую часть.
Если вам интересна эта тема, советую продолжить изучение по этим статьям:
https://www.searchenginejournal.com/entity-seo/492947/
https://www.searchenginejournal.com/why-entities-are-important-right-now/277231/
https://online-sales-marketing.com/seo/understanding-seo-entities-an-interview-with-bill-slawski/

Таким образом, Google смог перейти от ранжирования по ключевым словам, к ранжирования на основе сущностей.

#Полезное
👍21
Сущность SEO
Результат эксперимента с ИИ контентом. Просматривал ключевые фразы продвигаемого сайта, и у одной группы не было позиций даже в топ-100. Тематика ключевых слов - это бренд обуви. Решил провести эксперимент, добавить ИИ статью, попросил Gemini написать содержание…
Эксперимент с этой страницей заканчиваю.
Основная фраза вышла в топ-3, первые две позиции занимает официальный сайт бренда.

Повторил данный эксперимент на других сайтах, результат получил такой же.
Чаще всего страница выходит в топ-10, иногда в топ-20, далее поведенческими вывожу ее на первые позиции.

Особенность этих статей в том, что они написаны от первого лица с демонстрацией личного опыта (E-e-a-t).

Сейчас запустил новый эксперимент: для готовых страниц с SEO-текстом, прошу Клода написать несколько фактов на эту тему и добавляю их в статьи.
Затем нахожу источники этих фактов, и прописываю ссылки на них (не закрывая rel nofollow).
Не раньше чем через месяц, поделюсь результатами.

#Полезное
👍3
Что делать, если Google перестанет поддерживать оператор "cache:"?

Отступление от темы.
Я планировал продолжить тему текстовых факторов ранжирования, хотел написать пост про интент, но при проверке топа, оказалось, что все совсем не так работает, как я всегда считал и как все об этом пишут))
Поэтому провожу анализ топов и делаю новые выводы, опубликую их позже.
Вот еще один плюс ведения своего телеграм-канала.
А пока напишу коротки пост на другую тему.


Анализ кеша страницы, обязательный этап аудита любого сайта, т.к. иногда исходный код страницы сильно отличается от того, как видит его Google, и как он отображается в браузере пользователя.

Понятное дело, если у вас есть доступ к Google Search Console, то в нем полная информация, но иногда бывают задачи, а доступа нет, например, при быстром аудите сайта, при проверке вебмастеров торгующими ссылками (некоторые недобросовестные вебмастера скрываю (клоачат) ссылки от Google) и др.

Как уже все заметили, Google удалил из выдачи ссылку на кеш страницы, но пока можно воспользоваться в поиске оператором "cache:" и увидеть исходный код страницы так, как его видит Google, например, "cache:https://domain.ua/page.html".

Лично я пользуюсь букмарклетом от Devaka, так удобнее и быстрее - https://news.1rj.ru/str/devakatalk/4276
На открытой вкладке, выбираю из закладок букмарклет и попадаю на страницу кеша.

Как проверить страницу, если в будущем отключат оператор "cache" или нужно посмотреть текущую версию страницы, например, после внесения правок?
Использовать сервис проверки расширенных результатов (микроразметки) - https://search.google.com/test/rich-results

Единственное, что стоит учесть - это отличие User-Agent, в данном сервисе он будет "Google-InspectionTool", а поисковые другие, но в 99% случаев это не имеет значения.

Вот список основных User-Agent'ов Google - https://developers.google.com/search/docs/crawling-indexing/overview-google-crawlers?hl=ru

#Полезное
👍3
Про микроразметку.

Везде пишут, что микроразметка напрямую не влияет на позиции сайта, но ведь мы добавляем ее как раз для Google, пользователи ее не видят, тогда зачем добавлять?

Если объяснить кратко, то добавляя микроразметку, мы увеличиваем релевантность страниц и сайта, делаем их более ранжируемыми.
Мы объясняем алгоритмам Google, как необходимо понимать страницу или сайт.

Если же Google и так все было понятно, то добавление микроразметки не повлияет, например, статейный сайт и мы добавляем разметку "Article".
Но если на статейном сайте добавить анонс мероприятия, то не факт, что Google сможет это понять, поэтому нужно делать разметку.

Другие, очевидные преимущества:
• Расширенные сниппеты (rich snippets): Использование микроразметки позволяет создавать более информативные и привлекательные сниппеты в поисковой выдаче. Например, для товаров это могут быть рейтинги, цены и наличие; для рецептов — время приготовления, калорийность и рейтинги. Эти дополнительные данные могут привлекать больше кликов от пользователей.

• Повышение CTR (коэффициента кликабельности): Благодаря более детализированным и привлекательным сниппетам в поисковой выдаче, сайты с микроразметкой часто наслаждаются более высоким CTR. Больше кликов может переводиться в больше трафика на сайт.

• Повышение доверия Google: Использование микроразметки показывает Google, что вы заботитесь о качестве данных и удобстве пользователей. Это может положительно сказаться на общем отношении поисковой системы к вашему сайту.


Несколько советов:
• У меня были и есть сайты на продвижении, у которых по техническим причинам невозможно добавить микроразметку, все прекрасно ранжируется и растет.
Микроразметку начинаю внедрять на сайт где-то на 3-4 месяц продвижения, когда все основные работы сделаны.

• Не пытайтесь обмануть Google, может получится обратный эффект.
Google заявляет, что если сайт недобросовестно манипулирует микроразметкой, то он перестает ее учитывать для текущего сайта.
Несколько лет назад читал, что к сайту могут примениться ручные санкции (отображается в панели вебмастера), но сам никогда не встречал.

• Если не понимаете, какую микроразметку добавить или для чего нужна, то лучше не добавляйте, можете сделать только хуже.

• Проверяйте существующую микроразметку.
Часто сталкиваюсь, что некоторые сеошники добавляют совершенно неподходящую микроразметку (наверное одну для всех сайтов), еще бывает неправильная микроразметка в шаблоне сайта или в плагинах.
Например, вот список типов для "LocalBusiness" - https://prnt.sc/nnhilSJtpHw8, а все по умолчанию в лучшем случае ставят "Organization".

• Анализируйте конкурентов в топе.
Обычно на сайты добавляю микроразметку, которую официально поддерживает Google, но для некоторых тематик находил очень интересную микроразметку у конкурентов.
Не проверял, насколько неподдерживаемая официально микроразметка влияет на позиции, т.к. работы проводил в комплексе, но раз сайты с ней в топе, то по возможности лучше добавить.

Хотел поделиться ссылкой на сервис для массового анализа микроразметки по топу, которым несколько лет пользовался, но обнаружил, что он стал платным((
Все равно, вот ссылка, вдруг кому-то пригодится - https://neuraltext.com/schema-serp
Попробую найти бесплатные альтернативы или напишу свой скрипт.


Еще популярный вопрос, о котором все время спорят сеошники - должна ли микроразметка выводится на всех страницах или только на одной, например, "LocalBusiness" только на странице контактов?

Я вам точно не отвечу, но для себя сделал вывод, что если Google зайдет на любую страницу, то он должен понять, что за сайт перед ним.
Естественно микроразметка для товаров, должна выводится на странице товаров, а не на всех страницах, для статей в статьях, для событий в мероприятиях и т.д.
Но для местной организации, поиску по сайту, хлебных крошек нужно делать сквозные.
Продолжение предыдущего поста - https://news.1rj.ru/str/google_pf/80

Очень интересный пример микроразметки для определения сущностей увидел в этой статье - https://www.searchenginejournal.com/entity-seo/492947/

<noscript type="application/ld+json"> {
"@context": "https://schema.org",
"@type": "WebPage",
"@id": "https://www.yoursite.com/yourURL#ContentSchema",
"headline": "Restaurants a small distance from the Eiffel Tower",
"url": "https://www.yoursite.com/yourURL",
"about": [
{"@type": "Thing", "name": "Restaurant", "sameAs": "https://en.wikipedia.org/wiki/Restaurant"},
{"@type": "Place", "name": "Eiffel Tower", "sameAs": "https://en.wikipedia.org/wiki/Eiffel_Tower"}
],
"mentions": [
{"@type": "Thing", "name": "distance", "sameAs": "https://en.wikipedia.org/wiki/Distance"},
{"@type": "Place", "name": "Paris", "sameAs": "https://en.wikipedia.org/wiki/Paris"}
]
} </noscript>


Автор использует ее для "устранении неоднозначности", чтобы Google точнее понял, что речь идет про ресторан, который находится недалеко от Эйфелевой башни.

Речь идет про:
"Вещь" с название "Ресторан", как тоже самое, что статья про ресторан в Википедии.
"Место" с названием "Эйфелева башня", как тоже самое в Википедии про Эйфелеву башню.
Упоминает про:
"Вещь" с название "Дистанция", как тоже самое в Википедии.
"Место" с названием "Париж", как тоже самое в Википедии.

Очень хочу провести подобные эксперименты, когда найду свободное время и вдохновение, результатом поделюсь.

Удобнее всего составлять подобную микроразметку в бесплатный сервисе - https://schemantra.com/

#Полезное
👍1
Сущность SEO
Эксперимент с этой страницей заканчиваю. Основная фраза вышла в топ-3, первые две позиции занимает официальный сайт бренда. Повторил данный эксперимент на других сайтах, результат получил такой же. Чаще всего страница выходит в топ-10, иногда в топ-20, далее…
Результаты эксперимента с внешними ссылками.

Прошел почти месяц с момента добавления фактов, внешних ссылок без закрытия rel="nofollow" и индексации, думаю, уже можно делать выводы.

Подробности про сайты:
• Всего добавил ссылки на 5 разных страниц для 5 сайтов;
• На 2-х страницах, уже были добавлены факты, а для 3-х остальных сгенерировал Клодом;
• На каждой странице добавил по 3 внешние ссылки;
• Типы сайтов - интернет-магазины (возможно на информационных сайтах будет другой результат);
• Страницы - категории с товарами;
• Поведенческие на этих страницах не накручивал, ссылки не покупал.


Примеры сайтов, на которые ссылался (только были тематические страницы, а не главные):
• Сайты производителей;
https://wikipedia.org/
https://patents.google.com/
https://www.laviani.com/
https://www.foodprotection.org/
https://www.sciencedirect.com/
https://www.unep.org/
https://www.epa.gov/


Еще немного подробностей:
• Всего потратил 3 часа рабочего времени;
• Для получения внешних ссылок использовал 5 разных нейросетей, плюс разные версии, если были доступны;
• Почти все ссылки от нейросетей были нерабочие или вели на другие сайты, пробовал много разных промтов, приходилось перепроверять факт и если он достоверный искать в Google.
• Для очень популярных товаров, источники фактов находил почти сразу, для некоторых непопулярных товаров вообще не нашел;
• В Google Академии не нашел ни одной подходящей статьи;
• В первую неделю после добавления ссылок, позиции страниц немного просели, но через неделю вернулись.
• Виды ссылок - [Источник: название статьи, безанкорная ссылка].

Вывод: я не могу назвать этот эксперимент полностью достоверным, нужно использовать больше страниц, разные типы сайтов, проверять как поменяются позиции после добавления фактов написанных нейросетями, но для себя сделал вывод, что я больше не буду публиковать внешние ссылки на продвигаемых страницах.


P.S. все внешние ссылки удалил, факты оставил, страницы переиндексировал, если будет заметное изменение позиций, то опубликую про этой пост.
Продолжение темы про именованные сущности и микроразметку.

Вчера посмотрел суперинтересный вебинар Артема Паклонского у Михаила Шакина.
Хоть тема доклада и была про Google Discover, но большая часть была посвящена сущностям, как их находить и внедрять, а как раз это я планировал сделать в будущих экспериментах.
Вот основные тезисы доклада - https://news.1rj.ru/str/notjohnmu/1279

Вдохновленный новой информацией, запустил новый эксперимент на 5 сайтах, как обычно, результатами поделюсь через месяц.

Вот сервисы, которые пригодятся для этой задачи:
Google Trends - для поиска сущностей
Google Knowledge Graph API - поиск сущностей в графе знаний Google
https://entitieschecker.com/ - поиск сущностей по url адресу
https://www.textrazor.com/demo - анализ текста, поиск сущностей в тексте
Еще неплохо справлялись GTP4o и Gemini, в Llama3 и Claude плохие результаты.

Напомню, что цель добавления этой микроразметки - "устранение неоднозначности", объяснить Google, о чем конкретно страница сайта, указав ему ссылки на Википедию, и на его граф знаний.

Алгоритм работы (пока не обкатанный, если будут результаты, буду автоматизировать):
• В Google Trends находим название нашей основной сущности, чаще всего, это будет H1 страницы, например, "смартфоны Xiaomi".
Для непопулярных тем, скорее всего это будут 2 разные сущности, например, "смартфон" и "Xiaomi".
Еще причина поиска в Трендах, т.к. сущность может быть в разных словоформах или синоним, через API не удастся найти.
Обратите внимание, что url уже содержит id из Knowledge Graph - https://trends.google.com/trends/explore?q=/g/11gbf90gnr&hl=ru

• Если удается найти ссылку на Википедию, то я добавляю 2 ссылки.
Лучше всего искать через API по имени или id сущности, т.к. там указан тип сущности, например, Thing, Organization, Place, ProductModel и т.д. - https://prnt.sc/smlUMHW6MwOr
В данном случае нет общей статьи про "смартфоны Xiaomi", поэтому нужно прописать отдельно для каждой сущности.

• Далее нужно собрать дополнительные сущности для "mentions", которые помогут объяснить Google, о чем еще наша страница, этакие LSI-сущности.
Для этого нужно воспользоваться указанными сервисами или нейросетями.
Примеры: https://prnt.sc/HZtCyHb0Zq8Q, https://prnt.sc/DQE9KSiu6oxw, https://prnt.sc/RyrPt2ilq-FB
Здесь пока нет четкого понимая, какое количество сущностей должно быть, нужно проводить тесты, для пример возьмем 2 разных типа сущностей.

• Ссылку на Google составляем таким образом - https://www.google.com/search?q=&kgmid=
q - название сущности
kgmid - id сущности
Пример - https://www.google.com/search?q=Смартфон&kgmid=/m/0169zh

В итоге получаем следующую микроразметку:
<noscript type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "WebPage",
"@id": "https://example.com/xiaomi/",
"headline": "Смартфоны Xiaomi",
"url": "https://example.com/xiaomi/",
"about": [
{
"@type": "Thing",
"name": "Смартфоны Xiaomi",
"sameAs": "https://www.google.com/search?q=смартфоны+Xiaomi&kgmid=/g/11gbf90gnr"
},
{
"@type": "Thing",
"name": "Смартфон",
"sameAs": ["https://ru.wikipedia.org/wiki/Смартфон", "https://www.google.com/search?q=Смартфон&kgmid=/m/0169zh"]
},
{
"@type": "Organization",
"name": "Xiaomi",
"sameAs": ["https://ru.wikipedia.org/wiki/Xiaomi", "https://www.google.com/search?q=Xiaomi&kgmid=/m/0h6955b"]
}
],
"mentions": [
{
"@type": "SoftwareApplication",
"name": "MIUI",
"sameAs": ["https://ru.wikipedia.org/wiki/MIUI", "https://www.google.com/search?q=MIUI&kgmid=/m/0h3ly_c"]
},
{
"@type": "SoftwareApplication",
"name": "Android",
"sameAs": ["https://ru.wikipedia.org/wiki/Android", "https://www.google.com/search?q=Android&kgmid=/m/02wxtgw"]
}
]
}
</noscript>


Проверяем валидатором - https://validator.schema.org/
И добавляем в исходный код описаний категорий через админ панель.
Для OpenCart, Webasyst и ImageCMS4 добавилось без проблем, а Wordpress вырезал часть данных, нейросеть написала шорткод, добавил через него.
👍1
Мысли. Теории. Вопросы.

Решил прогнать тексты конкурентов и сравнить со своими через Google Natural Language API, чтобы найти корреляции, т.к. есть подозрение, что Google для текстового ранжирования использует эту же языковую модель.

В результат весь текст разбит на сущности (см. скриншоты).

Это что же получается, были правы мои коллеги, что никакого LSI в Google никогда не было и нет, а вместо LSI используются сущности?!?! 😲

Когда для застрявшей страницы, я у конкурентов собирал LSI и добавлял их в свою статью, а через время она начинала расти, то все из-за того, что мне удавалось найти недостающие сущности? 🤔

Условно говоря, теперь копирайтеру можно не сбрасывать десятки LSI-слов и фраз, а только обязательные сущности и результат должен быть лучше?

Нужно проверять эту теорию, но сначала найти способ, как собрать максиму сущностей.
Хорошо, что API для поиска в графе знаний бесплатное.

У кого есть ответы на мои вопросы, напишите, пожалуйста, в комментариях.
👍1
Что-то я давно не выкладывал результаты.

Целью создания этого телеграм-канала была, во-первых, экономия времени, чтобы каждому новому клиенту не отвечать на одни и те же вопросы, во-вторых, после добавления всей информации, планировал его рекламировать.
Потом решил добавить в него полезный контент, чтобы был смысл подписываться.
А сейчас смотрю, что все же нужно разделить полезный контент от контента по услуге накрутки поведенческих факторов, но пока не решил, как именно это сделать.

⚠️ Тем более, что в последнее время нет стабильных результатов по накрутке, поэтому услугу временно приостанавливаю.

По некоторым сайтам сумасшедший рост (например, за 1 неделю из 262 ключевых фраз в топ-1 вышло сразу 164 фразы, в топ-3 218 фраз (с учетом топ-1), а за топ-10 осталось всего 12 фраз), к сожалению, есть сайты, на которых результат полностью отсутствует, например, за неделю дают рост +1, +3, а через неделю -1, -3, но сайтов с негативными результатами нет.

Причин очень много, продолжаю разбираться.
Вот некоторые подозрения:
1. Google в браузере Chrome отказался от использования куки для сторонних сайтов, говорят, что в целях безопасности, т.е. теперь ни Google, ни другие сайты не смогу увидеть, какие сайты посещал пользователь.
Видимо для понимания интересов пользователей, для рекламы, они будут отслеживать их через Analytics, и теперь с нуля нужно прокачивать профили.

2. В Google продолжаются обновления алгоритмов, они временно отключили поведенческие в некоторых тематиках, чтобы точнее сделать вывод по результатам - https://www.semrush.com/sensor?category=23

3. В последнее время, я не могу зарегистрировать новые аккаунты в Google, использую новые роутеры, новые ноутбуки, но все без результатов.
Регистрация проходит, но через минуту блокируется аккаунт, появляется окно ввода номера телефона, но смс не отправляется, появляется ошибка.
Оказывается, что эта проблема сейчас у большинства пользователей, т.к. уже несколько месяцев идет международная борьба с ботнетами, спецслужбами США совместно со спецслужбами из других стран, по ссылке подробная информация - https://www.spamhaus.org/resource-hub/malware/operation-endgame-botnets-disrupted-after-international-action/#operation-endgame:-victims'-account-remediation
Я склоняюсь именно к 3 варианту.

Всем, кто заказал у меня услугу, не волнуйтесь, если во время сдачи отчета не будет результатов, то я вам верну деньги без вопросов и поиска причин.
Please open Telegram to view this post
VIEW IN TELEGRAM
К сожалению, услуга по накрутке поведенческих факторов в Google полностью остановлена.

С конца апреля, положительные результаты только на 3-х сайтах.
Всем заказавшим у меня услугу, но не получивших результаты, я уже вернул деньги.

Несколько предположений, я описывал, но недавно попалась статья Marie Haynes про поведенческие - https://www.mariehaynes.com/navboost/
Она подозревает, что Google в марте 2024 года подключил нейросеть Gemini для более эффективной работы поведенческих, по срокам как раз сходится (до конца апреля еще работали накопленные поведенческие).

Вполне возможно, что Google инициировал существенные изменения в своих алгоритмах ранжирования в результатах поиска, начиная с марта 2024 года. Это обновление включало изменения в архитектуре и ввело новые сигналы в системы ранжирования Google. Обновление появилось сразу после объявления Google в феврале 2024 года о прорыве в машинном обучении с архитектурой Gemini 1.5 — новым типом модели Mixture of Experts, которая делает их системы машинного обучения гораздо более эффективными и способными обрабатывать гораздо больше данных. Незадолго до этого объявления, в ноябре 2023 года, Google добилась прорыва в разработке своих тензорных процессоров — аппаратного обеспечения этих систем.


Я руки не опускаю, оборудование не продаю, новый алгоритм, значит нужны тесты и новый подход.

На данный момент внес несколько изменений в работу скрипта:
переписал клик в выдаче Google с центральной клавиши мыши на левую;
• улучшил подмену JA3 Fingerprint;
• добавил несколько новых моделей поведений;
• тестирую в разных браузерах, с разными профилями;
• и еще много всего по мелочам.

Если будут положительные результаты, сообщу в этом телеграм-канале.
А пока, я удаляю всю информацию про поведенческие, канал переименовываю и постараюсь более активно его вести на классические SEO темы.
Channel name was changed to «Сущность SEO»