Очень коротко о себе.
Очень коротко о себе: меня зовут Михаил, работаю SEO-оптимизатором с 2009 года.
Оказываю следующие виды услуг:
• SEO-продвижение сайтов, от $500 в месяц;
• Консультации, $20 в час;
• Настройка рекламы в Google, от $100;
• Накрутка поведенческих факторов в Google, от 600грн. в месяц - https://news.1rj.ru/str/pf_google_ua
Контакты для связи - @webstudioua_com
Очень коротко о себе: меня зовут Михаил, работаю SEO-оптимизатором с 2009 года.
Оказываю следующие виды услуг:
• SEO-продвижение сайтов, от $500 в месяц;
• Консультации, $20 в час;
• Настройка рекламы в Google, от $100;
• Накрутка поведенческих факторов в Google, от 600грн. в месяц - https://news.1rj.ru/str/pf_google_ua
Контакты для связи - @webstudioua_com
Я пользовался ChatGPT 4 с момента его появления, но отменил подписку и уже 2-й день пользуюсь https://claude.ai/.
Сначала пользовался несколько дней бесплатной версией Claude 3 Sonnet, по тестам это что-то между ChatGTP 3.5 и 4.
Платная версия Claude 3 Opus, по тем же тестам, немного лучше, чем ChatGPT 4, по моим ощущениям так и есть.
➕ Несколько преимуществ:
• Работает гораздо быстрее;
• Тексты генерирует более качественные, интересные, "сочные" если можно сказать, я их в основном использую при покупке ссылок, там где вебмастер сам не пишет статьи или очень высокая цена за написание, а так же дорабатываю готовые статьи на своих сайтах, прорабатываю E-E-A-T факторы и дописываю LSI-слова;
• Написал несколько функций на Python, в отличии от ChatGTP 4, чаще всего код получается рабочий с 1-го раза, логика кода более правильная, понятная, удобнее читать и вносить правки;
• Еще был сильно удивлен, когда он подробно расписал про "запрещенную" тему (не буду даваться в подробности), ChatGPT 4 не стал отвечать, как я не старался обойти запрет;
• Возможность загрузить одновременно несколько документов.
➖ Из минусов:
• Генерируемый код не проверяется на работоспособность;
• Нет переходит по ссылкам;
• Нет плагинов;
• Не генерирует изображения.
P.S.
• Жду ChatGPT 5;
• Пробую под какие задачи подходит https://chat.mistral.ai/;
• Использую https://www.perplexity.ai/ для получения свежих, последних данных;
• Под некоторые задачи, например, те же E-E-A-T, поиск именованных сущностей, составления планов статей для копирайтера, использую https://gemini.google.com/, у него самые полные результаты.
Сначала пользовался несколько дней бесплатной версией Claude 3 Sonnet, по тестам это что-то между ChatGTP 3.5 и 4.
Платная версия Claude 3 Opus, по тем же тестам, немного лучше, чем ChatGPT 4, по моим ощущениям так и есть.
• Работает гораздо быстрее;
• Тексты генерирует более качественные, интересные, "сочные" если можно сказать, я их в основном использую при покупке ссылок, там где вебмастер сам не пишет статьи или очень высокая цена за написание, а так же дорабатываю готовые статьи на своих сайтах, прорабатываю E-E-A-T факторы и дописываю LSI-слова;
• Написал несколько функций на Python, в отличии от ChatGTP 4, чаще всего код получается рабочий с 1-го раза, логика кода более правильная, понятная, удобнее читать и вносить правки;
• Еще был сильно удивлен, когда он подробно расписал про "запрещенную" тему (не буду даваться в подробности), ChatGPT 4 не стал отвечать, как я не старался обойти запрет;
• Возможность загрузить одновременно несколько документов.
• Генерируемый код не проверяется на работоспособность;
• Нет переходит по ссылкам;
• Нет плагинов;
• Не генерирует изображения.
P.S.
• Жду ChatGPT 5;
• Пробую под какие задачи подходит https://chat.mistral.ai/;
• Использую https://www.perplexity.ai/ для получения свежих, последних данных;
• Под некоторые задачи, например, те же E-E-A-T, поиск именованных сущностей, составления планов статей для копирайтера, использую https://gemini.google.com/, у него самые полные результаты.
Please open Telegram to view this post
VIEW IN TELEGRAM
claude.ai
Talk with Claude, an AI assistant from Anthropic
Результат эксперимента с ИИ контентом.
Просматривал ключевые фразы продвигаемого сайта, и у одной группы не было позиций даже в топ-100.
Тематика ключевых слов - это бренд обуви.
Решил провести эксперимент, добавить ИИ статью, попросил Gemini написать содержание для статьи, чтобы она содержала E-E-A-T факторы, далее содержание добавил в Claude и попросил написать статью.
Еще переписал шаблонные мета-теги на свои.
Как итог, после индексации статья вышла в топ-10.
Я включил 1-2 перехода на нее и спустя всего 2 недели, страница уже получила первый рост.
Сразу скажу, что в своей работе не использую ИИ тексты на клиентских сайтах, Google уже несколько раз менял свое мнение о них, я не могу рисковать бизнесом клиента.
Это был лишь эксперимент, пара ИИ текстов не может навредить сайту, иначе конкуренты начали бы добавлять сгенерированные ИИ комментарии.
#Полезное
Просматривал ключевые фразы продвигаемого сайта, и у одной группы не было позиций даже в топ-100.
Тематика ключевых слов - это бренд обуви.
Решил провести эксперимент, добавить ИИ статью, попросил Gemini написать содержание для статьи, чтобы она содержала E-E-A-T факторы, далее содержание добавил в Claude и попросил написать статью.
Еще переписал шаблонные мета-теги на свои.
Как итог, после индексации статья вышла в топ-10.
Я включил 1-2 перехода на нее и спустя всего 2 недели, страница уже получила первый рост.
Сразу скажу, что в своей работе не использую ИИ тексты на клиентских сайтах, Google уже несколько раз менял свое мнение о них, я не могу рисковать бизнесом клиента.
Это был лишь эксперимент, пара ИИ текстов не может навредить сайту, иначе конкуренты начали бы добавлять сгенерированные ИИ комментарии.
#Полезное
Уже более 2-х недель пользуюсь https://claude.ai/, могу сделать выводы, что результаты лучше, чем у ChatGPT 4.
Вот задачи, в которых использовал:
• генерация статей для экспериментов, с разными параметрами;
• генерация микроразметки, Claude справился с 1-го раза, специально сравнивал с Gemini и Mistral, они написали обрезанные варианты;
• написание Python функций, задачи были простые, все работало с 1-го раза;
• генерация мета-тегов по моим шаблонам с изменением словоформ (ошибок меньше, чем у 4 Чата, помнит больше моих замечаний);
• написание объявлений для Google рекламы, все отлично, но и ChatGPT с этим отлично справлялся;
• настраивал электронную торговлю для сайта с закрытым исходным кодом, у которого нет возможности вносить правки, пришлось генерировать JavaScript функции для Tag Manager, Клод справился со всеми задачами, кроме одной.
Я поставил эту задачу Джеминай, он так же сгенерировал неправильную функцию, но я заметил, отличия и из 2-х вариантов собрал рабочую функцию.
Если мне нужно проанализировать страницы, то я их сохраняю в html-файл и загружаю в Клод.
Бесплатно проверить разные нейросети можно на этом сайте - https://arena.lmsys.org/
https://prnt.sc/A-u0mEHb8tnf
Вот задачи, в которых использовал:
• генерация статей для экспериментов, с разными параметрами;
• генерация микроразметки, Claude справился с 1-го раза, специально сравнивал с Gemini и Mistral, они написали обрезанные варианты;
• написание Python функций, задачи были простые, все работало с 1-го раза;
• генерация мета-тегов по моим шаблонам с изменением словоформ (ошибок меньше, чем у 4 Чата, помнит больше моих замечаний);
• написание объявлений для Google рекламы, все отлично, но и ChatGPT с этим отлично справлялся;
• настраивал электронную торговлю для сайта с закрытым исходным кодом, у которого нет возможности вносить правки, пришлось генерировать JavaScript функции для Tag Manager, Клод справился со всеми задачами, кроме одной.
Я поставил эту задачу Джеминай, он так же сгенерировал неправильную функцию, но я заметил, отличия и из 2-х вариантов собрал рабочую функцию.
Если мне нужно проанализировать страницы, то я их сохраняю в html-файл и загружаю в Клод.
Бесплатно проверить разные нейросети можно на этом сайте - https://arena.lmsys.org/
https://prnt.sc/A-u0mEHb8tnf
claude.ai
Talk with Claude, an AI assistant from Anthropic
Как я делаю задания для копирайтеров.
1. Сначала все по классике, сбор семантического.
Чем больше фраз, тем лучше, использую разные источники для сбора, в том числе и платные.
2. Кластеризация.
Использую ручную, а не автоматическую кластеризацию, так результаты намного выше.
Если же ключевых фраз много, несколько тысяч, то делаю автоматическую кластеризацию, выбираю подходящие группы и делаю из них ручную кластеризацию.
3. Из готового кластера ключевых слов беру url-адреса конкурентов, а так же ключевые фразы и добавляю в свой Python-скрипт.
Логика работы скрипта:
• скрипт загружает содержимое страниц, если на сайте стоит защита, то запускается браузер и содержимое страницы загружается через него.
Сразу не использую браузер, т.к. скрипт работает быстрее, если учесть, что обычно конкурентов от 100 штук, это сильно сказывается на времени работы.
Так же собираю информацию по meta noscript, meta denoscription, h1, h2, для себя, а не копирайтера, помогает при написании мета-тегов.
• далее использую модуль, который отделяет блок с текстом или с основным контентом от всего остального (от шапки, подвала, меню, карточек товаров и др.).
• обычно в выдаче Google находятся сайты на русском и украинском языках, поэтому перевожу контент на нужный язык (нашел бесплатный модуль переводчика).
• следующий модуль для каждого, отдельного слова, меняет словоформу в именительный падеж единственного числа (лемматизация), а так же использую для ключевых фраз, под которые пишется статья.
• далее весь полученный контент конкурентов соединяется в один, из него получаю отдельные слова, по каждому слову получаю количество повторений и делю на количество конкурентов, таким образом получаем список слов со среднем значением по конкурентам, далее получаю биграммы и триграммы (по 2 и 3 слова).
• автоматически сохраняется в Excel файл.
4. Далее прошу Gemini написать содержание для статьи по основной ключевой фразы для полной экспертизы, и чтобы статья полностью раскрывала тему.
Из содержания убираю ненужные разделы или подразделы и добавляю в готовое задание.
Содержание готового задания:
• ссылка на страницу для которой нужно написать статью, если страница не создана, то на страницу поиска или на главную страницу сайта;
• содержание статьи;
• ключевые фразы под которые пишется статья;
• отдельные слова из ключевых фраз и их количество в общем кластере ключевых фраз, отсортированные в порядке убывания.
Таким образом, копирайтер видит по количеству слов, какие ключевые слова ВЧ, СЧ и НЧ, чтобы прописать правильный процент плотности для каждого типа, а так же, чтобы не упустить ни одно слово.
• биграммы и их количество, отсортированные в порядке убывания.
• триграммы и их количество, отсортированные в порядке убывания.
• отдельные слова в именительном падеже единственного числа и их количество, отсортированные в порядке убывания.
Копирайте из этих слов выбирает подходящие LSI-слова.
А так же там находится дополнительная информация, например, статья пишется под бренд, сколько раз нужно прописать название бренда на кириллице, а сколько на латинице.
• информация по noscript, denoscription и h-тегам.
• объем статьи на усмотрение копирайтера, но чаще всего, это около 4000 символов.
С таким заданием, копирайтерам стало сложнее и дольше писать статьи, поэтому пришлось увеличивать стоимость работы, но такие статьи, даже в конкурентных темах могут сразу выйти в топ 10-20 (при условии соблюдения остальных требований, например, ассортимент, разновидность, полнота ассортимента, техническое состояние, удобство сайта и многое-многое другое), а далее только остается додавить статью до топа, например, купить ссылок или накрутить поведенческие.
#Полезное
1. Сначала все по классике, сбор семантического.
Чем больше фраз, тем лучше, использую разные источники для сбора, в том числе и платные.
2. Кластеризация.
Использую ручную, а не автоматическую кластеризацию, так результаты намного выше.
Если же ключевых фраз много, несколько тысяч, то делаю автоматическую кластеризацию, выбираю подходящие группы и делаю из них ручную кластеризацию.
3. Из готового кластера ключевых слов беру url-адреса конкурентов, а так же ключевые фразы и добавляю в свой Python-скрипт.
Логика работы скрипта:
• скрипт загружает содержимое страниц, если на сайте стоит защита, то запускается браузер и содержимое страницы загружается через него.
Сразу не использую браузер, т.к. скрипт работает быстрее, если учесть, что обычно конкурентов от 100 штук, это сильно сказывается на времени работы.
Так же собираю информацию по meta noscript, meta denoscription, h1, h2, для себя, а не копирайтера, помогает при написании мета-тегов.
• далее использую модуль, который отделяет блок с текстом или с основным контентом от всего остального (от шапки, подвала, меню, карточек товаров и др.).
• обычно в выдаче Google находятся сайты на русском и украинском языках, поэтому перевожу контент на нужный язык (нашел бесплатный модуль переводчика).
• следующий модуль для каждого, отдельного слова, меняет словоформу в именительный падеж единственного числа (лемматизация), а так же использую для ключевых фраз, под которые пишется статья.
• далее весь полученный контент конкурентов соединяется в один, из него получаю отдельные слова, по каждому слову получаю количество повторений и делю на количество конкурентов, таким образом получаем список слов со среднем значением по конкурентам, далее получаю биграммы и триграммы (по 2 и 3 слова).
• автоматически сохраняется в Excel файл.
4. Далее прошу Gemini написать содержание для статьи по основной ключевой фразы для полной экспертизы, и чтобы статья полностью раскрывала тему.
Из содержания убираю ненужные разделы или подразделы и добавляю в готовое задание.
Содержание готового задания:
• ссылка на страницу для которой нужно написать статью, если страница не создана, то на страницу поиска или на главную страницу сайта;
• содержание статьи;
• ключевые фразы под которые пишется статья;
• отдельные слова из ключевых фраз и их количество в общем кластере ключевых фраз, отсортированные в порядке убывания.
Таким образом, копирайтер видит по количеству слов, какие ключевые слова ВЧ, СЧ и НЧ, чтобы прописать правильный процент плотности для каждого типа, а так же, чтобы не упустить ни одно слово.
• биграммы и их количество, отсортированные в порядке убывания.
• триграммы и их количество, отсортированные в порядке убывания.
• отдельные слова в именительном падеже единственного числа и их количество, отсортированные в порядке убывания.
Копирайте из этих слов выбирает подходящие LSI-слова.
А так же там находится дополнительная информация, например, статья пишется под бренд, сколько раз нужно прописать название бренда на кириллице, а сколько на латинице.
• информация по noscript, denoscription и h-тегам.
• объем статьи на усмотрение копирайтера, но чаще всего, это около 4000 символов.
С таким заданием, копирайтерам стало сложнее и дольше писать статьи, поэтому пришлось увеличивать стоимость работы, но такие статьи, даже в конкурентных темах могут сразу выйти в топ 10-20 (при условии соблюдения остальных требований, например, ассортимент, разновидность, полнота ассортимента, техническое состояние, удобство сайта и многое-многое другое), а далее только остается додавить статью до топа, например, купить ссылок или накрутить поведенческие.
#Полезное
Как проиндексировать страницу на чужом сайте?
1. Сохраняем к себе на сервер исходный код страницы, которой нам нужно проиндексировать.
Под эту задачу лучше создать поддомен, т.к. сначала будут исходящие ссылки, а затем 404 страницы.
2. Добавляем с исходный код тег <base>, в нем указываем адрес страницы, которую нужно проиндексировать (на чужом сайте).
3. Индексируем через Google API или панель вебмастера.
4. Далее можно подождать пару дней или отследить по логам сервера заход Google bot и удалить эту страницу.
Можно все автоматизировать, такой скрипт должны написать даже нейросети.
По моему опыту, страницы индексируется хорошо, но все же не все или не с первого раза.
В основном не индексируются некачественные ИИ тексты (некоторые владельцы сайтов по продажи ссылок такие используют).
Лично я, пока пользуюсь этим ботом - SpeedyIndexBot (реф. ссылка), но планирую запускать своего.
#Полезное
1. Сохраняем к себе на сервер исходный код страницы, которой нам нужно проиндексировать.
Под эту задачу лучше создать поддомен, т.к. сначала будут исходящие ссылки, а затем 404 страницы.
2. Добавляем с исходный код тег <base>, в нем указываем адрес страницы, которую нужно проиндексировать (на чужом сайте).
3. Индексируем через Google API или панель вебмастера.
4. Далее можно подождать пару дней или отследить по логам сервера заход Google bot и удалить эту страницу.
Можно все автоматизировать, такой скрипт должны написать даже нейросети.
По моему опыту, страницы индексируется хорошо, но все же не все или не с первого раза.
В основном не индексируются некачественные ИИ тексты (некоторые владельцы сайтов по продажи ссылок такие используют).
Лично я, пока пользуюсь этим ботом - SpeedyIndexBot (реф. ссылка), но планирую запускать своего.
#Полезное
MDN Web Docs
<base> - HTML | MDN
HTML-элемент <base> определяет базовый URL-адрес, используемый для создания всех относительных URL-адресов в документе. В документе может быть только один элемент <base>.
❤2
Что делать, если текст на странице уже написан, но позиции не растут?
Далее речь пройдет только про текстовые факторы, а не другие, которые влияют на позиции страницы.
Как я делаю сейчас:
1. Копирую текст и прошу Джеминай проверить его, и написать, чего не хватает для раскрытия темы;
2. Добавляю текст в Клод и прошу вписать недостающую информацию естественным образом, а не переписывать текст.
В 90% случаев этого достаточно, но иногда бывает переспам по основным ключевым словам, поэтому нужно подгонять плотность на основе конкурентов.
Ранее я уже описывал логику работы скрипта для создания заданий для копирайтеров, этот же скрипт, с небольшой доработкой, использую для сравнения своего текста с текстами конкурентов.
В скрипт добавляю адрес своей страницы и страницы конкурентов и получаю информацию:
1. Объем текста по каждой странице конкурента;
2. Средний объем текста по всем конкурентам;
3. Количество каждого слова, по каждому конкуренту и вывод разницы по сравнению с моим текстом;
4. Все тоже самое, но сравнение по всем конкурентам;
5. Биграммы и триграммы, сравнение с моим текстом;
6. Список слов, которых нет в моем тексте;
7. Информация по noscript, denoscription, h1, а так же сравнение с моими мета-тегами.
Далее, я выбираю подходящие LSI-слова и прошу Клода вписать их в текст и вручную подгоняю количество основных ключевых слов (нейросети не справляются с этим заданием), далее сравниваю биграммы и триграммы, недостающие добавляю, а так же проверяю мета-теги.
До появления нейросетей, я дорабатывал тексты только этим способом.
Далее нужно подождать 3-4 недели и статья чаще всего выходит в топ-10, потом додавливаю ее ссылками и/или поведенческими.
Вот отличный сервис для доработки статей - https://neuronwriter.com/
Но у него есть недостатки, поэтому я решил написать свой скрипт:
• нет возможности сравнить с каждым конкурентом, а только общая информация по всем.
Лучше ориентироваться на конкурентов из топ 1-3, чем по среднему значению.
• не скачивает информацию с сайтов, у которых стоит защита от ботов.
• не переводит со второго языка, например, с украинского на русский, из-за это результаты получаются смешанные и не точные.
#Полезное
Далее речь пройдет только про текстовые факторы, а не другие, которые влияют на позиции страницы.
Как я делаю сейчас:
1. Копирую текст и прошу Джеминай проверить его, и написать, чего не хватает для раскрытия темы;
2. Добавляю текст в Клод и прошу вписать недостающую информацию естественным образом, а не переписывать текст.
В 90% случаев этого достаточно, но иногда бывает переспам по основным ключевым словам, поэтому нужно подгонять плотность на основе конкурентов.
Ранее я уже описывал логику работы скрипта для создания заданий для копирайтеров, этот же скрипт, с небольшой доработкой, использую для сравнения своего текста с текстами конкурентов.
В скрипт добавляю адрес своей страницы и страницы конкурентов и получаю информацию:
1. Объем текста по каждой странице конкурента;
2. Средний объем текста по всем конкурентам;
3. Количество каждого слова, по каждому конкуренту и вывод разницы по сравнению с моим текстом;
4. Все тоже самое, но сравнение по всем конкурентам;
5. Биграммы и триграммы, сравнение с моим текстом;
6. Список слов, которых нет в моем тексте;
7. Информация по noscript, denoscription, h1, а так же сравнение с моими мета-тегами.
Далее, я выбираю подходящие LSI-слова и прошу Клода вписать их в текст и вручную подгоняю количество основных ключевых слов (нейросети не справляются с этим заданием), далее сравниваю биграммы и триграммы, недостающие добавляю, а так же проверяю мета-теги.
До появления нейросетей, я дорабатывал тексты только этим способом.
Далее нужно подождать 3-4 недели и статья чаще всего выходит в топ-10, потом додавливаю ее ссылками и/или поведенческими.
Вот отличный сервис для доработки статей - https://neuronwriter.com/
Но у него есть недостатки, поэтому я решил написать свой скрипт:
• нет возможности сравнить с каждым конкурентом, а только общая информация по всем.
Лучше ориентироваться на конкурентов из топ 1-3, чем по среднему значению.
• не скачивает информацию с сайтов, у которых стоит защита от ботов.
• не переводит со второго языка, например, с украинского на русский, из-за это результаты получаются смешанные и не точные.
#Полезное
NEURONwriter - Content optimization with #semanticSEO - Create content that Google adores.
NEURONwriter – Leading content optimisation tool with generative AI. - NEURONwriter - Content optimization with #semanticSEO
An easy way to create better-ranking content! Optimize your website content so Google & AI adores it Advanced content editor with semantic models (NLP), Google SERP analysis, and competition data. NEURONwriter helps you to plan, write and optimize content…
Про LSI-слова.
В интернетах (укр, рус, англ) непрекращающиеся дискуссии, работаю LSI-слова или нет.
"Я гулял на улице и нашел ключ".
Как из этого предложения Google поймет, какой ключ я нашел, инструмент, родник или от замка?
Я попросил Клода написать список LSI-слов, которые описывают данный ключ:
Вода
Родниковая
Источник
Ручей
Живительная
Кристальная
Прозрачная
Чистая
Студёная
Свежая
Журчащая
Прохладная
Целебная
Минеральная
Артезианская
Подземная
Природная
Освежающая
Струящаяся
Бьющая
Ледяная
Бурлящая
Ключевая
Я думаю, становится сразу понятно о каком ключе идет речь?!
Так почему же Google это не использовать?
Если у него, например, 1000 страниц на одну тему, как определить более качественную?
Когда в 2011 у Google вышел новый алгоритм Panda (который продолжает работать, но сильно модифицирован), я изучал его, и попалась информация, что у Google есть огромная база данных отсканированных библиотек, поэтому он может сравнить текст со своей базой, и понять, насколько качественный текст, содержатся ли в нем нужные слова, которые встречаются в книгах.
Вот и Клод подтвердил мои воспоминания, прилагаю скрин.
Очень важный момент, что проверять позиции страницы, после добавления LSI-слов нужно не ранее чем через 3-4 недели, видимо у Google для этого отдельный алгоритм, который делает пересчет, плюс экономия электричества и мощностей.
Вывод: да, LSI-слова отлично работаю, они делают статьи более экспертными, даже рассуждая логически на эту тему, не вижу причин, почему Google их не использовать.
Я в своей работе использую LSI с 2014 года, собираю их для копирайтеров, а вручную проверяю наличие и добавляю их в статью только в том случае, если страница застряла и не выходит в топ.
Но вы никому не верьте и все проверяйте самостоятельно, то, что работало в SEO год назад, сегодня уже может не работать.
Далее я продолжу тему о качестве текстов, поговорим про именованные сущности.
#Полезное
В интернетах (укр, рус, англ) непрекращающиеся дискуссии, работаю LSI-слова или нет.
"Я гулял на улице и нашел ключ".
Как из этого предложения Google поймет, какой ключ я нашел, инструмент, родник или от замка?
Я попросил Клода написать список LSI-слов, которые описывают данный ключ:
Вода
Родниковая
Источник
Ручей
Живительная
Кристальная
Прозрачная
Чистая
Студёная
Свежая
Журчащая
Прохладная
Целебная
Минеральная
Артезианская
Подземная
Природная
Освежающая
Струящаяся
Бьющая
Ледяная
Бурлящая
Ключевая
Я думаю, становится сразу понятно о каком ключе идет речь?!
Так почему же Google это не использовать?
Если у него, например, 1000 страниц на одну тему, как определить более качественную?
Когда в 2011 у Google вышел новый алгоритм Panda (который продолжает работать, но сильно модифицирован), я изучал его, и попалась информация, что у Google есть огромная база данных отсканированных библиотек, поэтому он может сравнить текст со своей базой, и понять, насколько качественный текст, содержатся ли в нем нужные слова, которые встречаются в книгах.
Вот и Клод подтвердил мои воспоминания, прилагаю скрин.
Очень важный момент, что проверять позиции страницы, после добавления LSI-слов нужно не ранее чем через 3-4 недели, видимо у Google для этого отдельный алгоритм, который делает пересчет, плюс экономия электричества и мощностей.
Вывод: да, LSI-слова отлично работаю, они делают статьи более экспертными, даже рассуждая логически на эту тему, не вижу причин, почему Google их не использовать.
Я в своей работе использую LSI с 2014 года, собираю их для копирайтеров, а вручную проверяю наличие и добавляю их в статью только в том случае, если страница застряла и не выходит в топ.
Но вы никому не верьте и все проверяйте самостоятельно, то, что работало в SEO год назад, сегодня уже может не работать.
Далее я продолжу тему о качестве текстов, поговорим про именованные сущности.
#Полезное
Что такое именованные сущности в SEO?
Или второе название поста - "Большинство знает, что Google нужна полнота ответа, но мало кто знает, как это сделать".
Определение от Джеминай:
В SEO, именованные сущности - это реальные объекты или абстрактные понятия, которые имеют уникальное имя или идентификатор. Они играют важную роль в том, как поисковые системы понимают контекст и релевантность контента.
По сути, они помогают поисковикам "узнать", о чем идет речь на странице, выходя за рамки простого сопоставления ключевых слов.
Типы именованных сущностей:
• Люди: Илон Маск, Стив Джобс
• Организации: Google, Всемирная организация здравоохранения
• Места: Пекин, Эйфелева башня
• События: Олимпийские игры, Чемпионат мира по футболу
• Произведения: "Война и мир", "Звездные войны"
• Продукты: iPhone, Tesla Model S
• Бренды: Nike, Apple
• Абстрактные понятия: любовь, счастье
Пример именованных сущностей для iPhone.
Сущность: iPhone
Тип сущности: Продукт
Связанные сущности:
• Организация: Apple (производитель)
• Люди: Стив Джобс (создатель), Тим Кук (CEO Apple)
• Места: Купертино, Калифорния (штаб-квартира Apple)
• События: WWDC (Worldwide Developers Conference), презентация нового iPhone
• Продукты: iOS (операционная система), App Store, AirPods
• Бренды: Apple, Foxconn (производитель)
• Абстрактные понятия: технологии, инновации, дизайн
Для лучшего понимания, напишу свой пример.
Сущность: напишу про себя
Тип сущности: человек
Связанные сущности:
Имя: Михаил
Профессия: SEO-оптимизатор
Опыт работы: ...
Дополнительные навыки: ...
Год рождения: ...
Место жительства: ...
и т.д.
На первом сайте про меня написано только как меня зовут и профессия, на втором сайте все тоже самое, но с дополнительной информацией про опыт работы и навыки, на третьем сайте все тоже самое, что и на втором сайте, но еще написан год моего рождения и место жительства.
Предположим, что Google про меня все знает, как вы считаете, какой сайт, на какой позиции будет в выдаче, при прочих равных условиях?
Правильно, сначала будет выводится 3-й, затем 2-й и только потом 1-й, т.к. 3-й сайт имеет максимум информации обо мне.
Еще пример с товаром, сущность - полочки, атрибут - материал.
Если в вашем магазине продаются только стеклянные полочки, а Google знает, что еще бывают металлические, нержавеющие, деревянные, пластиковые полочки и др. то скорее всего он не пропустит ваш сайт в топ по общим запросам типа "купить полочки", а только по стеклянным, даже если количество товаров будет больше, чем у конкурентов.
Забавное отступление, когда я только начинал учить SEO, то уже тогда говорили, что для Google важна полнота ответа по теме, в отличии от Яндекса, приводился пример с телефонами Nokia, мол добавляйте на сайт всю информацию по этой теме, подойдут даже ноты для мелодий))
Может кто-то помнит, как на монофонических Nokia из нот набирали мелодии?
https://prnt.sc/fjx4RFIhwwa3
У Google по каждой теме есть свой граф знаний (Knowledge Graph, данные по этой теме), поэтому он знает, на каком сайте более полный ответ.
Так же он знает, какие типы сущностей более популярные (степень близости), например, для запроса "купить iPhone", будут выбраны магазины, у которых полный ассортимент Айфонов, у которых есть информация про операционную систему смартфонов, процессор, камеру и др., а по запросу "что такое iPhone", уже должна быть информация про Стива Джобса, Тима Кука, Купертино, информация про все модели телефонов, их отличия.
Еще пример (не мой), пользователь вводит запрос "лучшие актрисы", далее Google выполняет свой процесс в следующем порядке:
• Определяет связанность других сущностей и присваивает значения;
• Определяет известность этих сущностей и присваивает каждой из них определённое значение;
• Определяет вклад этих сущностей и присваивает значение;
• Определяет, получали ли эти сущности какие-либо награды, и присваивает значение;
• Определяет соответствующий вес каждой из них, исходя из типа запроса;
• Определяет конечную оценку для каждой возможной сущности.
Или второе название поста - "Большинство знает, что Google нужна полнота ответа, но мало кто знает, как это сделать".
Определение от Джеминай:
В SEO, именованные сущности - это реальные объекты или абстрактные понятия, которые имеют уникальное имя или идентификатор. Они играют важную роль в том, как поисковые системы понимают контекст и релевантность контента.
По сути, они помогают поисковикам "узнать", о чем идет речь на странице, выходя за рамки простого сопоставления ключевых слов.
Типы именованных сущностей:
• Люди: Илон Маск, Стив Джобс
• Организации: Google, Всемирная организация здравоохранения
• Места: Пекин, Эйфелева башня
• События: Олимпийские игры, Чемпионат мира по футболу
• Произведения: "Война и мир", "Звездные войны"
• Продукты: iPhone, Tesla Model S
• Бренды: Nike, Apple
• Абстрактные понятия: любовь, счастье
Пример именованных сущностей для iPhone.
Сущность: iPhone
Тип сущности: Продукт
Связанные сущности:
• Организация: Apple (производитель)
• Люди: Стив Джобс (создатель), Тим Кук (CEO Apple)
• Места: Купертино, Калифорния (штаб-квартира Apple)
• События: WWDC (Worldwide Developers Conference), презентация нового iPhone
• Продукты: iOS (операционная система), App Store, AirPods
• Бренды: Apple, Foxconn (производитель)
• Абстрактные понятия: технологии, инновации, дизайн
Для лучшего понимания, напишу свой пример.
Сущность: напишу про себя
Тип сущности: человек
Связанные сущности:
Имя: Михаил
Профессия: SEO-оптимизатор
Опыт работы: ...
Дополнительные навыки: ...
Год рождения: ...
Место жительства: ...
и т.д.
На первом сайте про меня написано только как меня зовут и профессия, на втором сайте все тоже самое, но с дополнительной информацией про опыт работы и навыки, на третьем сайте все тоже самое, что и на втором сайте, но еще написан год моего рождения и место жительства.
Предположим, что Google про меня все знает, как вы считаете, какой сайт, на какой позиции будет в выдаче, при прочих равных условиях?
Правильно, сначала будет выводится 3-й, затем 2-й и только потом 1-й, т.к. 3-й сайт имеет максимум информации обо мне.
Еще пример с товаром, сущность - полочки, атрибут - материал.
Если в вашем магазине продаются только стеклянные полочки, а Google знает, что еще бывают металлические, нержавеющие, деревянные, пластиковые полочки и др. то скорее всего он не пропустит ваш сайт в топ по общим запросам типа "купить полочки", а только по стеклянным, даже если количество товаров будет больше, чем у конкурентов.
Забавное отступление, когда я только начинал учить SEO, то уже тогда говорили, что для Google важна полнота ответа по теме, в отличии от Яндекса, приводился пример с телефонами Nokia, мол добавляйте на сайт всю информацию по этой теме, подойдут даже ноты для мелодий))
Может кто-то помнит, как на монофонических Nokia из нот набирали мелодии?
https://prnt.sc/fjx4RFIhwwa3
У Google по каждой теме есть свой граф знаний (Knowledge Graph, данные по этой теме), поэтому он знает, на каком сайте более полный ответ.
Так же он знает, какие типы сущностей более популярные (степень близости), например, для запроса "купить iPhone", будут выбраны магазины, у которых полный ассортимент Айфонов, у которых есть информация про операционную систему смартфонов, процессор, камеру и др., а по запросу "что такое iPhone", уже должна быть информация про Стива Джобса, Тима Кука, Купертино, информация про все модели телефонов, их отличия.
Еще пример (не мой), пользователь вводит запрос "лучшие актрисы", далее Google выполняет свой процесс в следующем порядке:
• Определяет связанность других сущностей и присваивает значения;
• Определяет известность этих сущностей и присваивает каждой из них определённое значение;
• Определяет вклад этих сущностей и присваивает значение;
• Определяет, получали ли эти сущности какие-либо награды, и присваивает значение;
• Определяет соответствующий вес каждой из них, исходя из типа запроса;
• Определяет конечную оценку для каждой возможной сущности.
Продолжение предыдущего поста - https://news.1rj.ru/str/google_pf/74
Откуда сеошники все это узнают?
Основная информация получена из патентов Google - https://beanstalkim.com/learn/articles/patent-ranking-search-results-based-on-entity-metrics/
Дополнительная информация из тестов и опыта.
Как я раньше работал с сущностями?
Специально с ними не работал, для копирайтеров собирал LSI-слова конкурентов, а копирайтеры видя слова, понимали, о чем должна быть в статья, поэтому мне еще более непонятна точка зрения специалистов, которые утверждают, что LSI не работает.
Если страница со временем не выходила в топ, то шел анализировать конкурентов, искал информацию, которая есть у конкурентов, но нет на моем сайте.
Как сейчас работаем с сущностями?
С появлением нейросетей сетей, все стало гораздо проще, всю информацию получаю у них.
По моим опытам, под эту задачу, лучше всего подходит Gemini от Google.
Как я сейчас делаю задания для копирайтеров, уже ранее рассказывал - https://news.1rj.ru/str/google_pf/56
Теперь конкуренты анализируют мои сайты, а не я))
Примеры промтов:
1. Пожалуйста, напиши о чем должна быть статья про "стеклянные полочки" для полной экспертизы и раскрытия темы?
Оффтоп. Чаще используйте в своей жизни волшебные слова "пожалуйста" и "спасибо", с ними даже с нейросети выдают лучше результат, проверено, поистине волшебные слова.
Результат: https://prnt.sc/hZuYiR29lg5x, https://prnt.sc/t8PN5y-bo-lp
2. Во первых, проанализируйте и подберите максимальное количество релевантных доменов сущностей для запроса "стеклянные полочки".
Для каждого подобранного домена соберите максимальное количество именованных сущностей.
Для каждой именованной сущности соберите все возможные атрибуты.
Во-вторых, организуйте вывод собранных данных в виде таблицы.
В первом столбце - подобранные домены сущностей и их степень близости к запросу (вывести под названием домена сущностей), во втором столбце - список именованных сущностей для каждого домена сущностей (при этом каждая новая именованная сущность выводится на новой строке - т.е. для каждой ячейки домена - выводится несколько ячеек с сущностями), в третьем столбце - все атрибуты для каждой именованной сущности домена сущностей (каждый атрибут выводится в отдельной, индивидуальной ячейке).
Результат - https://prnt.sc/zoK23JSFygX7
Источник промта - https://news.1rj.ru/str/drmaxseo/516
3. Проанализируй и подбери исчерпывающее количество релевантных доменов сущностей для запроса "стеклянные полочки".
Напиши только список сущностей, без дополнительной информации.
Отсортируй список по максимальной степени близости.
Результат: https://prnt.sc/mfGXk-fMMGGk, https://prnt.sc/feeBil5jpKjz
Попробуйте составить свои промты, возможно получатся лучше результаты.
Лично я использую 1-й вариант.
Далее всю эту информацию сбрасываем копирайтеру.
После того, как копирайтер отойдет от шока, обсуждаем стоимость, сроки и дополнительную информацию))
Еще важно, если у вас коммерческий сайт, то и статья должна быть написана с коммерческим или с транзакционным интентом.
Получаются гибриды, статьи с коммерческим интентом, но с раскрытием информационной темы.
Не знаю, что будет в будущем, но сейчас это очень хорошо работает, даже в конкурентных темах, чаще всего статья сразу выходит в топ 10-30.
Тема сложная и объемная, я рассказал малую часть.
Если вам интересна эта тема, советую продолжить изучение по этим статьям:
https://www.searchenginejournal.com/entity-seo/492947/
https://www.searchenginejournal.com/why-entities-are-important-right-now/277231/
https://online-sales-marketing.com/seo/understanding-seo-entities-an-interview-with-bill-slawski/
Таким образом, Google смог перейти от ранжирования по ключевым словам, к ранжирования на основе сущностей.
#Полезное
Откуда сеошники все это узнают?
Основная информация получена из патентов Google - https://beanstalkim.com/learn/articles/patent-ranking-search-results-based-on-entity-metrics/
Дополнительная информация из тестов и опыта.
Как я раньше работал с сущностями?
Специально с ними не работал, для копирайтеров собирал LSI-слова конкурентов, а копирайтеры видя слова, понимали, о чем должна быть в статья, поэтому мне еще более непонятна точка зрения специалистов, которые утверждают, что LSI не работает.
Если страница со временем не выходила в топ, то шел анализировать конкурентов, искал информацию, которая есть у конкурентов, но нет на моем сайте.
Как сейчас работаем с сущностями?
С появлением нейросетей сетей, все стало гораздо проще, всю информацию получаю у них.
По моим опытам, под эту задачу, лучше всего подходит Gemini от Google.
Как я сейчас делаю задания для копирайтеров, уже ранее рассказывал - https://news.1rj.ru/str/google_pf/56
Теперь конкуренты анализируют мои сайты, а не я))
Примеры промтов:
1. Пожалуйста, напиши о чем должна быть статья про "стеклянные полочки" для полной экспертизы и раскрытия темы?
Оффтоп. Чаще используйте в своей жизни волшебные слова "пожалуйста" и "спасибо", с ними даже с нейросети выдают лучше результат, проверено, поистине волшебные слова.
Результат: https://prnt.sc/hZuYiR29lg5x, https://prnt.sc/t8PN5y-bo-lp
2. Во первых, проанализируйте и подберите максимальное количество релевантных доменов сущностей для запроса "стеклянные полочки".
Для каждого подобранного домена соберите максимальное количество именованных сущностей.
Для каждой именованной сущности соберите все возможные атрибуты.
Во-вторых, организуйте вывод собранных данных в виде таблицы.
В первом столбце - подобранные домены сущностей и их степень близости к запросу (вывести под названием домена сущностей), во втором столбце - список именованных сущностей для каждого домена сущностей (при этом каждая новая именованная сущность выводится на новой строке - т.е. для каждой ячейки домена - выводится несколько ячеек с сущностями), в третьем столбце - все атрибуты для каждой именованной сущности домена сущностей (каждый атрибут выводится в отдельной, индивидуальной ячейке).
Результат - https://prnt.sc/zoK23JSFygX7
Источник промта - https://news.1rj.ru/str/drmaxseo/516
3. Проанализируй и подбери исчерпывающее количество релевантных доменов сущностей для запроса "стеклянные полочки".
Напиши только список сущностей, без дополнительной информации.
Отсортируй список по максимальной степени близости.
Результат: https://prnt.sc/mfGXk-fMMGGk, https://prnt.sc/feeBil5jpKjz
Попробуйте составить свои промты, возможно получатся лучше результаты.
Лично я использую 1-й вариант.
Далее всю эту информацию сбрасываем копирайтеру.
После того, как копирайтер отойдет от шока, обсуждаем стоимость, сроки и дополнительную информацию))
Еще важно, если у вас коммерческий сайт, то и статья должна быть написана с коммерческим или с транзакционным интентом.
Получаются гибриды, статьи с коммерческим интентом, но с раскрытием информационной темы.
Не знаю, что будет в будущем, но сейчас это очень хорошо работает, даже в конкурентных темах, чаще всего статья сразу выходит в топ 10-30.
Тема сложная и объемная, я рассказал малую часть.
Если вам интересна эта тема, советую продолжить изучение по этим статьям:
https://www.searchenginejournal.com/entity-seo/492947/
https://www.searchenginejournal.com/why-entities-are-important-right-now/277231/
https://online-sales-marketing.com/seo/understanding-seo-entities-an-interview-with-bill-slawski/
Таким образом, Google смог перейти от ранжирования по ключевым словам, к ранжирования на основе сущностей.
#Полезное
Telegram
Накрутка ПФ Google Украина | SEO
Что такое именованные сущности в SEO?
Или второе название поста - "Большинство знает, что Google нужна полнота ответа, но мало кто знает, как это сделать".
Определение от Джеминай:
В SEO, именованные сущности - это реальные объекты или абстрактные понятия…
Или второе название поста - "Большинство знает, что Google нужна полнота ответа, но мало кто знает, как это сделать".
Определение от Джеминай:
В SEO, именованные сущности - это реальные объекты или абстрактные понятия…
👍2❤1
Сущность SEO
Результат эксперимента с ИИ контентом. Просматривал ключевые фразы продвигаемого сайта, и у одной группы не было позиций даже в топ-100. Тематика ключевых слов - это бренд обуви. Решил провести эксперимент, добавить ИИ статью, попросил Gemini написать содержание…
Эксперимент с этой страницей заканчиваю.
Основная фраза вышла в топ-3, первые две позиции занимает официальный сайт бренда.
Повторил данный эксперимент на других сайтах, результат получил такой же.
Чаще всего страница выходит в топ-10, иногда в топ-20, далее поведенческими вывожу ее на первые позиции.
Особенность этих статей в том, что они написаны от первого лица с демонстрацией личного опыта (E-e-a-t).
Сейчас запустил новый эксперимент: для готовых страниц с SEO-текстом, прошу Клода написать несколько фактов на эту тему и добавляю их в статьи.
Затем нахожу источники этих фактов, и прописываю ссылки на них (не закрывая rel nofollow).
Не раньше чем через месяц, поделюсь результатами.
#Полезное
Основная фраза вышла в топ-3, первые две позиции занимает официальный сайт бренда.
Повторил данный эксперимент на других сайтах, результат получил такой же.
Чаще всего страница выходит в топ-10, иногда в топ-20, далее поведенческими вывожу ее на первые позиции.
Особенность этих статей в том, что они написаны от первого лица с демонстрацией личного опыта (E-e-a-t).
Сейчас запустил новый эксперимент: для готовых страниц с SEO-текстом, прошу Клода написать несколько фактов на эту тему и добавляю их в статьи.
Затем нахожу источники этих фактов, и прописываю ссылки на них (не закрывая rel nofollow).
Не раньше чем через месяц, поделюсь результатами.
#Полезное
👍3