Сущность SEO – Telegram
Сущность SEO
181 subscribers
19 photos
34 links
Опыт работы в SEO с 2009 года.
Делюсь своим опытом, инструкциями, SEO-промтами, экспериментами и результатами накрутки поведенческих факторов в Google.

Контакты для связи - @webstudioua_com
Download Telegram
Channel created
Навигация:

#Полезное - делюсь своим опытом работы.
Очень коротко о себе.

Очень коротко о себе: меня зовут Михаил, работаю SEO-оптимизатором с 2009 года.

Оказываю следующие виды услуг:

• SEO-продвижение сайтов, от $500 в месяц;

• Консультации, $20 в час;

• Настройка рекламы в Google, от $100;

• Накрутка поведенческих факторов в Google, от 600грн. в месяц - https://news.1rj.ru/str/pf_google_ua

Контакты для связи - @webstudioua_com
Я пользовался ChatGPT 4 с момента его появления, но отменил подписку и уже 2-й день пользуюсь https://claude.ai/.

Сначала пользовался несколько дней бесплатной версией Claude 3 Sonnet, по тестам это что-то между ChatGTP 3.5 и 4.

Платная версия Claude 3 Opus, по тем же тестам, немного лучше, чем ChatGPT 4, по моим ощущениям так и есть.

Несколько преимуществ:
• Работает гораздо быстрее;
• Тексты генерирует более качественные, интересные, "сочные" если можно сказать, я их в основном использую при покупке ссылок, там где вебмастер сам не пишет статьи или очень высокая цена за написание, а так же дорабатываю готовые статьи на своих сайтах, прорабатываю E-E-A-T факторы и дописываю LSI-слова;
• Написал несколько функций на Python, в отличии от ChatGTP 4, чаще всего код получается рабочий с 1-го раза, логика кода более правильная, понятная, удобнее читать и вносить правки;
• Еще был сильно удивлен, когда он подробно расписал про "запрещенную" тему (не буду даваться в подробности), ChatGPT 4 не стал отвечать, как я не старался обойти запрет;
• Возможность загрузить одновременно несколько документов.

Из минусов:
• Генерируемый код не проверяется на работоспособность;
• Нет переходит по ссылкам;
• Нет плагинов;
• Не генерирует изображения.

P.S.
• Жду ChatGPT 5;
• Пробую под какие задачи подходит https://chat.mistral.ai/;
• Использую https://www.perplexity.ai/ для получения свежих, последних данных;
• Под некоторые задачи, например, те же E-E-A-T, поиск именованных сущностей, составления планов статей для копирайтера, использую https://gemini.google.com/, у него самые полные результаты.
Please open Telegram to view this post
VIEW IN TELEGRAM
Результат эксперимента с ИИ контентом.

Просматривал ключевые фразы продвигаемого сайта, и у одной группы не было позиций даже в топ-100.
Тематика ключевых слов - это бренд обуви.

Решил провести эксперимент, добавить ИИ статью, попросил Gemini написать содержание для статьи, чтобы она содержала E-E-A-T факторы, далее содержание добавил в Claude и попросил написать статью.
Еще переписал шаблонные мета-теги на свои.

Как итог, после индексации статья вышла в топ-10.
Я включил 1-2 перехода на нее и спустя всего 2 недели, страница уже получила первый рост.

Сразу скажу, что в своей работе не использую ИИ тексты на клиентских сайтах, Google уже несколько раз менял свое мнение о них, я не могу рисковать бизнесом клиента.
Это был лишь эксперимент, пара ИИ текстов не может навредить сайту, иначе конкуренты начали бы добавлять сгенерированные ИИ комментарии.

#Полезное
Уже более 2-х недель пользуюсь https://claude.ai/, могу сделать выводы, что результаты лучше, чем у ChatGPT 4.

Вот задачи, в которых использовал:
• генерация статей для экспериментов, с разными параметрами;
• генерация микроразметки, Claude справился с 1-го раза, специально сравнивал с Gemini и Mistral, они написали обрезанные варианты;
• написание Python функций, задачи были простые, все работало с 1-го раза;
• генерация мета-тегов по моим шаблонам с изменением словоформ (ошибок меньше, чем у 4 Чата, помнит больше моих замечаний);
• написание объявлений для Google рекламы, все отлично, но и ChatGPT с этим отлично справлялся;
• настраивал электронную торговлю для сайта с закрытым исходным кодом, у которого нет возможности вносить правки, пришлось генерировать JavaScript функции для Tag Manager, Клод справился со всеми задачами, кроме одной.
Я поставил эту задачу Джеминай, он так же сгенерировал неправильную функцию, но я заметил, отличия и из 2-х вариантов собрал рабочую функцию.

Если мне нужно проанализировать страницы, то я их сохраняю в html-файл и загружаю в Клод.

Бесплатно проверить разные нейросети можно на этом сайте - https://arena.lmsys.org/
https://prnt.sc/A-u0mEHb8tnf
Как я делаю задания для копирайтеров.

1. Сначала все по классике, сбор семантического.
Чем больше фраз, тем лучше, использую разные источники для сбора, в том числе и платные.

2. Кластеризация.
Использую ручную, а не автоматическую кластеризацию, так результаты намного выше.
Если же ключевых фраз много, несколько тысяч, то делаю автоматическую кластеризацию, выбираю подходящие группы и делаю из них ручную кластеризацию.

3. Из готового кластера ключевых слов беру url-адреса конкурентов, а так же ключевые фразы и добавляю в свой Python-скрипт.

Логика работы скрипта:
• скрипт загружает содержимое страниц, если на сайте стоит защита, то запускается браузер и содержимое страницы загружается через него.
Сразу не использую браузер, т.к. скрипт работает быстрее, если учесть, что обычно конкурентов от 100 штук, это сильно сказывается на времени работы.
Так же собираю информацию по meta noscript, meta denoscription, h1, h2, для себя, а не копирайтера, помогает при написании мета-тегов.
• далее использую модуль, который отделяет блок с текстом или с основным контентом от всего остального (от шапки, подвала, меню, карточек товаров и др.).
• обычно в выдаче Google находятся сайты на русском и украинском языках, поэтому перевожу контент на нужный язык (нашел бесплатный модуль переводчика).
• следующий модуль для каждого, отдельного слова, меняет словоформу в именительный падеж единственного числа (лемматизация), а так же использую для ключевых фраз, под которые пишется статья.
• далее весь полученный контент конкурентов соединяется в один, из него получаю отдельные слова, по каждому слову получаю количество повторений и делю на количество конкурентов, таким образом получаем список слов со среднем значением по конкурентам, далее получаю биграммы и триграммы (по 2 и 3 слова).
• автоматически сохраняется в Excel файл.

4. Далее прошу Gemini написать содержание для статьи по основной ключевой фразы для полной экспертизы, и чтобы статья полностью раскрывала тему.
Из содержания убираю ненужные разделы или подразделы и добавляю в готовое задание.

Содержание готового задания:
• ссылка на страницу для которой нужно написать статью, если страница не создана, то на страницу поиска или на главную страницу сайта;
• содержание статьи;
• ключевые фразы под которые пишется статья;
• отдельные слова из ключевых фраз и их количество в общем кластере ключевых фраз, отсортированные в порядке убывания.
Таким образом, копирайтер видит по количеству слов, какие ключевые слова ВЧ, СЧ и НЧ, чтобы прописать правильный процент плотности для каждого типа, а так же, чтобы не упустить ни одно слово.
• биграммы и их количество, отсортированные в порядке убывания.
• триграммы и их количество, отсортированные в порядке убывания.
• отдельные слова в именительном падеже единственного числа и их количество, отсортированные в порядке убывания.
Копирайте из этих слов выбирает подходящие LSI-слова.
А так же там находится дополнительная информация, например, статья пишется под бренд, сколько раз нужно прописать название бренда на кириллице, а сколько на латинице.
• информация по noscript, denoscription и h-тегам.
• объем статьи на усмотрение копирайтера, но чаще всего, это около 4000 символов.

С таким заданием, копирайтерам стало сложнее и дольше писать статьи, поэтому пришлось увеличивать стоимость работы, но такие статьи, даже в конкурентных темах могут сразу выйти в топ 10-20 (при условии соблюдения остальных требований, например, ассортимент, разновидность, полнота ассортимента, техническое состояние, удобство сайта и многое-многое другое), а далее только остается додавить статью до топа, например, купить ссылок или накрутить поведенческие.

#Полезное
Как проиндексировать страницу на чужом сайте?

1. Сохраняем к себе на сервер исходный код страницы, которой нам нужно проиндексировать.
Под эту задачу лучше создать поддомен, т.к. сначала будут исходящие ссылки, а затем 404 страницы.
2. Добавляем с исходный код тег <base>, в нем указываем адрес страницы, которую нужно проиндексировать (на чужом сайте).
3. Индексируем через Google API или панель вебмастера.
4. Далее можно подождать пару дней или отследить по логам сервера заход Google bot и удалить эту страницу.

Можно все автоматизировать, такой скрипт должны написать даже нейросети.

По моему опыту, страницы индексируется хорошо, но все же не все или не с первого раза.
В основном не индексируются некачественные ИИ тексты (некоторые владельцы сайтов по продажи ссылок такие используют).

Лично я, пока пользуюсь этим ботом - SpeedyIndexBot (реф. ссылка), но планирую запускать своего.

#Полезное
2
Что делать, если текст на странице уже написан, но позиции не растут?

Далее речь пройдет только про текстовые факторы, а не другие, которые влияют на позиции страницы.

Как я делаю сейчас:
1. Копирую текст и прошу Джеминай проверить его, и написать, чего не хватает для раскрытия темы;
2. Добавляю текст в Клод и прошу вписать недостающую информацию естественным образом, а не переписывать текст.

В 90% случаев этого достаточно, но иногда бывает переспам по основным ключевым словам, поэтому нужно подгонять плотность на основе конкурентов.

Ранее я уже описывал логику работы скрипта для создания заданий для копирайтеров, этот же скрипт, с небольшой доработкой, использую для сравнения своего текста с текстами конкурентов.

В скрипт добавляю адрес своей страницы и страницы конкурентов и получаю информацию:
1. Объем текста по каждой странице конкурента;
2. Средний объем текста по всем конкурентам;
3. Количество каждого слова, по каждому конкуренту и вывод разницы по сравнению с моим текстом;
4. Все тоже самое, но сравнение по всем конкурентам;
5. Биграммы и триграммы, сравнение с моим текстом;
6. Список слов, которых нет в моем тексте;
7. Информация по noscript, denoscription, h1, а так же сравнение с моими мета-тегами.

Далее, я выбираю подходящие LSI-слова и прошу Клода вписать их в текст и вручную подгоняю количество основных ключевых слов (нейросети не справляются с этим заданием), далее сравниваю биграммы и триграммы, недостающие добавляю, а так же проверяю мета-теги.

До появления нейросетей, я дорабатывал тексты только этим способом.

Далее нужно подождать 3-4 недели и статья чаще всего выходит в топ-10, потом додавливаю ее ссылками и/или поведенческими.


Вот отличный сервис для доработки статей - https://neuronwriter.com/

Но у него есть недостатки, поэтому я решил написать свой скрипт:
• нет возможности сравнить с каждым конкурентом, а только общая информация по всем.
Лучше ориентироваться на конкурентов из топ 1-3, чем по среднему значению.
• не скачивает информацию с сайтов, у которых стоит защита от ботов.
• не переводит со второго языка, например, с украинского на русский, из-за это результаты получаются смешанные и не точные.

#Полезное
Про LSI-слова.

В интернетах (укр, рус, англ) непрекращающиеся дискуссии, работаю LSI-слова или нет.

"Я гулял на улице и нашел ключ".
Как из этого предложения Google поймет, какой ключ я нашел, инструмент, родник или от замка?

Я попросил Клода написать список LSI-слов, которые описывают данный ключ:
Вода
Родниковая
Источник
Ручей
Живительная
Кристальная
Прозрачная
Чистая
Студёная
Свежая
Журчащая
Прохладная
Целебная
Минеральная
Артезианская
Подземная
Природная
Освежающая
Струящаяся
Бьющая
Ледяная
Бурлящая
Ключевая

Я думаю, становится сразу понятно о каком ключе идет речь?!

Так почему же Google это не использовать?
Если у него, например, 1000 страниц на одну тему, как определить более качественную?

Когда в 2011 у Google вышел новый алгоритм Panda (который продолжает работать, но сильно модифицирован), я изучал его, и попалась информация, что у Google есть огромная база данных отсканированных библиотек, поэтому он может сравнить текст со своей базой, и понять, насколько качественный текст, содержатся ли в нем нужные слова, которые встречаются в книгах.

Вот и Клод подтвердил мои воспоминания, прилагаю скрин.

Очень важный момент, что проверять позиции страницы, после добавления LSI-слов нужно не ранее чем через 3-4 недели, видимо у Google для этого отдельный алгоритм, который делает пересчет, плюс экономия электричества и мощностей.

Вывод: да, LSI-слова отлично работаю, они делают статьи более экспертными, даже рассуждая логически на эту тему, не вижу причин, почему Google их не использовать.

Я в своей работе использую LSI с 2014 года, собираю их для копирайтеров, а вручную проверяю наличие и добавляю их в статью только в том случае, если страница застряла и не выходит в топ.

Но вы никому не верьте и все проверяйте самостоятельно, то, что работало в SEO год назад, сегодня уже может не работать.

Далее я продолжу тему о качестве текстов, поговорим про именованные сущности.

#Полезное