DrMax SEO – Telegram
DrMax SEO
8.79K subscribers
225 photos
3 videos
20 files
449 links
SEO фишки от DrMax.
Всё о продвижении сайтов
#SEO #SMM #Google

Автор: тов. DrMax: @Drmax2SEO
Мои книги: https://drmax.su/download
Download Telegram
✍️ Как я работаю с ключами

1. Собранные сырые ключи скармливаю промпту
2. На основе ключей определяются интенты
3. На основе интентов определяются сущности
4. Список найденных сущностей расширяется и дополняется связанными и неявными сущностями
5. Сущности группируются в домены
6. Для всех доменов и всех сущностей определяются новые интенты
7. Интенты кластеризуются
8. Строится таксономия на основе сущностей и интентов
9. Таксономия наполняется контентом (генерачим по мега правилам - см промптоведение)
10. В контент внедряем часть ключей (если их там еще нет)
11. Проводим самоконтроль всего этого барахла
12. В контент внедряем перелинковку
13. Проводим самоконтроль всего этого барахла
14. Выгрузка на сайт, вычитка

Это если кратко. Если чуть более подробно - смотрите и читайте 1 и 2 сезон промптоведения - там много из этого расписано.

Это я к чему написал вообще. Тут товарищ мой говорит, что LLM уравняло качество контента для всего инета и у всех в среднем одно и тоже.

А вот фиг там.

Я выдал мои боевые промпты товарищам, записал видео как с ними работать, как поднастраивать ежели чего. Показал все настройки в LLM.

А качество выходного контента у меня и товарищей совершенно разные. Даже на моих боевых промптах. Я помыслил и понял что дело в двух вещах:
1. Входные данные в промпт
2. Вычитка (в меньшей степени).

О том как готовить данные для промпта - можно целую книгу написать. То как делю это я - моё личное ноу-хау, кое я юзаю успешно более года. В рамках статей в канале это не расписать, да и не стоит этого делать.

В общем юзайте схему, совершенствуйте её. Читайте Промптоведение.

#DrMax #LLM #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍535😁4🔥3
📕 Модель обогащения контента новыми сущностями, не выявленными на этапе анализа онтологической области.

Суть довольна проста. Мы собираем для начала сущности (см промптоведение сезон 1) для нашего контента, а после выстраиваем граф из этих сущностей. Где связи слабые - там нужны доп. сущности. Таким образом мы выискиваем НЕЯВНЫЕ ИНТЕНТЫ товарищей - пользователей контента и внедряем их в текст (или не внедряем - как хотите).

Кроме того, мы переходим с анализа внутренней онтологической области вашего явления (допустим кровля крыш) к внешним проявлениям (например индустриальным трендам. Делает ли кто то крыши из говна и палок и насколько это востребовано)

Кусок промпта выглядит следующим образом:

6.0. Построение онтологической модели предметной области.
Задача - формализация предметной области в виде направленного графа знаний G(E, R), где E - конечное множество ключевых сущностей (концептуальных узлов) предметной области, а R - множество n-арных реляций (ориентированных ребер), описывающих каузальные, иерархические, функциональные и атрибутивные связи между сущностями из E. Каждая реляция r ∈ R должна быть эксплицитно выражена в формате тройки (субъект, предикат, объект) или ее расширенной n-арной формы. Целью является максимизация плотности и полноты графа G для исчерпывающего описания системы.

6.1. Аудит семантической целостности и устранение лакун.
Задача - провести анализ топологии графа G на предмет выявления сущностей eᵢ ∈ E с аномально низкой степенью связности (degree ≤ 1). Данные сущности идентифицируются как "семантические лакуны", указывающие на нарушение полноты онтологической модели. Необходимо итеративно устранять выявленные лакуны путем введения в граф G новых "транзитивных" сущностей и/или предикатов, которые устанавливают логически непротиворечивые реляции между ранее изолированной сущностью и основным ядром графа.
Конечная цель - достижение высокого коэффициента связности графа, где отсутствуют изолированные вершины.

6.2. Контекстуальная триангуляция онтологической модели.
Задача - верификация и обогащение построенной модели G путем ее позиционирования в рамках трех внешних систем координат. Итоговый сгенерированный контент должен содержать явные вербальные конструкции, доказывающие проведение анализа по каждой из трех указанных систем.
Система 1: Генезис (Источник/Авторство): Установление и описание реляций между ключевыми атрибутами модели G и атрибутами/деятельностью сущности-создателя (автора, производителя, первопричины). Анализ на соответствие, отклонение или эволюцию относительно других моделей, порожденных тем же источником.
Система 2: Таксономия (Классификация/Типология): Определение положения модели G в общепринятой иерархической системе классификации (таксоне). Проведение сравнительного анализа ключевых сущностей и реляций G с эталонными моделями (архетипами) в том же классе для выявления уникальности, сходства или аномалий.
Система 3: Прагматика (Применение/Потребитель): Анализ функциональной ценности и импликаций модели G для конечного пользователя/целевой аудитории. Установление связей между внутренними атрибутами модели и внешними практическими результатами или опытом, которые она порождает для субъекта-потребителя.


Добавляем в свой промпт (системные инструкции) сразу после сбора всех сущностей.

#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍98😁4🔥3
FORD-CHATGPT.pdf
136.4 KB
📕 Модель обогащения контента новыми сущностями, не выявленными на этапе анализа онтологической области. ПРИМЕР.

Собственно в PDF как это отрабатывает (с выводом промежуточных данных, что явно не нужно делать в боевом промпте) тот же ЧАТ ГПТ.

Там же сам промпт (с предварительным сбором сущностей, см промптоведение 1 сезон).

Весьма поучительно. Если еще учитывать, что LLM вывел из за своей ленности только часть данных.

Привел оный промпт и ответ с выводом (который выводить и не надо) для пояснения, как оное расширение использовать и КАКУЮ ПОЛЬЗУ ОНО ПРИНОСИТ.

Что важно:
1. Кусок расширения онтологической области - ТЕМАТИКОНЕЗАВИСИМЫЙ, его можно юзать в любом вашем промпте. Такое дорогого стоит. Он сам "подстраивается" под любую тематику, благодаря математическому описанию.
2. Он немного менее ресурсоемкий и ИМХО несколько более быстрый, чем его аналоги (если они есть) благодаря описанию на формальном языке.

ЗЫ.
10 декабря состоится телеконференция у Миши Шакина. Заявки по тематикам, предварительные вопросы что стоит осветить - пишем в комментариях. Думается начнем с ним с обсуждения промптоведения. А там видно дальше будет.

#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍20🔥103😱1
👨‍💻 Разбор статьи "How to optimize for ChatGPT"

В комментариях (нашем чате) скинули ссылку на статью про оптимизацию под Чат ГПТ. Если вам интересно мное мнение по ней, то собрал все факты из статьи и прокоментировал их.

Мнение сугубо мое и не претендует на окончательную достоверность!!!

Итак:

1. Ссылающиеся домены - главный фактор авторитета

Фиг там. У LLM нет прямого «счётчика ссылок». Модель обращается к обучающей выборке и косвенным сигналам авторитетности, основанным на большом корпусе данных, где связь с данными по трафику, видимости и качеству контента сильнее, чем слепое количество ссылок. То есть 50 трафиковых ссылок уработают 100500 ссылающихся нерелевантных доменов.


2. LLMs.txt файлы неэффективны для цитирования

Это верно


3. Трафик сайта коррелирует с цитированиями

Ранжирование и трафик. например, с яндекса, накрученный ПФ, никак не улучшает видимость в LLM


4. Домашняя страница должна привлекать трафик.

Вполне вероятно.


5. Упоминания на Quora и Reddit повышают цитирование

Для ЧатГПТ однозначно. Ибо оно обучено именно на них. А не на умных книжках Льва Толстого.


6. Контент от 1,900 слов лучше коротких статей.

Качество гораздо важнее длины. Два абзаца высокого качества лучше, чем 5,000 слов воды.


7. Структура текста (120–180 слов между заголовками) критична.

Вполне возможно. Но у меня иные цифры и иные представления о структуре контента.


8. FAQ-секции помогают цитированию

FAQ иногда полезны для пользователей и помогают выделить ключевые вопросы, но сами по себе не повышают цитирование без другого контекста авторитета.
То есть тупо пихая FAQ на страницы говносайта - ничего не добьешся.


9. Свежесть контента (обновления за 3 месяца) важна.

Для отдельных тематик - аж критична. Для других (например медицина) - не особо.


10. Общие заголовки лучше ключевых слов в URLs

В URL мы должны показать какие сущности закрывает контент, а ключи - это один из частных примеров. То есть LLM ищет контекст и релевантность, а не точные совпадения ключевых слов.


11. Профили на платформах отзывов (Trustpilot, G2) важны.

Частично верно. И вообще, по умолчанию, такие профили нужно развивать. Для гугла дают буст.


12. Core Web Vitals (скорость загрузки) влияют на цитирование.

Частично да. Но буста не дает никакого. Может просто плюнуть бот LLM на сайт и не обойти его.


13. FAQ schema markup слаб, обычная структура лучше.

LLM вообще не видит микроразметку. Они используют безопасное извлечение данных, где пререендер отдает LLM готовый текст (безопасный), а не HTML страницу. Я летом это выяснял с некоторыми LLM, когда не мог понять, почему они так криво анализируют структуру HTML по URL.


14. Доменный авторитет (DT > 90) даёт 4x больше цитирований
Херня. От пузомерок никак не зависит. LLM ничего не знают о выдуманных пузомерках, равно как и гугл.

Как то так )))

#DrMax #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
127👍15🔥4💯1
ford150.pdf
55.3 KB
📕 Повышаем вероятность попадания в ответы LLM

Итак, как мы знаем, для каждого запроса LLM строит пучок подзапросов и, выбирая из контента ответы на них, пытается вычислить наиболее безопасный (а не лучший в прямом смысле слова) результат.

Предположим, что LLM будет нарезать чанки по структурным единицам (грубо говоря подразделам h2/h3 - что там у вас есть), а не использует способы нарезки чанков отлавливанием смены тематики в контенте или по фиксированной длине чанка.

Я уже описывал в 1 сезоне промптоведения "Принцип Семантической Триангуляции", когда мы 3-4 Ключевых раздела (H2/H3), посвященные важным сущностям или технологиям, строим по принципу "триангуляции", чтобы превентивно ответить на веер под-запросов.

В рамках каждого такого раздела мы покрываем три важных типа интента:
a. Определение и принцип работы (Что это? / Как работает?)
b. Сравнительный анализ (Чем отличается от аналогов?)
с. Практическое применение (Какую проблему решает для пользователя?)

Универсальный промпт выглядит следующим образом:

2.5. Применение принципа семантической триангуляции.
Для подмножества ключевых узлов, описывающих фундаментальные концепции или технологии, применяется обязательный структурный паттерн "Семантическая триангуляция". Содержание данных узлов должно быть последовательно структурировано для разрешения трёх ортогональных информационных векторов:
a) Дефиниционно-функциональный аспект: Формальное определение сущности и алгоритмическое описание принципа ее функционирования.
b) Дифференциально-сравнительный аспект: Компаративный анализ сущности с альтернативными или предшествующими аналогами с целью выявления ключевых отличий.
c) Прагматико-утилитарный аспект: Описание практической ценности, прикладного значения и конечной выгоды от использования сущности для конечного субъекта-пользователя.


Используем этот кусок при генерации некоторых структурных подразделов вашего контента. Каких - выбирайте сами. Добавляйте его в ваш Мастер-промпт.

Он должен помочь повысить видимость в LLM. Ну и для ранжирования в Гугле тоже неплохо выходит.

Во вложении - пример генерации ЧатГПТ описания Форда F150 с применением этого принципа (сам промпт + ответ)

#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍17🔥123
🤯 Философия SEO. Заметка нумер1.

Вообще, успех или неуспех сайта зависит от единственной вещи. Не от ссылочного, не от 100500 миллионов опубликованных страниц, не от возраста или траста домена, не от прокачанных авторов/редакторов, не от OnPage / OnSite оптимизации. Это всё важно, но абсолютно не гарантирует никакого успеха. От слова совсем.

Единственное важная вещь на сайте - полезность контента. Чем он полезней, тем меньше нужно ссылочного, усилий по продвижению, какой либо оптимизации. И самое странное, что это алгоритмически можно измерить (что и проделывает Гугл).

И ваша точка зрения на качество контента и его полезность может вполне расходиться с тем, что имеет в ввиду Гугел под этими понятиями. Впрочем вы легко это можете заметить по неросту или падению трафа на сайт, не смотря на все прикладываемые усилия.

Я лет 15 назад приводил простой пример (наверняка спер откуда нибудь) самого полезного контента на сайте. Я приводил пример сайта такси (еще до массового появления агрегаторов) и самый полезный контент и практически единственно нужный - это огромные цифры с номером телефона. Всё, больше ничего не нужно. Этого достаточно, чтобы контент сайта стал полезным для его посетителей.

Гугл умеет определять полезность контента отдельных страниц сайта (об этом написал в новой книженции целый раздел). При этом он вычисляет долю полезного и бесполезного контента на сайте. И буст дается тем сайтам, где превалирует полезный контент над бесполезным.

Именно этим объясняется, что прием "обрезки сайта" (удаление говностраниц) у кого то дает превосходные результаты, а у кого то не срабатывает никак. У последних, даже после удаления массы "говностраниц", число полезных страниц все равно меньше критического уровня.

Повторюсь, ваше видение качества контента и видение Гугла - могут в корне различаться.

Я продолжаю анализировать данные утечек и судебных слушаний и нашел прямое подтверждение алгоритмическому определению качества контента и принципов разделения контента на качественный и не качественный. И без разницы: пишите вы его руками, генерируете LLM - качество контента не в этом. Качество - в приносимой пользе.

Самое смешное, что всякие товарищи, собирающие ключи и генерирующие семантические ядра, напихивающие ключи в контент - делают далеко не полную, а зачастую напрасную работу. Да, вы попали в ранжирование. Да, вы получили клики из выдачи. Но гугл меряет количество "плохих" и "хороших" кликов. И если посетитель пришел на страницу (только из за того, что там напиханы ключи), не нашел там полезного контента и возвратился в выдачу - получайте "плохой клик из выдачи". При превышении определенного соотношения плохих кликов к хорошим - получаете мегаштраф.

Продолжая эту мысль, еще больше меня смешат те, кто заказывает сбор семантических ядер на стороне. То есть непрофессионалы (если сами не могут предсказать нужные им запросы) заказывают анализ семантики у других непрофессионалов (которые вообще не в теме) и ориентируются на частотность ))) Если глянуть что стало с пресловутой частотностью после сентябрьской обрезки говноботов гуглом - становиться еще смешней. К слову говоря - это величайшее достижение гугла за этот год.

Подводя итог, скажу - старайтесь быть полезным. Зачастую этого достаточно для хорошего ранжирования/конверсии.

Собственно это основа-основ любого SEO. Возможно и об этом мы поговорим на скорой телеконференции у Миши.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍4522💯3😁2🗿2
📺 Телеконференция у Миши Шакина 10 декабря 2025

Итак, аккурат 10 декабря в 17:00 (по Москве) состоится телеконференция у Миши Шакина.

Прочитаю доклад на тему "Введение в практическое промптоведение." Это будет уже эпизод 3. Плюс затрону некоторые вопросы, что выдали в комментариях.

Ну и как всегда - ответы на вопросы зрителей.

Трансляция будет вот здесь:

🔵 https://www.youtube.com/watch?v=H7i3UfdA_gw

🔵 https://vkvideo.ru/video80770238_456241277

🔵 https://rutube.ru/video/4cfd5a065f9d08253cf86bcd6ad27fce/

Там же можно задавать вопросы.

Подписывайтесь на уведомления, а то забудете/пропустите.

В комментариях к этому уведомлению можете писать доп вопросы - постараюсь ответить в теле доклада (если уместно будет).

Не знаю что еще написать - потому закругляюсь)))

#DrMax #телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
220🔥15👍2👻1
➡️ Промптоведение. Сезон 3. Часть 1.

Управляющие триггеры - токенны.

Управляющие триггеры-токены - это специальные ключевые слова или фразы (токены), которые вставляются в запрос к генеративной модели (LLM) для непосредственного контроля над её стилем, тоном, структурой, объемом или персоной ответа.

Они действуют как команды-модификаторы, которые корректируют вероятности выбора следующих токенов, заставляя модель соответствовать заданным параметрам. Иными словами, это мета-инструкции, управляющие самим процессом генерации текста, а не только его содержанием.

Можно выделить порядка 300 основных управляющих триггеров-токенов, которые условно разбиты на следующие группы:

🔵Cutters - токены, уменьшающие объём, эмоции, клише

🔵Expanders - токены, увеличивающие детализацию, глубину, эмоциональность

🔵Formalizers - формализуют стиль, повышают точность и строгость

🔵Narrative Boosters - усиливают повествовательность

🔵Analytical Structuring - структурируют, логизируют

🔵Technical Mode - включают инженерный/технический регистр

🔵Creativity Controls - повышают/снижают дивергенцию генерации

🔵Bias Suppressors - подавляют маркетинговые шумы и клише

🔵Boundary Setters - жёсткие ограничения поведения

🔵Persona Shifters - меняют роль/персону

🔵Linguistic Filters - управляют синтаксисом, ритмом, лексикой

🔵Format Enforcers - заставляют следовать структуре/формату

🔵Risk-mode Triggers - снижают вероятность галлюцинаций

🔵Abstraction Controllers - управляют уровнем абстракции

🔵Information Density Controllers - регулируют плотность смысла


Примеры токенов:

ТРИГГЕРЫ СЖАТИЯ, УРЕЗАНИЯ, ОГРАНИЧЕНИЯ
"коротко" → уменьшает длину, но может терять детали
"кратко" → сокращает структурные блоки, упрощает синтаксис
"в 1 абзац" → сжимает логические блоки
"тезисно" → списки, без развернутых объяснений
"детально" → расширенные предложения, уточнения
"пошагово" → увеличивает количество мелких логических блоков
"структурировано" → модель добавляет списки и подзаголовки



Триггеры логики, структуры и аналитичности
"логично" → повышает когерентность
"строго по шагам" → формирование строго линейной структуры
"разбери по этапам" → сегментация, блоки
"сначала анализ, затем выводы" → управляет порядком мыслей
"как бенчмарк" → таблицы сравнений
"как матрица" → структурные отношения
"структура: проблема → решение → вывод" → фиксирует шаблон



Триггеры рисков и сдержанности (влияют на запретные токены)
"не делай предположений" → ↓ галлюцинаций
"не выдумывай факты" → ↑ факт-чек режим
"пиши только то, что известно" → модель откатывает фантазию
"без домыслов" → ↓ комплетивности
"без обобщений" → ↓ генерализаций
"без оценок" → ↓ субъективности
"с указыванием источников" → ↑ цитирование



Триггеры изменения уровня абстракции
"высокоуровнево" → генерация концептов
"конкретно" → снижение абстрактности
"на уровне принципов" → общие закономерности
"на уровне реализации" → конкретные шаги
"как для новичка" → упрощения, примеры
"как для эксперта" → уменьшение пояснений
"как для директора" → стратегичность



Важно понимать нексколько вещей:

1. Триггеры имеют различный приоритет. Поэтому некоторые триггеры-токены будут безусловно выполняться, а некоторые только иногда, при соблюдении условий. Более того, одни триггеры-токены могут перекрывать другие триггеры-токены с меньшим приоритетом.

2. Поскольку модели обучались на разных данных, то смещение к "слоям данным" происходит в каждой модели по разному. Именно поэтому один и тот же промпт в разных LLM дает разный результат

Перечень важнейших управляющих токенов с таблицами весов и принципами использования я привел в приложении к новой книжке "DrMax. Доказательное SEO 2026", которая выйдет на днях. Кроме того, затрону эту тему на телеконференции у Миши Шакина (не пропустите).

#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥127
‼️ Подборка №3. Цикл Промптоведения или Продвинутый AI-копирайтинг 2025

👨‍💻 Цикл Промптоведения. Сезон 1.

часть 1 (Генерация через УТП)- https://news.1rj.ru/str/drmaxseo/894

часть 2 (сущности)- https://news.1rj.ru/str/drmaxseo/896 и https://news.1rj.ru/str/drmaxseo/897

часть 3 (самопроверка на воду) - https://news.1rj.ru/str/drmaxseo/899

часть 4 (Архитектура "Вопрос-Ответ) - https://news.1rj.ru/str/drmaxseo/902

часть 5 ((NER-подход) - https://news.1rj.ru/str/drmaxseo/907

Первый мастер промпт - https://news.1rj.ru/str/drmaxseo/908

часть 6 (качество контента) - https://news.1rj.ru/str/drmaxseo/913

часть 7 (ветвление промптов и смена ролей) - https://news.1rj.ru/str/drmaxseo/915

часть 8 (мультимодальность) - https://news.1rj.ru/str/drmaxseo/920

часть 9 - второй промежуточный промпт - https://news.1rj.ru/str/drmaxseo/925

часть 10 (перелинковка) - https://news.1rj.ru/str/drmaxseo/928

часть 11 (принцип компрмисса) - https://news.1rj.ru/str/drmaxseo/932

часть 12 (принцип эволюции)- https://news.1rj.ru/str/drmaxseo/934

часть 13 (Принцип "Кросс-доменных аналогий") - https://news.1rj.ru/str/drmaxseo/935

часть 14 (тематика контента)- https://news.1rj.ru/str/drmaxseo/942

часть 15 (Принцип "Адвоката Дьявола") https://news.1rj.ru/str/drmaxseo/951

часть 16 (Принцип "Квантифицированного Доказательства" и внедрение Мини-Кейсов) https://news.1rj.ru/str/drmaxseo/954

ПРОМПТ - ХУМАНИЗАТОР (пишем как живой человек) https://news.1rj.ru/str/drmaxseo/957

Промптоведение. Анализ. Часть 1. - https://news.1rj.ru/str/drmaxseo/991


🟡 Межсезонье (разные промпты)

Анализ выбора сниппетов в AI-ответах Google - https://news.1rj.ru/str/drmaxseo/995

ИИ и Восстановление Ссылок (Link Reclamation) - https://news.1rj.ru/str/drmaxseo/1049

Почему весь контент, генерируемый ИИ звучит одинаково. https://news.1rj.ru/str/drmaxseo/1071

Как я работаю с ключами https://news.1rj.ru/str/drmaxseo/1107

Модель обогащения контента новыми сущностями, не выявленными на этапе анализа онтологической области. - https://news.1rj.ru/str/drmaxseo/1110 / вторая часть https://news.1rj.ru/str/drmaxseo/1111

Повышаем вероятность попадания в ответы LLM https://news.1rj.ru/str/drmaxseo/1114


✍️ Цикл Промптоведения. Сезон 2.

Часть 1. Ритмическое кадрирование и управление когнитивной нагрузкой - https://news.1rj.ru/str/drmaxseo/1010

Часть 2. Избегаем шаблонных ответов. https://news.1rj.ru/str/drmaxseo/1017

Часть 3. Хуманизатор. Версия 3.1. https://news.1rj.ru/str/drmaxseo/1044

Часть 4. Работа с сущностями. https://news.1rj.ru/str/drmaxseo/1056

Часть 5. Универсальный блок промпта: Оптимизация читаемости для любого контента https://news.1rj.ru/str/drmaxseo/1068

Часть 6.1. Почему LLM пишут однообразно и как это исправить #1 - https://news.1rj.ru/str/drmaxseo/1076

Часть 6.2. Почему LLM пишут однообразно и как это исправить #2 - https://news.1rj.ru/str/drmaxseo/1078

Часть 7. Структура промптов. https://news.1rj.ru/str/drmaxseo/1082


📝 Цикл Промптоведение. Сезон 3.

Часть 1. Управляющие триггеры - токенны. https://news.1rj.ru/str/drmaxseo/1123

Часть 2. Контентный промпт. Этап 1. https://news.1rj.ru/str/drmaxseo/1127

Часть 3. Контентный промпт. Этап 2. https://news.1rj.ru/str/drmaxseo/1129

Часть 4. Мультимодальный аудит визуальной иерархии страницы https://news.1rj.ru/str/drmaxseo/1131

Часть 5. Универсальный промпт для семантической разведки и проектирования семантического кокона https://news.1rj.ru/str/drmaxseo/1138

Часть 6. Универсальный промпт для мощной и правильной перелиновки и линкбилдинга https://news.1rj.ru/str/drmaxseo/1145

Часть 7. Оптимизация Ютуба: Составление оглавления видео (с таймкодами). https://news.1rj.ru/str/drmaxseo/1154

Продолжение следует...


👀 Предыдущие подборки интересных и практических постов:

Подборка №1 - https://news.1rj.ru/str/drmaxseo/890

Подборка №2 - https://news.1rj.ru/str/drmaxseo/1011

Мой канал с аудиоподкастами https://news.1rj.ru/str/DrMaxSEOCasts

Наш SEO чат: (Перейдите в комментарии и подайте заявку)


#DrMax #Подборка@DrMaxSEO #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥41👍97
Телеконференция у Миши Шакина уже началась

Прочитаю доклад на тему "Введение в практическое промптоведение." Это будет уже эпизод 3. Плюс затрону некоторые вопросы, что выдали в комментариях.

Ну и как всегда - ответы на вопросы зрителей.

Трансляция вот здесь:

🔵 https://www.youtube.com/watch?v=H7i3UfdA_gw

🔵 https://vkvideo.ru/video80770238_456241277

🔵 https://rutube.ru/video/4cfd5a065f9d08253cf86bcd6ad27fce/

Там же можно задавать вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
17🔥8👍1
➡️ Промптоведение. Сезон 3. Часть 2.

🔥 Контентный промпт. Этап 1.

Сбор сущностей / интентов/ ключей /


Ниже приведена расширенная, формальная и универсальная версия «Этапа 1» контентного промпта, готовая к использованию как верхний слой для любой предметной области (товар - электрочайник, автомобиль - Ford F-150, система - МКС и т.п.).

https://telegra.ph/Kontentnyj-prompt---EHtap-1-12-12

Этот промпт разбит на три фазы: настройка → исполнение → самопроверка/коррекция.

В конце - строгая спецификация формата промежуточного вывода (JSON) и набор программных валидаций.

Тон - сухой, академический. Инструкции - детализированы и детерминированы, чтобы модель вела себя как модуль NER/онтологического сборщика.

Обязательно посмотрите видео пояснения по промпту 1 этапа.

Как работать:
1. На вход подаем входную информацию (например PDF)
2. Настраиваем переменные (в начале промпта)
3. Запускаем промпт
4. На выходе получаем JSON со всеми собранными сущностями / интентами / ключами и разбивкой по группам

Все просто )))

Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку


#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
317👍6🔥5
➡️ Промптоведение. Сезон 3. Часть 3.

🔥 Контентный промпт. Этап 2.

Построение таксономии


На основании результатов выполнения 1 этапа построим таксономию – содержание контентного обзора, где спроектируем структуру и распределим сущности, интенты и ключи по этой структуре.

Это универсальный, формальный, применимый к любому объекту (техника, автомобиль, космическая станция, SaaS-продукт и т. д.).

Цель - создать таксономию, которая покрывает почти все сущности/интенты из Этапа 1, не повторяет конкурентные структуры и служит семантическим фундаментом для высокорейтингового SEO-контента.

https://telegra.ph/Kontentnyj-prompt---EHtap-2-12-13

Этот промпт разбит на три фазы: настройка → исполнение → самопроверка/коррекция.

В конце - строгая спецификация формата промежуточного вывода (JSON) и набор программных валидаций.

📺 Обязательно посмотрите видео пояснения по промпту 2 этапа.

Как работать:
1. На вход подаем входную информацию (или руками или скармливаем результаты 1 этапа)
2. Настраиваем переменные (в начале промпта)
3. Запускаем промпт
4. На выходе получаем разработанную таксономию.

Все просто )))

Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку


#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
16👍6🆒21
➡️ Промптоведение. Сезон 3. Часть 4.

🔥 Проф. версия промпта для мультимодального аудита визуальной иерархии страницы сайта

Как работать
1. Откройте в MS Edge страницу для анализа
2. Жмите Ctrl+Shift+S - пункт Записать ВСЮ страницу.
3. Сохраните скрин и прицепите его к LLM
4. Запустите промпт

Роль: Senior SEO & UX Auditor с экспертизой в визуальной иерархии, CRO и mobile-first дизайне.
Контекст: Анализ проводится на основе скриншота веб-страницы без доступа к коду.
Цель: Выявить несоответствия между визуальной иерархией, SEO-логикой и пользовательским восприятием,
а также определить UX-риски, влияющие на поведенческие факторы и конверсию.

Инструкция для мультимодальной модели:
Проанализируй предоставленный скриншот веб-страницы [ФАЙЛ] и выполни аудит по следующим направлениям.

1. Визуальная иерархия и SEO-логика:
- Определи визуальный порядок элементов (что пользователь видит первым, вторым, третьим).
- Оцени соответствие визуального веса элементов предполагаемой иерархии H1 → H2 → H3.
- Выяви случаи, где:
• визуально доминирует неключевой элемент,
• H1 выглядит слабее вторичных заголовков,
• отсутствует чёткий визуальный фокус.

2. Типографика и читаемость:
- Проверь контраст текста и фона (визуально, без инструментов).
- Определи потенциальные проблемы:
• низкий контраст,
• слишком мелкий текст,
• перегруженные абзацы,
• плохая межстрочная читаемость.
- Отметь зоны, где чтение требует повышенного когнитивного усилия.

3. CTA и конверсионные элементы:
- Определи наличие и видимость ключевых CTA.
- Оцени:
• визуальный приоритет CTA относительно контента,
• различимость кнопок и ссылок,
• логичность расположения CTA в иерархии внимания.
- Укажи, теряется ли CTA на фоне других элементов.

4. Mobile-first и UX-риски:
- Смоделируй восприятие страницы на мобильном устройстве.
- Выяви потенциальные проблемы:
• перекрытие контента,
• элементы слишком близко друг к другу,
• сложность нажатия,
• всплывающие или фиксированные блоки, мешающие взаимодействию.
- Определи элементы, которые могут ухудшать Core Web Vitals и UX.

5. Общая UX-оценка:
- Определи, куда направляется внимание пользователя в первые 3–5 секунд.
- Оцени, поддерживает ли визуальная структура:
• основной интент страницы,
• коммерческую или информационную цель,
• SEO-логику входных запросов.

Формат вывода:
Выведи результат в виде структурированного списка технических и UX-правок.
Для каждой правки укажи:
– Проблему,
– Потенциальное влияние на SEO / UX / конверсию,
– Рекомендацию по исправлению.



Важно:

1. Модель работает не с кодом, а с визуальным слоем - так же, как пользователь и Google (через рендеринг).

2. Промпт заставляет модель мыслить иерархией внимания, а не тегами, сопоставлять визуальный вес ≠ смысловой вес, выявлять расхождения между SEO-логикой и UX-реальностью. Это ключевая зона ошибок на коммерческих и контентных сайтах.

3. За счёт мультимодального анализа модель оценивает: размер элементов, контраст, расположение на экране, плотность визуального шума, относительную доминантность.

4. Промпт принудительно заставляет модель выстроить порядок, что пользователь видит первым, даже если это не H1. Это критично для: SEO-лендингов, категорий, SaaS-страниц, статей под AI-поиск.

5. Каждый блок - отдельный слой восприятия

Промпт взят из раздела "Промптоведения" новой книги "DrMax. Доказательное SEO 2026".

Релиз книги 20 декабря 2025.


Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку


#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍31🆒33😁2
⚙️ Трехуровневый индекс ссылок: почему ссылки со страниц без трафика практически бесполезны

Наиболее глубокое откровение, касающееся механики ссылок, исходит из анализа структуры индекса Google. Подтверждено существование трехуровневого индекса ссылок, который можно условно разделить на низкий, средний и высокий уровни качества.

Размещение ссылки в том или ином уровне определяется не авторитетом ссылающегося домена, а качеством и популярностью конкретной страницы-донора. Ключевым фактором для определения этого качества, как оказалось, является пользовательское взаимодействие, а именно - клики.

Механизм активации:

1. Низкокачественный уровень (Low-quality tier): Здесь находятся ссылки, расположенные на страницах, которые не получают пользовательских кликов. Это "мертвые" страницы: старые, заброшенные статьи в блогах, "ресурсные" страницы, созданные исключительно для обмена ссылками, профили на забытых форумах. Атрибут TotalClicks (общее количество кликов) для таких страниц равен нулю.

Последствия: Ссылка, находящаяся в этом уровне индекса, не передает ни PageRank, ни анкорные сигналы. Для алгоритмов ранжирования она фактически невидима.

2. Среднекачественный уровень (Medium-quality tier): Сюда, вероятно, попадают ссылки со страниц, имеющих некоторый, но нерегулярный или небольшой трафик.

Последствия: Такие ссылки могут передавать ограниченное количество сигналов, но их вес будет значительно ниже.

3. Высококачественный уровень (High-quality tier): Здесь находятся ссылки со страниц, которые получают стабильный, верифицируемый трафик и клики. Это страницы, которые сами по себе хорошо ранжируются, популярны в социальных сетях или являются важными навигационными узлами на авторитетных сайтах.

Последствия: Только ссылки из этого уровня считаются "доверенными" и передают полный спектр сигналов ранжирования - PageRank, контекст анкора и другие.

Эта трехуровневая система - это, по сути, "гейт" (ворота), основанный на пользовательской валидации. Прежде чем ссылка сможет передать какой-либо авторитет, страница, на которой она размещена, должна сама доказать свою полезность, пройдя проверку реальными пользователями.

То есть, каким бы ни был донор, если страница с ссылкой не проходит валидацию, особого толку от такой ссылки вы не получите. И это только первый фильтр механизма проверки качества ссылки.

——
📕 Это описание взято из новой книги "DrMax. Доказательное SEO 2026".
Выход книги 20 декабря 2025.

Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку


#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍17😁4🔥221
➡️ Промптоведение. Сезон 3. Часть 5.

Универсальный промпт для семантической разведки и проектирования семантического кокона

Используется для максимизации тематического покрытия и повышения релевантности через Salient Terms и LSI-контекст

Ключевая ценность: переход от keyword-based SEO к entity-first SEO.

Данные на входе:

🔵Обязательные: Основная тема (topic)

🔵Опциональные (повышают точность): Рынок / ниша, Регион, Тип сайта (media / SaaS / e-commerce / affiliate)
ВХОДНЫЕ ДАННЫЕ И ПЕРЕМЕННЫЕ:

[MAIN_TOPIC]: основная тема анализа
[MARKET_CONTEXT]: ниша или рынок (например: SEO, FinTech, e-commerce)
[REGION] (опционально): география
[LANG]: язык анализа и вывода
[STRATEGIC_GOAL]: цель (semantic silo / content hub / topical authority)

--------------------------------------------------

РОЛЬ:
Senior Semantic SEO Architect & Knowledge Graph Specialist

Экспертиза:
– Google NLP API и entity extraction,
– Knowledge Graph и MID-логика,
– topical authority и semantic siloing,
– intent modeling и entity-based SEO.

--------------------------------------------------

КОНТЕКСТ:
Мы проектируем семантический кокон, цель которого —
максимально покрыть тематический граф, а не просто собрать ключевые слова.

Приоритет:
– сущности (entities),
– их атрибуты (salient terms),
– контекстное окружение (LSI),
– интентные векторы.

--------------------------------------------------

ЦЕЛЬ:
1. Выявить ключевые сущности Knowledge Graph для темы.
2. Определить их атрибутную и контекстную семантику.
3. Сформировать интентную и ключевую модель,
пригодную для построения семантического кокона.

--------------------------------------------------

АНТИ-ГАЛЛЮЦИНАЦИОННЫЙ БЛОК:

– Не выдумывай точные MID — используй placeholder (/m/XXXXX).
– Не приписывай сущностям атрибуты, не являющиеся обязательными.
– Разделяй:
• сущностные атрибуты,
• контекстные термины,
• пользовательские формулировки.
– Если тема абстрактная, явно укажи это в market_context.

--------------------------------------------------

АНТИ-БАЙЕС БЛОК:

– Не оптимизируй под «популярные ключи».
– Не подменяй сущности брендами без оснований.
– Не смешивай разные интенты в одной сущности.
– Исходи из логики Knowledge Graph, а не SEO-шаблонов.

--------------------------------------------------

ИНСТРУКЦИЯ ПО АНАЛИЗУ:

1. Идентификация сущностей
– Определи 5 ключевых сущностей:
• 1 родительскую (core entity),
• 4 ближайших семантических соседа.
– Используй логику Google Knowledge Graph.

2. Дифференциация терминов
Для каждой сущности:
– Salient Terms:
• 5 обязательных атрибутов,
• без которых сущность теряет идентичность.
– LSI Cloud:
• 10 контекстных терминов,
• формирующих тематическое окружение.

3. Кластеризация интентов
Для каждой сущности определи:
– informational intent,
– commercial intent,
– navigational intent
(в форме реальных пользовательских запросов).

4. Keyword Mining
– Сгенерируй:
• Primary keywords (entity-driven),
• Long-tail запросы:
– разговорные,
– уточняющие,
– параметризованные,
– AI/voice-friendly.

--------------------------------------------------

ФОРМАТ ВЫВОДА:

– Выводи результат СТРОГО в формате JSON.
– Не добавляй пояснений, комментариев или текста вне JSON.
– JSON должен соответствовать указанной схеме.

--------------------------------------------------

JSON SCHEMA:

{
"topic_analysis": {
"main_topic": "string",
"market_context": "string",
"entities": [
{
"entity_name": "string",
"knowledge_graph_mid_placeholder": "/m/XXXXX",
"salient_terms": ["term1", "term2", "term3", "term4", "term5"],
"lsi_cloud": ["lsi1", "lsi2", "lsi3", "lsi4", "lsi5", "lsi6", "lsi7", "lsi8", "lsi9", "lsi10"],
"search_intents": {
"informational": "string",
"commercial": "string",
"navigational": "string"
},
"keyword_matrix": {
"primary": ["keyword1", "keyword2", "keyword3"],
"long_tail": ["phrase1", "phrase2", "phrase3"]
}
}
]
}
}


#DrMax #SEO #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥136👏321
Пояснения к промпту

Наиболее ценной штукой в нем является сбор Salient Terms, без которых вы никогда не сможете ранжироваться высоко по терминам/сущности.

Salient Terms (значимые или характерные термины) - это лексические единицы, которые обладают высокой степенью специфичности и статистической значимости для конкретной сущности (Entity).

В отличие от обычных ключевых слов, Salient Terms определяют «идентичность» темы. Если их изъять из текста, сущность перестает быть узнаваемой для поискового алгоритма.

Чем Salient Terms ценны для сущности:

1. Деамбигуация (Устранение многозначности): Если вы пишете о сущности «Ягуар», именно Salient Terms определяют, идет ли речь о животном (ареал, хищник, пятнистый окрас) или об автомобиле (трансмиссия, модельный ряд, двигатель). Они служат маркерами, которые привязывают текст к конкретному узлу в Knowledge Graph.

2. Определение веса (Saliency Score): Алгоритмы Google присваивают каждой сущности в тексте показатель «салиентности» (от 0 до 1.0). Чем больше в тексте терминов, атрибутивно связанных с сущностью, тем выше её вес. Это сигнализирует поисковику, что данная сущность является главной темой страницы, а не упоминается вскользь.

3. Формирование «Цифрового отпечатка» темы: Salient Terms — это неизменные атрибуты. Для сущности «Эйфелева башня» это будут Гюстав Эйфель, Париж, железо, высота 330 метров. Без этих данных контент выглядит для алгоритма «пустым» или низкокачественным.

4. Ценность для точности контента (SEO и UX)
Topical Authority (Тематический авторитет): Использование глубоких атрибутивных терминов доказывает поисковой системе, что автор обладает экспертными знаниями. Это напрямую влияет на оценку по критериям E-E-A-T.

4. Смысловая релевантность вместо текстового соответствия: Вместо прямого повторения ключевой фразы (keyword stuffing), вы насыщаете текст смысловыми компонентами. Это делает контент устойчивым к обновлениям алгоритмов, которые все больше переходят от анализа строк (strings) к анализу смыслов (things).

5. Попадание в Intent-векторы: Точные термины помогают алгоритмам классифицировать интент. Например, наличие терминов инструкция, пошагово и настройка вместе с основной сущностью мгновенно маркирует контент как обучающий (Tutorial).

6. Оптимизация под AI-ответы (SGE): Генеративные модели (LLM) и поисковые движки нового поколения используют эти термины для извлечения фактов. Чем четче прописаны атрибуты сущности, тем выше шанс, что ваш контент станет первоисточником для «нулевой выдачи».
🔥173😁1
📔 DrMax: Доказательное SEO 2026 + Введение в Промптоведение

Всё в одном томе!

На протяжении более двух десятилетий поисковая оптимизация (SEO) функционировала как дисциплина, основанная на обратной инженерии. Стратегии строились на анализе корреляций, эмпирических наблюдениях и интерпретации публичных заявлений представителей Google. Эта методология была вынужденной мерой, обусловленной закрытой природой алгоритмов ранжирования. Данный подход стал неактуальным.

Два события - утечка внутренней документации Google Content Warehouse API в 2024 году и публикация материалов из антимонопольного дела Министерства юстиции США против Google (2020-2025) - предоставили SEO-сообществу беспрецедентный объем прямой технической информации. Совокупность этих данных формирует новую, основанную на доказательствах, модель работы поисковой системы.

Именно это и позволило мне написать данную книгу. Был проведен анализ свыше 2500 модулей и 14 000 атрибутов, которые Google использует для хранения информации о веб-документах. Это позволило идентифицировать конкретные сигналы, такие как siteAuthority (авторитетность сайта), contentEffort (оценка "усилия", вложенного в контент), clutterScore (показатель "замусоренности" страницы) и так далее.

Каждый раздел книги имеет практические материалы, кейсы, наборы промптов для реализации лучших стратегий. Я постарался после каждого небольшого куска доказательной теории встроить блоки "как это реализовать" на практике.

Во второй книге "Введение в промптоведение" даны практические приемы использования LLM для реализации SEO стратегий.

Объем труда: 470 страниц убористого текста

Описание книги на сайте DrMax.su

Более полное описание - см у Ани Ященко, которая на протяжении последних 15 лет распространяет все мои книги. Там же можно заполучить ваш экземпляр книги.

В комментариях к этому посту прошу оставлять только отзывы по книге.

Читайте вдумчиво!

Я постарался раскрыть все аспекты современного белого SEO и привел немыслимое количество практического материала.

#DrMax #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥3813👍86😁5
🚩 Промптоведение. Сезон 3. Часть 6.

🤫 Универсальный промпт для мощной и правильной перелиновки и линкбилдинга

Задача промпта - спроектировать новый абзац для страницы - донора, из которого будет проставлена ссылка на страницу-акцептор. При этом:

Абзац должен быть строго релевантент и донору и акцептору

Околоанкорный текст для мощного роста передаваемого веса должен содержать Salient Terms

Абзац должен подстраиваться под стилистику страницы- донора

КРАЙНЕ ВАЖНО:

Salient Terms (значимые или характерные термины) - это лексические единицы, которые обладают высокой степенью специфичности и статистической значимости для конкретной сущности (Entity). В отличие от обычных ключевых слов, Salient Terms определяют «идентичность» темы. Если их изъять из текста, сущность перестает быть узнаваемой для поискового алгоритма.

Чем Salient Terms ценны для сущности: см вот тут https://news.1rj.ru/str/drmaxseo/1140

ДОБАВЛЕНИЕ Salient Terms в околоанкорный текст строго обязательно! Это показывает релевантность связки донора и акцептора и УСИЛИВАЕТ мощь ссылки!!!!


Пример промпта: Interactive Semantic Anchor & Context Builder


Как работать:

1. Скопируйте этот промпт в новый чат с AI.

2. Следующим сообщением отправьте:
- текст или URL донора,
- текст или URL акцептора,
- тип связи.

3. Получите таблицы и выберите анкор и группу Salient Terms.

4. Получите готовый, безопасный, естественный околоанкорный блок, готовый к публикации.


Еще больше умных,хитрых и полезных промптов забирайте в новой книге "DrMax: Доказательное SEO 2026"

Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку


#DrMax #SEO #Промпт #линкбилдинг
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2222💯11
📺 Телеконференция у Миши Шакина.
Промптоведение: ТОП SEO промптов.
Эпизод IV


Собственно перейду от теоретической части, что я излагал на прошлой телеконференции к практике.

1. Поделюсь "тайными" разноплановыми промптами и расскажу для чего они нужны и как работают. Много таких я выкладывал уже в канале - например на днях про усиление ссылок примитивными методами. Я думаю что мои россказни про то как работают промпты и на что они опираются - гораздо ценней самих текстов промптов - ибо вы их сможете легко воссоздать и гораздо улучшить.

2. Обсудим новую книжку DrMax: Доказательное SEO 2026, а именно часть про "Введение в Промптоведение", а еще точней - расскажу кой чего о коконцах, что не вошло в основной текст книжки.

3. Поотвечаю на вопросы. Кстати, засылайте в комментарии к этому посту вопросы (только по теме), что успеете заслать до 12-00 завтра - всё войдет в основной доклад.

Итак, телеконференция состоится завтра:

24 декабря в 17 по Москве


📺 Трансляция на YouTube (жмите "Прислать уведомление", чтобы не пропустить):
https://www.youtube.com/watch?v=jZnUWRMeVOA

🎥 Трансляция в ВК Видео (жмите "Напомнить о трансляции"):
https://vkvideo.ru/video80770238_456241291

📹 Трансляция в Rutube:
https://rutube.ru/video/c96df8cdb33ca09cbdf7579450493318/

Во время самой телеконференции сможете задавать доп вопросы!

Явка строго обязательна! Жду вопросов в комментариях!

Ежели кто то уже прочитал/ внедрил что то из книги - прошу поделиться своим мнением.

До встречи на телеконференции!

Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку
Please open Telegram to view this post
VIEW IN TELEGRAM
111👍74🔥2
Через 15 минут стартует телеконференция у Миши Шакина

📺 Трансляция на YouTube :
https://www.youtube.com/watch?v=jZnUWRMeVOA

🎥 Трансляция в ВК Видео :
https://vkvideo.ru/video80770238_456241291

📹 Трансляция в Rutube:
https://rutube.ru/video/c96df8cdb33ca09cbdf7579450493318/

Во время самой телеконференции сможете задавать доп вопросы!

#DrMax
👏122
📝 Оптимизация Title для коммерческих сайтов

За переписывание тайтлов в Гугле отвечает система Goldmine. Она выбирает несколько кандидатов, запихивает их в стек Candidate Pool) и проводит соревнование между ними. Это значит, что если ваш нативный Title проиграл, победителем станет не «случайный текст», а лучший из оставшихся источников: H1, анкоры ссылок, самый визуально крупный элемент. Что интересно, Google анализирует не просто HTML-код, а рендеринг. Если вы выделили фразу стилями (крупный шрифт, жирность, расположение в первом экране), она автоматически получает высокий приоритет в пуле кандидатов, даже если она не обернута в теги заголовков.

Итак:

1. Технические лимиты и структура

Длина: Ориентируйтесь на 600 пикселей (примерно 55–65 символов). Всё, что длиннее, Google с высокой вероятностью обрежет или перепишет, используя данные из H1 или анкоров.

LPO (Left-Side Optimization): Самый важный ключевой запрос - в первые 2–3 слова. Это влияет и на релевантность, и на CTR, так как начало заголовка реже подвергается автоматической замене.

Уникальность: Полные дубли <noscript> внутри сайта ведут к склейке страниц или некорректному выбору канонического URL.

2. Управление «Пулом кандидатов» (алгоритм Goldmine)
Чтобы заставить систему выбрать ваш вариант, необходимо синхронизировать следующие источники:

Синхронизация с H1: Различие между <noscript> и <h1> должно быть минимальным (LSI-синонимы или расширение). Если в Title указано «Купить дрель Bosch», а в H1 - «Инструменты для ремонта», Google заменит Title на H1.

Геометрия страницы (sourceGeometry): Текст, оформленный самым крупным шрифтом (размер в пикселях) на первом экране, автоматически становится сильным кандидатом на заголовок. Убедитесь, что визуально выделенный заголовок совпадает по смыслу с тегом <noscript>.

Анкорный консенсус: Если 80% внутренних ссылок ведут на страницу с анкором «Цена на дрели», а ваш Title - «Купить электроинструмент», Google может проигнорировать тег и вывести анкор. Используйте в перелинковке те ключи, которые вы хотите видеть в выдаче.

3. Коммерческие модификаторы и CTR
Для крупных интернет-магазинов и агрегаторов обязательно использование паттернов, повышающих релевантность интенту:

Гео-привязка: Добавление города (например, «в Москве») обязательно для локального ранжирования.

LSI-модификаторы: «цена», «купить», «в наличии», «каталог», «интернет-магазин», «2025».

Динамические вставки: Для листингов используйте количество товаров или минимальную цену: «Купить смартфоны (142 модели) от 15 000 руб.». Это делает заголовок уникальным и актуальным.

4. Предотвращение автоматической перезаписи
Если Google переписывает ваш Title, проверьте следующие триггеры:

Переспам: Повторение одного и того же ключа более 2 раз.

Название бренда: Если бренд занимает более 20% длины заголовка, Google может его вырезать. Ставьте бренд в конец через разделитель (| или -).

Нерелевантность: Заголовок обещает то, чего нет в первом абзаце или в H1.

Шаблонность: Если у 100 000 страниц сайта заголовок отличается только одним словом, алгоритм сочтет их низкокачественными и начнет генерировать свои варианты на основе контента.

Выводы таковы:
Главный запрос - в начале.

H1 - содержит главный запрос и не противоречит Title.

Визуальный заголовок - на первом экране, самый крупный шрифт, дублирует суть Title.

Длина - до 60 символов (контроль по пикселям).

Анкоры внутренних ссылок - соответствуют целевому запросу страницы.

Микроразметка WebPage - содержит поле name, идентичное Title.

Ваш <noscript> попадет в выдачу только в том случае, если он подтверждается визуальной иерархией страницы и текстами ссылок, ведущих на эту страницу.

Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку


#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍387👏1😁1