1. Собранные сырые ключи скармливаю промпту
2. На основе ключей определяются интенты
3. На основе интентов определяются сущности
4. Список найденных сущностей расширяется и дополняется связанными и неявными сущностями
5. Сущности группируются в домены
6. Для всех доменов и всех сущностей определяются новые интенты
7. Интенты кластеризуются
8. Строится таксономия на основе сущностей и интентов
9. Таксономия наполняется контентом (генерачим по мега правилам - см промптоведение)
10. В контент внедряем часть ключей (если их там еще нет)
11. Проводим самоконтроль всего этого барахла
12. В контент внедряем перелинковку
13. Проводим самоконтроль всего этого барахла
14. Выгрузка на сайт, вычитка
Это если кратко. Если чуть более подробно - смотрите и читайте 1 и 2 сезон промптоведения - там много из этого расписано.
Это я к чему написал вообще. Тут товарищ мой говорит, что LLM уравняло качество контента для всего инета и у всех в среднем одно и тоже.
А вот фиг там.
Я выдал мои боевые промпты товарищам, записал видео как с ними работать, как поднастраивать ежели чего. Показал все настройки в LLM.
А качество выходного контента у меня и товарищей совершенно разные. Даже на моих боевых промптах. Я помыслил и понял что дело в двух вещах:
1. Входные данные в промпт
2. Вычитка (в меньшей степени).
О том как готовить данные для промпта - можно целую книгу написать. То как делю это я - моё личное ноу-хау, кое я юзаю успешно более года. В рамках статей в канале это не расписать, да и не стоит этого делать.
В общем юзайте схему, совершенствуйте её. Читайте Промптоведение.
#DrMax #LLM #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍53❤5😁4🔥3
Суть довольна проста. Мы собираем для начала сущности (см промптоведение сезон 1) для нашего контента, а после выстраиваем граф из этих сущностей. Где связи слабые - там нужны доп. сущности. Таким образом мы выискиваем НЕЯВНЫЕ ИНТЕНТЫ товарищей - пользователей контента и внедряем их в текст (или не внедряем - как хотите).
Кроме того, мы переходим с анализа внутренней онтологической области вашего явления (допустим кровля крыш) к внешним проявлениям (например индустриальным трендам. Делает ли кто то крыши из говна и палок и насколько это востребовано)
Кусок промпта выглядит следующим образом:
6.0. Построение онтологической модели предметной области.
Задача - формализация предметной области в виде направленного графа знаний G(E, R), где E - конечное множество ключевых сущностей (концептуальных узлов) предметной области, а R - множество n-арных реляций (ориентированных ребер), описывающих каузальные, иерархические, функциональные и атрибутивные связи между сущностями из E. Каждая реляция r ∈ R должна быть эксплицитно выражена в формате тройки (субъект, предикат, объект) или ее расширенной n-арной формы. Целью является максимизация плотности и полноты графа G для исчерпывающего описания системы.
6.1. Аудит семантической целостности и устранение лакун.
Задача - провести анализ топологии графа G на предмет выявления сущностей eᵢ ∈ E с аномально низкой степенью связности (degree ≤ 1). Данные сущности идентифицируются как "семантические лакуны", указывающие на нарушение полноты онтологической модели. Необходимо итеративно устранять выявленные лакуны путем введения в граф G новых "транзитивных" сущностей и/или предикатов, которые устанавливают логически непротиворечивые реляции между ранее изолированной сущностью и основным ядром графа.
Конечная цель - достижение высокого коэффициента связности графа, где отсутствуют изолированные вершины.
6.2. Контекстуальная триангуляция онтологической модели.
Задача - верификация и обогащение построенной модели G путем ее позиционирования в рамках трех внешних систем координат. Итоговый сгенерированный контент должен содержать явные вербальные конструкции, доказывающие проведение анализа по каждой из трех указанных систем.
Система 1: Генезис (Источник/Авторство): Установление и описание реляций между ключевыми атрибутами модели G и атрибутами/деятельностью сущности-создателя (автора, производителя, первопричины). Анализ на соответствие, отклонение или эволюцию относительно других моделей, порожденных тем же источником.
Система 2: Таксономия (Классификация/Типология): Определение положения модели G в общепринятой иерархической системе классификации (таксоне). Проведение сравнительного анализа ключевых сущностей и реляций G с эталонными моделями (архетипами) в том же классе для выявления уникальности, сходства или аномалий.
Система 3: Прагматика (Применение/Потребитель): Анализ функциональной ценности и импликаций модели G для конечного пользователя/целевой аудитории. Установление связей между внутренними атрибутами модели и внешними практическими результатами или опытом, которые она порождает для субъекта-потребителя.
Добавляем в свой промпт (системные инструкции) сразу после сбора всех сущностей.
#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍9❤8😁4🔥3
FORD-CHATGPT.pdf
136.4 KB
Собственно в PDF как это отрабатывает (с выводом промежуточных данных, что явно не нужно делать в боевом промпте) тот же ЧАТ ГПТ.
Там же сам промпт (с предварительным сбором сущностей, см промптоведение 1 сезон).
Весьма поучительно. Если еще учитывать, что LLM вывел из за своей ленности только часть данных.
Привел оный промпт и ответ с выводом (который выводить и не надо) для пояснения, как оное расширение использовать и КАКУЮ ПОЛЬЗУ ОНО ПРИНОСИТ.
Что важно:
1. Кусок расширения онтологической области - ТЕМАТИКОНЕЗАВИСИМЫЙ, его можно юзать в любом вашем промпте. Такое дорогого стоит. Он сам "подстраивается" под любую тематику, благодаря математическому описанию.
2. Он немного менее ресурсоемкий и ИМХО несколько более быстрый, чем его аналоги (если они есть) благодаря описанию на формальном языке.
ЗЫ.
10 декабря состоится телеконференция у Миши Шакина. Заявки по тематикам, предварительные вопросы что стоит осветить - пишем в комментариях. Думается начнем с ним с обсуждения промптоведения. А там видно дальше будет.
#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍20🔥10❤3😱1
В комментариях (нашем чате) скинули ссылку на статью про оптимизацию под Чат ГПТ. Если вам интересно мное мнение по ней, то собрал все факты из статьи и прокоментировал их.
Мнение сугубо мое и не претендует на окончательную достоверность!!!
Итак:
1. Ссылающиеся домены - главный фактор авторитета
Фиг там. У LLM нет прямого «счётчика ссылок». Модель обращается к обучающей выборке и косвенным сигналам авторитетности, основанным на большом корпусе данных, где связь с данными по трафику, видимости и качеству контента сильнее, чем слепое количество ссылок. То есть 50 трафиковых ссылок уработают 100500 ссылающихся нерелевантных доменов.
2. LLMs.txt файлы неэффективны для цитирования
Это верно
3. Трафик сайта коррелирует с цитированиями
Ранжирование и трафик. например, с яндекса, накрученный ПФ, никак не улучшает видимость в LLM
4. Домашняя страница должна привлекать трафик.
Вполне вероятно.
5. Упоминания на Quora и Reddit повышают цитирование
Для ЧатГПТ однозначно. Ибо оно обучено именно на них. А не на умных книжках Льва Толстого.
6. Контент от 1,900 слов лучше коротких статей.
Качество гораздо важнее длины. Два абзаца высокого качества лучше, чем 5,000 слов воды.
7. Структура текста (120–180 слов между заголовками) критична.
Вполне возможно. Но у меня иные цифры и иные представления о структуре контента.
8. FAQ-секции помогают цитированию
FAQ иногда полезны для пользователей и помогают выделить ключевые вопросы, но сами по себе не повышают цитирование без другого контекста авторитета.
То есть тупо пихая FAQ на страницы говносайта - ничего не добьешся.
9. Свежесть контента (обновления за 3 месяца) важна.
Для отдельных тематик - аж критична. Для других (например медицина) - не особо.
10. Общие заголовки лучше ключевых слов в URLs
В URL мы должны показать какие сущности закрывает контент, а ключи - это один из частных примеров. То есть LLM ищет контекст и релевантность, а не точные совпадения ключевых слов.
11. Профили на платформах отзывов (Trustpilot, G2) важны.
Частично верно. И вообще, по умолчанию, такие профили нужно развивать. Для гугла дают буст.
12. Core Web Vitals (скорость загрузки) влияют на цитирование.
Частично да. Но буста не дает никакого. Может просто плюнуть бот LLM на сайт и не обойти его.
13. FAQ schema markup слаб, обычная структура лучше.
LLM вообще не видит микроразметку. Они используют безопасное извлечение данных, где пререендер отдает LLM готовый текст (безопасный), а не HTML страницу. Я летом это выяснял с некоторыми LLM, когда не мог понять, почему они так криво анализируют структуру HTML по URL.
14. Доменный авторитет (DT > 90) даёт 4x больше цитирований
Херня. От пузомерок никак не зависит. LLM ничего не знают о выдуманных пузомерках, равно как и гугл.
Как то так )))
#DrMax #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤27👍15🔥4💯1
ford150.pdf
55.3 KB
Итак, как мы знаем, для каждого запроса LLM строит пучок подзапросов и, выбирая из контента ответы на них, пытается вычислить наиболее безопасный (а не лучший в прямом смысле слова) результат.
Предположим, что LLM будет нарезать чанки по структурным единицам (грубо говоря подразделам h2/h3 - что там у вас есть), а не использует способы нарезки чанков отлавливанием смены тематики в контенте или по фиксированной длине чанка.
Я уже описывал в 1 сезоне промптоведения "Принцип Семантической Триангуляции", когда мы 3-4 Ключевых раздела (H2/H3), посвященные важным сущностям или технологиям, строим по принципу "триангуляции", чтобы превентивно ответить на веер под-запросов.
В рамках каждого такого раздела мы покрываем три важных типа интента:
a. Определение и принцип работы (Что это? / Как работает?)
b. Сравнительный анализ (Чем отличается от аналогов?)
с. Практическое применение (Какую проблему решает для пользователя?)
Универсальный промпт выглядит следующим образом:
2.5. Применение принципа семантической триангуляции.
Для подмножества ключевых узлов, описывающих фундаментальные концепции или технологии, применяется обязательный структурный паттерн "Семантическая триангуляция". Содержание данных узлов должно быть последовательно структурировано для разрешения трёх ортогональных информационных векторов:
a) Дефиниционно-функциональный аспект: Формальное определение сущности и алгоритмическое описание принципа ее функционирования.
b) Дифференциально-сравнительный аспект: Компаративный анализ сущности с альтернативными или предшествующими аналогами с целью выявления ключевых отличий.
c) Прагматико-утилитарный аспект: Описание практической ценности, прикладного значения и конечной выгоды от использования сущности для конечного субъекта-пользователя.
Используем этот кусок при генерации некоторых структурных подразделов вашего контента. Каких - выбирайте сами. Добавляйте его в ваш Мастер-промпт.
Он должен помочь повысить видимость в LLM. Ну и для ранжирования в Гугле тоже неплохо выходит.
Во вложении - пример генерации ЧатГПТ описания Форда F150 с применением этого принципа (сам промпт + ответ)
#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍17🔥12❤3
Вообще, успех или неуспех сайта зависит от единственной вещи. Не от ссылочного, не от 100500 миллионов опубликованных страниц, не от возраста или траста домена, не от прокачанных авторов/редакторов, не от OnPage / OnSite оптимизации. Это всё важно, но абсолютно не гарантирует никакого успеха. От слова совсем.
Единственное важная вещь на сайте - полезность контента. Чем он полезней, тем меньше нужно ссылочного, усилий по продвижению, какой либо оптимизации. И самое странное, что это алгоритмически можно измерить (что и проделывает Гугл).
И ваша точка зрения на качество контента и его полезность может вполне расходиться с тем, что имеет в ввиду Гугел под этими понятиями. Впрочем вы легко это можете заметить по неросту или падению трафа на сайт, не смотря на все прикладываемые усилия.
Я лет 15 назад приводил простой пример (наверняка спер откуда нибудь) самого полезного контента на сайте. Я приводил пример сайта такси (еще до массового появления агрегаторов) и самый полезный контент и практически единственно нужный - это огромные цифры с номером телефона. Всё, больше ничего не нужно. Этого достаточно, чтобы контент сайта стал полезным для его посетителей.
Гугл умеет определять полезность контента отдельных страниц сайта (об этом написал в новой книженции целый раздел). При этом он вычисляет долю полезного и бесполезного контента на сайте. И буст дается тем сайтам, где превалирует полезный контент над бесполезным.
Именно этим объясняется, что прием "обрезки сайта" (удаление говностраниц) у кого то дает превосходные результаты, а у кого то не срабатывает никак. У последних, даже после удаления массы "говностраниц", число полезных страниц все равно меньше критического уровня.
Повторюсь, ваше видение качества контента и видение Гугла - могут в корне различаться.
Я продолжаю анализировать данные утечек и судебных слушаний и нашел прямое подтверждение алгоритмическому определению качества контента и принципов разделения контента на качественный и не качественный. И без разницы: пишите вы его руками, генерируете LLM - качество контента не в этом. Качество - в приносимой пользе.
Самое смешное, что всякие товарищи, собирающие ключи и генерирующие семантические ядра, напихивающие ключи в контент - делают далеко не полную, а зачастую напрасную работу. Да, вы попали в ранжирование. Да, вы получили клики из выдачи. Но гугл меряет количество "плохих" и "хороших" кликов. И если посетитель пришел на страницу (только из за того, что там напиханы ключи), не нашел там полезного контента и возвратился в выдачу - получайте "плохой клик из выдачи". При превышении определенного соотношения плохих кликов к хорошим - получаете мегаштраф.
Продолжая эту мысль, еще больше меня смешат те, кто заказывает сбор семантических ядер на стороне. То есть непрофессионалы (если сами не могут предсказать нужные им запросы) заказывают анализ семантики у других непрофессионалов (которые вообще не в теме) и ориентируются на частотность ))) Если глянуть что стало с пресловутой частотностью после сентябрьской обрезки говноботов гуглом - становиться еще смешней. К слову говоря - это величайшее достижение гугла за этот год.
Подводя итог, скажу - старайтесь быть полезным. Зачастую этого достаточно для хорошего ранжирования/конверсии.
Собственно это основа-основ любого SEO. Возможно и об этом мы поговорим на скорой телеконференции у Миши.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍45❤22💯3😁2🗿2
Итак, аккурат 10 декабря в 17:00 (по Москве) состоится телеконференция у Миши Шакина.
Прочитаю доклад на тему "Введение в практическое промптоведение." Это будет уже эпизод 3. Плюс затрону некоторые вопросы, что выдали в комментариях.
Ну и как всегда - ответы на вопросы зрителей.
Трансляция будет вот здесь:
Там же можно задавать вопросы.
Подписывайтесь на уведомления, а то забудете/пропустите.
В комментариях к этому уведомлению можете писать доп вопросы - постараюсь ответить в теле доклада (если уместно будет).
Не знаю что еще написать - потому закругляюсь)))
#DrMax #телеконференция
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Введение в практическое промптоведение. Эпизод III
Структура контентного промпта, блоки контентных промптов, исследование данных GSC, нестандартное применение промптов. Хитрости, фишки и разнообразные ухищрения, в т.ч. Коконцы и промпты для них.
Смотрите вебинар Dr.Max.
Скачать презентацию к докладу DrMax…
Смотрите вебинар Dr.Max.
Скачать презентацию к докладу DrMax…
2❤20🔥15👍2👻1
Управляющие триггеры - токенны.
Управляющие триггеры-токены - это специальные ключевые слова или фразы (токены), которые вставляются в запрос к генеративной модели (LLM) для непосредственного контроля над её стилем, тоном, структурой, объемом или персоной ответа.
Они действуют как команды-модификаторы, которые корректируют вероятности выбора следующих токенов, заставляя модель соответствовать заданным параметрам. Иными словами, это мета-инструкции, управляющие самим процессом генерации текста, а не только его содержанием.
Можно выделить порядка 300 основных управляющих триггеров-токенов, которые условно разбиты на следующие группы:
Примеры токенов:
ТРИГГЕРЫ СЖАТИЯ, УРЕЗАНИЯ, ОГРАНИЧЕНИЯ
"коротко" → уменьшает длину, но может терять детали
"кратко" → сокращает структурные блоки, упрощает синтаксис
"в 1 абзац" → сжимает логические блоки
"тезисно" → списки, без развернутых объяснений
"детально" → расширенные предложения, уточнения
"пошагово" → увеличивает количество мелких логических блоков
"структурировано" → модель добавляет списки и подзаголовки
Триггеры логики, структуры и аналитичности
"логично" → повышает когерентность
"строго по шагам" → формирование строго линейной структуры
"разбери по этапам" → сегментация, блоки
"сначала анализ, затем выводы" → управляет порядком мыслей
"как бенчмарк" → таблицы сравнений
"как матрица" → структурные отношения
"структура: проблема → решение → вывод" → фиксирует шаблон
Триггеры рисков и сдержанности (влияют на запретные токены)
"не делай предположений" → ↓ галлюцинаций
"не выдумывай факты" → ↑ факт-чек режим
"пиши только то, что известно" → модель откатывает фантазию
"без домыслов" → ↓ комплетивности
"без обобщений" → ↓ генерализаций
"без оценок" → ↓ субъективности
"с указыванием источников" → ↑ цитирование
Триггеры изменения уровня абстракции
"высокоуровнево" → генерация концептов
"конкретно" → снижение абстрактности
"на уровне принципов" → общие закономерности
"на уровне реализации" → конкретные шаги
"как для новичка" → упрощения, примеры
"как для эксперта" → уменьшение пояснений
"как для директора" → стратегичность
Важно понимать нексколько вещей:
1. Триггеры имеют различный приоритет. Поэтому некоторые триггеры-токены будут безусловно выполняться, а некоторые только иногда, при соблюдении условий. Более того, одни триггеры-токены могут перекрывать другие триггеры-токены с меньшим приоритетом.
2. Поскольку модели обучались на разных данных, то смещение к "слоям данным" происходит в каждой модели по разному. Именно поэтому один и тот же промпт в разных LLM дает разный результат
Перечень важнейших управляющих токенов с таблицами весов и принципами использования я привел в приложении к новой книжке "DrMax. Доказательное SEO 2026", которая выйдет на днях. Кроме того, затрону эту тему на телеконференции у Миши Шакина (не пропустите).
#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥12❤7
часть 1 (Генерация через УТП)- https://news.1rj.ru/str/drmaxseo/894
часть 2 (сущности)- https://news.1rj.ru/str/drmaxseo/896 и https://news.1rj.ru/str/drmaxseo/897
часть 3 (самопроверка на воду) - https://news.1rj.ru/str/drmaxseo/899
часть 4 (Архитектура "Вопрос-Ответ) - https://news.1rj.ru/str/drmaxseo/902
часть 5 ((NER-подход) - https://news.1rj.ru/str/drmaxseo/907
Первый мастер промпт - https://news.1rj.ru/str/drmaxseo/908
часть 6 (качество контента) - https://news.1rj.ru/str/drmaxseo/913
часть 7 (ветвление промптов и смена ролей) - https://news.1rj.ru/str/drmaxseo/915
часть 8 (мультимодальность) - https://news.1rj.ru/str/drmaxseo/920
часть 9 - второй промежуточный промпт - https://news.1rj.ru/str/drmaxseo/925
часть 10 (перелинковка) - https://news.1rj.ru/str/drmaxseo/928
часть 11 (принцип компрмисса) - https://news.1rj.ru/str/drmaxseo/932
часть 12 (принцип эволюции)- https://news.1rj.ru/str/drmaxseo/934
часть 13 (Принцип "Кросс-доменных аналогий") - https://news.1rj.ru/str/drmaxseo/935
часть 14 (тематика контента)- https://news.1rj.ru/str/drmaxseo/942
часть 15 (Принцип "Адвоката Дьявола") https://news.1rj.ru/str/drmaxseo/951
часть 16 (Принцип "Квантифицированного Доказательства" и внедрение Мини-Кейсов) https://news.1rj.ru/str/drmaxseo/954
ПРОМПТ - ХУМАНИЗАТОР (пишем как живой человек) https://news.1rj.ru/str/drmaxseo/957
Промптоведение. Анализ. Часть 1. - https://news.1rj.ru/str/drmaxseo/991
Анализ выбора сниппетов в AI-ответах Google - https://news.1rj.ru/str/drmaxseo/995
ИИ и Восстановление Ссылок (Link Reclamation) - https://news.1rj.ru/str/drmaxseo/1049
Почему весь контент, генерируемый ИИ звучит одинаково. https://news.1rj.ru/str/drmaxseo/1071
Как я работаю с ключами https://news.1rj.ru/str/drmaxseo/1107
Модель обогащения контента новыми сущностями, не выявленными на этапе анализа онтологической области. - https://news.1rj.ru/str/drmaxseo/1110 / вторая часть https://news.1rj.ru/str/drmaxseo/1111
Повышаем вероятность попадания в ответы LLM https://news.1rj.ru/str/drmaxseo/1114
Часть 1. Ритмическое кадрирование и управление когнитивной нагрузкой - https://news.1rj.ru/str/drmaxseo/1010
Часть 2. Избегаем шаблонных ответов. https://news.1rj.ru/str/drmaxseo/1017
Часть 3. Хуманизатор. Версия 3.1. https://news.1rj.ru/str/drmaxseo/1044
Часть 4. Работа с сущностями. https://news.1rj.ru/str/drmaxseo/1056
Часть 5. Универсальный блок промпта: Оптимизация читаемости для любого контента https://news.1rj.ru/str/drmaxseo/1068
Часть 6.1. Почему LLM пишут однообразно и как это исправить #1 - https://news.1rj.ru/str/drmaxseo/1076
Часть 6.2. Почему LLM пишут однообразно и как это исправить #2 - https://news.1rj.ru/str/drmaxseo/1078
Часть 7. Структура промптов. https://news.1rj.ru/str/drmaxseo/1082
Часть 1. Управляющие триггеры - токенны. https://news.1rj.ru/str/drmaxseo/1123
Часть 2. Контентный промпт. Этап 1. https://news.1rj.ru/str/drmaxseo/1127
Часть 3. Контентный промпт. Этап 2. https://news.1rj.ru/str/drmaxseo/1129
Часть 4. Мультимодальный аудит визуальной иерархии страницы https://news.1rj.ru/str/drmaxseo/1131
Часть 5. Универсальный промпт для семантической разведки и проектирования семантического кокона https://news.1rj.ru/str/drmaxseo/1138
Часть 6. Универсальный промпт для мощной и правильной перелиновки и линкбилдинга https://news.1rj.ru/str/drmaxseo/1145
Часть 7. Оптимизация Ютуба: Составление оглавления видео (с таймкодами). https://news.1rj.ru/str/drmaxseo/1154
Продолжение следует...
Подборка №1 - https://news.1rj.ru/str/drmaxseo/890
Подборка №2 - https://news.1rj.ru/str/drmaxseo/1011
Мой канал с аудиоподкастами https://news.1rj.ru/str/DrMaxSEOCasts
Наш SEO чат: (Перейдите в комментарии и подайте заявку)
#DrMax #Подборка@DrMaxSEO #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥41👍9❤7
Телеконференция у Миши Шакина уже началась
Прочитаю доклад на тему "Введение в практическое промптоведение." Это будет уже эпизод 3. Плюс затрону некоторые вопросы, что выдали в комментариях.
Ну и как всегда - ответы на вопросы зрителей.
Трансляция вот здесь:
🔵 https://www.youtube.com/watch?v=H7i3UfdA_gw
🔵 https://vkvideo.ru/video80770238_456241277
🔵 https://rutube.ru/video/4cfd5a065f9d08253cf86bcd6ad27fce/
Там же можно задавать вопросы.
Прочитаю доклад на тему "Введение в практическое промптоведение." Это будет уже эпизод 3. Плюс затрону некоторые вопросы, что выдали в комментариях.
Ну и как всегда - ответы на вопросы зрителей.
Трансляция вот здесь:
Там же можно задавать вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤17🔥8👍1
Сбор сущностей / интентов/ ключей /
Ниже приведена расширенная, формальная и универсальная версия «Этапа 1» контентного промпта, готовая к использованию как верхний слой для любой предметной области (товар - электрочайник, автомобиль - Ford F-150, система - МКС и т.п.).
https://telegra.ph/Kontentnyj-prompt---EHtap-1-12-12
Этот промпт разбит на три фазы: настройка → исполнение → самопроверка/коррекция.
В конце - строгая спецификация формата промежуточного вывода (JSON) и набор программных валидаций.
Тон - сухой, академический. Инструкции - детализированы и детерминированы, чтобы модель вела себя как модуль NER/онтологического сборщика.
Обязательно посмотрите видео пояснения по промпту 1 этапа.
Как работать:
1. На вход подаем входную информацию (например PDF)
2. Настраиваем переменные (в начале промпта)
3. Запускаем промпт
4. На выходе получаем JSON со всеми собранными сущностями / интентами / ключами и разбивкой по группам
Все просто )))
Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку
#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
3❤17👍6🔥5
Построение таксономии
На основании результатов выполнения 1 этапа построим таксономию – содержание контентного обзора, где спроектируем структуру и распределим сущности, интенты и ключи по этой структуре.
Это универсальный, формальный, применимый к любому объекту (техника, автомобиль, космическая станция, SaaS-продукт и т. д.).
Цель - создать таксономию, которая покрывает почти все сущности/интенты из Этапа 1, не повторяет конкурентные структуры и служит семантическим фундаментом для высокорейтингового SEO-контента.
https://telegra.ph/Kontentnyj-prompt---EHtap-2-12-13
Этот промпт разбит на три фазы: настройка → исполнение → самопроверка/коррекция.
В конце - строгая спецификация формата промежуточного вывода (JSON) и набор программных валидаций.
Как работать:
1. На вход подаем входную информацию (или руками или скармливаем результаты 1 этапа)
2. Настраиваем переменные (в начале промпта)
3. Запускаем промпт
4. На выходе получаем разработанную таксономию.
Все просто )))
Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку
#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤6👍6🆒2 1
Как работать
1. Откройте в MS Edge страницу для анализа
2. Жмите Ctrl+Shift+S - пункт Записать ВСЮ страницу.
3. Сохраните скрин и прицепите его к LLM
4. Запустите промпт
Роль: Senior SEO & UX Auditor с экспертизой в визуальной иерархии, CRO и mobile-first дизайне.
Контекст: Анализ проводится на основе скриншота веб-страницы без доступа к коду.
Цель: Выявить несоответствия между визуальной иерархией, SEO-логикой и пользовательским восприятием,
а также определить UX-риски, влияющие на поведенческие факторы и конверсию.
Инструкция для мультимодальной модели:
Проанализируй предоставленный скриншот веб-страницы [ФАЙЛ] и выполни аудит по следующим направлениям.
1. Визуальная иерархия и SEO-логика:
- Определи визуальный порядок элементов (что пользователь видит первым, вторым, третьим).
- Оцени соответствие визуального веса элементов предполагаемой иерархии H1 → H2 → H3.
- Выяви случаи, где:
• визуально доминирует неключевой элемент,
• H1 выглядит слабее вторичных заголовков,
• отсутствует чёткий визуальный фокус.
2. Типографика и читаемость:
- Проверь контраст текста и фона (визуально, без инструментов).
- Определи потенциальные проблемы:
• низкий контраст,
• слишком мелкий текст,
• перегруженные абзацы,
• плохая межстрочная читаемость.
- Отметь зоны, где чтение требует повышенного когнитивного усилия.
3. CTA и конверсионные элементы:
- Определи наличие и видимость ключевых CTA.
- Оцени:
• визуальный приоритет CTA относительно контента,
• различимость кнопок и ссылок,
• логичность расположения CTA в иерархии внимания.
- Укажи, теряется ли CTA на фоне других элементов.
4. Mobile-first и UX-риски:
- Смоделируй восприятие страницы на мобильном устройстве.
- Выяви потенциальные проблемы:
• перекрытие контента,
• элементы слишком близко друг к другу,
• сложность нажатия,
• всплывающие или фиксированные блоки, мешающие взаимодействию.
- Определи элементы, которые могут ухудшать Core Web Vitals и UX.
5. Общая UX-оценка:
- Определи, куда направляется внимание пользователя в первые 3–5 секунд.
- Оцени, поддерживает ли визуальная структура:
• основной интент страницы,
• коммерческую или информационную цель,
• SEO-логику входных запросов.
Формат вывода:
Выведи результат в виде структурированного списка технических и UX-правок.
Для каждой правки укажи:
– Проблему,
– Потенциальное влияние на SEO / UX / конверсию,
– Рекомендацию по исправлению.
Важно:
1. Модель работает не с кодом, а с визуальным слоем - так же, как пользователь и Google (через рендеринг).
2. Промпт заставляет модель мыслить иерархией внимания, а не тегами, сопоставлять визуальный вес ≠ смысловой вес, выявлять расхождения между SEO-логикой и UX-реальностью. Это ключевая зона ошибок на коммерческих и контентных сайтах.
3. За счёт мультимодального анализа модель оценивает: размер элементов, контраст, расположение на экране, плотность визуального шума, относительную доминантность.
4. Промпт принудительно заставляет модель выстроить порядок, что пользователь видит первым, даже если это не H1. Это критично для: SEO-лендингов, категорий, SaaS-страниц, статей под AI-поиск.
5. Каждый блок - отдельный слой восприятия
Промпт взят из раздела "Промптоведения" новой книги "DrMax. Доказательное SEO 2026".
Релиз книги 20 декабря 2025.
Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку
#DrMax #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍31🆒3 3😁2
Наиболее глубокое откровение, касающееся механики ссылок, исходит из анализа структуры индекса Google. Подтверждено существование трехуровневого индекса ссылок, который можно условно разделить на низкий, средний и высокий уровни качества.
Размещение ссылки в том или ином уровне определяется не авторитетом ссылающегося домена, а качеством и популярностью конкретной страницы-донора. Ключевым фактором для определения этого качества, как оказалось, является пользовательское взаимодействие, а именно - клики.
Механизм активации:
1. Низкокачественный уровень (Low-quality tier): Здесь находятся ссылки, расположенные на страницах, которые не получают пользовательских кликов. Это "мертвые" страницы: старые, заброшенные статьи в блогах, "ресурсные" страницы, созданные исключительно для обмена ссылками, профили на забытых форумах. Атрибут TotalClicks (общее количество кликов) для таких страниц равен нулю.
Последствия: Ссылка, находящаяся в этом уровне индекса, не передает ни PageRank, ни анкорные сигналы. Для алгоритмов ранжирования она фактически невидима.
2. Среднекачественный уровень (Medium-quality tier): Сюда, вероятно, попадают ссылки со страниц, имеющих некоторый, но нерегулярный или небольшой трафик.
Последствия: Такие ссылки могут передавать ограниченное количество сигналов, но их вес будет значительно ниже.
3. Высококачественный уровень (High-quality tier): Здесь находятся ссылки со страниц, которые получают стабильный, верифицируемый трафик и клики. Это страницы, которые сами по себе хорошо ранжируются, популярны в социальных сетях или являются важными навигационными узлами на авторитетных сайтах.
Последствия: Только ссылки из этого уровня считаются "доверенными" и передают полный спектр сигналов ранжирования - PageRank, контекст анкора и другие.
Эта трехуровневая система - это, по сути, "гейт" (ворота), основанный на пользовательской валидации. Прежде чем ссылка сможет передать какой-либо авторитет, страница, на которой она размещена, должна сама доказать свою полезность, пройдя проверку реальными пользователями.
То есть, каким бы ни был донор, если страница с ссылкой не проходит валидацию, особого толку от такой ссылки вы не получите. И это только первый фильтр механизма проверки качества ссылки.
——
Выход книги 20 декабря 2025.
Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍17😁4🔥2 2❤1
Универсальный промпт для семантической разведки и проектирования семантического кокона
Используется для максимизации тематического покрытия и повышения релевантности через Salient Terms и LSI-контекст
Ключевая ценность: переход от keyword-based SEO к entity-first SEO.
Данные на входе:
ВХОДНЫЕ ДАННЫЕ И ПЕРЕМЕННЫЕ:
[MAIN_TOPIC]: основная тема анализа
[MARKET_CONTEXT]: ниша или рынок (например: SEO, FinTech, e-commerce)
[REGION] (опционально): география
[LANG]: язык анализа и вывода
[STRATEGIC_GOAL]: цель (semantic silo / content hub / topical authority)
--------------------------------------------------
РОЛЬ:
Senior Semantic SEO Architect & Knowledge Graph Specialist
Экспертиза:
– Google NLP API и entity extraction,
– Knowledge Graph и MID-логика,
– topical authority и semantic siloing,
– intent modeling и entity-based SEO.
--------------------------------------------------
КОНТЕКСТ:
Мы проектируем семантический кокон, цель которого —
максимально покрыть тематический граф, а не просто собрать ключевые слова.
Приоритет:
– сущности (entities),
– их атрибуты (salient terms),
– контекстное окружение (LSI),
– интентные векторы.
--------------------------------------------------
ЦЕЛЬ:
1. Выявить ключевые сущности Knowledge Graph для темы.
2. Определить их атрибутную и контекстную семантику.
3. Сформировать интентную и ключевую модель,
пригодную для построения семантического кокона.
--------------------------------------------------
АНТИ-ГАЛЛЮЦИНАЦИОННЫЙ БЛОК:
– Не выдумывай точные MID — используй placeholder (/m/XXXXX).
– Не приписывай сущностям атрибуты, не являющиеся обязательными.
– Разделяй:
• сущностные атрибуты,
• контекстные термины,
• пользовательские формулировки.
– Если тема абстрактная, явно укажи это в market_context.
--------------------------------------------------
АНТИ-БАЙЕС БЛОК:
– Не оптимизируй под «популярные ключи».
– Не подменяй сущности брендами без оснований.
– Не смешивай разные интенты в одной сущности.
– Исходи из логики Knowledge Graph, а не SEO-шаблонов.
--------------------------------------------------
ИНСТРУКЦИЯ ПО АНАЛИЗУ:
1. Идентификация сущностей
– Определи 5 ключевых сущностей:
• 1 родительскую (core entity),
• 4 ближайших семантических соседа.
– Используй логику Google Knowledge Graph.
2. Дифференциация терминов
Для каждой сущности:
– Salient Terms:
• 5 обязательных атрибутов,
• без которых сущность теряет идентичность.
– LSI Cloud:
• 10 контекстных терминов,
• формирующих тематическое окружение.
3. Кластеризация интентов
Для каждой сущности определи:
– informational intent,
– commercial intent,
– navigational intent
(в форме реальных пользовательских запросов).
4. Keyword Mining
– Сгенерируй:
• Primary keywords (entity-driven),
• Long-tail запросы:
– разговорные,
– уточняющие,
– параметризованные,
– AI/voice-friendly.
--------------------------------------------------
ФОРМАТ ВЫВОДА:
– Выводи результат СТРОГО в формате JSON.
– Не добавляй пояснений, комментариев или текста вне JSON.
– JSON должен соответствовать указанной схеме.
--------------------------------------------------
JSON SCHEMA:
{
"topic_analysis": {
"main_topic": "string",
"market_context": "string",
"entities": [
{
"entity_name": "string",
"knowledge_graph_mid_placeholder": "/m/XXXXX",
"salient_terms": ["term1", "term2", "term3", "term4", "term5"],
"lsi_cloud": ["lsi1", "lsi2", "lsi3", "lsi4", "lsi5", "lsi6", "lsi7", "lsi8", "lsi9", "lsi10"],
"search_intents": {
"informational": "string",
"commercial": "string",
"navigational": "string"
},
"keyword_matrix": {
"primary": ["keyword1", "keyword2", "keyword3"],
"long_tail": ["phrase1", "phrase2", "phrase3"]
}
}
]
}
}
#DrMax #SEO #Промпт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13❤6👏3 2 1
Пояснения к промпту
Наиболее ценной штукой в нем является сбор Salient Terms, без которых вы никогда не сможете ранжироваться высоко по терминам/сущности.
Salient Terms (значимые или характерные термины) - это лексические единицы, которые обладают высокой степенью специфичности и статистической значимости для конкретной сущности (Entity).
В отличие от обычных ключевых слов, Salient Terms определяют «идентичность» темы. Если их изъять из текста, сущность перестает быть узнаваемой для поискового алгоритма.
Чем Salient Terms ценны для сущности:
1. Деамбигуация (Устранение многозначности): Если вы пишете о сущности «Ягуар», именно Salient Terms определяют, идет ли речь о животном (ареал, хищник, пятнистый окрас) или об автомобиле (трансмиссия, модельный ряд, двигатель). Они служат маркерами, которые привязывают текст к конкретному узлу в Knowledge Graph.
2. Определение веса (Saliency Score): Алгоритмы Google присваивают каждой сущности в тексте показатель «салиентности» (от 0 до 1.0). Чем больше в тексте терминов, атрибутивно связанных с сущностью, тем выше её вес. Это сигнализирует поисковику, что данная сущность является главной темой страницы, а не упоминается вскользь.
3. Формирование «Цифрового отпечатка» темы: Salient Terms — это неизменные атрибуты. Для сущности «Эйфелева башня» это будут Гюстав Эйфель, Париж, железо, высота 330 метров. Без этих данных контент выглядит для алгоритма «пустым» или низкокачественным.
4. Ценность для точности контента (SEO и UX)
Topical Authority (Тематический авторитет): Использование глубоких атрибутивных терминов доказывает поисковой системе, что автор обладает экспертными знаниями. Это напрямую влияет на оценку по критериям E-E-A-T.
4. Смысловая релевантность вместо текстового соответствия: Вместо прямого повторения ключевой фразы (keyword stuffing), вы насыщаете текст смысловыми компонентами. Это делает контент устойчивым к обновлениям алгоритмов, которые все больше переходят от анализа строк (strings) к анализу смыслов (things).
5. Попадание в Intent-векторы: Точные термины помогают алгоритмам классифицировать интент. Например, наличие терминов инструкция, пошагово и настройка вместе с основной сущностью мгновенно маркирует контент как обучающий (Tutorial).
6. Оптимизация под AI-ответы (SGE): Генеративные модели (LLM) и поисковые движки нового поколения используют эти термины для извлечения фактов. Чем четче прописаны атрибуты сущности, тем выше шанс, что ваш контент станет первоисточником для «нулевой выдачи».
Наиболее ценной штукой в нем является сбор Salient Terms, без которых вы никогда не сможете ранжироваться высоко по терминам/сущности.
Salient Terms (значимые или характерные термины) - это лексические единицы, которые обладают высокой степенью специфичности и статистической значимости для конкретной сущности (Entity).
В отличие от обычных ключевых слов, Salient Terms определяют «идентичность» темы. Если их изъять из текста, сущность перестает быть узнаваемой для поискового алгоритма.
Чем Salient Terms ценны для сущности:
1. Деамбигуация (Устранение многозначности): Если вы пишете о сущности «Ягуар», именно Salient Terms определяют, идет ли речь о животном (ареал, хищник, пятнистый окрас) или об автомобиле (трансмиссия, модельный ряд, двигатель). Они служат маркерами, которые привязывают текст к конкретному узлу в Knowledge Graph.
2. Определение веса (Saliency Score): Алгоритмы Google присваивают каждой сущности в тексте показатель «салиентности» (от 0 до 1.0). Чем больше в тексте терминов, атрибутивно связанных с сущностью, тем выше её вес. Это сигнализирует поисковику, что данная сущность является главной темой страницы, а не упоминается вскользь.
3. Формирование «Цифрового отпечатка» темы: Salient Terms — это неизменные атрибуты. Для сущности «Эйфелева башня» это будут Гюстав Эйфель, Париж, железо, высота 330 метров. Без этих данных контент выглядит для алгоритма «пустым» или низкокачественным.
4. Ценность для точности контента (SEO и UX)
Topical Authority (Тематический авторитет): Использование глубоких атрибутивных терминов доказывает поисковой системе, что автор обладает экспертными знаниями. Это напрямую влияет на оценку по критериям E-E-A-T.
4. Смысловая релевантность вместо текстового соответствия: Вместо прямого повторения ключевой фразы (keyword stuffing), вы насыщаете текст смысловыми компонентами. Это делает контент устойчивым к обновлениям алгоритмов, которые все больше переходят от анализа строк (strings) к анализу смыслов (things).
5. Попадание в Intent-векторы: Точные термины помогают алгоритмам классифицировать интент. Например, наличие терминов инструкция, пошагово и настройка вместе с основной сущностью мгновенно маркирует контент как обучающий (Tutorial).
6. Оптимизация под AI-ответы (SGE): Генеративные модели (LLM) и поисковые движки нового поколения используют эти термины для извлечения фактов. Чем четче прописаны атрибуты сущности, тем выше шанс, что ваш контент станет первоисточником для «нулевой выдачи».
🔥17❤3😁1
Всё в одном томе!
На протяжении более двух десятилетий поисковая оптимизация (SEO) функционировала как дисциплина, основанная на обратной инженерии. Стратегии строились на анализе корреляций, эмпирических наблюдениях и интерпретации публичных заявлений представителей Google. Эта методология была вынужденной мерой, обусловленной закрытой природой алгоритмов ранжирования. Данный подход стал неактуальным.
Два события - утечка внутренней документации Google Content Warehouse API в 2024 году и публикация материалов из антимонопольного дела Министерства юстиции США против Google (2020-2025) - предоставили SEO-сообществу беспрецедентный объем прямой технической информации. Совокупность этих данных формирует новую, основанную на доказательствах, модель работы поисковой системы.
Именно это и позволило мне написать данную книгу. Был проведен анализ свыше 2500 модулей и 14 000 атрибутов, которые Google использует для хранения информации о веб-документах. Это позволило идентифицировать конкретные сигналы, такие как siteAuthority (авторитетность сайта), contentEffort (оценка "усилия", вложенного в контент), clutterScore (показатель "замусоренности" страницы) и так далее.
Каждый раздел книги имеет практические материалы, кейсы, наборы промптов для реализации лучших стратегий. Я постарался после каждого небольшого куска доказательной теории встроить блоки "как это реализовать" на практике.
Во второй книге "Введение в промптоведение" даны практические приемы использования LLM для реализации SEO стратегий.
Объем труда: 470 страниц убористого текста
Описание книги на сайте DrMax.su
Более полное описание - см у Ани Ященко, которая на протяжении последних 15 лет распространяет все мои книги. Там же можно заполучить ваш экземпляр книги.
В комментариях к этому посту прошу оставлять только отзывы по книге.
Читайте вдумчиво!
Я постарался раскрыть все аспекты современного белого SEO и привел немыслимое количество практического материала.
#DrMax #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥38❤13👍8 6😁5
Задача промпта - спроектировать новый абзац для страницы - донора, из которого будет проставлена ссылка на страницу-акцептор. При этом:
КРАЙНЕ ВАЖНО:
Salient Terms (значимые или характерные термины) - это лексические единицы, которые обладают высокой степенью специфичности и статистической значимости для конкретной сущности (Entity). В отличие от обычных ключевых слов, Salient Terms определяют «идентичность» темы. Если их изъять из текста, сущность перестает быть узнаваемой для поискового алгоритма.
Чем Salient Terms ценны для сущности: см вот тут https://news.1rj.ru/str/drmaxseo/1140
ДОБАВЛЕНИЕ Salient Terms в околоанкорный текст строго обязательно! Это показывает релевантность связки донора и акцептора и УСИЛИВАЕТ мощь ссылки!!!!
Пример промпта: Interactive Semantic Anchor & Context Builder
Как работать:
1. Скопируйте этот промпт в новый чат с AI.
2. Следующим сообщением отправьте:
- текст или URL донора,
- текст или URL акцептора,
- тип связи.
3. Получите таблицы и выберите анкор и группу Salient Terms.
4. Получите готовый, безопасный, естественный околоанкорный блок, готовый к публикации.
Еще больше умных,хитрых и полезных промптов забирайте в новой книге "DrMax: Доказательное SEO 2026"
Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку
#DrMax #SEO #Промпт #линкбилдинг
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22❤2 2💯1 1
Промптоведение: ТОП SEO промптов.
Эпизод IV
Собственно перейду от теоретической части, что я излагал на прошлой телеконференции к практике.
1. Поделюсь "тайными" разноплановыми промптами и расскажу для чего они нужны и как работают. Много таких я выкладывал уже в канале - например на днях про усиление ссылок примитивными методами. Я думаю что мои россказни про то как работают промпты и на что они опираются - гораздо ценней самих текстов промптов - ибо вы их сможете легко воссоздать и гораздо улучшить.
2. Обсудим новую книжку DrMax: Доказательное SEO 2026, а именно часть про "Введение в Промптоведение", а еще точней - расскажу кой чего о коконцах, что не вошло в основной текст книжки.
3. Поотвечаю на вопросы. Кстати, засылайте в комментарии к этому посту вопросы (только по теме), что успеете заслать до 12-00 завтра - всё войдет в основной доклад.
Итак, телеконференция состоится завтра:
24 декабря в 17 по Москве
📺 Трансляция на YouTube (жмите "Прислать уведомление", чтобы не пропустить):
https://www.youtube.com/watch?v=jZnUWRMeVOA
🎥 Трансляция в ВК Видео (жмите "Напомнить о трансляции"):
https://vkvideo.ru/video80770238_456241291
📹 Трансляция в Rutube:
https://rutube.ru/video/c96df8cdb33ca09cbdf7579450493318/
Во время самой телеконференции сможете задавать доп вопросы!
Явка строго обязательна! Жду вопросов в комментариях!
Ежели кто то уже прочитал/ внедрил что то из книги - прошу поделиться своим мнением.
До встречи на телеконференции!
Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку
Please open Telegram to view this post
VIEW IN TELEGRAM
1 11👍7❤4🔥2
Через 15 минут стартует телеконференция у Миши Шакина
📺 Трансляция на YouTube :
https://www.youtube.com/watch?v=jZnUWRMeVOA
🎥 Трансляция в ВК Видео :
https://vkvideo.ru/video80770238_456241291
📹 Трансляция в Rutube:
https://rutube.ru/video/c96df8cdb33ca09cbdf7579450493318/
Во время самой телеконференции сможете задавать доп вопросы!
#DrMax
📺 Трансляция на YouTube :
https://www.youtube.com/watch?v=jZnUWRMeVOA
🎥 Трансляция в ВК Видео :
https://vkvideo.ru/video80770238_456241291
📹 Трансляция в Rutube:
https://rutube.ru/video/c96df8cdb33ca09cbdf7579450493318/
Во время самой телеконференции сможете задавать доп вопросы!
#DrMax
👏12 2
За переписывание тайтлов в Гугле отвечает система Goldmine. Она выбирает несколько кандидатов, запихивает их в стек Candidate Pool) и проводит соревнование между ними. Это значит, что если ваш нативный Title проиграл, победителем станет не «случайный текст», а лучший из оставшихся источников: H1, анкоры ссылок, самый визуально крупный элемент. Что интересно, Google анализирует не просто HTML-код, а рендеринг. Если вы выделили фразу стилями (крупный шрифт, жирность, расположение в первом экране), она автоматически получает высокий приоритет в пуле кандидатов, даже если она не обернута в теги заголовков.
Итак:
1. Технические лимиты и структура
Длина: Ориентируйтесь на 600 пикселей (примерно 55–65 символов). Всё, что длиннее, Google с высокой вероятностью обрежет или перепишет, используя данные из H1 или анкоров.
LPO (Left-Side Optimization): Самый важный ключевой запрос - в первые 2–3 слова. Это влияет и на релевантность, и на CTR, так как начало заголовка реже подвергается автоматической замене.
Уникальность: Полные дубли <noscript> внутри сайта ведут к склейке страниц или некорректному выбору канонического URL.
2. Управление «Пулом кандидатов» (алгоритм Goldmine)
Чтобы заставить систему выбрать ваш вариант, необходимо синхронизировать следующие источники:
Синхронизация с H1: Различие между <noscript> и <h1> должно быть минимальным (LSI-синонимы или расширение). Если в Title указано «Купить дрель Bosch», а в H1 - «Инструменты для ремонта», Google заменит Title на H1.
Геометрия страницы (sourceGeometry): Текст, оформленный самым крупным шрифтом (размер в пикселях) на первом экране, автоматически становится сильным кандидатом на заголовок. Убедитесь, что визуально выделенный заголовок совпадает по смыслу с тегом <noscript>.
Анкорный консенсус: Если 80% внутренних ссылок ведут на страницу с анкором «Цена на дрели», а ваш Title - «Купить электроинструмент», Google может проигнорировать тег и вывести анкор. Используйте в перелинковке те ключи, которые вы хотите видеть в выдаче.
3. Коммерческие модификаторы и CTR
Для крупных интернет-магазинов и агрегаторов обязательно использование паттернов, повышающих релевантность интенту:
Гео-привязка: Добавление города (например, «в Москве») обязательно для локального ранжирования.
LSI-модификаторы: «цена», «купить», «в наличии», «каталог», «интернет-магазин», «2025».
Динамические вставки: Для листингов используйте количество товаров или минимальную цену: «Купить смартфоны (142 модели) от 15 000 руб.». Это делает заголовок уникальным и актуальным.
4. Предотвращение автоматической перезаписи
Если Google переписывает ваш Title, проверьте следующие триггеры:
Переспам: Повторение одного и того же ключа более 2 раз.
Название бренда: Если бренд занимает более 20% длины заголовка, Google может его вырезать. Ставьте бренд в конец через разделитель (| или -).
Нерелевантность: Заголовок обещает то, чего нет в первом абзаце или в H1.
Шаблонность: Если у 100 000 страниц сайта заголовок отличается только одним словом, алгоритм сочтет их низкокачественными и начнет генерировать свои варианты на основе контента.
Выводы таковы:
Главный запрос - в начале.
H1 - содержит главный запрос и не противоречит Title.
Визуальный заголовок - на первом экране, самый крупный шрифт, дублирует суть Title.
Длина - до 60 символов (контроль по пикселям).
Анкоры внутренних ссылок - соответствуют целевому запросу страницы.
Микроразметка WebPage - содержит поле name, идентичное Title.
Ваш <noscript> попадет в выдачу только в том случае, если он подтверждается визуальной иерархией страницы и текстами ссылок, ведущих на эту страницу.
Циклы промптоведения тут: https://news.1rj.ru/str/drmaxseo/1123
Мои аудиподкасты по SEO тут: https://news.1rj.ru/str/DrMaxSEOCasts
Наш закрытый SEO -чат - перейдите в комментарии и подайте заявку
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍38❤7👏1😁1