DrMax SEO – Telegram
DrMax SEO
8.78K subscribers
225 photos
3 videos
20 files
449 links
SEO фишки от DrMax.
Всё о продвижении сайтов
#SEO #SMM #Google

Автор: тов. DrMax: @Drmax2SEO
Мои книги: https://drmax.su/download
Download Telegram
🔥 Исследование корреляции между использованием AI-контента и позициями в Google.

Вышел свежий разбор от Ahrefs, основанный на анализе 600,000 URL из топ-20 по 100,000 ключам. Краткие результаты исследования таковы:

Прямой корреляции нет. Коэффициент корреляции между процентом AI в тексте и позицией в SERP составил всего 0.011. Это значит, что Google не пессимизирует и не бустит страницы просто за факт использования AI.

AI-ассистенты доминируют. 86.5% страниц в топе содержат AI-контент в той или иной мере. Чисто человеческий контент – всего 13.5%. Это подтверждает, что AI стал стандартным инструментом, а не чем-то запретным.

Есть слабая тенденция: на первой позиции ранжируются страницы с несколько меньшим процентом AI-контента. Это намекает, что для абсолютного топа требуется уникальная ценность, которую пока сложно сгенерировать полностью автоматически.

Выводы таковы:

Вопрос не в том, «использовать AI или нет», а в том, «как» его использовать для создания контента, превосходящего конкурентов по всем параметрам Helpful Content.

▶️ Необходим глубокий анализ интента и структуры. Не нужно генерировать статьи по промпту «напиши статью о...». Используйте AI для анализа топ-5 SERP.

Пример промпта для LLM: «Проанализируй H2-H6 заголовки, ключевые сущности, типы данных (списки, таблицы, цифры) и вопросы, на которые отвечают эти 3 статьи [вставить тексты конкурентов]. Создай на основе анализа детальную структуру для новой статьи на тему [ваша тема], которая закроет интент полнее».

▶️ Масштабирование E-E-A-T сигналов. Например у вас есть комментарий от эксперта. Поручите AI интегрировать его в статью, оформить как цитату, добавить краткую биографию эксперта и сгенерировать JSON-LD разметку Person и Review (если применимо). Это усиливает E-E-A-T без ручной работы.

▶️ Генерация и оптимизация микроразметки. AI отлично справляется с созданием безошибочного JSON-LD, что напрямую влияет на CTR. Генерируйте по вашему контенту (готовому) разметку FAQPage для всех вопросов-ответов в тексте. Или разметку HowTo для инструкций.

▶️ Персонализация контента в e-commerce. Для интернет-магазинов с тысячами товаров AI – это инструмент для ухода от дублей и повышения релевантности. На основе технических характеристик товара (размер, материал, цвет) AI может сгенерировать сотни уникальных описаний, ориентированных на разные сегменты аудитории («для профессионалов», «для начинающих», «для семей с детьми»).

▶️ Автоматизация внутренней перелинковки. AI может анализировать новый текст и предлагать релевантные анкоры и URL для линковки на уже существующие статьи сайта, усиливая тематический вес кластера.

Пример промпта: «Прочитай эту статью [текст новой статьи]. У меня на сайте есть страницы [URL-1], [URL-2], [URL-3] с темами [Тема-1], [Тема-2], [Тема-3]. Предложи 3-5 мест в тексте, откуда можно поставить релевантные внутренние ссылки с естественными анкорами».

Исследование Ahrefs подтверждает: Google оценивает результат – пользу для юзера, а не метод создания. AI – это мощный инструмент для повышения эффективности, но не замена стратегии. Конкурентное преимущество по-прежнему дают уникальные данные, реальная экспертиза и глубокое понимание интента, которые AI может лишь помочь упаковать и масштабировать.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35👍1164👀1
5️⃣ Изоляция кокона vs. сквозные ссылки: Решаем главный парадокс архитектуры

Продолжаем разговор о о современном SEO. Предыдущие статьи:

1️⃣ Переранжирование и сжатие чанков для доминации в эпоху AI-поиска
2️⃣ Заголовки H1-H6: Программируем контент
3️⃣ Мультимодальный контент: больше чем текст
4️⃣ Семантический кокон 2.0: Проектируем структуру


Поступил вопрос в комментарии (вынесенный в название). Как тут быть?

Представьте архитектуру сайта как два слоя:

Тематический слой: Сеть ваших семантических коконов, связанных между собой контентными ссылками. Здесь царит строгая иерархия и изоляция.

Служебно-трастовый слой: Сквозные навигационные элементы (шапка, футер), которые обеспечивают доступ к E-E-A-T страницам и базовым функциям из любой точки сайта.
Эти слои не конфликтуют, а дополняют друг друга. AI видит и логическую структуру тем, и подтверждение вашей надежности как компании. Игнорирование любого из этих слоев делает вашу SEO-стратегию неполноценной.

Теперь подробней.

Служебные E-E-A-T страницы ("О нас", "Контакты", "Политика конфиденциальности")

Эти страницы не вписываются ни в один тематический кокон, но они критически важны для демонстрации EEAT. Ошибкой является жнлание "приписать" их к какому-то кокону или, наоборот, бояться ставить на них ссылки, чтобы не "размыть вес".

Одно из решений признать их "Трастовым коконом" и использовать сквозные ссылки. Google понимает контекст: Поисковые системы достаточно умны, чтобы отличать контентную (тематическую) ссылку от навигационной (служебной). Ссылки из футера или шапки на "Контакты" не передают тематический вес, они передают вес доверия. Они не ломают кокон, потому что их семантическая роль — другая.

Создайте "трастовый хаб": Страница "О компании" или "Контакты" может служить неофициальным хабом для всех юридических и доверительных страниц. С "Контактов" можно ссылаться на "Реквизиты", "Вакансии", "Пресс-кит".

Спокойно размещайте ссылки на эти страницы в футере. Это стандартная практика, понятная и пользователям, и краулерам. Они образуют свой собственный, нетематический, но обязательный "служебный кокон", который является фундаментом для E-E-A-T всего сайта.


Страницы поддержки (тикет-система, форма обратной связи)

Кажется, что это просто служебный раздел. Но вспоминая патент Google (захват Post-Transactional трафика), мы понимаем, что это супер штука. Ошибкой является оставлять страницу поддержки "сиротой", ссылаясь на нее только из футера.

Решение таково - превратить поддержку в самостоятельный "Постпродажный кокон".

Pillar Page: Основная страница /support или /help — это и есть ваша Pillar Page для этого кокона. Ее интент — "решение проблем с продуктом/услугой".

Child Pages: Ее сателлитами становятся все возможные страницы, отвечающие на вопросы после покупки:

🔵Статьи-инструкции (/support/kak-chistit-kofemashinu-X/)

🔵FAQ по конкретным ошибкам (/support/oshibka-e05/)

🔵Видео-гайды по настройке.

🔵Страницы с документацией и PDF-инструкциями.

Связь с коммерческими коконами такова: Из карточки товара "Кофемашина X" (которая живет в своем коммерческом коконе) вы ставите прямую ссылку на Pillar-страницу поддержки /support или даже на конкретную Child-страницу /support/kak-chistit-kofemashinu-X/. Это не ломает кокон, а создает логичный мост, отражающий полный user journey, о котором и говорится в патенте.

#DrMax #SEO #LLM #SGE
Please open Telegram to view this post
VIEW IN TELEGRAM
👍134😁43🤔1
📕 Учебник "Стратегическое SEO 2025"

Шон Андерсон, автор проекта Hobo, которого я иногда тут цитирую, обновил свой учебник. В нем собраны данные сливов, анализы патентов и все это представлено в простой и ясной форме.

Если вам непонятны какие то моменты, о которых я рассказываю, если есть какие то непонимания, чем современное SEO отличается от того, что было даже пару лет назад - то крайне рекомендую почитать оный труд.

В учебнике есть спорные моменты, да и Шон любит вводить и придумывать новые понятия, тем не менее, он дает базовые знания о том как в целом сегодня работает Гугл.

Для тех, кто не особо дружит с английским - смастерил авто перевод на русский.

В общем, качайте, читайте, развлекайтесь - будет вам чем заняться на выходных ))

Обязательно оставляйте комментарии - там есть что обсудить!

👍 И голосуйте за канал - это важно!

#Drmax #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
9🔥58👍166🆒32
☺️ Подборка свежих SEO материалов от DrMax )))

📕Руководства:

Учебник "Стратегическое SEO 2025" https://news.1rj.ru/str/drmaxseo/887


💡 Современное SEO 2025

1. Переранжирование и сжатие чанков для доминации в эпоху AI-поиска https://news.1rj.ru/str/drmaxseo/865
2. Заголовки H1-H6: Программируем контент https://news.1rj.ru/str/drmaxseo/866
3. Мультимодальный контент: больше чем текст https://news.1rj.ru/str/drmaxseo/869
4. Семантический кокон 2.0: Проектируем структуру https://news.1rj.ru/str/drmaxseo/871


🚨 Проблемы семантических коконов

Часть 1 https://news.1rj.ru/str/drmaxseo/872
Часть 2 https://news.1rj.ru/str/drmaxseo/874
Часть 3 https://news.1rj.ru/str/drmaxseo/875
Часть 4 https://news.1rj.ru/str/drmaxseo/876
Часть 5 https://news.1rj.ru/str/drmaxseo/882


📊 Простые приемы

🔅 Простейший прием роста качества страницы https://news.1rj.ru/str/drmaxseo/733
🔅 Рост качества контента (прием нумер 3) https://news.1rj.ru/str/drmaxseo/777
🔅 Рост качества контента (прием нумер 2) https://news.1rj.ru/str/drmaxseo/765


🚩 Механизмы внимания Гугла

🔅 Механизмы Внимания Google (attention mechanisms) - Часть 1.https://t.me/drmaxseo/743
🔅 Механизмы Внимания Google (attention mechanisms) - Часть 2. https://news.1rj.ru/str/drmaxseo/745
🔅 Стратегия SEO-Оптимизации под Механизмы Внимания Google https://news.1rj.ru/str/drmaxseo/747
🔅 Практическая оптимизация сайта/бизнеса/контента под механизмы внимания. https://news.1rj.ru/str/drmaxseo/746


⚙️ Хитрости SEO

🔅 Взлом Google: Как найти подзапросы для построения коконца https://news.1rj.ru/str/drmaxseo/878
🔅 Local SEO: ТОП стратегии 2025 https://news.1rj.ru/str/drmaxseo/856
🔅 Оптимизация под AI-ответы Google https://news.1rj.ru/str/drmaxseo/850
🔅 Автоматизация Репурпосинга Контента https://news.1rj.ru/str/drmaxseo/846
🔅 Как работает Query Fan-Out (на основе патентов) https://news.1rj.ru/str/drmaxseo/843
🔅 Про размер текстовой портянки https://news.1rj.ru/str/drmaxseo/835
🔅 Анализ PageRank_NS и оптимизация сайта под метрику https://news.1rj.ru/str/drmaxseo/832
🔅 Экспресс-оценка донора для линкбилдинга: Чек-лист https://news.1rj.ru/str/drmaxseo/829
🔅 Как использовать data-nosnippet для управления AI-выдачей https://news.1rj.ru/str/drmaxseo/820
🔅 Как несоответствие типа контента убивает позиции в Google https://news.1rj.ru/str/drmaxseo/807
🔅 E-commerce в ТОП: Глубокая оптимизация изображений для SEO и конверсий https://news.1rj.ru/str/drmaxseo/794
🔅 SEO Стратегия: создание Графа Знаний для сайта https://news.1rj.ru/str/drmaxseo/717


🔍 Теория SEO

🔅 Методы ранжирования Google (слив) https://news.1rj.ru/str/drmaxseo/810
🔅 Topicality (T) - Ключ к Релевантности в Глазах Google https://news.1rj.ru/str/drmaxseo/813
🔅 User-Side Data: Анализ Сигналов Взаимодействия https://news.1rj.ru/str/drmaxseo/814
🔅 Подлинность контента как фактор ранжирования в Гугле https://news.1rj.ru/str/drmaxseo/792
🔅 Введение в Intent-Based SEO. Часть 1. https://news.1rj.ru/str/drmaxseo/688
🔅 Введение в Intent-Based SEO. Часть 2. https://news.1rj.ru/str/drmaxseo/689
🔅 Введение в Intent-Based SEO. Часть 3. https://news.1rj.ru/str/drmaxseo/690
🔅 Введение в Intent-Based SEO. Часть 4. Практика https://news.1rj.ru/str/drmaxseo/694


🔥 Бесплатный софт "SEO Релевантность"

🔅 Обзор SEO Релевантность 2 v.2.1. https://news.1rj.ru/str/drmaxseo/756
🔅 Видео обзор программы SEO Релевантность 2 v.2.1. https://news.1rj.ru/str/drmaxseo/762
🔅 Как оптимизировать контент с помощью софта SEO Релевантность 2.1 https://news.1rj.ru/str/drmaxseo/766
🔅 Про внутреннюю перелинковку https://news.1rj.ru/str/drmaxseo/803
🔅 SEO Релевантность 2.1 и генерация сниппетов https://news.1rj.ru/str/drmaxseo/763

🐸 Хитрости с Лягушкой
Как использовать Screaming Frog SEO Spider для сбора данных https://news.1rj.ru/str/drmaxseo/826

#DrMax #SEO #Подборка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥58👍139👏2
🔥 Новый отчет в Google Search Console

Только что добавили новый отчет "Статистика" в консоль GSC. Прям на глазах )))

Очень полезный раздел - популярность растет / популярность снижается. Для тех страничек у которых кол-во просмотров падает - нужен дополнительный анализ и потом принимать меры.

Нет, раньше в эффективности тоже можно было через сравнения периодов найти падающие странички - но тут все гламурно и с картинкой )))

В общем тестирую, смотрю - пока нравиться, хотя и ничего особо нового нет. Раздел для ленивцев ))

#DrMax #GSC #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
27🔥16👍9😁5
🤫 Продвинутый AI-копирайтинг 2025 (часть 1)

Решил выкатить серию статей по промптоведению, опираясь на собственный опыт использования промптов для генерации качественного контента.

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.

Итак, ключевая проблема при работе с LLM в e-commerce – генерация контента для тысяч однотипных товаров. Стандартный подход "напиши описание для товара X с ключами Y, Z" неизбежно ведет к созданию семантических дублей. Страницы имеют схожую структуру, фразы, интенты. Как результат – каннибализация запросов, размытие релевантности и риск фильтров за малоценный контент.

Делюсь методом, который позволяет генерировать довольно уникальный контент в промышленных масштабах, управляя структурой и смысловыми акцентами.

Технология: Генерация через УТП (Уникальное Торговое Предложение)

Суть в том, чтобы заставить LLM не просто описывать характеристики, а строить весь текст вокруг ключевой выгоды продукта. Это трехэтапный процесс.

Шаг 1. Идентификация и формулировка УТП

Здесь мы заставляем модель проанализировать характеристики и извлечь из них главный пользовательский бенефит.

Промпт:
Проанализируй характеристики товара: [список характеристик]. Определи его ключевое УТП. Что является ядром, главным эмоциональным крючком или уникальной функцией, решающей конкретную задачу клиента? Сформулируй УТП одной фразой.


Пример для электрочайника будет таков:

Характеристики: Smeg KLF03, 1.7 л, 2400 Вт, поддержание температуры 50-100°C, стальной корпус.

Результат (УТП): "Точный контроль температуры для идеального заваривания элитных сортов чая и приготовления детского питания."


Шаг 2. Проектирование УТП-ориентированной структуры

Теперь, имея УТП, мы заставляем LLM создать кастомную структуру (таксономию) текста, где каждый заголовок работает на раскрытие главной идеи.

Промпт:
Основываясь на УТП '[вставить УТП из шага 1]', создай уникальную структуру статьи (заголовки H2-H3). 40% заголовков должны быть нешаблонными, уникальными и неприменимы к иным обзорам и напрямую отражать УТП.


Стандартная таксономия так выглядит: Описание, Характеристики, Внешний вид, Плюсы и минусы.

УТП-структура: "Идеальная температура для каждого напитка: от улуна до пуэра", "Как быстро вскипятить воду для детской смеси?", "Безопасность прежде всего: термоизолированный корпус", "Точность до градуса: обзор панели управления".


Шаг 3. Генерация контента с привязкой к УТП

Промпт:
Напиши текст для карточки товара, используя УТП и структуру ниже.
Ключевое УТП: [УТП из шага 1]
Структура: [заголовки из шага 2]
Требование: Весь текст должен соответствовать УТП. В каждом абзаце логически раскрывай, как та или иная функция помогает достичь главной выгоды, заявленной в УТП."


В итоге:

Рост по long-tail запросам. Вы начинаете ранжироваться по запросам вида "чайник с поддержанием температуры 90 градусов"

Радикальная уникализация. Для ПС это не 50 страниц о "чайниках", а страницы, решающие разные задачи: "чайник для семьи с детьми", "чайник для ценителя чая", "дизайнерский чайник для кухни в стиле лофт".

Улучшение ПФ и конверсии. Контент напрямую отвечает на невысказанный вопрос пользователя, что повышает вовлеченность (Time on Page, Scroll Depth) и ведет к целевому действию.

Внедряйте.

#DrMax #LLM #Промпты
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥8722👏11👀1
🤫 Продвинутый AI-копирайтинг 2025 (часть 2.1)


ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.

Эта статья состоит из 2 частей (особенности Телеграм). Вот первая часть:

Контент-инжиниринг с LLM - часть 1. Теория.

Суть в том, чтобы заставить LLM выступить в роли Chief Content Strategist и провести цикл анализа перед генерацией контента.

Итак, прежде чем создавать контент, необходимо тщательно и скрупулёзно разобраться о чем вообще мы пишем. Для этого необходимо определить онтологическую область создаваемого контента. Выявить все нюансы и особенности этого нового контента. Далее, постепенно расширять онтологическую область, определяя сущности (entities), связанные с этой тематикой. После этого собираем связанные сущности, собираем неявные сущности. Группируем сущности по их доменам.

Пример:
Тема — "выбор CRM-системы для малого бизнеса".
Прямые сущности: Bitrix24, amoCRM, HubSpot, цена, функции, интеграция.
Связанные сущности: Воронка продаж, отдел продаж, IP-телефония, автоматизация, клиентская база.
Неявные сущности: Безопасность данных, обучение сотрудников, масштабируемость, техническая поддержка, ROI.
Домены (группы): Функционал, Стоимость, Бренды, Бизнес-процессы, Технические аспекты.


На втором этапе для всех найденных сущностей определяем поисковые намерения пользователей (интенты). Далее расширяем список найденных интентов связанными (Related) интентами, неявными (Implied) интентами, сравнительными (Comparative) интентами и наконец уточняющими интентами.

Пример для сущности "amoCRM":
Прямой интент: "купить amoCRM", "amoCRM тарифы".
Связанный (Related): "как amoCRM помогает увеличить продажи?".
Сравнительный (Comparative): "что лучше amoCRM или Bitrix24".
Неявный (Implied): "автоматизировать отчеты для отдела продаж" (amoCRM — одно из решений).
Уточняющий (Clarifying): "интеграция amoCRM и Tilda", "настройка digital pipeline в amoCRM".


На третьем этапе проводим анализ и классификацию поисковых интентов. После этого нужно собрать семантическое ядро не только по прямым запросам, но и по связанным, уточняющим, сравнительным и неявным интентам. Для каждого кластера интентов определить 2-3 важнейших ключевых вопроса, на которые пользователь ищет ответ.

Пример кластера "Интеграции":
Ключевой вопрос 1: С какими сервисами можно интегрировать CRM?
Ключевой вопрос 2: Как подключить телефонию к CRM-системе?
Семантика: "crm интеграция с сайтом", "подключить whatsapp к crm", "api для crm".


Для тестирования можно попросить вывести дерево в виде:

Домен сущности ->сущность -> интент пользователя -> важнейшие поисковые фразы этого интента -> полный список поисковых фраз для интента

При реальном написании контента, конечно, такого дерева выводить не нужно.

Вывод: Этот метод позволяет спроектировать материал, который максимально полно охватывает нишу, закрывает все возможные интенты и формирует мощный Topical Authority.

#DrMax #LLM #Промпты
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2011👍3🆒11
🤫 Продвинутый AI-копирайтинг 2025 (часть 2.2)

Контент-инжиниринг с LLM - часть 2. Практика

Давайте внедрим наши теоретические изыскания в практику

Шаг 1: Онтологический анализ (Entity Mining)

Прежде чем писать, мы заставляем LLM определить "вселенную" нашего контента.

Задача для LLM: Разобрать основную тему на фундаментальные сущности (Entities). Определить не только очевидные, но и связанные, и неявные сущности.


Шаг 2: Картирование пользовательских интентов

Для каждой ключевой сущности мы выявляем все возможные поисковые намерения.

Задача для LLM: Расширить список интентов за рамки прямых запросов.


Шаг 3: Формирование семантического ТЗ

На основе анализа сущностей и интентов LLM формирует детализированную структуру и семантическое ядро.

Задача для LLM: Сгруппировать интенты в логические кластеры и для каждого определить ключевые вопросы, на которые должен отвечать контент.


Примерный мастер-промпт для реализации стратегии:

Действуй как Chief Content Strategist и SEO-аналитик. Твоя задача — провести полный онтологический анализ темы и создать основу для максимально полного и авторитетного контента.

Тема: [здесь ваша тема, например, "Выбор и укладка кварцвинила"]

Выполни следующие шаги:
1. Онтологический анализ:
1.1. Определи основную онтологическую область темы.
1.2. Выяви прямые, связанные и неявные сущности (Entities).
1.3.Сгруппируй все сущности по доменам (например: Типы продукта, Производители, Технология укладки, Уход, Стоимость и т.д.).

2.Картирование интентов:
2.1. Для 5-7 ключевых сущностей определи все типы поисковых интентов: Прямые, Связанные (Related), Сравнительные (Comparative), Неявные (Implied) и Уточняющие (Clarifying).

3. Формирование семантического ТЗ:
3.1. На основе интентов сформируй 5-8 основных семантических кластеров для будущего контента.
3.2. Для каждого кластера определи 2-3 главных вопроса, на которые ищет ответ пользователь.
3.3. Для каждого кластера приведи 5-10 примеров ключевых фраз, составляющих его семантическое ядро.

4. Представь результат в виде структурированного отчета.


Попробуйте выполнить этот промпт, прям с кварцвинилом. Полюбуйтесь на офигенно широко расписанные данные.

Естественно, когда мы добавим этот кусок промпта к рабочему промпту по генерации контента, ограничения на количество сущностей / запросов и прочего можно снять, да и выводить (пункт 4) ничего не нужно.

В итоге стратегии вы получаете не просто текст, а blueprint для создания контент-хаба (который можно реализовать и на 1 странице), который:
1. Формирует Topical Authority.
2. Охватывает всю семантику ниши
3. Дает четкое ТЗ для дальнейшего написания контента (генерации), основанное на данных, а не догадках.
4. Создает контент, полностью соответствующий принципам E-E-A-T и Helpful Content Update.

Продолжение следует....

#DrMax #LLM #Промпты
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥4012👍12👏3
🤫 Продвинутый AI-копирайтинг 2025 (часть 3)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.

Самопроверка LLM

Любая LLM, даже самая продвинутая, по своей природе склонна к словоблудию. Она обожает лить "воду": писать общие вступления, бессмысленные связки и пустые выводы. Это мусор, который размывает релевантность и убивает поведенческие.
Фишка, которой мы дополним наш промпт, — это встроенный механизм самопроверки. Мы заставим машину саму препарировать свой текст и вырезать все лишнее.

Каждый абзац контента должен иметь работу. Его работа — закрывать конкретный поисковый интент, который мы определили на этапе анализа. Если у абзаца нет четкой задачи, он не нужен.

На уровне абзаца: После написания фрагмента мы задаем машине вопрос: "Какую проблему пользователя или поисковый интент закрывает этот кусок текста?". Если внятного ответа нет — удаляем.

Пример "воды": "В современном мире выбор холодильника является важным решением для каждой семьи." -> Какой интент? Никакого. Удалить.

Пример полезного абзаца: "Одной из частых проблем холодильников Bosch является намерзание льда на задней стенке, что обычно связано с неисправностью датчика оттайки или утечкой фреона." -> Какой интент? Закрывает неявный интент "намерзает лед холодильник бош причины". Оставить.

На уровне раздела (H2): Каждый раздел должен быть сфокусирован на одном главном кластере интентов и, возможно, паре смежных. Не нужно мешать в одном разделе "цену ремонта" и "самостоятельную диагностику", если это разные пользовательские сценарии.

Итак, примерный промпт для решения такой задачи:

Проведи самопроверку созданного текста по следующим правилам:

Аудит абзацев: Для КАЖДОГО абзаца в тексте четко определи, на какой конкретный поисковый интент (найденный нами ранее) он отвечает.

Правило "Воды": Если абзац не закрывает ни одного явного или неявного интента, он является "водой". Перепиши его, чтобы он стал полезным и отвечал на один из интентов, или УДАЛИ его.

Аудит разделов: Проверь, что каждый раздел (заголовок H2) целенаправленно закрывает один основной кластер интентов и не содержит информации, относящейся к другим кластерам.

После аудита предоставь финальный, вычищенный и концентрированный текст.`


Это и есть тот самый Helpful Content, о котором так любят говорить гуглоиды (врут), только построенный не на их маркетинговых сказках, а на чистой инженерии и логике.

#DrMax #SEO #Промпт #Entities
Please open Telegram to view this post
VIEW IN TELEGRAM
36🔥14👍4
Суровые методы оптимизации под LLM

Друзья, сегодня эти все LLM находятся в "наивной" стадии развития, типа Гугла до 2011 года. Посему получать с них тонны трафика - наша прямая обязанность. Ну и конвертить оный потом.

Сейчас я расскажу пару про пару приемов сего действа.

Нумер 1. Улучшаем собственные проекты

У OpenAI есть свой юзер-агент — ChatGPT-User (равно как и у иных LLM). Берем лягушачий Log Analyzer (или как его там) и вдумчиво смотрим раз в неделю - куда шарился оный бот.

Проводим углубленный аудит именно этих страниц. Насколько хорошо они структурированы? Разбиты ли на логические чанки с четкими заголовками H2-H3? Насколько информационно плотный и сжатый контент в первом абзаце под каждым заголовком? Усиливайте эти страницы мультимодальным контентом (схемы, таблицы, видео), о котором я писал ранее.

Если вы видите, что ChatGPT постоянно сканирует страницы-инструкции, оформленные в виде "Шаг 1, Шаг 2...", а статьи-рассуждения игнорирует, это прямой сигнал к тому, чтобы переформатировать часть вашего контента в пошаговые гайды.

Если вы видите, что ChatGPT-User активно сканирует несколько страниц, посвященных одной узкой теме (например, разные аспекты "настройки CRM"), это значит, что AI идентифицировал ваш сайт как потенциально авторитетный источник по данной теме.

Используйте эти данные для подтверждения или создания семантических коконов. Если AI "щупает" 3-4 страницы по одной теме, это сигнал, что нужно создать еще 5-7 страниц, закрывающих все смежные интенты, и жестко перелинковать их вокруг Pillar Page.

Особое внимание уделите, если бот сканирует страницы поддержки, инструкции по устранению неполадок или разделы F.A.Q. Это золотая жила. Как я уже говорил, патент Google прямо указывает на анализ всего пути пользователя, включая этап после покупки. Максимально усиливаем такие страницы. Добавляем видео-инструкции, схемы, размечаем все с помощью HowTo и FAQPage schema. Это трафик, который ваши конкуренты, сфокусированные только на продажах, упускают.


Нумер 2. Черная оптимизация

Вот смотрите, что делают некоторые ухари. Они смотрят через сервисы, какие сайты / разделы наиболее облюбованы LLM. После этого тырят контент, меняют бренд, ссылки внутренние и выкладывают 10-15-20 копий сайта (текст и структуру не переделывают).

Посколь LLM ничего не знают о трасте, о PR, авторитете (им это и не нужно) - то они пожирают такой контент с новых сайтов с огромным удовольствием. Поскольку донор подобрал удачную схему доминирования в LLM.

Естественно, что эта шляпа не будет ранжироваться в Гугле. Но им это и не надо - они собирают море трафа на таких говносайтах через LLM.

Этот метод работает прямо сейчас. Вполне возможно, что его скоро прикроют. А может и нет. Но прямо сейчас тысячи индусов клепают миллионы таких говносайтов.

Будете ли вы юзать это - дело ваше.

Вот как то так )))))

#DrMax #SEO #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2413😁4🆒11
🤫 Продвинутый AI-копирайтинг 2025 (часть 4)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.


Архитектура "Вопрос-Ответ" и оптимизация под Zero-Click

Какая должна быть архитектура контента? Сейчас мы спроектируем оную. Ключевые принципы таковы:

1. Иерархия на основе интентов.

Заголовки H2: Отвечают на основные, самые жирные интенты. Это как главные главы моей книги (кто не купил в свое время - тот ... ).
Пример: "Как правильно выбрать холодильник для семьи из 4 человек?"

Заголовки H3: Закрывают уточняющие и сравнительные интенты. Это параграфы внутри глав.
Пример: "Система No Frost против капельной: что лучше?", "Какой объем холодильной камеры нужен на 4 человека?"

Неявные интенты: Не требуют отдельных заголовков. Они органично вплетаются в текст соответствующих разделов.
Например, в разделе про No Frost неявно закрываем интент "как часто нужно размораживать холодильник".


2. Каждый заголовок — это поисковый запрос.

Мы должны формулировать заголовки не как повествование ("Особенности системы No Frost"), а как прямой вопрос, который пользователь вбивает в поиск: "В чем плюсы и минусы системы No Frost?". Это напрямую мэтчит текст с запросом.


3. Главный трюк: Формат "Ответ-Выжимка" под каждый заголовок.

Это чистый инжиниринг под Featured Snippet.

Первый абзац (1-2 предложения): Сразу под заголовком идет максимально сжатый, концентрированный, самодостаточный ответ на вопрос из заголовка. Это "дистиллят", который Google может моментально "вырезать" и показать в SERP.

Дальнейший текст: Уже подробно, с примерами и нюансами, раскрывает тему раздела.


4. Борьба с "водой" на уровне структуры.

Задаем жесткие рамки, чтобы LLM не создавала мусор.

1. Ограничение по объему (например >5000 слов).

2. Ограничение по минимальному размеру раздела (не менее 4 предложений).

Эти два правила заставляют модель логически группировать сущности и интенты, а не плодить 100500 микро-разделов по одному абзацу.


Сам мастер-промпт (Шаг "Проектирование Таксономии")

На основе всей ранее собранной информации (сущности, интенты, кластеры) разработай иерархическую таксономию для контента. Руководствуйся правилами:

1. Структура по Интентам: Иерархия H2-H3 должна строиться вокруг карты интентов. H2 закрывают основные интенты. H3 — уточняющие и сравнительные. Неявные интенты вплетай в текст релевантных разделов.

2. Формат "Вопрос-Ответ": Каждый заголовок H2 и H3 должен быть сформулирован как прямой вопрос, который задает пользователь.

3. Оптимизация под Featured Snippet: Сразу под каждым заголовком должен идти первый абзац-выжимка на 1-2 предложения. Это должен быть прямой, самодостаточный и исчерпывающий ответ на вопрос в заголовке. Остальной текст в разделе раскрывает этот ответ в деталях.

4. Контроль "Воды": Общий объем текста должен быть не менее 5000 слов. При этом каждый раздел (текст под заголовком) должен содержать не менее 4 предложений. Группируй связанные темы, чтобы избежать пустых и бессодержательных разделов.

Представь мне готовую таксономию в виде дерева заголовков H2/H3.`


Так мы проектируем контент, который будет эффективен как для пользователя, так и для поисковой системы.


#DrMax #SEO #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
23🔥12👍2
🔄 Поисковые 'Миссии' и 'Агенты'

Вышла интересная статья на SEJ, где разбирают, как гугловские ИИ-агенты и новый подход к поиску меняют выдачу.

Итак, Google теперь оперирует понятием "миссия" (mission) или "путь пользователя" (journey). Их AI-агенты не просто ищут ссылки, они пытаются выполнить задачу. И для этого они используют несколько механизмов.

1. Query Fan-Out

Мы уже говорили ранее про Query Fan-Out, но теперь это выходит на новый уровень. На ваш запрос "как выбрать велосипед для города" AI-агент в фоне сгенерирует десятки синтетических подзапросов: "сравнение шоссейных и гибридных велосипедов", "лучшие бренды городских велосипедов 2025", "нужна ли амортизация на городском велосипеде", "где купить велосипед в Москве недорого". И контент будут оценивать по способности ответить на весь этот веер, а не только на исходный ключ.

Одиночные страницы-ответы отмирают. Выживут только тематические хабы (коконцы 2.0 и 3.0), которые исчерпывающе закрывают всю тему. Отсюда проистекает задача: не просто написать статью, а построить для AI готовую, верифицированную базу знаний по теме.

2. Принудительная триангуляция фактов (Intelligent Grounding)

AI-агент не доверяет одному источнику. Чтобы верифицировать факт (например, "емкость аккумулятора iPhone 16 Pro – 4500 мАч"), он будет искать подтверждение на нескольких авторитетных, независимых ресурсах. Он сопоставляет данные из статей, видео, официальных сайтов, форумов. Если ваш контент уникален, но не подтверждается нигде больше, его могут счесть недостоверным.

Отсюда вывод, что мультимодальность ныне – не опция, а необходимость. Контент должен подкрепляться видеообзором, инфографикой, таблицами с данными. Ссылайтесь на авторитетные первоисточники (статистика, исследования, официальные документы). Работайте над тем, чтобы ваша информация цитировалась на других ресурсах. Это и есть E-E-A-T на машинном уровне.

3. Граф знаний

Вся работа Гугла одержима идеей достоверности данных. Внутри KG есть строгая иерархия доверия:

kc (knowledge collection): факты из проверенных корпусов (государственные реестры, официальные данные). Это высшая каста.

ss (web facts): "Веб-факты", извлеченные из триллионов страниц в интернете. Большинство наших сайтов болтаются здесь.

hw (human curated): Данные, проверенные и одобренные вручную асессорами.

SEO-задача №1: стать для Гугла "kc" или хотя бы "hw" в своей нише. Вы должны доказать свою экспертность настолько, чтобы ваш сайт стал первоисточником. Это достигается не SEO-текстами, а созданием единого, сфокусированного тематического авторитета. Сливы подтвердили наличие siteFocusScore, который напрямую пессимизирует сайты с размытой тематикой.

Фишка: Гугл использует "призрачные сущности" (ghost entities) для реакции на новые события в реальном времени. Это временные объекты в KG, которые позволяют ему ранжировать контент о трендах, еще не прошедших полную верификацию. Если вы работаете в новостной или трендовой нише, ваша задача — максимально быстро создавать контент, который поможет Гуглу "закрепить" эти призрачные сущности, ссылаясь на ваш сайт как на первоисточник.

По сути, Гугл строит децентрализованную базу знаний, а наши сайты — это ее ноды. Те, кто предоставляет наиболее качественные, структурированные и верифицируемые данные, станут доверенными источниками для AI-агентов.

Остальные будут отфильтрованы как информационный шум.

ЗЫ.
там в статье много всего понаписано, я только кусочек разобрал малый


#DrMax #SEO #Google #SGE #AIOverviews
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🔥113
🤫 Продвинутый AI-копирайтинг 2025 (часть 5)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.


Собрать семантику и список сущностей — это необходимый, но недостаточный шаг. Получается плоский список, при этом Google видит не список, он видит многомерную "модель" темы: что с чем связано, что из чего следует, что чему противопоставляется. Чтобы генерировать контент, обладающий реальной тематической глубиной, мы должны научить LLM строить такую же модель.

Принудительная категоризация сущностей (NER-подход)

NER (Named Entity Recognition) — это технология, которую Google использует для извлечения и классификации именованных сущностей из текста. Сейчас мы заставим LLM саму провести этот анализ и структурировать "сырые" сущности по логическим категориям.

Зачем это нужно?

Без категоризации все сущности для LLM лежат в одной куче (на примере велосипеда) : "Shimano", "карбон", "байкпакинг" и "Specialized" — просто набор слов. Категоризация позволяет выявить разные грани темы. Каждая категория — это потенциальный раздел статьи, новый угол подачи, новый кластер запросов. Это прямой путь к созданию исчерпывающего контента, который закроет тему со всех сторон и покажет поисковику ваш запредельный E-E-A-T.

Пример на модели велосипеда: Specialized Diverge

Если мы просто попросим LLM найти сущности, получим кашу. Если же мы заставим ее провести NER-анализ, то получим вот такую структурированную картину:

[Бренд/Производитель]: Specialized
[Тип/Класс]: Гравийный велосипед, грэвел
[Ключевые технологии]: Future Shock 2.0, SWAT Box (встроенный бардачок)
[Материалы]: Карбон FACT 8r, алюминий
[Компоненты/Оборудование]: Shimano GRX, SRAM Apex, дисковые гидравлические тормоза
[Сценарии использования/Назначение]: Байкпакинг, туринг, гонки по гравию (e.g., Unbound Gravel), зимние тренировки
[Конкуренты/Аналоги]: Cannondale Topstone, Canyon Grizl, Merida Silex
[Целевая аудитория]: Велосипедисты-энтузиасты, путешественники, шоссейные гонщики в межсезонье


Мы получили готовую, многомерную структуру для контента. Каждый из этих доменов — это потенциальный H2/H3 заголовок: "Обзор технологий: как работает Future Shock?", "Сравнение с конкурентами: Diverge против Topstone", "Для кого этот велосипед: сценарии использования".

Фрагмент промпта для встраивания (Шаг "Анализ Сущностей")

Проведи анализ извлечения именованных сущностей (Named Entity Recognition) для темы "[Тема статьи]". Твоя задача — не просто найти сущности, а классифицировать их по категориям, чтобы раскрыть все грани темы.

Идентифицируй все возможные сущности, связанные с темой.

Классифицируй каждую сущность. Используй следующие категории, но не ограничивайся ими, а дополняй и адаптируй их под специфику темы: [Бренды/Модели], [Ключевые технологии], [Материалы/Компоненты], [Процессы/Методологии], [Сценарии использования/Назначение], [Проблемы/Решения], [Конкуренты/Альтернативы], [Географические локации], [Персоналии/Эксперты].

Структурируй результат в виде списка, где каждая категория — это заголовок, а под ним — список релевантных сущностей.


Этот анализ станет основой для создания многомерной и исчерпывающей структуры контента. Это переход от плоского "SEO-текста" к созданию многомерного информационного актива. Это то, как поисковые системы видят контент.


#DrMax #SEO #NER #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
19🔥12👍8
Мастер-промпт для генерации экспертного контента

Давайте объединим все наработки по промптам в один промежуточный мастер промпт. Это будет предварительная версия, так как не раскрыты множество граней профессионального промптинга. Но, по крайне мере - вы пощупаете промежуточный результат того, о чем я тут пишу. Сделал для вас максимально универсальный промпт. Вы должны подточить его под вашу тематику.

Роль: Ты — SEO-архитектор и мультидисциплинарный эксперт, специализирующийся на анализе предметных областей и создании исчерпывающего, структурированного контента. Твоя задача — выполнить нижеследующий процесс для создания контента с максимальной тематической авторитетностью.

Цель: Создать фундаментальную статью на тему [указать основную тему статьи].

ЭТАП 1: ГЛУБИННЫЙ АНАЛИЗ ПРЕДМЕТНОЙ ОБЛАСТИ

1.1. Создание онтологической карты через NER-анализ:
Проведи анализ извлечения именованных сущностей (Named Entity Recognition) для указанной темы. Классифицируй все найденные сущности по логическим доменам. Адаптируй и расширяй список категорий в зависимости от специфики темы.
Обязательные категории: [Бренды/Модели/Продукты], [Ключевые технологии/Методики], [Материалы/Компоненты], [Процессы/Действия], [Проблемы/Симптомы/Неисправности], [Решения/Способы устранения], [Сценарии использования/Назначение], [Конкуренты/Альтернативы], [Целевая аудитория], [Географические/Топонимические сущности], [Персоналии/Организации/Эксперты], [Абстрактные понятия/Характеристики].
Результат этапа: Предоставь структурированный список категорий с вложенными в них сущностями.

1.2. Построение исчерпывающей карты интентов:
Для ключевых сущностей, выявленных на шаге 1.1, определи и сгруппируй все возможные типы пользовательских интентов:
Прямые: Запросы, напрямую называющие сущность.
Уточняющие: Поиск деталей, инструкций, характеристик.
Сравнительные: Выбор между двумя и более сущностями.
Неявные (Implied): Запросы о связанных проблемах, причинах или следствиях, где сущность является решением или частью контекста.

ЭТАП 2: ПРОЕКТИРОВАНИЕ АРХИТЕКТУРЫ КОНТЕНТА

2.1. Кластеризация интентов и формулировка ключевых вопросов:
Сгруппируй все найденные интенты в логические кластеры. Для каждого кластера сформулируй 1-3 основных вопроса, на которые пользователь ищет ответ.

2.2. Разработка иерархической таксономии:
На основе кластеров и ключевых вопросов разработай иерархическую структуру (таксономию) статьи.
Требования к структуре:
Иерархия: Заголовки H2 должны соответствовать основным кластерам интентов. Заголовки H3 должны раскрывать уточняющие и сравнительные интенты внутри кластера. Неявные интенты должны быть интегрированы в текст релевантных разделов.
Формат "Вопрос-Ответ": Каждый заголовок H2 и H3 должен быть сформулирован как конкретный поисковый запрос пользователя (вопрос).
Ограничения:
Целевой объем текста: не менее [указать объем, например, 5000] слов.
Минимальный объем раздела (текст под любым заголовком): 4 предложения.
Структура должна быть логичной, без дробления на избыточные, малосодержательные разделы.

ЭТАП 3: ГЕНЕРАЦИЯ И АУДИТ КОНТЕНТА
3.1. Генерация текста:
Напиши текст статьи, строго следуя разработанной на Этапе 2 таксономии.
Требования к генерации:
Оптимизация под Featured Snippet: Непосредственно под каждым заголовком H2/H3 первый абзац должен представлять собой сжатый, самодостаточный и прямой ответ на вопрос из заголовка (1-2 предложения). Дальнейший текст должен детально раскрывать этот ответ.
Насыщение сущностями: Органично используй в тексте релевантные сущности из карты, созданной на Этапе 1.
🔥30👍6👏2🆒1
3.2. Принудительный самоаудит:
После генерации черновика выполни его обязательную пошаговую самопроверку перед финальной выдачей.
Аудит на уровне абзацев:
Процесс: Последовательно проанализируй каждый абзац.
Критерий: "Какой конкретный поисковый интент (из шага 1.2) закрывает этот абзац?"
Действие: Если четкого ответа нет, абзац считается "водой". Он должен быть полностью переписан для ответа на конкретный интент или безжалостно удален.
Аудит на уровне разделов:
Процесс: Проанализируй каждый раздел (текст под заголовком H2/H3).
Критерий: "Закрывает ли раздел свой основной интент, а также связанные с ним вторичные (уточняющие, сравнительные, неявные) интенты?"
Действие: Если раздел не является исчерпывающим, дополни его необходимой информацией и фактами.

ЭТАП 4: ФИНАЛЬНЫЙ РЕЗУЛЬТАТ
Предоставь ТОЛЬКО финальный, полностью готовый и прошедший все этапы аудита текст статьи. Вывод промежуточных этапов анализа не требуется.

#DrMax #Промпт #LLM
🔥45👍7
Про промтоведение

Если кто то читает мои посты вдумчиво, то все что я рассказываю сейчас о промптах - я талдычил в том или ином виде последний год. С примерами, максимально подробными.

Вот возьмите, последний промпт-недоделку (в котором я собрал все наработки, расписанные ранее в "уроках") и посмотрите таперича пост от 1 апреля , где показал наработки по механизмам внимания.

Если сравните промпт с тем пластом информации что я выкатил 1 апреля (над чем многие шутили) - то увидите в какую сторону дальше будет развиваться промпт.

В принципе, я мог бы тупо выкатить свой готовый рабочий промпт (но не сделаю этого) - мол разбирайтесь с оным сами. Но без пояснений что за что в нем цепляется - разобраться будет трудновато.

Человеков, которые смотрят на промпт -недоделку и осуждают его - ну что сказать... Ничего говорить не буду.

Еще раз повторюсь - почитайте наработки по ссылке ( и несколько постов про механизмы внимания выложенные раньше) - это примерно к этому мы и должны были придти в ходе всех этих "уроков" по промптоведению.

И да, промпт у меня узко заточен под мою нишу
И да, промпт у меня отрисовывает правильную и полезную инфографику (как простой пример)
и да, промпт у меня не генерирует только структуру вопрос/ ответ - а есть впечатляющее введение, где есть несколько "крючков"-хуков, цепляющих посетителей и по сути контент являетсмя техникой перевернутой пирамиды - наиболее правильной для читателей
и да, промпт у меня генерирует многомерную шему, охватывающие все аспекты, начиная от производителя с полным описанием оного, дистрибьютора, всякие полезные херовины товаров, а не только FAQ
и да, промпт фигачит дп материалы в контент типа сравнительных таблиц, прос анд конс и т.д.

буду ли я еще писать про промптоведение - фиг знает. Что то довольно утомительно пояснять одно и то же.

#DrMax
👍37🔥2116
🤫 Продвинутый AI-копирайтинг 2025 (часть 6)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному. Например, мои рабочие промты состоят из 3-5 этапов, в каждом их которых 15-30 пунктов.


Интегрируем в промпт блок контроля качества. Каждое правило здесь — это директива, направленная на устранение конкретного недостатка ИИ-генерации и усиление сигналов качества для поисковых систем. Список можно и нужно дополнять и изменять, исходя из вашей тематики и желаемой структуры контента.


3.4. Правила и ограничения к качеству контента:

3.4.1. Максимальная салиентность сущностей: Текст должен иметь максимальную семантическую плотность. Используй все сущности, выявленные на Этапе 1, их синонимы и связи. Они должны присутствовать в заголовках, подзаголовках и тексте для максимального охвата предметной области. Не допускай отбрасывания или игнорирования сущностей.

3.4.2. Абсолютная достоверность: Используй только проверенную, фактическую информацию. Исключи любые предположения, допущения и гипотезы. Если данные неизвестны или не могут быть проверены — не упоминай их.

3.4.3. Принципы E-E-A-T и экспертность: Контент должен демонстрировать глубокое понимание темы. Демонстрируй реальный опыт (Experience), экспертизу (Expertise), авторитетность (Authoritativeness) и надежность (Trustworthiness). Внедряй факты, цифры, результаты исследований.

3.4.4. Ясность языка и тональность (Monosemanticity): Используй однозначный, профессиональный, сдержанный и объективный тон. Избегай двусмысленности, разговорного стиля и излишне сложного жаргона. Пиши для умного, но не вовлеченного в тему пользователя.

3.4.5. Полное исключение "воды" (fluff): Удаляй любые общие фразы, не несущие смысловой нагрузки. Каждый абзац должен нести конкретную информацию и отвечать на какой-либо интент.

3.4.6. Запрет на ИИ-клише: Не используй фразы, характерные для ИИ-генерации (например: "в заключение", "таким образом", "стоит отметить", "важно понимать", "в современном быстро меняющемся мире", "является важным аспектом" и т.п.).

3.4.7. Оригинальность и фокус на уникальности: Избегай стандартных, шаблонных фраз, типичных для обзоров. Сфокусируйся на уникальных аспектах, неочевидных деталях и глубоком анализе. Контент должен представлять собой оригинальную мысль, а не пересказ общедоступной информации.

3.4.8. Запрет на рекламу и CTA: Полностью исключи призывы к действию, рекламные формулировки, оценочные суждения ("превосходный", "лучший") и любые попытки продать товар или услугу.

3.4.9. Форматирование списков: Избегай маркированных и нумерованных списков. Преобразуй их в перечисления в рамках естественного языка, через запятую, в одном или нескольких предложениях.


#DrMax #SEO #NER #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥24126👍3💯1
🤫 Продвинутый AI-копирайтинг 2025 (часть 7)

ВАЖНО: Все промпты сознательно упрощены. Я хочу передать идею, а не способ её реализации. Потому вдумчиво относитесь к написанному.

Теперь интегрируем в промпт две концепции: условную логику для построения адаптивной структуры и специализацию через смену ролей для повышения качества выполнения каждого этапа.

1. Ветвление Промптов (Prompt Branching)

Назначение: Создание динамических, контекстно-зависимых структур контента. Вместо использования одного статичного шаблона для всех случаев, модель адаптирует архитектуру статьи на основе данных, полученных на начальных этапах анализа. Это позволяет одному мастер-промпту генерировать высокорелевантный контент для разных подтипов одной и той же сущности.

Механизм: В промпт встраивается логическая конструкция ЕСЛИ-ТО, которая срабатывает, например, на этапе проектирования таксономии. Условие (ЕСЛИ) основывается на результатах NER-анализа (Этап 1), в частности, на определении типа сущности. Действие (ТО) заключается во включении в структуру статьи предопределенных, специфичных для данного типа разделов.


Пример реализации для темы "Обзор велосипеда":

Анализ (Этап 1): Модель анализирует сущность "Trek Madone" и определяет ее категорию [Тип/Класс] как "Шоссейный велосипед".

Ветвление (Этап 2): Срабатывает условие ЕСЛИ [Тип/Класс] == "Шоссейный велосипед".

Результат: В структуру статьи автоматически добавляются разделы, релевантные именно для шоссейных велосипедов.


Пример промта: Ветвление по подразделам

Примени логику условного ветвления на основе категории [Тип/Класс] сущности, определенной на Этапе 1.

ЕСЛИ [Тип/Класс] == "Шоссейный велосипед", ТО обязательно включи в таксономию подразделы:
"Анализ аэродинамики: профили труб и интеграция компонентов"
"Жесткость кареточного узла и рамы: эффективность передачи мощности"
"Расчет трансмиссии: соответствие передаточных чисел скоростным режимам"

ЕСЛИ [Тип/Класс] == "Горный велосипед (двухподвес)", ТО обязательно включи в таксономию подразделы:
"Кинематика подвески: анализ работы рычагов и anti-squat эффект"
"Прогрессивная геометрия: влияние угла рулевой и reach на управляемость"
"Настройка амортизаторов: сэг, отскок, низко- и высокоскоростная компрессия"

ЕСЛИ [Тип/Класс] == "Городской велосипед (комьютер)", ТО обязательно включи в таксономию подразделы:
"Эргономика и комфорт: геометрия посадки для ежедневных поездок"
"Практичность и функциональность: крепления для багажника, крыльев, освещение"
"Надежность и низкие эксплуатационные расходы: планетарные втулки, защита цепи"



Ветвление с переходом (GOTO-логика)

Этот вариант используется для кардинально разных форматов контента под одной темой.

Проанализируй определенный на Этапе 1 интент.

ЕСЛИ основной интент == "сравнение моделей", ТО перейди к Шагу 2.3 (Проектирование сравнительной таблицы) и построй структуру вокруг прямого сопоставления характеристик [Модель 1] vs [Модель 2].

ИНАЧЕ, продолжи выполнение Шага 2.2.`



2. Специализация через динамическую смену ролей

Попробуем повысить качество выполнения каждого этапа за счет фокусной специализации модели. Это эмулирует рабочий процесс команды из нескольких специалистов.

Механизм: Каждый этап промпта начинается с явного назначения новой роли.

ЭТАП 1: Роль "Дата-аналитик / Семантолог". Задача: объективный сбор и структурирование данных (NER, интенты) без генерации креатива.

ЭТАП 2: Роль "Информационный архитектор". Задача: проектирование логической и эффективной структуры контента на основе данных из Этапа 1, включая применение условного ветвления.

ЭТАП 3: Роль "Отраслевой эксперт-писатель". Задача: генерация текста, наполнение спроектированной структуры глубоким и фактическим контентом.

ЭТАП 3 (Аудит): Роль "Редактор-критик / Факт-чекер". Задача: аудит сгенерированного текста на соответствие всем правилам качества, логики и достоверности.


#DrMax #SEO #NER #Промпт #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1382😁1🆒1