РУЧНАЯ НАСТРОЙКА СОГЛАСИЯ ПРИНЯТИЯ КУКИ (Google Consent Mode v2)
Продолжаю внедрение обязательных страниц, один из пунктов политика принятия куки, поэтому еще нужно настроить согласие в Google Analytics.
У клиентского сайта уже был блок принятия куки, но он не был подключен к Аналитиксу, поэтому пришлось все настраивать вручную, а не через плагин.
Я впервые настраивал вручную, поэтому попросил Клода помочь.
В конце работы, попросил его составить алгоритм работы, без ошибок, с которыми мы столкнулись.
Добавьте этот промт в нейросеть и попросите следовать шаг за шагом, предоставляя свои данные.
Продолжаю внедрение обязательных страниц, один из пунктов политика принятия куки, поэтому еще нужно настроить согласие в Google Analytics.
У клиентского сайта уже был блок принятия куки, но он не был подключен к Аналитиксу, поэтому пришлось все настраивать вручную, а не через плагин.
Я впервые настраивал вручную, поэтому попросил Клода помочь.
В конце работы, попросил его составить алгоритм работы, без ошибок, с которыми мы столкнулись.
Добавьте этот промт в нейросеть и попросите следовать шаг за шагом, предоставляя свои данные.
Промт для быстрой настройки на любом сайте с Google Tag Manager
_________
Предварительные требования:
- Установлен Google Tag Manager на сайте
- Есть доступ к редактированию шаблонов/HTML кода
- Настроен Google Analytics 4
_________
ШАГ 1: Подготовка Google Tag Manager
1.1 Включите Consent Overview
GTM → Admin → Container Settings → Additional Settings →
☑️ Enable consent overview → Save
_________
ШАГ 2: Создание тегов Consent Mode
2.1 Установите шаблон Simo Ahava
GTM → Tags → New → Tag Configuration →
"Discover more tag types in the community template gallery" →
Поиск: "Consent Mode" → Выберите "Consent Mode (Google + Microsoft tags)"
автор: gtm-templates-simo-ahava ✅ → Add to workspace
2.2 Создайте тег Default Settings
Название: "Consent Mode - Default"
Тип: Consent Mode (Google + Microsoft tags)
Настройки:
- Consent Command: Default
- Wait for Update: 500
- Include EEA regions: ☑️ (если есть пользователи из ЕС)
- Regions: all
Consent Settings (все denied):
- ad_storage: denied
- analytics_storage: denied
- ad_user_data: denied
- ad_personalization: denied
- personalization_storage: denied
Other Settings:
☑️ Push dataLayer Event
Триггер: Consent Initialization - All Pages
2.3 Создайте тег Accept All
Название: "Consent Mode - Accept All"
Тип: Consent Mode (Google + Microsoft tags)
Настройки:
- Consent Command: Update
- Wait for Update: 0
- Regions: all
Consent Settings (все granted):
- ad_storage: granted
- analytics_storage: granted
- ad_user_data: granted
- ad_personalization: granted
- personalization_storage: granted
Other Settings:
☑️ Push dataLayer Event
Триггер: (создадим позже)
2.4 Создайте тег Reject Optional
Название: "Consent Mode - Reject Optional"
Тип: Consent Mode (Google + Microsoft tags)
Настройки:
- Consent Command: Update
- Wait for Update: 0
- Regions: all
Consent Settings:
- ad_storage: denied
- analytics_storage: denied
- ad_user_data: denied
- ad_personalization: denied
- personalization_storage: denied
Other Settings:
☑️ Push dataLayer Event
Триггер: (создадим позже)
_________
ШАГ 3: Создание триггеров
3.1 Триггер для Accept All
Triggers → New
Название: "Consent Update - Accept All"
Тип: Custom Event
Event name: consent_accept_all
3.2 Триггер для Reject Optional
Triggers → New
Название: "Consent Update - Reject Optional"
Тип: Custom Event
Event name: consent_reject_optional
3.3 Привязка триггеров к тегам
"Consent Mode - Accept All" → Triggering → "Consent Update - Accept All"
"Consent Mode - Reject Optional" → Triggering → "Consent Update - Reject Optional"
_________
ШАГ 4: Модификация шаблона сайта
4.1 Найдите существующий баннер согласия
Обычно содержит текст о cookies/персональных данных и кнопку согласия
4.2 Структура HTML для адаптации
Базовая структура:
<div class="cookie-banner">
<div class="cookie-text">
[Текст о cookies и персональных данных]
<a href="/privacy">политика конфиденциальности</a>
</div>
<div class="cookie-buttons">
<!-- Новая кнопка отказа -->
<button onclick="[JS_CODE_REJECT]">Только необходимые</button>
<!-- Оригинальная кнопка согласия -->
<button onclick="[JS_CODE_ACCEPT]">Принять все</button>
</div>
</div>
4.3 JavaScript код для кнопок
Универсальный код (адаптировать под движок шаблонов):
Для обычного HTML:
onclick="window.dataLayer=window.dataLayer||[];window.dataLayer.push({'event':'consent_accept_all'});"
Для Smarty/Webasyst:
onclick="{literal}window.dataLayer=window.dataLayer||[];window.dataLayer.push({'event':'consent_accept_all'});{/literal}"
Для Twig:
onclick="{{ 'window.dataLayer=window.dataLayer||[];window.dataLayer.push({\'event\':\'consent_accept_all\'});' }}"
4.4 События для кнопок
// Кнопка "Принять все"
onclick="[WRAPPER]window.dataLayer=window.dataLayer||[];window.dataLayer.push({'event':'consent_accept_all'});[/WRAPPER]"
// Кнопка "Только необходимые"
onclick="[WRAPPER]window.dataLayer=window.dataLayer||[];window.dataLayer.push({'event':'consent_reject_optional'});[/WRAPPER]"
Где [WRAPPER] - обертка для движка шаблонов ({literal}{/literal}, {{ }}, и т.д.)
4.5 Обновленный текст баннера
Мы используем cookies для работы сайта, аналитики и маркетинга.
Вы можете принять все или оставить только необходимые для функционирования сайта.
Подробнее в <a href="/privacy">политике конфиденциальности</a>.
_____________________________
ШАГ 5: Интеграция с существующей системой cookies
5.1 Если есть система управления cookies
Найдите обработчик кнопок (обычно JavaScript функция) и добавьте туда:
// В существующую функцию обработки согласия
function handleCookieConsent(action) {
// Существующий код...
// Добавить отправку в GTM
window.dataLayer = window.dataLayer || [];
if (action === 'accept') {
window.dataLayer.push({'event': 'consent_accept_all'});
} else if (action === 'reject') {
window.dataLayer.push({'event': 'consent_reject_optional'});
}
}
5.2 Проверка сохраненного согласия (GTM тег)
Создать тег: "Consent Mode - Saved Check"
Тип: Custom HTML
<noscript>
window.dataLayer = window.dataLayer || [];
function getCookie(name) {
var value = '; ' + document.cookie;
var parts = value.split('; ' + name + '=');
if (parts.length === 2) {
return parts.pop().split(';').shift();
}
return null;
}
function checkSavedConsent() {
var consent = getCookie('[COOKIE_NAME]'); // Заменить на реальное имя cookie
if (consent === '[ACCEPT_VALUE]') { // Заменить на значение согласия
window.dataLayer.push({'event': 'consent_accept_all'});
} else if (consent === '[REJECT_VALUE]') { // Заменить на значение отказа
window.dataLayer.push({'event': 'consent_reject_optional'});
}
}
setTimeout(checkSavedConsent, 300);
</noscript>
Триггер: All Pages
_____________________________
ШАГ 6: Проверка настройки
6.1 GTM Preview Mode
GTM → Preview → Введите URL сайта → Connect
6.2 Проверочный чек-лист
✅ Tag Assistant показывает событие "Consent" при загрузке
✅ Тег "Consent Mode - Default" срабатывает первым
✅ При клике "Принять все" → событие "consent_accept_all"
✅ При клике "Только необходимые" → событие "consent_reject_optional"
✅ Статусы согласия меняются в Tab "Consent"
✅ В консоли нет JavaScript ошибок
6.3 Проверка в Google Analytics 4
GA4 → Admin → Data collection and modification → Consent settings
✅ Status: "Хорошо" или "Excellent"
✅ "В этом свойстве проблем не обнаружено"
_____________________________
ШАГ 7: Публикация и мониторинг
7.1 Публикация GTM
GTM → Submit → Version name: "Consent Mode v2 Setup" → Publish
7.2 Мониторинг (через 24-48 часов)
GA4 → Consent settings → Проверить Consent Signal Rating
Цель: получить рейтинг "Excellent"
_____________________________
🔧 Адаптация под разные системы:
WordPress: Править header.php или использовать хуки
OpenCart: Модификация header.twig
Magento: Правка app/design/frontend/[theme]/Magento_Theme/templates/
CS-Cart: Файлы в design/themes/[theme]/templates/
Webasyst: Shop-Script шаблоны в wa-apps/shop/themes/
Битрикс: Компонент в /bitrix/templates/[template]/
_____________________________
⚠️ Важные моменты:
1. Движки шаблонов: Оборачивайте JavaScript в соответствующие теги
2. Порядок загрузки: Default тег должен срабатывать первым
3. События: Точно соблюдайте названия consent_accept_all и consent_reject_optional
4. ES5 совместимость: В GTM используйте только var, никаких const/let
5. Проверка через 48 часов: GA4 нужно время для обработки сигналов
_____________________________
🎯 Результат: Полностью настроенный Google Consent Mode v2 с соблюдением GDPR/DMA требований и сохранением пользовательского дизайна
Telegram
Сущность SEO
ПОЛНЫЙ СПИСОК СТРАНИЦ ДЛЯ МАКСИМАЛЬНОГО ДОВЕРИЯ САЙТА (Составили вместе с Клодом)
Объединенные требования: Украинское законодательство + Google E-E-A-T + международные стандарты доверия 2025
---
🚨 КРИТИЧЕСКИ ОБЯЗАТЕЛЬНЫЕ (ЮРИДИЧЕСКИЕ)
Защита персональных…
Объединенные требования: Украинское законодательство + Google E-E-A-T + международные стандарты доверия 2025
---
🚨 КРИТИЧЕСКИ ОБЯЗАТЕЛЬНЫЕ (ЮРИДИЧЕСКИЕ)
Защита персональных…
Услуга по накрутке поведенческих факторов в Google полностью восстановлена 🥳
Как оказалось, теперь легко перекрутить общий CTR хоста (сайта, а не страниц), из-за этого рост позиций останавливался (раньше такого не было), пессимизации нет.
Проблема была на сайтах с трафиком из органики Google 5-20 пользователей в сутки, я ограничил ежесуточное количество ботов до 100% реального трафика и рост пошел.
Естественно, за меньшее количество ботов, я не буду брать полную стоимость.
Пока не понятно, что делать с сезонными товарами, тестирую.
АПДЕЙТ.
Месяц накручивал сайт с искусственными елками, с нулевой посещаемостью, результатов нет.
Но уверен на 90%, если взять интернет-магазин с трафиком, с разными товарами, а не только с елками, то результат будет.
Немного подробнее про услугу:
• 100% возврат денег, если нет или очень слабые результаты, при условии, что с сайтом заказчика не было проблем;
• Скрипт написал с нуля (не продаю);
• Регион продвижения - только Украина;
• Кручу на реальных устройствах, на ноутбуках и мини-компьютерах;
• На данный момент у меня около 60 устройств, но ежемесячно покупаю новые, например, уже в этом месяце заказал 7 штук;
• Для такого количества ботов, подходят сайты с трафиком из органического поиска Google до 500 пользователей в сутки, остальные источники не учитываются;
• Первые результаты - через 3-6 недель, зависит от тематики и трафика сайта;
• Для старта работ, количество ключевых фраз у сайта в топ-20 должно быть минимум 100 штук, но лучше больше, 300-400 штук (могу выгрузить из Serpstat);
• Тематика ключевых фраз должна быть схожей, например, подойдут для одновременной работы планшеты и мобильные телефоны, но одновременно телефоны и пошив одежды работать не будет;
• Такого количества фраз обычно хватает на 2-3, максимум 4 месяца, за это время почти все фразы выходят в топ, далее нужно расширять или менять семантику на другие страницы\категории сайта;
• Фиксированная стоимость в месяц в этом году - 3000грн. или 2грн. за 1 переход (перерасчет буду делать в следующем году, цена будет зависеть от количества ботов);
• Важно! Не работаю с черными и серыми тематиками.
Результаты добавил в комментарии 👇
Как оказалось, теперь легко перекрутить общий CTR хоста (сайта, а не страниц), из-за этого рост позиций останавливался (раньше такого не было), пессимизации нет.
Проблема была на сайтах с трафиком из органики Google 5-20 пользователей в сутки, я ограничил ежесуточное количество ботов до 100% реального трафика и рост пошел.
Естественно, за меньшее количество ботов, я не буду брать полную стоимость.
АПДЕЙТ.
Месяц накручивал сайт с искусственными елками, с нулевой посещаемостью, результатов нет.
Но уверен на 90%, если взять интернет-магазин с трафиком, с разными товарами, а не только с елками, то результат будет.
Немного подробнее про услугу:
• 100% возврат денег, если нет или очень слабые результаты, при условии, что с сайтом заказчика не было проблем;
• Скрипт написал с нуля (не продаю);
• Регион продвижения - только Украина;
• Кручу на реальных устройствах, на ноутбуках и мини-компьютерах;
• На данный момент у меня около 60 устройств, но ежемесячно покупаю новые, например, уже в этом месяце заказал 7 штук;
• Для такого количества ботов, подходят сайты с трафиком из органического поиска Google до 500 пользователей в сутки, остальные источники не учитываются;
• Первые результаты - через 3-6 недель, зависит от тематики и трафика сайта;
• Для старта работ, количество ключевых фраз у сайта в топ-20 должно быть минимум 100 штук, но лучше больше, 300-400 штук (могу выгрузить из Serpstat);
• Тематика ключевых фраз должна быть схожей, например, подойдут для одновременной работы планшеты и мобильные телефоны, но одновременно телефоны и пошив одежды работать не будет;
• Такого количества фраз обычно хватает на 2-3, максимум 4 месяца, за это время почти все фразы выходят в топ, далее нужно расширять или менять семантику на другие страницы\категории сайта;
• Фиксированная стоимость в месяц в этом году - 3000грн. или 2грн. за 1 переход (перерасчет буду делать в следующем году, цена будет зависеть от количества ботов);
• Важно! Не работаю с черными и серыми тематиками.
Результаты добавил в комментарии 👇
Сущность SEO pinned «Услуга по накрутке поведенческих факторов в Google полностью восстановлена 🥳 Как оказалось, теперь легко перекрутить общий CTR хоста (сайта, а не страниц), из-за этого рост позиций останавливался (раньше такого не было), пессимизации нет. Проблема была на…»
Новости про накрутку ПФ
• Запустил отдельный Telegram-канал с результатами, и с частыми вопросами - https://news.1rj.ru/str/pf_google_ua
Там же новые цены на 2026 год, в этом году, как и обещал, цены не меняю.
• Потратил все деньги на новое оборудование)
Вчера уже было 101 устройство, в этом месяце еще добавится несколько штук.
Пока остановлюсь на таком количестве, проверю, будет ли хватать для текущих клиентов.
Постараюсь не забрасывать этот Telegram-канал и публиковать что-то простое, но чаще, новостей про ПФ здесь не будет, ну или почти не будет)
• Запустил отдельный Telegram-канал с результатами, и с частыми вопросами - https://news.1rj.ru/str/pf_google_ua
Там же новые цены на 2026 год, в этом году, как и обещал, цены не меняю.
• Потратил все деньги на новое оборудование)
Вчера уже было 101 устройство, в этом месяце еще добавится несколько штук.
Пока остановлюсь на таком количестве, проверю, будет ли хватать для текущих клиентов.
Постараюсь не забрасывать этот Telegram-канал и публиковать что-то простое, но чаще, новостей про ПФ здесь не будет, ну или почти не будет)
❤2
Рекомендую попробовать DWService, тем кто удаленно помогает с компьютером бабушкам, мамам, девушкам, настраивается легко и 1 раз, но для одноразовой помощи проще использовать что-то другое, например, Teamviewer.
Я не знал, что для получения сообщений в Telegram-бот, не нужен свой сервер, достаточно отправить POST-запрос, мне подсказал Клод, когда помогал с этой задачей.
Это открывает кучу возможностей, например, можно настроить клиентам бота для получения информации по новым заказам, технически это не сложно.
Мониторинг работы сайтов, я попросил Клода написать такой скрипт, добавлю его в комментарии.
Я не знал, что для получения сообщений в Telegram-бот, не нужен свой сервер, достаточно отправить POST-запрос, мне подсказал Клод, когда помогал с этой задачей.
Это открывает кучу возможностей, например, можно настроить клиентам бота для получения информации по новым заказам, технически это не сложно.
Мониторинг работы сайтов, я попросил Клода написать такой скрипт, добавлю его в комментарии.
Forwarded from Накрутка ПФ Google Украина | SEO
32. Как управляете мини-компьютерами?
Немного полезной информации)
Я управляю удаленно всеми устройствами через бесплатный сервис - https://www.dwservice.net/ru/home.html
Идеально подходит под эту задачу, удобнее и функциональнее чем тот же Teamviewer.
Всю необходимую информацию компьютеры присылают в мой Telegram-бот, оказывается для этого даже не нужен сервер, достаточно отправить post-запрос на адрес "https://api.telegram.org/bot{BOT_TOKEN}/sendMessage".
Немного полезной информации)
Я управляю удаленно всеми устройствами через бесплатный сервис - https://www.dwservice.net/ru/home.html
Идеально подходит под эту задачу, удобнее и функциональнее чем тот же Teamviewer.
Всю необходимую информацию компьютеры присылают в мой Telegram-бот, оказывается для этого даже не нужен сервер, достаточно отправить post-запрос на адрес "https://api.telegram.org/bot{BOT_TOKEN}/sendMessage".
www.dwservice.net
DWService - удаленный доступ, удаленное администрирование, удаленная поддержка
DWService предлагает сервис, который позволяет получить доступ к удаленным системам с помощью обычного веб-браузера.
Промт для естественного перевода с английского на русский язык
Вы удивитесь, насколько отличается качество перевода, особенно это заметно на сложных, технических текстах.
Проверьте, переведите эту статью в браузере, а затеем переведите этим промтом - https://www.hobo-web.co.uk/seo-audit-framework/
Вы удивитесь, насколько отличается качество перевода, особенно это заметно на сложных, технических текстах.
Проверьте, переведите эту статью в браузере, а затеем переведите этим промтом - https://www.hobo-web.co.uk/seo-audit-framework/
Переведи текст на естественный русский язык.
ГЛАВНОЕ ПРАВИЛО: текст должен читаться так, как будто его изначально написал носитель русского языка.
ОБЯЗАТЕЛЬНЫЕ ПРИНЦИПЫ:
1. Упрощай сложные конструкции:
- Длинные английские предложения разбивай на несколько коротких русских
- Конструкции с множественными "кто/который/что" перестраивай в простые предложения
- Избегай калек с английского синтаксиса
2. Перестраивай, а не переводи:
- Не сохраняй английский порядок слов
- Меняй структуру предложений под русскую речь
- Двойные отрицания делай позитивными утверждениями где возможно
3. Используй живую русскую речь:
- Идиоматические выражения вместо буквальных переводов
- Привычные русские обороты ("не опускайте руки" вместо "не думайте, что всё кончено")
- Заменяй англицизмы русскими эквивалентами
4. ПРОВЕРЯЙ КАЖДОЕ ПРЕДЛОЖЕНИЕ:
- После перевода спрашивай: "Сказал бы так русский человек в живой речи?"
- Если при чтении "спотыкаешься" — упрощай
- Особенно внимательно проверяй цитаты и длинные предложения
5. Сохраняй смысл, но адаптируй форму:
- Техническая точность + естественность звучания
- Стиль должен быть таким, каким пишут русские авторы в этой сфере
Hobo
The Definitive Guide to SEO Audits post-Google Leak - Hobo
Explore the first evidence-based SEO audit framework post-Google leak. This definitive guide maps E-E-A-T to leaked Google attributes, creating an actionable strategy aligned with Google's core engineering principles.
Про последний текстовый алгоритм
Уже прошел почти год с момента смены текстового алгоритма в Google (декабрь 2024 года, если не ошибаюсь), хотел про него рассказать, но все не было времени, даже не знаю, будет ли он актуален, но напишу.
⚠️ Важно! Дальше речь идет про SEO-тесты для категорийных страниц интернет-магазинов.
Что изменилось:
1. Интент.
Если раньше Google было все равно, какой интент текста, важно было наличие ключевых слов и LSI\сущностей, то сейчас работают только тексты с коммерческим интентом.
Я своему копирайтеру объяснил так: представь, что ты работаешь продавцом-консультантом в торговом центре, к тебе пришел покупатель, ты же не будешь ему 5 минут рассказывать историю создания этих товаров, его интересуют преимущества товара, на что обратить внимание при выборе, как хранить\ухаживать\обслуживать, преимущества магазина, почему покупают у нас, призывать к действию.
Содержание статьи получаю в Gemini этим промтом:
2. Объем текста.
Раньше в конкурентных тематиках объемы моих статей доходили до 8000-10 000-12 000 символов, сейчас же максимальный объем статей до 4000 символов, в 80-90% случаев всего на 2000 символов.
При создании заданий для копирайтера, которое описывал здесь - https://news.1rj.ru/str/SEO_entity/56, я собираю LSI\сущности у конкурентов и объемы их SEO-текстов и на основе этих данных, в задании указываю объем будущего текста.
Модуль для отделения SEO-текстов от остального контента использую Newspaper3k.
Проверял Newspaper4k, но он примерно на 20% хуже работает, чаще всего просто не определяет блок с SEO-текстом.
3. Переспам.
Чтобы там не заявляли представители Google, в текущем алгоритме плотность ключевых слов очень важна, не более 3-4% от всего текста.
Даже накрутка поведенческих не дает эффекта, если страница переспамлена.
Как я исправлял готовые тексты:
Вижу, что страница просела, получаю объем текстов конкурентов, в 90% нужно было уменьшить объем текста.
Не сработало.
• Написал скрипт, который разбивает текст на отдельные предложения и по каждому предложению проверяю векторную близость к ключевой фразе, использовал модель LaBSE-en-ru.
Далее удаляю все предложения с минимальным процентом близости, чтобы объем текста остался как у конкурентов, затем подгоняю текст по плотности.
В итоге, удавалось добиться 80%+ векторной близости всего текста, у конкурентов в лучших случаях было 60-70%, но результаты становились еще хуже, при этом текст оставался читабельным.
• Очевидно, что еще не сработало изменение интента нейросетями, какие бы я промты не писал, какие бы минимальные части текста не переписывал.
Сработало.
Использую этот промт:
Далее удаляю предложения с минимальным процентом, таким образом подгоняю под нужный размер и исправляю плотность.
Но в итоге, все проблемные тексты исправляла копирайтер, так получилось быстрее и выгоднее.
Еще мои наблюдения, хотя некоторые спорные:
• Малокачественный текст копирайтера дает лучший результат, чем супер-качественный текст написанный нейросетями.
Конечно, есть исключения, в малоконкурентных тематиках, мне с легкостью удавалось выводить страницы в топ с такими текстами, но в конкурентных тематиках ни разу.
• Даже небольшие правки текста нейросетями, негативно влияют на результат.
Сгенерированные, информационные тексты с легкостью влетают в топ и приносят трафик, я их использую для блогов в интернет-магазинах.
В следующем посте, я выложу 3 промта, которыми генерирую информационные тексты.
Уже прошел почти год с момента смены текстового алгоритма в Google (декабрь 2024 года, если не ошибаюсь), хотел про него рассказать, но все не было времени, даже не знаю, будет ли он актуален, но напишу.
⚠️ Важно! Дальше речь идет про SEO-тесты для категорийных страниц интернет-магазинов.
Что изменилось:
1. Интент.
Если раньше Google было все равно, какой интент текста, важно было наличие ключевых слов и LSI\сущностей, то сейчас работают только тексты с коммерческим интентом.
Я своему копирайтеру объяснил так: представь, что ты работаешь продавцом-консультантом в торговом центре, к тебе пришел покупатель, ты же не будешь ему 5 минут рассказывать историю создания этих товаров, его интересуют преимущества товара, на что обратить внимание при выборе, как хранить\ухаживать\обслуживать, преимущества магазина, почему покупают у нас, призывать к действию.
Содержание статьи получаю в Gemini этим промтом:
Пожалуйста, создайте подробный план-структуру содержания для новой статьи каталога интернет-магазина о товарах категории [НАЗВАНИЕ].
Содержание должно обеспечивать полную экспертизу темы, раскрывать все важные аспекты категории товаров и быть полезным для потенциальных покупателей.
Важно: интент статьи должен быть только коммерческий.
2. Объем текста.
Раньше в конкурентных тематиках объемы моих статей доходили до 8000-10 000-12 000 символов, сейчас же максимальный объем статей до 4000 символов, в 80-90% случаев всего на 2000 символов.
При создании заданий для копирайтера, которое описывал здесь - https://news.1rj.ru/str/SEO_entity/56, я собираю LSI\сущности у конкурентов и объемы их SEO-текстов и на основе этих данных, в задании указываю объем будущего текста.
Модуль для отделения SEO-текстов от остального контента использую Newspaper3k.
Проверял Newspaper4k, но он примерно на 20% хуже работает, чаще всего просто не определяет блок с SEO-текстом.
3. Переспам.
Чтобы там не заявляли представители Google, в текущем алгоритме плотность ключевых слов очень важна, не более 3-4% от всего текста.
Даже накрутка поведенческих не дает эффекта, если страница переспамлена.
Как я исправлял готовые тексты:
Вижу, что страница просела, получаю объем текстов конкурентов, в 90% нужно было уменьшить объем текста.
Не сработало.
• Написал скрипт, который разбивает текст на отдельные предложения и по каждому предложению проверяю векторную близость к ключевой фразе, использовал модель LaBSE-en-ru.
Далее удаляю все предложения с минимальным процентом близости, чтобы объем текста остался как у конкурентов, затем подгоняю текст по плотности.
В итоге, удавалось добиться 80%+ векторной близости всего текста, у конкурентов в лучших случаях было 60-70%, но результаты становились еще хуже, при этом текст оставался читабельным.
• Очевидно, что еще не сработало изменение интента нейросетями, какие бы я промты не писал, какие бы минимальные части текста не переписывал.
Сработало.
Использую этот промт:
Пожалуйста, получи текст на моей странице - [ССЫЛКА]
Разбей его на отдельные предложения, проанализируй интент каждого предложения и напиши, какой процент в нем коммерческого интента, без дополнительной информации.
Если объем текста слишком большой, используй несколько артефактов, задача проанализировать весь текст.
Далее удаляю предложения с минимальным процентом, таким образом подгоняю под нужный размер и исправляю плотность.
Но в итоге, все проблемные тексты исправляла копирайтер, так получилось быстрее и выгоднее.
Еще мои наблюдения, хотя некоторые спорные:
• Малокачественный текст копирайтера дает лучший результат, чем супер-качественный текст написанный нейросетями.
Конечно, есть исключения, в малоконкурентных тематиках, мне с легкостью удавалось выводить страницы в топ с такими текстами, но в конкурентных тематиках ни разу.
• Даже небольшие правки текста нейросетями, негативно влияют на результат.
Сгенерированные, информационные тексты с легкостью влетают в топ и приносят трафик, я их использую для блогов в интернет-магазинах.
В следующем посте, я выложу 3 промта, которыми генерирую информационные тексты.
❤2
Промты для генерации информационных статей
Прошу Gemini составить план статьи.
Копирую содержание и иду генерировать статью в Claude.
Копирую готовую статью, иду обратно в Gemini, добавляю ее и прошу провести фактчекинг.
Прошу Gemini составить план статьи.
Пожалуйста, создай подробный план-структуру содержания для статьи на тему [ТЕМА].
Содержание должно обеспечивать полную экспертизу темы, раскрывать все важные аспекты и быть полезным для пользователей.
Копирую содержание и иду генерировать статью в Claude.
Пожалуйста, напиши статью по указанному содержанию.
Инструкции по форматированию:
Структура заголовков:
Добавь 4-6 подзаголовков (H2) для основных разделов;
При необходимости используй 2-3 подзаголовка третьего уровня (H3) внутри разделов;
Избегай излишней фрагментации текста заголовками.
Основная часть:
Оптимальная длина абзацев: 3-6 строк;
Используй не более 2-3 маркированных или нумерованных списков на всю статью;
Каждый список должен содержать больше 3 пунктов;
Включи одну таблицу с фактическими данными, сравнением или характеристиками;
Добавь 1-2 выделенных блока с важной информацией, советами, предупреждениями или цитаты по теме;
Постарайся писать с нетипичной структрой LLM, а более человеческой;
Не пиши Заключение.
Важное дополнение:
Статья должна быть SEO-оптимизирована;
Страна и регион аудитории - Украина;
Если объем текста слишком большой, разбей на несколько артефактов.
ВАЖНО: Перед началом работы составь план выполнения задания и проверь его соответствие требованиям ТЗ. Получи мое подтверждение плана перед тем, как приступить к написанию статьи.
Копирую готовую статью, иду обратно в Gemini, добавляю ее и прошу провести фактчекинг.
Пожалуйста, проведите тщательный анализ предоставленного текста по следующим критериям:
1. Грубые фактические ошибки
- Найдите утверждения, которые полностью противоречат действительности
Для каждой ошибки укажите:
- Исходное утверждение (дословная цитата)
- В чём заключается ошибка
- Правильная информация
- Источник корректной информации
- Оценка важности ошибки для общего контекста
2. Проверка на дезинформацию
- Выявите утверждения, противоречащие научному/экспертному консенсусу
- Найдите непроверенные теории/утверждения, не подкрепленные разумными фактами или доказательствами
- Проверьте наличие устаревшей информации, которая может вводить в заблуждение
Для каждого случая укажите:
- Проблемное утверждение
- Почему оно является дезинформацией
- Актуальную корректную информацию с источниками
3. Неточности и возможные улучшения
Проанализируйте:
- Неточные формулировки
- Двусмысленные утверждения
- Неполную информацию
Для каждой неточности укажите:
- Исходное утверждение
- В чём заключается неточность
- Источник корректной информации
- Рекомендации по улучшению формулировки
4. Безосновательные утверждения
Найдите утверждения, которые:
- Не подкреплены фактами
- Являются субъективными оценками
- Содержат необоснованные обобщения
Для каждого такого утверждения укажите:
- Исходную цитату
- Обоснование, почему утверждение проблематично
- Рекомендации по исправлению
5. Проверка полноты контекста
- Выявите случаи, где отсутствие контекста может привести к неверным выводам
- Найдите упрощения, искажающие суть явления/процесса
- Проверьте наличие необходимых оговорок и уточнений
Для каждого случая укажите:
- Проблемный фрагмент
- Какой контекст необходимо добавить
- Как это повлияет на понимание информации
6. Термины, нуждающиеся в раскрытии
- Выделите специальные термины и профессиональный жаргон
Для каждого термина предоставьте:
- Четкое определение
- При необходимости - контекст использования
Общий вывод:
- Краткое резюме основных находок
- Оценка общего качества текста
- Ключевые рекомендации по улучшению
Требования к анализу:
- Все замечания должны быть конкретными и объективными
- Каждая проблема должна сопровождаться конструктивным предложением по улучшению
- Выводы должны опираться на проверяемые источники
- При проверке YMYL-тем (здоровье, финансы, безопасность) применять повышенные требования к точности
- Учитывать потенциальный вред от неточной информации
- При наличии научных/медицинских утверждений проверять их соответствие актуальному научному консенсусу
- Важно сохранять нейтральный тон в формулировках
Копирую все замечания, возвращаюсь в Claude и прошу внести изменения.
Готово!
Еще часто прошу сгенерировать мета-теги, доработать проще, чем писать с нуля.
Еще было бы полезно собрать LSI\сущности и вписать недостающие в статью, а также проверить плотность ключевых слов.
Комментарии:
1. Почему Gemini и Claude?
Claude моя основная нейронка для всего, которой я пользуюсь с марта в 2024 - https://news.1rj.ru/str/SEO_entity/23
Google использует Gemini для своих алгоритмах ранжирования, поэтому логично использовать его базу знаний, плюс при проверки фактов, он использует свежие данные, только не забывайте включать поиск Grounding with Google Search.
Недавно в Claude закончились лимиты, я пошел ChatGPT, тогда еще была 5 версия, задача была сложная, он мне не помог, а только раздражал ответами.
Gemini для создания кода мне оочень не нравится, пишет кучу всего лишнего, в итоге, мою задачу решил 4-й Grok.
2. "Получи мое подтверждение плана".
Если Claude сразу приступает к написанию, то он игнорирует некоторые требования, например, количество списков, поэтому обязательно нужно требовать подтверждение перед написанием.
3. Промт для генерации статьи уже довольно старый, но полностью рабочий.
По информации из нескольких статей, я уже составил новый промт, но не успел его протестировать и доработать, добавлю в комментарии.
4. Очень полезно проводить фактчекинг для категорийных SEO-статей от копирайтера, неоднократно убеждался, что неправильные факты в статьях, негативно влияют на позиции.
Результат: если выбрана не самая конкурентная тема статьи, если сайт не самого плохого качества, то такая статья выходит в топ в большинстве случаев и приносит трафик.
Пожалуйста, внеси в статью изменения следуя указанным рекомендациям.
Готово!
Еще часто прошу сгенерировать мета-теги, доработать проще, чем писать с нуля.
Пожалуйста, составь несколько релевантных noscript и meta denoscription.
Еще было бы полезно собрать LSI\сущности и вписать недостающие в статью, а также проверить плотность ключевых слов.
Комментарии:
1. Почему Gemini и Claude?
Claude моя основная нейронка для всего, которой я пользуюсь с марта в 2024 - https://news.1rj.ru/str/SEO_entity/23
Google использует Gemini для своих алгоритмах ранжирования, поэтому логично использовать его базу знаний, плюс при проверки фактов, он использует свежие данные, только не забывайте включать поиск Grounding with Google Search.
Недавно в Claude закончились лимиты, я пошел ChatGPT, тогда еще была 5 версия, задача была сложная, он мне не помог, а только раздражал ответами.
Gemini для создания кода мне оочень не нравится, пишет кучу всего лишнего, в итоге, мою задачу решил 4-й Grok.
2. "Получи мое подтверждение плана".
Если Claude сразу приступает к написанию, то он игнорирует некоторые требования, например, количество списков, поэтому обязательно нужно требовать подтверждение перед написанием.
3. Промт для генерации статьи уже довольно старый, но полностью рабочий.
По информации из нескольких статей, я уже составил новый промт, но не успел его протестировать и доработать, добавлю в комментарии.
4. Очень полезно проводить фактчекинг для категорийных SEO-статей от копирайтера, неоднократно убеждался, что неправильные факты в статьях, негативно влияют на позиции.
Результат: если выбрана не самая конкурентная тема статьи, если сайт не самого плохого качества, то такая статья выходит в топ в большинстве случаев и приносит трафик.
Telegram
Сущность SEO
Я пользовался ChatGPT 4 с момента его появления, но отменил подписку и уже 2-й день пользуюсь https://claude.ai/.
Сначала пользовался несколько дней бесплатной версией Claude 3 Sonnet, по тестам это что-то между ChatGTP 3.5 и 4.
Платная версия Claude 3…
Сначала пользовался несколько дней бесплатной версией Claude 3 Sonnet, по тестам это что-то между ChatGTP 3.5 и 4.
Платная версия Claude 3…
👍2
https://www.youtube.com/watch?v=YF1izcA3Vlo
Мне понравился комментарий - "Щоб не плакать, я сміялась" 🤭
Мне понравился комментарий - "Щоб не плакать, я сміялась" 🤭
YouTube
SEO и Акулы - RITMO ALGORITMO
После сеошки тянет к творчеству. Встречайте группу "SEO и Акулы" с новым AI-хитярой.
Пишу тексты: https://seowriting.ai?fp_ref=aicontent&fp_sid=you
Покупаю ссылки: https://insert.link?aid=pLrgjc2K
RITMO ALGORITMO
Ищу я ключ, точную фразу,
Что интент…
Пишу тексты: https://seowriting.ai?fp_ref=aicontent&fp_sid=you
Покупаю ссылки: https://insert.link?aid=pLrgjc2K
RITMO ALGORITMO
Ищу я ключ, точную фразу,
Что интент…
Промт для генерации параметров и значений фильтров товаров
Зачем?
1. Удобство.
При большом ассортименте товаров, важно, чтобы фильтры были качественно проработаны;
2. Создание новых посадочных страниц;
3. Полнота ответа (проработка сущностей в старых и новых статьях);
4. При сборе семантики, теперь не нужно выписывать параметры и значения фильтров у конкурентов;
5. На основе полученных данных, можно попросить нейросеть составить содержание для статьи, а затем по нему написать статью, у нее будет оочень полный ответ.
6. Есть все необходимые данные для создания семантических коконов.
Пример добавил в комментарии.
ROLE
Вы — Ведущий Архитектор Данных (Lead Data Architect) и UX-проектировщик каталогов для E-commerce.
Ваша специализация — создание исчерпывающих фасетных фильтров и атрибутивных моделей для PIM-систем (Product Information Management).
Ваша суперсила — умение разложить любой объект (товар, услугу, софт, событие) на мельчайшие атомарные характеристики.
INPUT
ТЕМА ДЛЯ АНАЛИЗА: "[ВСТАВИТЬ ТЕМУ]"
РЕГИОН: Украина.
ЯЗЫК: Русский (использовать профессиональную терминологию ниши).
OBJECTIVE
Создать структуру базы данных атрибутов для указанной ТЕМЫ.
Представьте, что вы настраиваете фильтры для крупнейшего маркетплейса в этой нише.
Покупатель должен иметь возможность отфильтровать предложение по любому значимому параметру.
METHODOLOGY (4 УРОВНЯ ДЕТАЛИЗАЦИИ)
Проанализируйте тему слой за слоем. Адаптируйте суть слоя под тип объекта (Товар / Услуга / IT-продукт).
СЛОЙ 1: ТАКСОНОМИЯ И ТИПОЛОГИЯ (Фундамент)
• Категоризация: Классы, подклассы, виды, семейства.
• Назначение: Специфические сценарии использования (для кого? для чего?).
• Уровень: Любительский / Профессиональный / Enterprise / Premium.
СЛОЙ 2: ТЕХНИЧЕСКИЕ СПЕЦИФИКАЦИИ (Hard Skills)
Здесь должны быть только измеримые факты.
• Для товаров: Физические параметры (Размеры, Материалы, Состав, Мощность, Производительность).
• Для софта/услуг: Лимиты, Квоты, Сроки, Скорость, Объем данных, Поддерживаемые платформы, Стек технологий.
• Стандарты: Сертификаты, ГОСТы, форматы, совместимость.
СЛОЙ 3: ОПЫТ ИСПОЛЬЗОВАНИЯ (User Experience)
Функции, влияющие на удобство и комфорт.
• Эргономика и Интерфейс: Удобство управления, форм-фактор, наличие мобильной версии/пульта.
• Функциональные особенности: Дополнительные режимы, "фишки", автоматизация.
• Безопасность и Защита: Системы безопасности, гарантии, защита от внешних факторов.
СЛОЙ 4: КОММЕРЧЕСКИЕ УСЛОВИЯ (Упаковка)
• Формат поставки: Комплектация, набор, "под ключ", подписка, разовая покупка.
• Зависимости: Расходные материалы, обязательные доп. услуги.
• Экономика: Тарифные планы, наличие пробных версий, условия возврата/отмены.
OUTPUT FORMAT
Выведите ответ в виде Markdown-таблицы.
Колонки:
1. Группа атрибутов (Например: "Габариты", "Тарифы", "Экран").
2. Атрибут (Название фильтра).
3. Примеры значений (Перечислить 3-5 конкретных вариантов. Например: "Красный/Синий", "100/200 мл", "iOS/Android", "Ежемесячно/На год").
4. Важность (Высокая/Средняя/Низкая).
CRITICAL CONSTRAINTS
1. ДЕТАЛИЗАЦИЯ: Избегайте обобщений. Вместо "Разные размеры" пишите "Ширина, Высота, Глубина, Диагональ".
2. ГИГИЕНИЧЕСКИЕ ФАКТОРЫ: Обязательно включать базовые, скучные параметры (вес, срок годности, язык интерфейса), так как по ним часто фильтруют.
3. КОНТЕКСТ: Если тема — "Доставка еды", параметры будут "Время доставки, Кухня, Острота". Если "CRM" — "Кол-во пользователей, Объем облака".
4. СТРУКТУРА: Не смешивайте технические параметры с маркетинговыми преимуществами.
Зачем?
1. Удобство.
При большом ассортименте товаров, важно, чтобы фильтры были качественно проработаны;
2. Создание новых посадочных страниц;
3. Полнота ответа (проработка сущностей в старых и новых статьях);
4. При сборе семантики, теперь не нужно выписывать параметры и значения фильтров у конкурентов;
5. На основе полученных данных, можно попросить нейросеть составить содержание для статьи, а затем по нему написать статью, у нее будет оочень полный ответ.
6. Есть все необходимые данные для создания семантических коконов.
Пример добавил в комментарии.
Инструкция по оптимизации текстов
1. Проверяю интент страницы через нейросеть.
Коммерческий/Транзакционный интент должен быть основной, если это не информационная статья.
Можете сравнить интент с конкурентами из топа, если сомневаетесь или не знаете, какой процент должен быть.
2. Если интент неправильный и на странице уже была добавлена SEO-статья, то я прошу нейросеть вывести интент по каждому предложению.
Далее удаляю предложения с самым низким процентом, при этом проверяю, чтобы текст оставался читабельным.
3. Добавляем страницу в сервис https://neuronwriter.com/, отмечаем проверенных конкурентов;
Я купил "вечную" лицензию на черную пятницу за $90 на сайте https://appsumo.com/products/neuronwriter/
В этом пакете можно добавлять 25 страниц в месяц, лично мне этого достаточно.
У меня уже есть готовые скрипты, выполняющие эти же задачи, но ими пользоваться неудобно, в основном вся информация выводится в терминале, а доделывать до уровня сервиса, нет времени и нецелесообразно.
4. Подгоняю в Neuronwriter мета-теги, плотность ключевых фраз, проверяю объем текста (хотя как сервис считает объем, мне не нравится);
5. Копирую все LSI-слова, которых нет в тексте (выбрать в списке вместо "all terms" - "not used", затем возле "basic:" из списка выбрать "List of terms");
6. Иду в нейросеть, добавляю текст (в Neuronwriter выбрать Export - Raw HTML), добавляю LSI-слова и промт:
Нейросеть основную часть слов впишет в текст, ничего кроме этих слов не дописывая, словно их вписал человек, поэтому текст не будет считаться "аишным" и не получит пессимизацию.
7. Меняем мета-теги и текст на своем сайте и индексируем, готово!
1. Проверяю интент страницы через нейросеть.
Пожалуйста, получи текст на странице и напиши его интен в процентном соотношении - [url]
Коммерческий/Транзакционный интент должен быть основной, если это не информационная статья.
Можете сравнить интент с конкурентами из топа, если сомневаетесь или не знаете, какой процент должен быть.
2. Если интент неправильный и на странице уже была добавлена SEO-статья, то я прошу нейросеть вывести интент по каждому предложению.
Разбей текст на отдельные предложения, проанализируй интент каждого предложения и напиши, какой процент в нем коммерческого интента, без дополнительной информации.
Далее удаляю предложения с самым низким процентом, при этом проверяю, чтобы текст оставался читабельным.
3. Добавляем страницу в сервис https://neuronwriter.com/, отмечаем проверенных конкурентов;
Я купил "вечную" лицензию на черную пятницу за $90 на сайте https://appsumo.com/products/neuronwriter/
В этом пакете можно добавлять 25 страниц в месяц, лично мне этого достаточно.
У меня уже есть готовые скрипты, выполняющие эти же задачи, но ими пользоваться неудобно, в основном вся информация выводится в терминале, а доделывать до уровня сервиса, нет времени и нецелесообразно.
4. Подгоняю в Neuronwriter мета-теги, плотность ключевых фраз, проверяю объем текста (хотя как сервис считает объем, мне не нравится);
5. Копирую все LSI-слова, которых нет в тексте (выбрать в списке вместо "all terms" - "not used", затем возле "basic:" из списка выбрать "List of terms");
6. Иду в нейросеть, добавляю текст (в Neuronwriter выбрать Export - Raw HTML), добавляю LSI-слова и промт:
Дополни статью LSI-словами, строго следуя инструкциям:
КРИТИЧЕСКИЕ ТРЕБОВАНИЯ:
- Сохрани ВЕСЬ исходный текст без каких-либо изменений
- НЕ удаляй ни одного слова из оригинала
- НЕ переписывай существующие предложения
- НЕ добавляй новые предложения или абзацы
ЗАДАЧА:
- Вставь LSI-слова ТОЛЬКО в существующие предложения
- Добавляй слова только там, где это грамматически естественно
- Если слово не вписывается органично ни в одно предложение - НЕ используй его
ОГРАНИЧЕНИЯ:
- Используй только фактически верную информацию
- Соблюдай тематику каждого абзаца
- Сохраняй естественность и читаемость текста
- Не перегружай предложения
ФОРМАТ ОТВЕТА:
1. Дополненный текст
2. Список LSI-слов, которые не удалось вставить органично
ВАЖНО: Перед началом работы составь план выполнения задания и проверь его соответствие требованиям ТЗ. Получи мое подтверждение плана перед тем, как приступить к написанию статьи.
Нейросеть основную часть слов впишет в текст, ничего кроме этих слов не дописывая, словно их вписал человек, поэтому текст не будет считаться "аишным" и не получит пессимизацию.
7. Меняем мета-теги и текст на своем сайте и индексируем, готово!
NEURONwriter - Content optimization with #semanticSEO - Create content that Google adores.
NEURONwriter – Leading content optimisation tool with generative AI. - NEURONwriter - Content optimization with #semanticSEO
An easy way to create better-ranking content! Optimize your website content so Google & AI adores it Advanced content editor with semantic models (NLP), Google SERP analysis, and competition data. NEURONwriter helps you to plan, write and optimize content…
8. Если через несколько дней страница не вышла в топ, идем в нейросеть собирать сущности:
Выписываем вручную все подходящие сущности и добавляем в Neuronwriter (возле "basic:" ссылка "add").
С этими сущностями повторяем пункты 5, 6 и 7.
Результат: все отредактированные страницы вышли в топ 1-3, даже те, которые были за топ-50.
Некоторые переспамленные страницы не выходили в топ даже от накрутки поведенческих факторов, после исправления плотности сразу стали в топ-1.
Ты эксперт по построению графов знаний и семантическому анализу.
ЗАДАЧА: Построить полный граф именованных сущностей для ключевого слова.
Ключевое слово: [ТЕМА]
ЭТАП 1: Определение доменов
Проанализируй тему и определи МАКСИМАЛЬНОЕ количество релевантных доменов сущностей (категорий).
Для каждого домена оцени степень близости к теме: HIGH / MEDIUM / LOW
ЭТАП 2: Сбор именованных сущностей
Для каждого домена собери МАКСИМАЛЬНОЕ количество именованных сущностей (конкретные названия, имена, термины).
ЭТАП 3: Сбор атрибутов
Для каждой именованной сущности собери все релевантные атрибуты (характеристики, свойства, параметры).
ФОРМАТ ВЫВОДА: Markdown таблица
| Домен (релевантность) | Именованная сущность | Атрибуты |
ПРАВИЛА:
- Максимизируй количество сущностей в каждом домене
- Включай только реально существующие сущности (бренды, имена, модели, термины)
- Атрибуты должны быть конкретными и применимыми к данной сущности
- Группируй однотипные атрибуты через запятую в одной ячейке
- Сортируй домены по релевантности (HIGH → MEDIUM → LOW)
КОНТЕКСТ:
Язык: русский
Регион: Украина
Цель: расширение семантического ядра для SEO
Начни анализ.
Выписываем вручную все подходящие сущности и добавляем в Neuronwriter (возле "basic:" ссылка "add").
С этими сущностями повторяем пункты 5, 6 и 7.
Результат: все отредактированные страницы вышли в топ 1-3, даже те, которые были за топ-50.
Некоторые переспамленные страницы не выходили в топ даже от накрутки поведенческих факторов, после исправления плотности сразу стали в топ-1.
❤1
Скрипт классификатора ключевых слов
Периодически проверяю скорость и качество локальных LLM, чтобы применить для массового анализа ключевых фраз, текстов, мета-тегов и др.
Последние версии Ministral, Qwen, Gemma на моей десктопной видеокарте 4070 Super выдают 90-120 токенов в секунду, в чате LM Studio выдают неплохие результаты.
Решил создать классификатор ключевых слов, чтобы сэкономить время на чистке семантики, например, по каждой фразе получаем информацию: категория, интент, топонимы, наличие конкурента, товар или услуга.
Данные получил, но использовать их для работы было невозможно, например, для фразы "iphone 15 pro max" и "айфон 15 про макс" были разные результаты.
Впервые работал с локальными LLM, потратил полный рабочий день на подбор промтов, но в итоге разобрался, чтобы получить более точные результаты, использовал другой подход, нужно увеличить количество получаемых параметров, например, гео, сезонность, тип товара\услуги, тип страницы, аудитория, YMYL-тематика и др. (полный список параметров добавлю в комментарии), тогда LLM на основе этих данных делает другие выводы.
Еще я добавил определение языка и расчет векторной релевантности, если тематика ключевых фраз одинаковая, если нет или не нужно, то можно пропустить расчет.
Результаты получились неплохие, примерно 90-95% правильных ответов, погонял на разных тематиках, и разных LLM.
Остановился на Qwen3 4B, Gemma 3n 4B чуть хуже, а Ministral 3 3B через пару сотен ключевых фраз начинал глючить, беспрерывно выдавал случайны набор символов.
Но скоростью работы и шумом компьютера остался недовольный, решил проверить на платных LLM, тем более основной скрипт готов, оставалось только переделать API.
Проверил качество "gemini-flash-lite-latest", но результаты примерно такие же как у локальных LLM, у "gemini-flash-latest" отличные результаты, плюс не нужно отправлять много параметров, чтобы сэкономить токены.
Потом вспомнил, что у меня пополнен баланс в сервисе https://openrouter.ai/, выбрал "Grok 4.1 Fast", результаты отличные, окно контекста 2млн (но на большом количестве ключевых фраз результаты хуже, поэтому ограничил 100 фраз за 1 запрос), стоимость входящих 1млн токенов $0.20 и $0.50 исходящих, на кучу тестов и анализ файла с 4000+ ключевых фраз, потратил всего $0,56.
Практическое применение скрипта:
• Выгрузил по своему сайту из консоли Google все поисковые фразы через Lookerstudio - https://lookerstudio.google.com/u/0/reporting/5df7a9d0-b700-4c79-b455-cfba6046493d/page/p_prv7bzupmd
Получилось более 42 000 фраз, вместо 1000 фраз из консоли.
К сожалению, не могу оставить ссылку на автора, не помню, где я ее взял, если знаете, напишите в комментариях, я добавлю.
• Добавил все фразы в Key Collector, удалил ненужные фразы, оставил только одну категорию товаров, по оставшимся фразам собрал через свой скрипт частотность в Google (кому-то нужен такой скрипт, поделиться?), загрузил частотность в Key Collector, удалил все фразы с 0 частотностью, на основе частотности удалил все неявные дубли и экспортировал данные, получилось более 4000 ключевых фраз.
• Добавил csv-файл в корень проекта и запустил сбор.
• Когда данные были собраны, открыл файл, начал сортировать и удалять ненужные фразы.
В колонках "Категория 1", "Категория 2", "Категория 3" данные для кластеризации, сначала сортирую по 1-й категории, удаляю ненужные фразы, затем 2-я и 3-я.
Затем сортирую по Название конкурента, Топоним, Оценка для ИМ, Товар, Релевантность и удаляю все ненужное, в итоге осталось около 900 ключевых фраз, пробежался по ним, все супер, более 99,9% подходящих фраз.
• Загружаю отобранные фразы в KeyAssort, собираю позиции, фразы без позиций кластеризирую, а далее распределяю их по готовым страницам или создаю новые.
Готово!
Я очень доволен этим скриптом, еще одна задача, которую удалось частично автоматизировать и сэкономить кучу времени за копейки.
Периодически проверяю скорость и качество локальных LLM, чтобы применить для массового анализа ключевых фраз, текстов, мета-тегов и др.
Последние версии Ministral, Qwen, Gemma на моей десктопной видеокарте 4070 Super выдают 90-120 токенов в секунду, в чате LM Studio выдают неплохие результаты.
Решил создать классификатор ключевых слов, чтобы сэкономить время на чистке семантики, например, по каждой фразе получаем информацию: категория, интент, топонимы, наличие конкурента, товар или услуга.
Данные получил, но использовать их для работы было невозможно, например, для фразы "iphone 15 pro max" и "айфон 15 про макс" были разные результаты.
Впервые работал с локальными LLM, потратил полный рабочий день на подбор промтов, но в итоге разобрался, чтобы получить более точные результаты, использовал другой подход, нужно увеличить количество получаемых параметров, например, гео, сезонность, тип товара\услуги, тип страницы, аудитория, YMYL-тематика и др. (полный список параметров добавлю в комментарии), тогда LLM на основе этих данных делает другие выводы.
Еще я добавил определение языка и расчет векторной релевантности, если тематика ключевых фраз одинаковая, если нет или не нужно, то можно пропустить расчет.
Результаты получились неплохие, примерно 90-95% правильных ответов, погонял на разных тематиках, и разных LLM.
Остановился на Qwen3 4B, Gemma 3n 4B чуть хуже, а Ministral 3 3B через пару сотен ключевых фраз начинал глючить, беспрерывно выдавал случайны набор символов.
Но скоростью работы и шумом компьютера остался недовольный, решил проверить на платных LLM, тем более основной скрипт готов, оставалось только переделать API.
Проверил качество "gemini-flash-lite-latest", но результаты примерно такие же как у локальных LLM, у "gemini-flash-latest" отличные результаты, плюс не нужно отправлять много параметров, чтобы сэкономить токены.
Потом вспомнил, что у меня пополнен баланс в сервисе https://openrouter.ai/, выбрал "Grok 4.1 Fast", результаты отличные, окно контекста 2млн (но на большом количестве ключевых фраз результаты хуже, поэтому ограничил 100 фраз за 1 запрос), стоимость входящих 1млн токенов $0.20 и $0.50 исходящих, на кучу тестов и анализ файла с 4000+ ключевых фраз, потратил всего $0,56.
Практическое применение скрипта:
• Выгрузил по своему сайту из консоли Google все поисковые фразы через Lookerstudio - https://lookerstudio.google.com/u/0/reporting/5df7a9d0-b700-4c79-b455-cfba6046493d/page/p_prv7bzupmd
Получилось более 42 000 фраз, вместо 1000 фраз из консоли.
К сожалению, не могу оставить ссылку на автора, не помню, где я ее взял, если знаете, напишите в комментариях, я добавлю.
• Добавил все фразы в Key Collector, удалил ненужные фразы, оставил только одну категорию товаров, по оставшимся фразам собрал через свой скрипт частотность в Google (кому-то нужен такой скрипт, поделиться?), загрузил частотность в Key Collector, удалил все фразы с 0 частотностью, на основе частотности удалил все неявные дубли и экспортировал данные, получилось более 4000 ключевых фраз.
• Добавил csv-файл в корень проекта и запустил сбор.
• Когда данные были собраны, открыл файл, начал сортировать и удалять ненужные фразы.
В колонках "Категория 1", "Категория 2", "Категория 3" данные для кластеризации, сначала сортирую по 1-й категории, удаляю ненужные фразы, затем 2-я и 3-я.
Затем сортирую по Название конкурента, Топоним, Оценка для ИМ, Товар, Релевантность и удаляю все ненужное, в итоге осталось около 900 ключевых фраз, пробежался по ним, все супер, более 99,9% подходящих фраз.
• Загружаю отобранные фразы в KeyAssort, собираю позиции, фразы без позиций кластеризирую, а далее распределяю их по готовым страницам или создаю новые.
Готово!
Я очень доволен этим скриптом, еще одна задача, которую удалось частично автоматизировать и сэкономить кучу времени за копейки.
OpenRouter
A router for LLMs and other AI models
Как запустить (про установку Python и создание виртуального окружения, я не будут писать.):
• Установить все модули - "pip install -r requirements.txt"
• Затем - "pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126"
• Первый запуск будет с задержкой, будет скачиваться модель "sentence-transformers/paraphrase-multilingual-mpnet-base-v2" для расчета векторной близости, в конфиге можно поменять на другую модель.
• После первого запуска скрипта будет создан конфигурационный файл config.json, в нем нужно указать "provider", "gemini" или "openrouter", указать "model" LLM и "api_key".
• Отредактировать список параметров для фраз можете в функции build_batch_prompt(), какие параметры будут сохраняться в файле, пропишите в конфиге, в "analysis_parameters".
• Файлы формата csv или txt добавьте в корень проекта.
Разделительный символ точка с запятой или запятая.
Кодировка - UTF-8.
• Если в файле несколько колонок, данные будут браться из первой колонки, заголовок должен определиться.
• После запуска скрипта, если в корне проекта несколько csv или txt файлов, укажите номер файла, с которым нужно работать.
• Если нужно посчитать векторную релевантность, укажите ключевые слова, если оставите строку пустой, то она не будет рассчитана.
Пример работы и скрипт добавил в комментарии к этому посту.
Скрипт еще сырой, могут быть ошибки, пишите о них в комментариях, когда все хорошо протестирую, загружу на Github и укажу в этом посте ссылку.
P.S. в этом скрипте, я не написал ни строчки кода, все сделал Claude Code.
• Установить все модули - "pip install -r requirements.txt"
• Затем - "pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126"
• Первый запуск будет с задержкой, будет скачиваться модель "sentence-transformers/paraphrase-multilingual-mpnet-base-v2" для расчета векторной близости, в конфиге можно поменять на другую модель.
• После первого запуска скрипта будет создан конфигурационный файл config.json, в нем нужно указать "provider", "gemini" или "openrouter", указать "model" LLM и "api_key".
• Отредактировать список параметров для фраз можете в функции build_batch_prompt(), какие параметры будут сохраняться в файле, пропишите в конфиге, в "analysis_parameters".
• Файлы формата csv или txt добавьте в корень проекта.
Разделительный символ точка с запятой или запятая.
Кодировка - UTF-8.
• Если в файле несколько колонок, данные будут браться из первой колонки, заголовок должен определиться.
• После запуска скрипта, если в корне проекта несколько csv или txt файлов, укажите номер файла, с которым нужно работать.
• Если нужно посчитать векторную релевантность, укажите ключевые слова, если оставите строку пустой, то она не будет рассчитана.
Пример работы и скрипт добавил в комментарии к этому посту.
Скрипт еще сырой, могут быть ошибки, пишите о них в комментариях, когда все хорошо протестирую, загружу на Github и укажу в этом посте ссылку.
P.S. в этом скрипте, я не написал ни строчки кода, все сделал Claude Code.
Большой Толковый СЕО-варь
Коллекция терминов, которые заставят филологов плакать, а маркетологов — нервно хихикать.
Категория 1: Медицинский и телесный кринж (Больно смотреть)
Идеально для тех, кто лечит «больные» сайты или работает с «тяжелыми» клиентами.
1. СЕОрроз (СЕО + Цирроз) — последняя стадия «здоровья» сайта, когда он забанен везде, где можно. Слоган: «Лечим СЕОрроз печени сайта».
2. ГеморСЕО — самый честный нейминг для сложного проекта. «У вас проблемы с продажами? Это полный геморСЕО».
3. ОстеоСЕОз — когда позиции «закостенели» и не двигаются с места уже год.
4. ЛипосакСЕО — «откачка» лишнего веса кода и удаление спамных текстов.
5. ПотСЕОнт (от слова Пациент) — клиент, который думает, что знает, как лечить, но всё время делает хуже.
Категория 2: «Ниже пояса» и околоромантика (Слегка 18+)
Шутки на грани, которые заставят всех закатить глаза.
6. БиСЕОксуал — классика жанра: специалист, который одинаково удовлетворяет и Яндекс, и Google.
7. СЕОксапильность — показатель кликабельности сниппета (CTR). «Сделай мне этот заголовок посеоксапильнее».
8. СЕОкс-шоп — магазин ссылок (биржи типа Sape).
9. Пассивный СЕО — когда ты ничего не делаешь, а трафик почему-то идёт (мечта любого клиента).
10. КамаСЕО — бесконечный поиск удобной позы для входа в ТОП-10.
Категория 3: Еда и Бытовуха (Мамкины бизнесмены)
Когда хочется добавить домашнего уюта и безумия.
11. СЕОледка под шубой — скрытый текст на белом фоне (чёрный метод продвижения).
12. КолбаСЕО — когда на сайте «колбасит» позиции туда-сюда после апдейта.
13. КиСЕОль — сайт с размытой структурой, где юзер вязнет и тонет.
14. ПоСЕОлок городского типа — маленький региональный сайтик, который пытается вылезти по запросу «Купить квартиру Киев».
15. ЛыСЕО (от лысый) — сайт с бедным контентом, «лысый» профиль.
Категория 4: Абсолютный треш и игра слов (Кринж-уровень: БОГ)
Самое нелепое, что можно придумать.
16. СЕО-пушка, Говно-ловушка — про лендинги с низкой конверсией (детский стишок).
17. ХуИзСЕО (Who is SEO?) — агентство с провокационным названием (читается двояко).
18. ЭлекСЕОр молодости — обещание поднять сайт 2005 года дизайна в топ.
19. СЕОкобака — непонятный гибрид SMM и SEO (от "Собака-подозревака").
20. АтсоСЕО — Аутсорсинг SEO-услуг с неудачным неймингом (Outsource SEO -> OutsoSEO -> AtsoSEO).
Категория 5: «Мистика, Секты и Ужас»
Для тех, кто продвигает сайты бубном и святой водой.
21. СЕОкта (Секта) — курсы инфоцыган по продвижению. «Ты вступил в новую СЕОкту? Тебе обещали ТОП-1 за неделю?»
22. МракобеСЕО — использование методов из 2007 года (прогоны по каталогам, белый текст на белом фоне).
23. ИконоСЕОс (Иконостас) — стена в офисе с сертификатами Google Partners.
24. СЕОанс (Сеанс) — встреча с клиентом, похожая на вызов духов (никто не знает, будет результат или нет, но страшно всем).
25. ЭкзорциСЕО — удаление вирусов с сайта.
Категория 6: «Нищеброд-стайл и Депрессия»
Самый жизненный и больной раздел.
26. СЕОмж (Бомж + СЕО) — сайт, который выглядит настолько дешево, что поисковики брезгуют его индексировать. Или фрилансер, работающий за еду.
27. ПохмелСЕО — состояние команды после апдейта, когда всё упало.
28. ОбСЕОрация (Обсервация или...) — процесс, когда клиент вносит правки и полностью рушит стратегию.
29. СЕОконд-хенд (Second Hand) — покупка старого дроп-домена с плохой кармой.
30. ДоСЕОле (игра слов с устаревшим «доселе» или «до села») — сайт, который грузится так долго, что пользователь успевает состариться.
Категория 7: «Чистая физиология» (Осторожно, мерзко!)
Уровень кринжа: ULTIMATE.
31. СЕОпли (Сопли) — дешёвые, «жидкие» ссылки с форумов, которые не дают веса.
32. ИмпотенСЕО — ситуация, когда бюджет есть, ссылки есть, а трафик «не стоит» и не растет.
33. ПоллюСЕО — (от поллюция) внезапный и неконтролируемый всплеск трафика (обычно ботного), который быстро проходит.
34. ДефлораСЕО — запуск и индексация абсолютно нового, девственного домена.
35. ОтСЕОб (О**об или Отс**ч?) — метод, при котором специалист «отсекает» лишнюю аудиторию (ну или просто занимается ерундой).
Коллекция терминов, которые заставят филологов плакать, а маркетологов — нервно хихикать.
Категория 1: Медицинский и телесный кринж (Больно смотреть)
Идеально для тех, кто лечит «больные» сайты или работает с «тяжелыми» клиентами.
1. СЕОрроз (СЕО + Цирроз) — последняя стадия «здоровья» сайта, когда он забанен везде, где можно. Слоган: «Лечим СЕОрроз печени сайта».
2. ГеморСЕО — самый честный нейминг для сложного проекта. «У вас проблемы с продажами? Это полный геморСЕО».
3. ОстеоСЕОз — когда позиции «закостенели» и не двигаются с места уже год.
4. ЛипосакСЕО — «откачка» лишнего веса кода и удаление спамных текстов.
5. ПотСЕОнт (от слова Пациент) — клиент, который думает, что знает, как лечить, но всё время делает хуже.
Категория 2: «Ниже пояса» и околоромантика (Слегка 18+)
Шутки на грани, которые заставят всех закатить глаза.
6. БиСЕОксуал — классика жанра: специалист, который одинаково удовлетворяет и Яндекс, и Google.
7. СЕОксапильность — показатель кликабельности сниппета (CTR). «Сделай мне этот заголовок посеоксапильнее».
8. СЕОкс-шоп — магазин ссылок (биржи типа Sape).
9. Пассивный СЕО — когда ты ничего не делаешь, а трафик почему-то идёт (мечта любого клиента).
10. КамаСЕО — бесконечный поиск удобной позы для входа в ТОП-10.
Категория 3: Еда и Бытовуха (Мамкины бизнесмены)
Когда хочется добавить домашнего уюта и безумия.
11. СЕОледка под шубой — скрытый текст на белом фоне (чёрный метод продвижения).
12. КолбаСЕО — когда на сайте «колбасит» позиции туда-сюда после апдейта.
13. КиСЕОль — сайт с размытой структурой, где юзер вязнет и тонет.
14. ПоСЕОлок городского типа — маленький региональный сайтик, который пытается вылезти по запросу «Купить квартиру Киев».
15. ЛыСЕО (от лысый) — сайт с бедным контентом, «лысый» профиль.
Категория 4: Абсолютный треш и игра слов (Кринж-уровень: БОГ)
Самое нелепое, что можно придумать.
16. СЕО-пушка, Говно-ловушка — про лендинги с низкой конверсией (детский стишок).
17. ХуИзСЕО (Who is SEO?) — агентство с провокационным названием (читается двояко).
18. ЭлекСЕОр молодости — обещание поднять сайт 2005 года дизайна в топ.
19. СЕОкобака — непонятный гибрид SMM и SEO (от "Собака-подозревака").
20. АтсоСЕО — Аутсорсинг SEO-услуг с неудачным неймингом (Outsource SEO -> OutsoSEO -> AtsoSEO).
Категория 5: «Мистика, Секты и Ужас»
Для тех, кто продвигает сайты бубном и святой водой.
21. СЕОкта (Секта) — курсы инфоцыган по продвижению. «Ты вступил в новую СЕОкту? Тебе обещали ТОП-1 за неделю?»
22. МракобеСЕО — использование методов из 2007 года (прогоны по каталогам, белый текст на белом фоне).
23. ИконоСЕОс (Иконостас) — стена в офисе с сертификатами Google Partners.
24. СЕОанс (Сеанс) — встреча с клиентом, похожая на вызов духов (никто не знает, будет результат или нет, но страшно всем).
25. ЭкзорциСЕО — удаление вирусов с сайта.
Категория 6: «Нищеброд-стайл и Депрессия»
Самый жизненный и больной раздел.
26. СЕОмж (Бомж + СЕО) — сайт, который выглядит настолько дешево, что поисковики брезгуют его индексировать. Или фрилансер, работающий за еду.
27. ПохмелСЕО — состояние команды после апдейта, когда всё упало.
28. ОбСЕОрация (Обсервация или...) — процесс, когда клиент вносит правки и полностью рушит стратегию.
29. СЕОконд-хенд (Second Hand) — покупка старого дроп-домена с плохой кармой.
30. ДоСЕОле (игра слов с устаревшим «доселе» или «до села») — сайт, который грузится так долго, что пользователь успевает состариться.
Категория 7: «Чистая физиология» (Осторожно, мерзко!)
Уровень кринжа: ULTIMATE.
31. СЕОпли (Сопли) — дешёвые, «жидкие» ссылки с форумов, которые не дают веса.
32. ИмпотенСЕО — ситуация, когда бюджет есть, ссылки есть, а трафик «не стоит» и не растет.
33. ПоллюСЕО — (от поллюция) внезапный и неконтролируемый всплеск трафика (обычно ботного), который быстро проходит.
34. ДефлораСЕО — запуск и индексация абсолютно нового, девственного домена.
35. ОтСЕОб (О**об или Отс**ч?) — метод, при котором специалист «отсекает» лишнюю аудиторию (ну или просто занимается ерундой).
Категория 8: Игра имен (Чтобы дразнить коллег)
Мужские имена
36. АлекСЕО (Алексей) - Человек, который не просто пишет
37. МакСЕОм (Максим) - Выжимает МАКСимум трафика из минимума бюджета. Считает, что CTR меньше 100% — это погрешность.
38. АрСЕОн (Арсен) - У него самый мощный арСЕОнал ссылок. Когда он заходит в метрику, график роста встает по стойке смирно.
39. СЕОмён (Семён) - Человек-ядро. Собирает семантическое ядро даже во сне, разговаривает исключительно ключевыми словами.
40. ЕлиСЕО (Елисей) - Королевич выдачи. Тот единственный, кто поцелуем (правильной ссылкой) может разбудить сайт от вечного бана.
41. ВСЕОволод (Всеволод) - Тот, кто «ВСЕОм владеет». Монополист ТОП-3. Забирает весь трафик себе, остальным оставляет крошки.
42. СЕОргей (Сергей) - Мастер 50 оттенков серого (SEO). Знает схемы, за которые не банят, но за которые стыдно.
43. МарСЕОль (Марсель) - Продвигает так изящно и «по-французски», что клиенты платят просто за то, чтобы он поговорил.
44. РуСЕОлан (Руслан) - Витязь в тигровой шкуре поисковых апдейтов. Спасает сайты из лап драконов (конкурентов).
Женские имена
45. КСЕОния (Ксения) - Царица линкбилдинга, воительница бирж. Пробивает позиции с грацией пантеры.
46. ВаСЕОлиса (Василиса) - ВаСЕОлиса Премудрая. Варит зелья на основе LSI-фраз, от которых сайт растет как на дрожжах.
47. АнфиСЕО (Анфиса) - Знает все про поведенческие факторы. Удерживает пользователя на странице дольше, чем длится рабочий день.
48. СЕОфия (София) - Мудрость отдела. Знает ответы на вопросы.
49. ЕвСЕОния (Евгения) - Гений креатива. Генерирует мета-теги, которые хочется читать как поэзию.
50. ЛариСЕО (Лариса) - главная по шпионажу. Знает, что у конкурентов под капотом, еще до того, как они сами это поняли.
51. СЕОветлана (Светлана) - Проливает свет на «тёмные» причины падения трафика. Несет просвещение неразумным копирайтерам.
Поздравляю всех с Новым годом 🎄🎊🥳
Мужские имена
36. АлекСЕО (Алексей) - Человек, который не просто пишет
<noscript>, он им титулован. Исправляет robots.txt одним взглядом.37. МакСЕОм (Максим) - Выжимает МАКСимум трафика из минимума бюджета. Считает, что CTR меньше 100% — это погрешность.
38. АрСЕОн (Арсен) - У него самый мощный арСЕОнал ссылок. Когда он заходит в метрику, график роста встает по стойке смирно.
39. СЕОмён (Семён) - Человек-ядро. Собирает семантическое ядро даже во сне, разговаривает исключительно ключевыми словами.
40. ЕлиСЕО (Елисей) - Королевич выдачи. Тот единственный, кто поцелуем (правильной ссылкой) может разбудить сайт от вечного бана.
41. ВСЕОволод (Всеволод) - Тот, кто «ВСЕОм владеет». Монополист ТОП-3. Забирает весь трафик себе, остальным оставляет крошки.
42. СЕОргей (Сергей) - Мастер 50 оттенков серого (SEO). Знает схемы, за которые не банят, но за которые стыдно.
43. МарСЕОль (Марсель) - Продвигает так изящно и «по-французски», что клиенты платят просто за то, чтобы он поговорил.
44. РуСЕОлан (Руслан) - Витязь в тигровой шкуре поисковых апдейтов. Спасает сайты из лап драконов (конкурентов).
Женские имена
45. КСЕОния (Ксения) - Царица линкбилдинга, воительница бирж. Пробивает позиции с грацией пантеры.
46. ВаСЕОлиса (Василиса) - ВаСЕОлиса Премудрая. Варит зелья на основе LSI-фраз, от которых сайт растет как на дрожжах.
47. АнфиСЕО (Анфиса) - Знает все про поведенческие факторы. Удерживает пользователя на странице дольше, чем длится рабочий день.
48. СЕОфия (София) - Мудрость отдела. Знает ответы на вопросы.
49. ЕвСЕОния (Евгения) - Гений креатива. Генерирует мета-теги, которые хочется читать как поэзию.
50. ЛариСЕО (Лариса) - главная по шпионажу. Знает, что у конкурентов под капотом, еще до того, как они сами это поняли.
51. СЕОветлана (Светлана) - Проливает свет на «тёмные» причины падения трафика. Несет просвещение неразумным копирайтерам.
Поздравляю всех с Новым годом 🎄🎊🥳
🎅2🍾1