SEO Ideas – Telegram
SEO Ideas
2.92K subscribers
687 photos
16 videos
8 files
588 links
Роздуми, спостереження та суб'єктивна думка одного SEO-спеціаліста.
Завжди відкритий до дискусії та обговорень: http://t.me/Marko_Fedorenko

Палимо фішки на подкасті Що за Шум - https://www.youtube.com/@shozashum
Download Telegram
В тему Core Update
9
Forwarded from SEO BAZA (Olesia Korobka)
Завжди цікаво дивитись публікації і інтерв'ю представників Google напередодні і протягом core update, тому що це зазвичай натяк не те, що нас очікує по завершенні апдейту і що саме вони намагаються зараз змінити, крім очевидних речей.

TLDR: Google і далі продовжуватиме красти ваш контент, використовуючи його для своїх генеративних відповідей таким чином, щоб максимально уникнути переходів на ваш сайт з боку користувачів. Всі інші результати пошуку будуть достатньо поганими для користувачів, щоб вони більше клікали по рекламі і робили більше запитів до пошуку, щоб показувати їм ще більше реклами, але і достатньо гарними у порівнянні з тим же самим бінгом і подібними пошуковиками, щоб люди змушені були залишатися у гуглі.

🟢 Gemini 3 Flash додали до AI Mode за кілька днів після апдейту. Він швидший і в чотири рази дешевший за Gemini 3 Pro, менше глючить, в цілому працює краще, і може обробляти складні запити. За деякими витоками, які Google поквапився заперечити, усі складні запити тепер обробляються одразу в AI Mode. Офіційно поки що ви все одно починаєте з AI Overviews.

🟢 Сам AI Mode вже здатен генерувати застосунки прямо в собі самостійно під ваш запит. Сам зробить вам будь-який калькулятор, міні-сайт, сформує будь-яку відповідь у будь-якому форматі — все аби ви нікуди вже не ходили. Про всяк випадок навіть зробили новий браузер - Disco. В цьому браузері всі відповіді генеруються на лету, щоб вам не довелося переходити по сайтам.

🟢 Google продовжив всюди замінювати стандартну пошукову кнопку на AI Mode з новим UI. Це дозволить Google взагалі не посилати трафік на сайти, з яких він краде контент. При цьому до сих пір неможливо відмовитися від того, щоб він безкоштовно використовував ваш контент для тренінгу AI, і використовував його тільки для пошуку. Або і те і те, або нічого. Через що з ним тепер судяться країни ЄС, але, нажаль, у США уряд повністю підтримує Google.

🟢 При цьому Google продовжує активно газлайтити видавців, афіліатів, маленький бізнес, креаторів і всіх інших, у кого він краде контент. Незручні питання, типу чому ви вкрали всі мої рецепти, видаєте їх за свої, а мене навіть не згадуєте, ігноруються. Офіційна позиція Google — запитів все більше, трафу вони посилають вдосталь, пишіть контент для людей і не довіряйте своїм очам або незалежним дослідженням, які суперечать офіційній позиції газлайтерів від Google, таких як Nick Fox, наприклад.

🟢 Щоб трохи закрити рота видавцям, після Preferred Sources в Top Stories Google додав можливість фоловіти їх у Discover ще з вересня і нещодавно розкатав preferred top stories вже на всіх англомовних користувачів. Інші мови обіцяють додати наступного року. Може до того моменту я як раз зроблю нормальний сайт і для нас.

🟢 Але Google вважає, що красти можуть тільки вони самі. Всі інші мають просто змиритися. Тому подали на SerpApi до суду за те, що ті сканують їх результати пошуку (і віддають їх зокрема в OpenAI).

🟢 Gemini дуже покращив якість перекладів, ці покращення були застосовані до Google Translate і до пошуку. В Google Translate тепер є функція для вивчення мови.

🟢 Google опублікував новий гайд з контекстного інжинірінгу. Якщо ви хочете отримувати найкращі відповіді на свої промпти, то вивчайте. Це оновлення старого гайду початку року.
З нового: дуже багато додано про агентів. У одного з основних авторів — Lee Boonstra — є свій блог, де вони розповідають ще цікаві штуки про промптування і AI саме для користувачів. Це все працює під Gemini. Документацію по контекстному інжинірінгу для інших моделей потрібно дивитись у них в документаціях.

🟢 І також від Google — гайд з використання їх агентів для бізнесу. Виглядає чудово, але не рекомендую зараз цим користуватися, бо воно настільки погано працює і не має нормальної підтримки, що ви зненавидіте і агентів, і гугл, і весь AI — здається, що зараз це найгірше агентське рішення на ринку з усіх можливих, а у тих, хто його робив, руки з дупи. Я дуже довго тестувала і до сих пір шкодую за втраченим часом. Але якщо ви любите страждання, то ось їх документація з дизайну агентів.

Все не влізло, тому вже завтра.
Please open Telegram to view this post
VIEW IN TELEGRAM
16
Claude робить презент користувачам та збільшує ліміти використання в святковий період до Нового Року.
👍8
Грудневий Core Update завершено
2
Forwarded from Sneex SEO 🇺🇦
9+ налаштувань LLM, які приховані у вебінтерфейсах — і чому через це страждає якість

Більшість людей знають лише про temperature, але на практиці якість, повторюваність і вартість відповіді визначає цілий набір параметрів. У вебінтерфейсах (ChatGPT/Claude/Gemini та “model gardens”) ви часто бачите лише “Creative/Precise” — це просто пресети цих налаштувань. В API їх потрібно виставляти вручну, і саме тут з’являється відчуття “чому в UI було краще”.

Що реально керує результатом

1. `temperature` (0–2)
Керує випадковістю. Для фактів і структурованого SEO — 0–0.3. Для ідей/креативу — 0.7–1.0.

2. `max_tokens` / `max_output_tokens`
Це одночасно ліміт довжини і контроль витрат (ви платите за токени). Якщо вам потрібні мета-описи — ставте жорсткий ліміт, щоб модель не “розтікалась”.

3. `top_p` (nucleus sampling)
Дозволяє моделі обирати токени з “динамічного словника” за сумарною ймовірністю. Часто дає більш природну різноманітність, ніж одна лише temperature.

4. `top_k` (не всюди є)
“Жорстка стеля” по кількості кандидат-токенів. Добре для контролю стилю, але підтримка залежить від провайдера/моделі.

5. Покарання за повтори: `repetition_penalty` (деякі моделі)
Лікує “дуже-дуже-дуже” і циклічні формулювання. Корисно для генерації списків, FAQ, шаблонів.

6. OpenAI-підхід до різноманітності: `frequency_penalty` / `presence_penalty`
- frequency_penalty зменшує повторення вже вживаних токенів
- presence_penalty підштовхує до нових тем/аспектів

7. `stop_sequences`
Дозволяє обрубати відповідь у правильному місці (наприклад, після 5 пунктів або після JSON-блоку). Це суперпрактично для SEO-автоматизацій.

8. `seed` (де підтримується)
Для відтворюваності: якщо отримали ідеальний шаблон noscript/denoscription — можете стабільніше повторювати стиль.

9. Для зображень: `guidance_scale` / CFG
Показує, наскільки строго модель “слухає” промпт (важливо для візуалів у контенті).

10. Для відео: керування рухом (наприклад, `motion_bucket_id`)
Дозволяє збільшувати/зменшувати інтенсивність руху у згенерованому відео (актуально, якщо робите відеокреативи під SEO/соцмережі).

Практичні “пресети” для SEO-задач

1. Факти/витяг даних (SERP, конкурентні фічі, класифікація)
temperature: 0.1–0.2, top_p: 1.0, короткий max_tokens, за потреби невеликий frequency_penalty.

2. Контент-брифи та структури статей
temperature: 0.4–0.6, top_p: 0.8–0.95, помірний presence_penalty, stop_sequences для контролю формату.

3. Креатив для заголовків/хукiв/варіантів УТП
temperature: 0.8–1.0, top_p: 0.9–0.95, збільшений max_tokens, але з обмеженнями по stop_sequences.

- OpenAI API Reference (параметри temperature, top_p, frequency_penalty, presence_penalty, max_tokens) — https://platform.openai.com/docs/api-reference/chat
- Vertex AI: Content generation parameters (temperature, topP, topK) — https://docs.cloud.google.com/vertex-ai/generative-ai/docs/multimodal/content-generation-parameters
- Gemini API: generating content (generationConfig, topK/topP/maxOutputTokens) — https://ai.google.dev/api/generate-content
- Hugging Face Transformers: repetition_penalty, top_k, top_phttps://huggingface.co/docs/transformers/en/main_classes/text_generation
- Stable Video Diffusion (керування рухом через motion_bucket_id) — https://huggingface.co/docs/diffusers/en/using-diffusers/svd
🔥93👌1
Forwarded from Devaka Talk
Microsoft розробив легку утіліту на Python, яка перетворює будь який документ на markdown. Дуже крутий тул!
https://github.com/microsoft/markitdown

Markdown це оптимальний формат для текстів, який подалі використовується в LLM і пов'язаних аналізаторах текстівої інформації. Всі, хто колись будував власні аналізатори текстів гарно розуміє, що перед аналізом потрібно текст якось витягнути з сайтів і підготувати. Це не так просто, бо HTML містить багато шуму. Markitdown вирішує проблему за вас.

Наразі підтримується конвертація з наступних форматів:
- HTML
- Text, CSV, JSON, XML
- PowerPoint, Word, Excel
- PDF, ZIP
- Images, Videos (EXIF, OCR Data, Speech Trannoscription)
- YouTube URLS
- EPubs і навіть більше

До речі, в DevakaTools коли ви використовуєте AI Helper, там текст сторінки також перетворюється на Markdown, тому що це дуже зручно і оптимально (меньше шуму, більше швидкість, економія токенів).

Використання майкрософтовского інструменту дуже просте, після вставновки в консолі викликаються команди:

markitdown path-to-file.html > document.md

cat path-to-file.pdf | markitdown


Є також Python API до Markitdown, і MCP сервер для використання інструменту через LLM або AI агентів.
https://github.com/microsoft/markitdown/tree/main/packages/markitdown-mcp

Скрипт року, я вважаю!
👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Набирає обертів скандал з фейковими рецептами, які генерує AI Overviews з вкрадених рецептів на сайтах.

Food-блогери (зокрема Inspired Taste) показують, як AI Overviews/AI Mode в Google міксує інгредієнти з одного рецепта, а інструкції — з іншого, інколи атрибутує це брендом автора, хоча рецепт уже змінений і не протестований.

https://www.seroundtable.com/googles-ai-frankenstein-recipes-40674.html
😁12🔥2
Forwarded from Badass SEO 🌭
БЕЗКОШТОВНІ курси з AI, ML, Deep Learning та LLM від університетів

Core AI / ML / Deep Learning

📍MIT – 6.S191 → Deep Learning + LLMs
https://introtodeeplearning.com

📍Stanford – CS229 → Machine Learning (Andrew Ng)
https://cs229.stanford.edu

📍Stanford – CS231N → Computer Vision
https://cs231n.stanford.edu

📍 Stanford – CS224N → NLP & Transformers
https://cs224n.stanford.edu

📍CMU – 11-785 → Practical Deep Learning (PyTorch)
https://deeplearning.cs.cmu.edu

📍Harvard – CS50 AI → AI з Python для початківців
https://cs50.harvard.edu/ai/

LLM / Foundation Models / Generative AI
📍Stanford – CS336 → Build GPT from scratch
https://stanford-cs336.github.io

📍Stanford – CS324 → Foundation Models
https://stanford-cs324.github.io/winter2023/

📍Berkeley – LLM Agents → RAG, tools, agents
http://rdi.berkeley.edu/llm-agents/f24

📍MIT – Generative AI resources
https://openlearning.mit.edu/

Якщо є тільки 5 хвилин:
📍Google ML Crash Course
https://developers.google.com/machine-learning/crash-course

📍 Fast.ai — починаєш кодити одразу
https://course.fast.ai

📍Stanford CS336 — зрозуміти, як працює GPT
https://stanford-cs336.github.io

💡 Важливо:
Усі курси — офіційні, безкоштовні, з лекціями, слайдами та часто з домашками.
Платними можуть бути лише сертифікати — сам контент відкритий.

деякі я сама проходжу
буду вдячна, якщо ви доповните цей список своїми знахідками теж, я впевнена, що там є що додати

цікавий факт - якщо порахувати всі ці курси зі списку + проєкти вийде 3000-5000 годин

Найефективніша послідовність для новачків (6-12 місяців):

Google ML Crash Course (2 тижні, 15 год)
Harvard CS50 AI (1-2 місяці, 100 год)
Stanford CS229 (2-3 місяці, 200 год)
Fast.ai Practical DL (2 місяці, 120 год)
Stanford CS224N або CS231N (2-3 місяці, 150 год)

тому хоча б 30 відсотків пройти - це вже буде ого-го ⭐️
гарних вихідних!
Please open Telegram to view this post
VIEW IN TELEGRAM
14❤‍🔥1
Forwarded from SEO BAZA (Olesia Korobka)
Як знайти підклейку канонікаломпідслухано у Berta.

1. Вводимо в гуглі у пошуку site:якийсь-цікавий-домен.ко.за

2. Клікаємо по трьом крапкам у першого результату пошуку

3. Клікаємо More about this page

4. Під назвою сайту буде підклеєний канонікалом домен.
🔥19👏1
Forwarded from Sneex SEO 🇺🇦
Цікава стаття https://www.hobo-web.co.uk/google-pq-page-quality-rating/ від https://x.com/Hobo_Web, що він пише:

Критично важливі правила:


1. Я вже продемонстрував, що E-E-A-T є доктриною Google, закріпленою в правилах. Це найважливіша книга правил у темах YMYL (Your Money, Your Life), і ми бачимо цю доктрину в дії щоразу, коли виходить оновлення Google або оновлення спаму. Я також підкреслив через антимонопольні свідчення, що оцінювачі якості не впливають безпосередньо на рейтинг вашого сайту.

2. Я також уточнив, що технічно ви не можете додати E-E-A-T куди завгодно. E-E-A-T — це доктрина. E-E-A-T не згадується в жодному з витоків атрибутів, хоча я показав у попередніх статтях, як оцінки в системі конкуруючих філософій впливають на те, що Google називає E-E-A-T.

3. “Досвід, Експертиза, Авторитетність і Довіра (E-E-A-T) — це важливі аспекти в оцінці якості сторінки (PQ). Найважливішим членом у центрі сім'ї E-E-A-T є Довіра.” Google, 2025

4. Протягом багатьох років індустрія запитувала: чи це лише концепції для людей, чи вони закодовані в машині? Такі люди, як я, Cyrus Shephard, Lily Ray, Glenn Gabe і Marie Haynes, давно рекомендують серйозно ставитися до цих концепцій оцінювачів.

“PQ” та зв'язок з Quality Rater Guidelines

Чи відображають витоки “чертежів” в інженерії Google насправді Quality Rater Guidelines (QRG)?

Чи використовується система оцінки “Page Quality” (PQ) системами Google? Чи це та сама система, яку нам рекомендують використовувати для “самооцінки” нашого контенту?

Відповідь, знайдена глибоко в витоках Google Content Warehouse API, — так.

І те, де це розташовано в коді, дає уявлення про його важливість.

Витік надає технічне підтвердження, що концепції в PDF не є лише теоретичними цілями — це закодовані змінні в ранжувальному процесі.

І сам John Mueller з Google дав нам підтвердження на простій англійській, яке ідеально відповідає коду.

Докази: siteQualityStddev

Оцінка PQ не є привабливою. Я розумію, чому важливість цієї оцінки PQ у витоку залишилася непоміченою, затьмареною більш привабливими атрибутами, такими як siteAuthority або siteFocus, і навіть E-E-A-T.

Захована в тисячах рядків витоку документації API, є змінна, яка фундаментально змінює наше уявлення про один аспект авторитету сайту.

Офіційний текст витоку:

siteQualityStddev (тип: число) “Оцінка стандартного відхилення PQ сайту — розподіл оцінок PQ на рівні сторінки сайту. Зверніть увагу, що це відрізняється від nsr_variance, який прогнозує помилку самого NSR з агрегованого рейтингу на рівні сайту.”

Мій висновок: Термін “PQ rating” є ключовим.

В офіційних Quality Rater Guidelines основна метрика чітко названа Оцінкою Якості Сторінки (PQ Rating).

Статистично малоймовірно, що Google використовував би конкретну абревіатуру “PQ” у своїй внутрішній інженерній документації для позначення чогось іншого, ніж система “Page Quality”, яку вони витратили мільйони доларів на вдосконалення.

Ця змінна підтверджує дві речі:

- Google оцінює “PQ rating” для кожного сайту.
- Вони вимірюють розподіл (Стандартне Відхилення) цієї оцінки.

Я дійсно знайшов лише одну людину, Eduard Blacquière, яка зібрала більшість цього раніше.

Механізм: pqData

Витік також розкриває супутню змінну, яка живить це обчислення.

Офіційний текст витоку:

pqData (тип: ціле число) “Закодовані сигнали PQ на рівні сторінки.”

Аналіз: Ця змінна визначена як ціле число. У Quality Rater Guidelines люди оцінюють сторінки за шкалою (Найнижча, Низька, Середня, Висока, Найвища).

Існування pqData підтверджує, що алгоритм перетворює ці складні, орієнтовані на людину сигнали в чітке число — одне ціле число для кожного URL в індексі. Це діє як “Цифровий Двійник” оцінки оцінювача.

Google говорить: “Послідовність — найбільший фактор”

Для тих, хто сумнівається в коді, тепер у нас є публічне підтвердження. Змінна siteQualityStddev (Стандартне Відхилення) є математичним представленням Послідовності.

Google чітко позначив це як основний технічний фактор.

“Послідовність — найбільший технічний фактор SEO.” — John Mueller, 2025
👍5
Знаю Макса особисто і довіряю, тому закликаю підтримати гривнею.
1
У друга цієї ночі згоріла квартира та вбило кота, родина ціла

Закиньте військовим або в фонд
2
Forwarded from SEO BAZA (Olesia Korobka)
Чому трекати позиції бренду у відповідях AI промптами за допомогою різних інструментів немає ніякого сенсу, дослідив Rand Fishkin. Саме дослідження — пряма реклама одного з його сервісів, до якого насправді теж багато питань, але є цікаві знахідки.

Окрім того, що не факт, що користувачі взагалі використовують такі або подібні промпти, до того, що ви запитуєте апі, а користувачам відповідає чат, ще є проблема персоналізації.

Ренд зібрав 600 добровольців, кожному дали по 12 запитів з різних тематик і попросили задати їх в ChatGPT, Claude і Google AI (AI Mode та AI Overview). Потім відповіді проаналізували на входження брендів. І виявили, що ранжування брендів у списках відповідей майже ніколи не співпадають. Зі 100 відповідей шанси отримати 2 більш-менш однакові складають менше 1%. Вони будуть йти у різному порядку, будуть різні списки таких брендів, кількість брендів у відповіді тощо.

Але якщо задати один і той самий промпт 100 разів, то можна дослідити, який бренд згадується у відповідях найчастіше. І тоді вже зробити припущення, щодо видимості цього бренду за цим конкретним промптом. На скріншоті середня видимість по лікарні топ-3 брендів у різних AI-чатах.

Подібний результат можна отримати, якщо зробити близько 100 різних промптів по тематиці вашого бренду, але по різним підтематикам. У таких випадках є бренди, які зберігають 50% - 70% видимості у відповідях на штучні або рандомні людські промпти.

TLDR: якщо ви досліджуєте видимість у відповідях AI, робіть це по всім підтематикам і використовуйте від 100 промптів, тоді інформація буде більш-менш придатною для аналізу.
👏3
Discover Core Update

Це оновлення покращить користувацький досвід у кількох ключових аспектах:
- показуватиме користувачам більш локально релевантний контент із сайтів, що базуються в їхній країні;
- зменшить кількість сенсаційного контенту та клікбейту в Discover;
- частіше показуватиме глибокий, оригінальний і своєчасний контент із сайтів, які мають експертизу в конкретній темі, на основі того, як наші системи розуміють контент сайту.

https://developers.google.com/search/blog/2026/02/discover-core-update
4👍2