Google представил новую Search Console
https://ln2.in/dQ0ZGfE
Несколько месяцев бета-версию тестировали ограниченное количество вебмастеров, теперь она будет доступна для всех. Новый функционал включает:
Эффективость поиска
Отчеты эффективности показывают важные метрики про работу сайта в результатах поиска: как часто он показывается, какой CTR, и другие фишки. Этот функционал заменит собой текущий про поисковую аналитику. Данные будут храниться 16 месяцев и также доступны через Search Console API.
Индексация
Информация об индексации страниц: какие урлы проиндексированы, какие возникли ошибки, и причины, по которым гугл не проиндексировал определенные страницы.
AMP статус
Отчет, который поможет пофиксить ошибки в AMP-версиях страниц.
Вакансии
Google активно работает над своим сервисом "Google for Jobs", который сейчас доступен пока не для всех регионов. Если на сайте имеются вакансии, то можно будет их связывать с гугловским сервисом, а в панели фиксить ошибки.
В панели будут доступны две версии Search Console, между которыми можно переключаться в один клик. Отчеты можно будет гибко расшаривать сотрудникам. Сейчас гугл собирает фидбек и постепенно выложит изменения.
https://ln2.in/dQ0ZGfE
Несколько месяцев бета-версию тестировали ограниченное количество вебмастеров, теперь она будет доступна для всех. Новый функционал включает:
Эффективость поиска
Отчеты эффективности показывают важные метрики про работу сайта в результатах поиска: как часто он показывается, какой CTR, и другие фишки. Этот функционал заменит собой текущий про поисковую аналитику. Данные будут храниться 16 месяцев и также доступны через Search Console API.
Индексация
Информация об индексации страниц: какие урлы проиндексированы, какие возникли ошибки, и причины, по которым гугл не проиндексировал определенные страницы.
AMP статус
Отчет, который поможет пофиксить ошибки в AMP-версиях страниц.
Вакансии
Google активно работает над своим сервисом "Google for Jobs", который сейчас доступен пока не для всех регионов. Если на сайте имеются вакансии, то можно будет их связывать с гугловским сервисом, а в панели фиксить ошибки.
В панели будут доступны две версии Search Console, между которыми можно переключаться в один клик. Отчеты можно будет гибко расшаривать сотрудникам. Сейчас гугл собирает фидбек и постепенно выложит изменения.
Official Google Webmaster Central Blog
Introducing the new Search Console
Official news on crawling and indexing sites for the Google index
Минус пузомерка
Сейчас тИЦ чужого сайта измерить можно, но его значение будет ровно таким, как до закрытия Яндекс.Каталога. Актуальное значение будет знать только владелец сайта.
via @devakatalk
Сейчас тИЦ чужого сайта измерить можно, но его значение будет ровно таким, как до закрытия Яндекс.Каталога. Актуальное значение будет знать только владелец сайта.
via @devakatalk
Почему страницы, закрытые в robots.txt, попадают в индекс Google и могут появляться в поиске? Потому как этот файл является инструкцией для краулера, а не для индексатора. Поисковый бот (краулер) не будет сканировать закрытые страницы, так как это запрещено в robots.txt. Но индексатор, это отдельный алгоритм, и Google важно показать страницу в индексе, если на нее ссылаются. При закрытии этой страницы в роботсе, он просто сформирует сниппет из других сигналов. Стоит отметить, что в Яндексе, в отличие от Google, robots.txt это также инструкция для индекатора. Все что тут закрыто, не попадет в индекс Яндекса.
Если говорить о мета-теге robots, то здесь содержатся инструкции для обоих алгоритмов. Например,
<meta name="robots" content="noindex, follow" />
noindex — четкая инструкция для индексатора.
follow — инструкция для краулера, стоит ли дальше сканировать сайт по новым ссылкам с этой страницы.
Обратите внимание, что если вы добавите мета-роботс noindex, и при этом закроете страницу в robots, то индексатор о noindex никогда не узнает. Поэтому, чтобы удалять страницы из индекса Google, robots.txt не очень подходит. А что же подходит? Смотрите об этом в новогоднем видео от Игоря Шулежко: https://youtu.be/Zt5VnJu3Ibs
Если говорить о мета-теге robots, то здесь содержатся инструкции для обоих алгоритмов. Например,
<meta name="robots" content="noindex, follow" />
noindex — четкая инструкция для индексатора.
follow — инструкция для краулера, стоит ли дальше сканировать сайт по новым ссылкам с этой страницы.
Обратите внимание, что если вы добавите мета-роботс noindex, и при этом закроете страницу в robots, то индексатор о noindex никогда не узнает. Поэтому, чтобы удалять страницы из индекса Google, robots.txt не очень подходит. А что же подходит? Смотрите об этом в новогоднем видео от Игоря Шулежко: https://youtu.be/Zt5VnJu3Ibs
YouTube
✅КАК УДАЛИТЬ СТРАНИЦУ САЙТА из Google - 7 решений
Как удалить страницу из поиска Google
0:23
1) Используйте код ответа сервера 410 или 404
Разница между 404 ошибкой и 410 кодом ответа сервера ответами сервера
Matt Cutts: How Google Handles 404 & 410 Status Codes
"The short answer is that we do sometimes…
0:23
1) Используйте код ответа сервера 410 или 404
Разница между 404 ошибкой и 410 кодом ответа сервера ответами сервера
Matt Cutts: How Google Handles 404 & 410 Status Codes
"The short answer is that we do sometimes…
Google обновил PageSpeed Insights. Теперь он говорит не только об оптимизации страниц, но и скорости загрузки (данные от пользователей Chrome).
https://developers.google.com/speed/pagespeed/insights/
https://developers.google.com/speed/pagespeed/insights/
KeyCollector может стать кроссплатформенным. Никто не обещает, но и не отрицает. Подождем 4й версии.
via @devakatalk
via @devakatalk
Как одинаково хорошо ранжироваться и в Яндексе и в Google:
https://youtu.be/uvxkCY_N0DY
https://youtu.be/uvxkCY_N0DY
YouTube
Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube.
Devaka Talk via @like
25 января состоится очередная конференция NaZapad, посвященная продвижению на зарубежных рынках. В этот раз, наряду с SEO и контент-маркетингом, организаторы добавили секцию Affiliates, где докладчики поделятся опытом заработка на зарубежных партнерских программах.
Отличное мероприятие, которое уже стало хорошей традицией компании SeoProfy. Онлайн-участие остается бесплатным. Регистрируйтесь!
Анонс и обсуждение:
→ https://devaka.ru/events/nazapad-8
Сайт конференции и регистрация:
→ https://nazapad.com/
Отличное мероприятие, которое уже стало хорошей традицией компании SeoProfy. Онлайн-участие остается бесплатным. Регистрируйтесь!
Анонс и обсуждение:
→ https://devaka.ru/events/nazapad-8
Сайт конференции и регистрация:
→ https://nazapad.com/
Devaka SEO Блог
NaZapad 8 — 50 оттенков зарубежного SEO
25 января состоится очередная конференция NaZapad, посвященная продвижению на зарубежных рынках.
Forwarded from Markdown
Сервисы, которые я рекомендую всем студентам.
Askusers
Самостоятельный юзабилити-аудит с помощью опроса готовой фокус-группы. Очень удобно. И странно, что мало кто пользуется.
Serpstat
Это уже сервис из ТОП3 для оптимизатора. Анализ конкурентов в разных регионах, семантики и пр.
SEranking
Набор инструментов почти на все случаи жизни сеошника. Раньше почему-то думал, что SEranking это про позиции.
Website Auditor
Одна из лучших программ для технического аудита сайта и анализа контента.
Но список основных инструментов, конечно же, немного больше: https://www.youtube.com/watch?v=HLnNCj9Esog
Askusers
Самостоятельный юзабилити-аудит с помощью опроса готовой фокус-группы. Очень удобно. И странно, что мало кто пользуется.
Serpstat
Это уже сервис из ТОП3 для оптимизатора. Анализ конкурентов в разных регионах, семантики и пр.
SEranking
Набор инструментов почти на все случаи жизни сеошника. Раньше почему-то думал, что SEranking это про позиции.
Website Auditor
Одна из лучших программ для технического аудита сайта и анализа контента.
Но список основных инструментов, конечно же, немного больше: https://www.youtube.com/watch?v=HLnNCj9Esog
Большой ошибкой является создание сайта только под органический трафик. Часто это сайты, созданные под партнерки или адсенс. Хорошо отработанная схема: создал сайт, написал статьи, получил трафик. Но последний пункт в этой схеме не гарантируется и даже если раньше органический трафик был, то всегда его можно лишиться.
Пример: человек создал сайт, писал статьи, поисковики давали трафик, партнерки давали деньги. Но в какой-то момент оказалось, что на сайте появилось много статей взрослой тематики и поисковик присвоил ему пометку "взрослый" (так называемый adult-фильтр) и оставил только adult-трафик. Вебмастер бы и хотел удалить статьи взрослой тематики, но фильтр же снимается не моментально, поэтому какое-то неизвестное время нужно будет сидеть без трафика вовсе, а значит и без зарплаты 😐
И это не единственный пример. Лишиться трафика из Яндекса и Google можно в любой день по разным причинам. Класть яйца в одну корзину очень рискованно. Что же делать?
Нужно привлекать на сайт посетителей из разных источников. Отлично, когда органика не привышает 30% всего трафика сайта, а остальное распределяется между реферальными источниками, социальными сетями и директ-трафиком. Разнообразие источников трафика должно быть одной из целей в вашей seo-стратегии. Думайте об этом, когда проектируете сайт, когда пишете контент и когда размещаете где-либо ссылки. Ссылка работает только для органики? Это плохая ссылка, так как будет, как минимум, идти в разрез с вашей seo-стратегией. Контент приводит только "новичков"? Это плохой контент... Есть о чем поразмышлять.
Дерзайте! И да прибудет с вами не-seo трафик :)
Пример: человек создал сайт, писал статьи, поисковики давали трафик, партнерки давали деньги. Но в какой-то момент оказалось, что на сайте появилось много статей взрослой тематики и поисковик присвоил ему пометку "взрослый" (так называемый adult-фильтр) и оставил только adult-трафик. Вебмастер бы и хотел удалить статьи взрослой тематики, но фильтр же снимается не моментально, поэтому какое-то неизвестное время нужно будет сидеть без трафика вовсе, а значит и без зарплаты 😐
И это не единственный пример. Лишиться трафика из Яндекса и Google можно в любой день по разным причинам. Класть яйца в одну корзину очень рискованно. Что же делать?
Нужно привлекать на сайт посетителей из разных источников. Отлично, когда органика не привышает 30% всего трафика сайта, а остальное распределяется между реферальными источниками, социальными сетями и директ-трафиком. Разнообразие источников трафика должно быть одной из целей в вашей seo-стратегии. Думайте об этом, когда проектируете сайт, когда пишете контент и когда размещаете где-либо ссылки. Ссылка работает только для органики? Это плохая ссылка, так как будет, как минимум, идти в разрез с вашей seo-стратегией. Контент приводит только "новичков"? Это плохой контент... Есть о чем поразмышлять.
Дерзайте! И да прибудет с вами не-seo трафик :)
Как найти хорошую тему для статьи, если идей уже нет:
https://youtu.be/cZ3gSB2Ek2Q
https://youtu.be/cZ3gSB2Ek2Q
YouTube
Лучшие методы поиска тем для статей в блог. Секреты от Сергея Кокшарова (devaka.ru)
Смотрите бесплатный курс о семантическом проектировании: https://bit.ly/2LagNys
Ведущие курса:
Игорь Рудник - https://news.1rj.ru/str/rudnyk
Сергей Кокшаров - https://news.1rj.ru/str/devakatalk
Видео выходят при поддержке:
https://collaborator.pro/ — биржа прямой рекламы,…
Ведущие курса:
Игорь Рудник - https://news.1rj.ru/str/rudnyk
Сергей Кокшаров - https://news.1rj.ru/str/devakatalk
Видео выходят при поддержке:
https://collaborator.pro/ — биржа прямой рекламы,…
Гугл недавно анонсировал обновление Search Console. Держите свежий обзор:
http://livepage.pro/blog/novyj-google-search-console.html
http://livepage.pro/blog/novyj-google-search-console.html
Livepage.pro
Новый Google Search Console
В январе 2018 года Google Search Console обновил интерфейс. В этой статье мы рассмотрим их и сравним инструмент со старым вебмастером, чтобы понять, на какие данные Google рекомендует смотреть в этом году.
Миша Шакин, известный блоггер и специалист по зарубежному продвижению, создал новый канал "Англоязычное SEO" — @burzhunet. Рекомендую! Я уже подписался 🇺🇸
На что делать упор чтобы достичь максимальной эффективности? SEO или рекламный трафик: «яйцо или курица» – одна из распространенных дилемм маркетологов и SEO-специалистов. Хорошему digital-специалисту этот вопрос покажется смешным: очевидно, что SEO и рекламный трафик одинаково важны в достижении результата. На какие еще области следуюет обратить внимание, чтобы достичь эффекта синергии?
Эти вопросы будут раскрыты на открытом вебинаре 23 января в 20:00 по Москве, который состоится в рамках нового курса “Digital Маркетолог” в OTUS! Помимо проблем областей знаний digital-маркетинга в вебинаре будет рассмотрено кросс-канальное взаимодействие и важность бренда в маркетинге, влияние продукта на стратегию продвижения и важность цифрового подхода. Будет интересно!
Преподаватель курса - Виктория Александрова - Head of Marketing в OTUS, экс-сотрудник Яндекса и MailRu, специалист с 7-летним опытом в интернет-продвижении и автор инновационных продуктов по аудиту рекламных компаний и оценке рекламного потенциала поделится своим опытом и расскажет, почему мы (OTUS) отвели в программе курса целый месяц для SEO, почему ставим анализ данных в приоритет и почему так важно комплексное видение в продвижении продукта.
Зарегистрируйтесь на онлайн-трансляцию, чтобы не пропустить: https://otus.pw/jPii/
P.S. Реклама щедро оплачена. Если вы из Украины, для доступа к сайту используйте VPN.
Эти вопросы будут раскрыты на открытом вебинаре 23 января в 20:00 по Москве, который состоится в рамках нового курса “Digital Маркетолог” в OTUS! Помимо проблем областей знаний digital-маркетинга в вебинаре будет рассмотрено кросс-канальное взаимодействие и важность бренда в маркетинге, влияние продукта на стратегию продвижения и важность цифрового подхода. Будет интересно!
Преподаватель курса - Виктория Александрова - Head of Marketing в OTUS, экс-сотрудник Яндекса и MailRu, специалист с 7-летним опытом в интернет-продвижении и автор инновационных продуктов по аудиту рекламных компаний и оценке рекламного потенциала поделится своим опытом и расскажет, почему мы (OTUS) отвели в программе курса целый месяц для SEO, почему ставим анализ данных в приоритет и почему так важно комплексное видение в продвижении продукта.
Зарегистрируйтесь на онлайн-трансляцию, чтобы не пропустить: https://otus.pw/jPii/
P.S. Реклама щедро оплачена. Если вы из Украины, для доступа к сайту используйте VPN.
Otus
Ближайшие мероприятия | OTUS
Ближайшие мероприятия в Otus
Devaka Digest #11 — свежая подборка полезных ссылок.
https://devaka.ru/articles/digest-11
👨🎓 Тренды интернет-маркетинга в 2018 году
https://ln2.in/Pj9AudG
🖊 Как повысить кликабельность тайтла в 2 раза
https://ln2.in/4vxfjIc
📊 Своя модель атрибуции в Power BI для сквозной аналитики
https://ln2.in/IhpBJss
🚀 Турбо-страницы Яндекса. Руководство по применению
https://ln2.in/XPtab0K
См. полный дайджест: https://devaka.ru/articles/digest-11
via @devakatalk #digest #дайджест
https://devaka.ru/articles/digest-11
👨🎓 Тренды интернет-маркетинга в 2018 году
https://ln2.in/Pj9AudG
🖊 Как повысить кликабельность тайтла в 2 раза
https://ln2.in/4vxfjIc
📊 Своя модель атрибуции в Power BI для сквозной аналитики
https://ln2.in/IhpBJss
🚀 Турбо-страницы Яндекса. Руководство по применению
https://ln2.in/XPtab0K
См. полный дайджест: https://devaka.ru/articles/digest-11
via @devakatalk #digest #дайджест
Devaka SEO Блог
Devaka Digest #11 — SEO, режим «Турбо»
Лучшие статьи по SEO и интернет-маркетингу, 11 выпуск. Смотрите также предыдущие выпуски: Digest #10, Digest #9, Digest #8. ТРЕНДЫ И СТРАТЕГИИ 👨🎓 Тренды интернет-маркетинга в 2018 году Serpstat провел опрос экспертов по ключевым трендам 2018 в области SEO…
На блоге серпстата вышла статья по мотивам моего доклада про оптимизацию сайта под голосовой поиск. Практически все, что вы должны знать о голосовом трафике: https://ln2.in/Y1LO7qn
Serpstat
Сергей Кокшаров «Как получать больше трафика из голосового поиска» — Serpstat Blog
Как оптимизировать сайт под голосовой поиск, какие основные типы запросов в голосовом поиске и на что нужно обращать внимание при оптимизации? На все вопросы ответит Сергей Кокшаров в нашем интервью.
Яндекс обнаружил, что некоторые слова встречаются в текстах парами. Например, "запад" и "восток", "сша" и "китай", "макдональдс" и "kfc"... и даже соперничают между собой. И вот, опираясь на статистику, Яндекс определил, какое из слов выигрывает, насколько и в каких регионах. На основе этого разработал тест :) проверьте свою интуицию:
https://yandex.ru/company/researches/2018/pairs
https://yandex.ru/company/researches/2018/pairs
Компания Яндекс
Компания Яндекс — Тест Яндекса. Лыжи или сноуборд, нефть или биткойн — что ищут чаще?
Попробуйте угадать, какое слово в паре чаще встречается в поисковых запросах.
После книг Мегре "Анастасия" в славянских странах поднялся интерес к эко-поселениям и вообще, уходу от мирской суеты в своё фермерское поселье. Айтишников этот тренд тоже не обошел, они хотят нормально работать в тихой обстановке с хорошей экологией и интернетом. И ради этого готовы построить новый город, а может быть и страну.
Бывший сотрудник «Яндекса» потратил 11 млн рублей и создал посёлок для программистов в Кировской области, где уже живут 6 семей. Читайте интересное интервью с этим предпринимателем на VC: https://ln2.in/kU0yX6Z
Бывший сотрудник «Яндекса» потратил 11 млн рублей и создал посёлок для программистов в Кировской области, где уже живут 6 семей. Читайте интересное интервью с этим предпринимателем на VC: https://ln2.in/kU0yX6Z
vc.ru
Бывший сотрудник «Яндекса» потратил 11 млн рублей и создал посёлок для программистов в Кировской области
Интервью с предпринимателем Алексеем Конышевым о привлечении первых жителей, медлительности региональной администрации и возрождении деревни.
Не только поисковые системы умеют оценивать качество контента, но и любые крупные контент-проекты. Например, Википедия.
Википедия использует около 300 параметров для оценки качества статей. В целом, более качественные статьи на Википедии являются длинными, с большим количеством изображений, примечаний, фактов, внутренних ссылок на статью, используют ссылки согласованным образом, редактируются сотнями авторов, имеют тысячи редакций (версий) и имеют большую посещаемость.
О том, как производится автоматическая оценка качества, поделился польский википедист на Хабре: https://habrahabr.ru/post/347376/
via @devakatalk
Википедия использует около 300 параметров для оценки качества статей. В целом, более качественные статьи на Википедии являются длинными, с большим количеством изображений, примечаний, фактов, внутренних ссылок на статью, используют ссылки согласованным образом, редактируются сотнями авторов, имеют тысячи редакций (версий) и имеют большую посещаемость.
О том, как производится автоматическая оценка качества, поделился польский википедист на Хабре: https://habrahabr.ru/post/347376/
via @devakatalk
Хабр
Автоматическая оценка качества статей Википедии на разных языках
Предлагаю Вашему вниманию обзорную статью научных работ, в которых я являюсь непосредственным участником и автором, на тему оценки качества Википедии на разных я...
Нужна ли вам пагинация? Проверьте, как её используют люди.
Вот пример статистики одного из реальных проектов:
• 415 762 тысяч посетителей
• 388 303 (93.4%) - не использовали пагинацию вовсе
• 12 945 (3.1%) - перешли на 2 страницу
• 6 411 (1.5%) - на 3 стр
• 3 067 (0.7%) - на 4 стр
• 24 348 (5.8%) - использовали до 5 страниц пагинации
• 2 813 (0.7%) - посещали от 6 до 9 страниц пагинации
• 434 (0.1%) - использовали от 10 и более
• Самый настырный пользователь пролистал 45 стр. пагинации из 46.
О чем это говорит? О том, что больше 3-5 страниц пагинации делать смысла нет. Нужно стараться расположить все самое важное на первой странице и именно ей решить пользовательский интент. Если пользователь не решил здесь (на первой стр) свою задачу, то с большой вероятностью он не будет листать дальше.
Есть пару нюансов:
1. У вас может быть все по-другому
2. Хорошо бы еще посмотреть на конверсию
3. Пагинация нужна не только пользователям
Вот пример статистики одного из реальных проектов:
• 415 762 тысяч посетителей
• 388 303 (93.4%) - не использовали пагинацию вовсе
• 12 945 (3.1%) - перешли на 2 страницу
• 6 411 (1.5%) - на 3 стр
• 3 067 (0.7%) - на 4 стр
• 24 348 (5.8%) - использовали до 5 страниц пагинации
• 2 813 (0.7%) - посещали от 6 до 9 страниц пагинации
• 434 (0.1%) - использовали от 10 и более
• Самый настырный пользователь пролистал 45 стр. пагинации из 46.
О чем это говорит? О том, что больше 3-5 страниц пагинации делать смысла нет. Нужно стараться расположить все самое важное на первой странице и именно ей решить пользовательский интент. Если пользователь не решил здесь (на первой стр) свою задачу, то с большой вероятностью он не будет листать дальше.
Есть пару нюансов:
1. У вас может быть все по-другому
2. Хорошо бы еще посмотреть на конверсию
3. Пагинация нужна не только пользователям