Обновлено 28.07.2017г. 11:30 (UTC+3)

Смена релевантной страницы: причины, анализ, исправление

Разберёмся с тем, почему может происходить смена релевантной страницы.

Достаточно часто случается, что при оптимизации одной страницы ресурса в поисковой выдаче неожиданно появляется совсем другая. Что делать в таких ситуациях? Кто-то начинает обвинять поисковик, кто-то тратит ресурсы на продвижение второй страницы (раз уж она стала релевантной). Не правы ни первые, ни вторые, ведь правильно будет проанализировать причины смены релевантной страницы и выполнить ряд действий, чтобы исправить ситуацию. Вот об этом и поговорим.


Тема нашей беседы не абстрактна, так как подобная ситуация случается не единожды – особенно, если речь идет о больших ресурсах, в которых целевые запросы смежные. К примеру, когда карточка товара в онлайн-магазине может вытеснить продвигаемую категорию (в которую входит этот товар). Главный совет при этом – не паниковать и не совершать необдуманных действий. Лучше разобраться в причинах смены страницы. Вот самые распространенные:

  • наличие дублей страниц;
  • релевантность (переспам страницы по запросу, переспам анкор-листа);
  • внутренние или внешние ссылки;
  • переходы с соцсетей;
  • ошибка в выборе вложенности;
  • ошибка поисковика;
  • страница выхода.

Дубли

Наличие полных и неполных копий страниц – явный фактор смены релевантной страницы в поисковой выдаче. Копии преимущественно появляются из-за особенностей CMS или из-за копирования одного и того же контента на разные страницы. Практика показывает, что если контент на двух разных страницах идентичен более, чем на 15% - есть угроза смены релевантной страницы в результатах поисковой выдачи. Выводы: следить за настройками CMS (посмотреть, чтобы дубли не создавались внутренними ссылками, например, при нажатии на кнопку «Далее») и не допускать дублирования контента.

Проверить наличие дублей можно, набрав в поиске: site:вашсайт.ru или используя софт. Убирать дубли можно методом удаления, настройкой 301-редиректа либо запретом страницы к индексации через robots.txt. Также есть возможность автоматически проверить ресурс на дубли страниц. Есть распространенная программа Xenu, предназначенная для технического аудита сайта.  Также помогает Google Webmaster, здесь можно найти страницы с повторяющимися мета-тегами: poisk_dubley

Релевантность

Ошибка может быть двоякой: например, если было принято неправильное решение и в качестве объекта для продвижения была выбрана страница со слабой релевантностью. Такое случается, если оптимизатор поддается на требования заказчика и начинает продвигать слабо оптимизированную страницу. Но более частой является проблема переоптимизации. Такое бывает, если использовать устаревшие методы продвижения – такие, как перенасыщение страницы ключевыми словами.

Таким образом сейчас можно добиться только обратного эффекта — страница или существенно потеряет позиции, или будет удалена из поиска. Современная релевантная страница не должна «пестрить» частым повторением ключевых слов. Нужно скромнее пользоваться тэгом strong в контенте, употреблять только 1 релевантное ключевое слово в title, избегать неестественных поисковых фраз («мебель деревянная Москва купить» и т.п.).

Если речь идет о продвижении существующей страницы сайта, нужно пытаться выбрать наиболее релевантную (запрос в поисковой системе site:вашсайт.ru ключевое слово). Если заказчик требует продвижения определенной страницы, нужно добиться, чтобы она сначала стала первой в выдаче при внутреннем поиске. Создавая оптимизированный контент под страницу, нужно ставить на первое место соответствие тематике, пользу для читателя и «человечный» вид, употребляя ключевые слова в разумных количествах.

Внутренние ссылки

Релевантную страницу может вытеснить другая – если ее внутренний ссылочный вес больше. Проще говоря, на нее ссылается больше внутренних документов. Определить количество и направление внутренних ссылок поможет, к примеру, программы Page Weight, Screaming Frog или ComparseR. Можно поступить проще, используя возможности вебмастера поисковых систем. В Инструментах для вебмастеров Google для этого нужно кликнуть на: Поисковый трафик/внутренние ссылки в главном меню.

Внешние ссылки

Все то же самое: если страница имеет большее количество обратных ссылок, есть вероятность, что она будет ранжироваться выше. Конечно, если ресурсом занимался один оптимизатор (или одна команда), большую ссылочную массу будут иметь нужные релевантные страницы. Но это редкость: обычно команды оптимизаторов сменяются часто, и каждая «метла» начинает все заново. Отсюда – путаница и смена релевантных страниц. Чтобы определить внешние ссылки, достаточно воспользоваться Яндекс.Вебмастером: Индексирование сайта/Внешние ссылки. В Google это: Поисковый трафик/Ссылки на сайт/Дополнительно/Загрузить больше ссылок.

Переходы с соцсетей

Многие современные страницы оснащают социальными кнопками. Если не углубляться в принципы алгоритмизации социальной активности, можно сказать просто: релевантной может стать та страница, которую больше всего «лайкают» и «расшаривают» посетители. Стоит учитывать это и размещать топовый контент на релевантной продвигаемой странице. Чтобы определить, какая страница пользуется наибольшей популярностью в соцсетях, можно установить социальные кнопки со счетчиками.

Ошибка в выборе вложенности

Бывает, что релевантной нужно сделать страницу с карточкой товара в интернет-магазине. Обычно карточка товара имеет третий уровень вложенности (главная/категория/товар), отсюда трудности, ведь такие страницы лучше всего продвигать по низкоконкурентным запросам, но никак не по высококонкурентным.

Страница выхода

Если большой процент пользователей, переходя по запросу или смежным запросам, покидают страницу, которая выбрана релевантной, то эта страница может посчитаться более релевантной для поисковиков. Как они это видят: пользователь пришёл на сайт, увидел информацию, но ее оказалось недостаточно для ответа на запрос, он перешел на другую страницу сайта и затем закрыл сайт – вероятно ответ на его запрос присутствовал на второй странице.

Важно, отслеживать навигационные цепочки пользователей по сайту и не допускать «размазывания» информации по запросам на разных страницах сайта.

Поисковик тоже может ошибаться

Не существует идеальных поисковых алгоритмов (да простит меня Яндекс Всемогущий) – и хоть ошибки в новых алгоритмах обычно устраняют быстро, не исключено, что ваш сайт может стать жертвой таких временных недостатков. Выход из ситуации – не бить панику после каждого случая, а отслеживать закономерность.К примеру, если страница была релевантной несколько лет, а после апдейта сменила позиции, нужно проверить все объективные факторы, перечисленные выше.

Все в порядке? Тогда не паникуем и ждем следующего апдейта. Если и после него утраченная позиция не вернулась, делайте глубокий анализ, отслеживайте статистику, социальную активность, наличие дублей, распределение внутренних и внешних ссылок. Наблюдайте, какой будет выдача в течение 30 дней. Обдуманные действия помогут найти причину смены позиции и вернуть все на место.