Каннибализация ключевых слов

Каннибализация ключевых слов обычно начинается тогда, когда информационная архитектура web-сайта требует целевого использования термина или фразы на нескольких страницах сайта. Часто это делается неумышленно, но в результате 5 приводит к тому, что несколько (десятков) страниц имеет одно и то же целевое ключевое слово в тегах названия и заголовка.

Поисковый движок проползет по вашему сайту и увидит 4 разные страницы (или даже 40), причем все они как будто бы релевантны для данного конкретного ключевого слова (в нашем примере ключевым словом является snowboard). Google не интерпретирует это таким образом, что ваш сайт в целом более релевантен для сноубордов или должен иметь более высокий рейтинг, чем конкурент. Вместо этого Google выбирает из многих версий одну, которая (по его мнению) лучше всех соответствует запросу. Когда это происходит, вы теряете некоторые возможности, поднимающие ваш рейтинг. Какие же это возможности?

Внутренний якорный текст.
Поскольку вы указываете на множество разных страниц с одной и той же темой, то не сможете сконцентрировать пользу от внутреннего якорного текста на одной цели.

Внешние ссылки.
Если четыре сайта делают ссылки на одну страницу о сноубордах, три сайта ссылаются на другую страницу о сноубордах, а еще шесть сайтов ссылаются на третью страницу о сноубордах, то вы разделили всю пользу от ваших внешних ссылок между тремя страницами (вместо того, чтобы сконцентрировать ее на одной странице).

Качество контента.
После трех или четырех страниц информации (по одной и той же теме) ценность вашего контента начинает падать.


Вам нужно, чтобы ссылки и реферралы привлекала самая лучшая ваша страница (а не десяток безликих дублированных страниц).

Показатель конвертации.
Если одна страница конвертируется лучше других, то совершенно не нужно иметь несколько нацеленных на тот же самый трафик страниц с более низкой конвертацией. Если вы хотите отслеживать конвертацию, то используйте систему тестирования с множественной доставкой.

Все страницы сфокусированы на уникальных вариациях и все они имеют обратные ссылки на исходный (канонический) источник (вместо целевого использования snowboards на каждой странице). Теперь Google может легко идентифицировать самую релевантную страницу для каждого из этих запросов. Это ценно не только для поисковых движков, но и обеспечивает лучшее впечатление пользователям, а также улучшает общую информационную архитектуру.

Что же вам следует делать, если вы уже имеете каннибализацию ключевого слова? Используйте редирекгы 301, чтобы ликвидировать конкурирующие друг с другом страницы (или подумайте, как их дифференцировать). Начните с выявления всех страниц, имеющих эту проблему, определите самую лучшую страницу, на которую их можно направить.


Затем используйте редирект 301 (с каждой из проблемных страниц) на ту страницу, которую хотите сохранить. Это обеспечит не только попадание пользователей на нужную страницу, но и тот факт, что накопленные с течением времени ссылки и релевантность направят поисковые движки на самую релевантную для данного запроса страницу с наиболее потенциально высоким рейтингом.

Рассмотрим пример ликвидации проблемы с внутренними ссылками.

Допустим, сайт предприятия может иметь размер от 10 тыс. и до 10 млн страниц. Для многих сайтов такого типа серьезной проблемой является неправильное распределение "сока" внутренних ссылок.

Вообразите, что каждая из этих крошечных страничек представляет собой от 5 до 100 тыс. страниц на сайте масштаба предприятия. Некоторые его части (блоги, статьи, инструменты, популярные новости и т. д.) могут получать непропорционально большое количество внутренних ссылок. Другие области (обычно это бизнес-контент или контент, связанный с продажами) остаются в стороне. Как это поправить? Посмотрите на рис. 4.8.

Решение простое (по крайней мере, его принцип прост). Пусть богатые "соком" страницы поделятся со своими обделенными ссылками братьями.


Это кажется простым, но в реализации может быть невероятно сложно. Внутри архитектуры сайта (с несколькими сотнями тысяч или миллионом страниц) почти невозможно выявить богатые и бедные "соком" страницы, а тем более добавить такой код, который поможет распределить "сок ссылок" по справедливости.

К сожалению, решение этой задачи с точки зрения программирования очень трудоемко. Владельцу такого сайта необходимо разработать систему, которая будет отслеживать входящие ссылки и рейтинги, а также строить мосты, которые будут переливать сок от богатых ссылками к бедным.

Но есть альтернатива — это создание очень плоской архитектуры сайта, которая основана на релевантности или семантическом анализе (такие услуги предлагают несколько компаний, специализирующихся на поиске по сайтам предприятий и их архитектуре). Подобная стратегия больше соответствует указаниям поисковых движков (хотя она несколько хуже) и, безусловно, гораздо менее трудоемка.

Существенное увеличение весового коэффициента авторитета домена (за последние два или три года) производит впечатление попытки поисковых движков преодолевать потенциально плохие структуры внутренних ссылок (поскольку проектирование web-сайтов под PageRank практически ничего не дает пользователям) и поощрять те сайты, которые имеют большой авторитет, входящие ссылки и доверие.

Оцените статью: (0 голосов)
0 5 0

Статьи из раздела Продвижение сайтов на эту тему:
Аудит существующего сайта для выявления проблем в области оптимизации
Важность анализа ключевых слов
Ваши фанаты
Два примера спама
Другие контролируемые вами домены