Боремся с дублями страниц

Часто владелец сайта может не подозревать, что на его ресурсе имеются дубли страниц. Это заметно только если обратить внимание на URL, если при одном контенте адреса страниц различаются — это дубли.

Для живых пользователей это ничего не значит, но для поисковых роботов имеет немаловажное значение. Для них это разные страницы с одинаковым контентом.

Поисковой робот считает, что текст на странице перестал быть уникальным, а это уже сказывается на ранжировании.

Наличие дублей размывает ссылочный вес, который оптимизатор пытался сосредоточить на целевой странице. Из-за дублей он может оказаться совсем на другой странице. Эффект от внутренней перелинковки может снизиться.

Часто в возникновении дублей виноваты CMS. При неверных настойках генерируются четкие копии. Для решения данной проблемы можно воспользоваться плагином для удаления копий.

Возникновение дублей с не полностью идентичным контентом — вина вебмастера. Такие страницы можно часто встретить на сайтах интернет-магазинов, где страницы отличаются лишь предложениями с описанием.

Многие утверждают, что небольшое количество дублей не повредит сайту, но сначала стоит обратиться к поисковикам и посмотреть, как они видят ваш сайт. Если после проверки количество будет отличаться в 10-20 раз, то вероятно, что на сайте есть дубли. Если сайт небольшой, можно пересчитать количество страниц и сравнить с показателями из поисковых систем.

Как решить проблему с дублями страниц

После того, как вы найдете все дубли, их нужно будет удалить. Это можно сделать несколькими способами:

  • Вручную. Такой способ скорее всего подойдет для страниц, созданных вручную.
  • Редирект 301. Помогает склеить страницы-копии с www и без www.
  • Тег canonical применяется для нечетких копий. Например, для товаров интернет-магазинов.
  • Для борьбы с дублями поможет файл robots.txt. Директива Disallow позволит закрыть доступ к дублям для поисковых роботов.