Дублирование контента

Часто на пути вебмастеров к высоким позициям в поисковой выдаче становится проблема дублирования контента. Поисковые системы отрицательно относятся как к полным, так и частичным дублям страниц. Это объясняется тем, что индексация дублирующей информации на разных сайтах или в пределах одного сайта требует дополнительных ресурсов.

Особо отрицательно на продвижении молодых сайтов сказывается копирование контента с чужих сайтов. Так как определить первоисточник часто не представляется возможным, поисковыми системами по умолчанию присваивается право называться первым более трастовому ресурсу. Дублированный контент менее весомого сайта будет демонстрироваться на менее выгодных позициях в поисковой выдаче.

Итак, уникальный текст – это необходимое условие, если вы хотите продвинуть свой ресурс в поисковиках. Но даже наличие хороших статей, написанных собственноручно или по специальному заказу копирайтером, не избавляет от проблемы дублирования контента. Теперь уже в пределах одного сайта.

Дубли внутри сайта могут возникать из-за массивных сквозных навигационных или рекламных блоков. Запрет их к индексации не всегда является верным решением, особенно в тех случаях, когда они необходимы для перелинковки страниц. Решение относительно простое – контент сайта должен быть достаточно объемным, чтобы доля повторяющихся блоков не влияла на уникальность страниц.

Другой источник дублей – rss ленты, служебные страницы, страницы, предназначенные для печати и дубли контента, создаваемые CMS (особенно этим грешит Wordpress). Решается подобная проблема запретом на индексацию некоторых типов страниц, который прописывается в файле robots.txt. Как вариант (для тех, кто использует Wordpress) – можно использовать плагин All in One SEO Pack. Он не только позволяет настраивать метатеги Title, keywords и description, но и прописать в заголовок страниц тег Canonical, направляющий поисковик на основную страницу и запрещающий к индексации дубли.

Еще один неприятный фактор – сайт, доменное имя которого может начинаться с WWW, а может и без WWW. Для нас понятно, что это один и тот же сайт. Но поисковые системы могут решить, что сайтов на самом деле два и понизить один из них в выдаче за дублирование контента. Даже если этого не произойдет, все равно ссылки, прописанные с WWW и без этой аббревиатуры, ведут как бы на два разных сайта. Получается, что вы вместо одного сайта продвигаете два, затрачивая на это в два раза больше усилий и средств.

Чтобы избавиться от этой проблемы, необходимо оформить файл .htaccess, прописав в нем специальный код для склейки двух доменов (с WWW и без) в один. Для роботов Яндекса также следует оформить файл robots.txt, указав в нем, какой именно вариант главный.

Вовремя устранив на своем сайте проблему дублирования контента, вы сможете добиться более заметных результатов в поисковом продвижении.


Новости