Осторожно! Дубли страниц — Ваши злейшие враги!

double

Дубли страниц: в чем основная проблема?

Начинающие СЕО оптимизаторы, ввиду своей неопытности и незнание некоторых основ, очень не замечают серьезных проблем, которые не дают сайту занять ТОПовые позиции в поисковой выдаче. Одной из таких проблем является дублирование страниц сайта.
Дубли страниц могут существенно замедлить продвижение, а в некоторых случаях вообще его свести на нет. Также дубли плохо влияют на индексацию, авторитет и доверие к сайту со стороны поисковых роботов. Как видите, проблем может быть много, по этому нужно разбираться, что ж этой за дубли страниц, где они берутся, а главное, как их закрыть.
Все дубли можно разделить на две большие категории:
1. Четкие дубли – это те страницы, которые имеют одинаковый контент, но при этом разные УРЛ адреса. Как правило, страницы разнятся только идентификаторами (например .html, .php, .htm и т.д) Большая часть четких дублей возникает из-за неправильного или неумелого пользование движком сайта. Движ сам генерирует дубли, но вы, как оптимизатор заботящийся о своем проекте, должны оперативно реагировать на это и закрывать либо удалять дублирующиеся страницы.
Также дубли могут возникать и из-за невнимательности самого вебмастера. Поменяли УРЛ страницы, а другую забыли закрыть, либо поставить 301 редирект. Вот и получается, что одна и также страница, с одинаковым контентом, доступна под разными адресами.
2. Нечеткие дубли возникают в том случае, когда часть контента одной страницы выводится где-то в других блоках, или на других страницах. Часто в интернет магазинах странице категорий товаров, страницы рубрик имеют частичные дубли. Ведь на разных страницах могут выводиться одни и те же товары, а это создает похожий контент.
Также страницы поиска по сайту и анонса новостей могут частично дублировать контент с других страниц.

 

Как их найти на сайте?

Для чего мы закрываем дубли? Чтоб в поисковых системах не было одинаковых страниц. А если они есть, то именно в поисковых системах и стоит их искать. Сделать это не сложно. Если вы подозреваете, что какая-то страница может дублироваться, то возьмете кусок текста, желательно 10-15 слов, не больше, и введите его в строку поисковика. Также нужно поставить ограничение, чтоб поиск шел исключительно по вашему сайту. Если будут дубли, то в результатах вы увидите не одну страницу, а несколько. Главную оставляем, а вот остальные нужно будет закрыть. Как это сделать? Подробнее будет написано ниже.
Также дубли страниц можно посмотреть через Яндекс и Гугл вебмастер. Если страниц не много, то открывайте раздел «проиндексированные» или «добавленные в поиск» и смотрите, какие сайты имеют схожий тайт, но при этом разный УРЛ. Скорее всего – это дублирующиеся страницы.

 

Как закрыть дубли? несколько простых способов

После того как вы найдете дубли, нужно принимать решение о их закрытии. Метод закрытия дублей зависит от того, насколько они вам нужны, нужно ли чтоб эта страница участвовала в результатах поиска.
Если это прямой дубль, то 100% он в поиске не нужен и его закроем через robots.txt, а если это страница категории, или галерея, где выводятся анонсы, то тут стоит использовать другие методы.
Как закрыть дубли с помощью Robots.txt
Robots.txt – это системный файл в котором вы можете прописать определенные команды направленные поисковому роботу поисковых систем. Есть одна очень полезная директива Disallow , позволяющая сказать роботу, что данную страницу не стоит индексировать и учитывать в результатах поиска. Мы как бы прячем ее, делаем невидимой для поисковика, тем самым сводим к 0 негативное влияние. Через Disallow можно закрывать неуникальный контент, пустые страницы, технические и такие, что не несут ценности для пользователя. В нашем же случаем мы закроем дубли.
Дубли можно закрывать как по одному, прописывая запрет индексации конкретной страницы, так и целой рубрикой. Как это сделать? Например, вы хотите закрыть весь раздел «спорт», который находится по адресу mysite.ru/razdel/sport/ Для этого в Роботсе прописываем:

Disallow: /sport/
Если хотите закрыть только одну страницу из раздела спорт, то пропишите:
Disallow: /straniza_razdela_sport
В Яндекс вебмастере есть интересная функция, позволяющая загрузить роботс вашего сайта и проводить там тестирования. Вы можете прописывать различные директивы, закрывать страницы и разделы, а потом посмотреть как на самом деле Яндекс будет индексировать сайт если вы оставите такой роботс. Очень удобно, и сразу становится понятным какой будет результат.

 

Как закрыть дубли с помощь 301 редиректа

Редирект – это перенаправление с одной страницы на другую. Поисковый робот или пользователь, при заходе на дублирующуюся страницу будет автоматически попадать на основную. Такой способ используется если вы изменили движок, либо переписали структуру сайта, и получилось, что многие страницы изменили свой УРЛ. В результате страница с одинаковым контентом будет доступна по двум разным адресам.
Например, у Вас был сайт на одном языке, а вы решили сделать его мультиязычным. Ранее страница на русском языке была доступна по адресу mysite.ru/straniza_1, а после смены по адресу mysite.ru/ru/straniza_1. Чтоб не было никаких дублей, мы делаем редирект со старой на новую.
Чем полезен 301 редирект? Кроме того, что не будет дублей, если вы все сделает правильно в глазах поисковых роботов, так еще и вес старой страницы (если на нее покупались ссылки) передастся на новую. Был случай, когда сайт переехал с домена .com.ua на .ua, при этом проставили редирект, сделали все грамотно. Позиции не на долго просели, но потом вернулись ,а со временем даже ТИЦ старого домена передался на новый.


С уважением проект Анатомия Бизнеса

Рубрики:

Март 4, 2014 11:14 дп

Если Вам понравился опубликованный материал – поделитесь им с Вашими друзьями: