Дубли страниц

Осторожно! Дубли страниц — Ваши злейшие враги!

Начинающие СЕО оптимизаторы, ввиду своей неопытности и незнание некоторых основ, очень не замечают серьезных проблем, которые не дают сайту занять ТОПовые позиции в поисковой выдаче. Одной из таких проблем является дублирование страниц сайта.
Дубли страниц могут существенно замедлить продвижение, а в некоторых случаях вообще его свести на нет. Также дубли плохо влияют на индексацию, авторитет и доверие к сайту со стороны поисковых роботов. Как видите, проблем может быть много, по этому нужно разбираться, что ж этой за дубли страниц, где они берутся, а главное, как их закрыть.
Все дубли можно разделить на две большие категории:
1. Четкие дубли – это те страницы, которые имеют одинаковый контент, но при этом разные УРЛ адреса. Как правило, страницы разнятся только идентификаторами (например .html, .php, .htm и т.д) Большая часть четких дублей возникает из-за неправильного или неумелого пользование движком сайта. Движ сам генерирует дубли, но вы, как оптимизатор заботящийся о своем проекте, должны оперативно реагировать на это и закрывать либо удалять дублирующиеся страницы.
Также дубли могут возникать и из-за невнимательности самого вебмастера. Поменяли УРЛ страницы, а другую забыли закрыть, либо поставить 301 редирект. Вот и получается, что одна и также страница, с одинаковым контентом, доступна под разными адресами.
2. Нечеткие дубли возникают в том случае, когда часть контента одной страницы выводится где-то в других блоках, или на других страницах. Часто в интернет магазинах странице категорий товаров, страницы рубрик имеют частичные дубли. Ведь на разных страницах могут выводиться одни и те же товары, а это создает похожий контент.
Также страницы поиска по сайту и анонса новостей могут частично дублировать контент с других страниц.

 

Как их найти на сайте?

Для чего мы закрываем дубли? Чтоб в поисковых системах не было одинаковых страниц. А если они есть, то именно в поисковых системах и стоит их искать. Сделать это не сложно. Если вы подозреваете, что какая-то страница может дублироваться, то возьмете кусок текста, желательно 10-15 слов, не больше, и введите его в строку поисковика. Также нужно поставить ограничение, чтоб поиск шел исключительно по вашему сайту. Если будут дубли, то в результатах вы увидите не одну страницу, а несколько. Главную оставляем, а вот остальные нужно будет закрыть. Как это сделать? Подробнее будет написано ниже.
Также дубли страниц можно посмотреть через Яндекс и Гугл вебмастер. Если страниц не много, то открывайте раздел «проиндексированные» или «добавленные в поиск» и смотрите, какие сайты имеют схожий тайт, но при этом разный УРЛ. Скорее всего – это дублирующиеся страницы.

 

Как закрыть дубли? несколько простых способов

После того как вы найдете дубли, нужно принимать решение о их закрытии. Метод закрытия дублей зависит от того, насколько они вам нужны, нужно ли чтоб эта страница участвовала в результатах поиска.
Если это прямой дубль, то 100% он в поиске не нужен и его закроем через robots.txt, а если это страница категории, или галерея, где выводятся анонсы, то тут стоит использовать другие методы.
Как закрыть дубли с помощью Robots.txt
Robots.txt – это системный файл в котором вы можете прописать определенные команды направленные поисковому роботу поисковых систем. Есть одна очень полезная директива Disallow , позволяющая сказать роботу, что данную страницу не стоит индексировать и учитывать в результатах поиска. Мы как бы прячем ее, делаем невидимой для поисковика, тем самым сводим к 0 негативное влияние. Через Disallow можно закрывать неуникальный контент, пустые страницы, технические и такие, что не несут ценности для пользователя. В нашем же случаем мы закроем дубли.
Дубли можно закрывать как по одному, прописывая запрет индексации конкретной страницы, так и целой рубрикой. Как это сделать? Например, вы хотите закрыть весь раздел «спорт», который находится по адресу mysite.ru/razdel/sport/ Для этого в Роботсе прописываем:

Disallow: /sport/
Если хотите закрыть только одну страницу из раздела спорт, то пропишите:
Disallow: /straniza_razdela_sport
В Яндекс вебмастере есть интересная функция, позволяющая загрузить роботс вашего сайта и проводить там тестирования. Вы можете прописывать различные директивы, закрывать страницы и разделы, а потом посмотреть как на самом деле Яндекс будет индексировать сайт если вы оставите такой роботс. Очень удобно, и сразу становится понятным какой будет результат.

 

Как закрыть дубли с помощь 301 редиректа

Редирект – это перенаправление с одной страницы на другую. Поисковый робот или пользователь, при заходе на дублирующуюся страницу будет автоматически попадать на основную. Такой способ используется если вы изменили движок, либо переписали структуру сайта, и получилось, что многие страницы изменили свой УРЛ. В результате страница с одинаковым контентом будет доступна по двум разным адресам.
Например, у Вас был сайт на одном языке, а вы решили сделать его мультиязычным. Ранее страница на русском языке была доступна по адресу mysite.ru/straniza_1, а после смены по адресу mysite.ru/ru/straniza_1. Чтоб не было никаких дублей, мы делаем редирект со старой на новую.
Чем полезен 301 редирект? Кроме того, что не будет дублей, если вы все сделает правильно в глазах поисковых роботов, так еще и вес старой страницы (если на нее покупались ссылки) передастся на новую. Был случай, когда сайт переехал с домена .com.ua на .ua, при этом проставили редирект, сделали все грамотно. Позиции не на долго просели, но потом вернулись ,а со временем даже ТИЦ старого домена передался на новый.

Есть вопросы, пожелания, предложения? Пишите нам,
мы обязательно ответим.

Топ-5 ошибок SEO-специалистов 1204 28.2.2024 Топ-5 ошибок SEO-специалистов

Анализ лидеров поисковой выдачи по запросу «цифровые маркетинговые агентства» показал, ...

Как составить объявление в Яндекс Директе? 1181 28.2.2024 Как составить объявление в Яндекс Директе?

Рекламодатели иногда испытывают опасения при запуске рекламы в Яндексе из-за ...