Внутренние дубли страниц. Что это, и как с ними бороться

Многие владельцы сайтов часто сталкиваются с таким явлением, как внутренние дубли страниц. Это ситуация, когда веб-ресурсы имеют разные url-адреса, но одинаковое информационное содержание. Данную проблему стоит срочно решать. Поскольку она негативно влияет на продвижение онлайн-сервиса в поисковых системах.

Основные причины появления внутренних дублей страниц

Выделяют несколько основных моментов, приводящих к возникновению дублей. К ним стоит отнести:

  • ошибки, допущенные разработчиками сайта. Самым ярким примером является размещение продукции с идентичным описанием в различных категориях товаров под разными адресами;

  • неправильная настройка системы управления содержимым веб-ресурса. CMS является важным элементом каждого сервиса. Поэтому ее выбор и установка требует особого внимания;

  • плагины. Это дополнительный программный модуль, который подключается к основной программе для расширения ее возможностей. Применение плагинов может привести к автоматическому появлению внутренних дублей.

Данная проблема часто возникает при необходимости изменения ссылочных связей внутри веб-страницы (то есть структуры ресурса). Происходит редактирование url-адреса. Первоначально созданный контент полностью сохраняется. Удачным примером является ситуация изменения алфавита при написании уникального адреса сайта.

Влияние внутренних дублей страниц на продвижение сервиса в поисковых системах

Внутренние дубли страниц. Что это, и как с ними бороться, Фото № 1 - google-seo.pro

Главной проблемой дубликатов является то, что поисковики не имеют возможности определить, какая из страниц наиболее подходит и соответствует введенному запросу. В результате появляются затруднения в выдаче пользователю оригинального сайта. Стоит отметить, что внутренние дубли страниц плохо влияют на сео-продвижение. Их появление приводит к следующим последствиям:

  • поисковые системы понижают позиции landing page в выдаче – падает уровень смыслового соответствия полученных результатов поиска, сайт попадает на последние места в поисковиках;

  • непостоянность положения сайта в поисковых системах – позиция ресурса каждый раз другая. При проверке будет заметно, что первенство отдается то одной странице, то другой;

  • дубликат даже одной страницы сервиса может привести к сбою работоспособности сайта в целом.

Внутренние дубли приводят к нецелесообразному использованию лимита числа страниц, которые робот Googlebot может проиндексировать в определенный промежуток времени. В результате поисковыми программами сканируются, считываются данные и добавляются в каталог только бесполезные, нежелательные страницы.

Внутренние дубли – их виды и особенности

Внутренние дубли страниц. Что это, и как с ними бороться, Фото № 2 - google-seo.pro

Выделяют два основных типа внутренних дубликатов страниц:

  • полные (явные);

  • частичные (неявные).

Явные или полные внутренние дубли – это ситуация, когда страницы имеют различный url, но с полностью одинаковым контентом: текстовым, графическим, звуковым и другой идентичной информацией. Единственная большая разница заключается в адресе web-страницы. К самым простым примерам можно отнести:

  • отсутствие или неодинаковое количество обратной косой черты (сплеша) в адресе – https://site.ru/list/ и https://site.ru/list;

  • доступ к сайту предоставляется по протоколу с незащищенными данными (HTTP) или полностью конфиденциальной информацией путем ее шифрования (HTTPS): https//site.net и http//site.net;

  • неправильная настройка отображения адреса с аббревиатурой www и без нее: https://www.site.ru/1 и https://site.ru/1;

  • наличия в url различных прибавлений в виде index, default.

Также к явным дубликатам относятся страницы с адресом, в котором нарушено правописание. К примеру, не соблюдается правильное написание заглавной буквы: https://site.org/News и https://site.org/news.<>Частичные или неявные внутренние дубли предусматривают незначительные различия в информационном содержании. Они появляются в следующих случаях:

  • создание идентичного описания в разным товарным позициям. Они могут отличаться только по размерам, цвету и другим характеристикам;

  • ошибки при создании пагинации – порядковой нумерации страниц;

  • добавление к товарам древовидных комментариев или отзывов (они актуальны только для веб-ресурсов на WordPress).

Независимо от типа дубликатов, с ними непременно нужно бороться, чтобы сайт не потерял свои позиции в поисковых системах.

Способы определения внутренних дублей страниц

Внутренние дубли страниц. Что это, и как с ними бороться, Фото № 3 - google-seo.pro

Выделяют несколько простых и эффективных методов проверки на наличия дубликатов.

 

Вручную. Данный способ подходит только для тех владельцев сайта, которые идеально знают настроенную систему управления содержимым. В поисковой системе (Яндекс, Google) вводится достаточно простой запрос: site:{ваш домен} inurl:{фрагмент URL}. В выдаче сразу появятся веб-ресурсы-клоны.

 

Комплексный инструмент Netpeak Spider. Он дает возможность в полном объеме просканировать сайт, а также все его параметры. Программное обеспечение разрешает определить абсолютно все полные внутренние дубли.

 

Xenu’s Link Sleuth – специальная бесплатная компьютерная программа, необходима для осуществления анализа web-сервиса. С ее помощью легко определить все копии страниц и линки, ведущие на несуществующие страницы. Также можно использовать следующие сервисы: Screaming Frog SEO Spider, Яндекс.Вебмастер, Siteliner.com. Заказать у специалистов аудит ресурса – еще один действенный метод, позволяющий определить все существующие страницы-клоны, которые немедленно стоит уничтожать.

Как избавиться от внутренних дублей страниц

Данную проблему, без сомнений, необходимо немедленно решать. Как сделать, чтобы дубликаты больше не появлялись?

 

Конечно, его можно просто удалить. Но сделать это можно только для статических внутренних дублей.

 

301 Permanent Redirect – представляет собой серверное перенаправление пользователей на другой URL, по которому контент будет недоступный. Данный тип переадресации рекомендуется использовать при:

  • необходимости изменения доменного имени ресурса;

  • создании точной копии сайта;

  • борьбе с количеством бекслешов в URL-адресе.

Мета-тег robots.txt – файл, блокирующий доступ к страницам. Ключевая команда «Disallow» не разрешает поисковым роботам заходить на конкретный ресурс. К сожалению, данный тег не гарантирует 100% результата удаления дубликатов. Поэтому robots.txt можно назвать рекомендательной программой для определения копий.

 

Атрибут rel=canonical тега . Один из самых популярных способов избавиться от внутренних дублей. Метод используется для:

  • контент-фильтра;

  • ранжирования;

  • создания порядковой нумерации.

Атрибут rel=canonical тега выбирает со всех страниц главную и выдает ее на первые позиции в поисковых системах.

 

После уничтожения внутренних дублей обязательно нужно провести повторный аудит. Он необходим для проверки эффективности выполненной работы. Ведь не всегда применение специальных сервисов или программ приводит к удалению всех «клонов». Регулярно осуществляйте проверку на наличие сайтов-копий. Своевременное устранение возникших ошибок гарантирует сохранение лидирующих позиции в поисковой выдаче.


Отправлять комментарии могут только пользователи сайта с подтвержденным Email.

Войти