CityHost.UA
Помощь и поддержка

Что такое дубли страниц сайта

 4620
12.06.2019
article

 

 

Во внутренней оптимизации сайта дублями называются веб-страницы, содержимое которых идентично содержимому других веб-страниц. Чаще они появляются из-за недоработок CMS или в результате ошибочных действий вебмастера. Например, когда веб-ресурс доступен по адресам https://www.example.com/ и https://example.com/.

Мы только что выяснили, что такое дублирование страниц. А дальше мы расскажем о том, какой вред наносит блогам, новостным порталам и интернет-магазинам появление дубликатов. Вы также узнаете, как найти дубли страниц сайта с помощью бесплатных и платных методов.

Аренда выделенных серверов с выбором процессора и памяти

Почему нужно избегать дублей страниц

Дубликаты веб-страниц на сайте опасны тем, что уникальность контента, который на них размещен, равна нулю. А уникальный контент, как вы знаете, — один из главных компонентов успешной поисковой оптимизации.

Дубли страниц — это опасная проблема, которая нередко приводит к следующим негативным моментам:

  • Представьте ситуацию: вы опубликовали информативную правильно оптимизированную статью от эксперта в теме. Через неделю при анализе обратных ссылок обнаруживаете, что на эту статью стали ссылаться другие блоги. Все, казалось бы, складывается идеально — ссылочный профиль растет и вместе с ними должны расти позиции веб-ресурса. Но этого не происходит. И все потому, что другие сайты ссылаются на дубль страницы, на которой опубликована статья. Про эффективность продвижения в таких случаях не может быть и речи.
  • Искусственный интеллект, на котором базируется работа больших поисковых систем, научен определять дубли страниц. Но иногда делает это некорректно, и они попадают в выдачу. В результате каноническая (оригинальная) страница, ссылочный профиль которой создавался месяцами или даже годами, остается вне поля зрения пользователей поисковых систем. Опять же это негативно влияет на эффективность продвижения.
  • Веб-пауки, которые определили, что на сайте есть дубликаты, начинают заходить на него реже. В результате период, в течение которого новый контент попадает в выдачу, увеличивается. Кроме того, возрастают риски падения позиций, если краулер нашел на интернет-проекте дубли.

Говоря о дублях, стоит также отметить, что дублироваться может не только видимое в окне браузера содержимое веб-страницы, но и мета-теги сайта. В таких случаях в выдачу поисковиков попадут страницы с идентичными тайтлами и дескрипшенами. Это путает пользователей и снижает показатель CTR, значение которого оказывает серьезное влияние на ранжирование веб-ресурса.

Только что вы узнали, что такое дубли страниц и какой вред они приносят поисковой оптимизации. Теперь пора научиться находить эту проблему.

Читайте также: Что такое поисковый робот и как им управлять

Как найти дубли на сайте

Для проверки сайта на дубликаты страниц рекомендуем выполнить следующие действия:

  • Посмотрите, не доступен ли веб-ресурс сразу по двум протоколам: HTTP (http://example.com) и HTTPS (https://example.com/). Если в браузере открываются обе версии — это явный признак наличия дублей на сайте. Также проверьте адрес со слешем (https://example.com/) и без (https://example.com) в конце, с www (https://www.example.com/) и без www (https://example.com/).
  • Воспользуйтесь инструментом для вебмастеров Google. Если в вашем блоге или интернет-магазине есть дублируемые веб-страницы, они будут отображены в отчете «Покрытие» в Google Search Console. Зная, что такое дубли и как их обнаружить с помощью инструмента для вебмастеров от Google, вам не придется тратить деньги на покупку SEO-софта.
  • Воспользуйтесь инструментом Screaming Frog SEO Spider. В его бесплатной версии доступно сканирование до 500 URL — этих лимитов достаточно для небольших веб-проектов. Если же необходимо увеличить их — оформите годовую подписку (£199). Screaming Frog SEO Spider на 100% справляется с поиском дублируемых title и description. Ведь часто страницы с одинаковыми мета-тегами имеют идентичное содержимое.

Рекомендуем также обратить внимание на программное решение Netpeak Spider, которое умеет находить дубликаты страниц, текста, мета-тегов, заголовков H1. Пользоваться этой программой можно бесплатно в течение 14 дней. Кроме этого, Netpeak Spider определяет страницы, на загрузку которых уходит много времени. Если после сканирования этой программой оказалось много таких страниц, советуем подумать о том, чтобы заказать хостинг на Cityhost. Интернет-магазины, блоги и порталы, которые размещены у нас, загружаются моментально — от их посещения удовольствие получают и пользователи, и веб-пауки.

Читайте также: Как улучшить SEO своего сайта с помощью Yoast SEO

Как не допустить появления дубликатов

Регулярный поиск дублей страниц сайта с помощью указанных методов защитит ваш онлайн-ресурс от связанных с этой проблемой негативных последствий. Чтобы не забыть проверять дубли, поставьте еженедельное напоминание в приложении Google Календарь на смартфоне или любом другом аналогичном программном продукте. Если уже столкнулись с данной проблемой, воспользуйтесь способами из статьи о том, как убрать дубли страниц сайта.

Публикация была познавательной? Тогда поделитесь ею в социальных сетях и добавляйтесь в наш Telegram канал.


Понравилась статья? Расскажите о ней друзьям:

Автор: Богдана Гайворонская

Журналист (с 2003 года), IT-копирайтер (с 2013 года), контент-маркетолог Cityhost.ua. Специализируется на статьях о технологиях, создании и продвижении сайтов.