
Во внутренней оптимизации сайта дублями называются веб-страницы, содержимое которых идентично содержимому других веб-страниц. Чаще они появляются из-за недоработок CMS или в результате ошибочных действий вебмастера. Например, когда веб-ресурс доступен по адресам https://www.example.com/ и https://example.com/.
Мы только что выяснили, что такое дублирование страниц. А дальше мы расскажем о том, какой вред наносит блогам, новостным порталам и интернет-магазинам появление дубликатов. Вы также узнаете, как найти дубли страниц сайта с помощью бесплатных и платных методов.
Почему нужно избегать дублей страниц
Дубликаты веб-страниц на сайте опасны тем, что уникальность контента, который на них размещен, равна нулю. А уникальный контент, как вы знаете, — один из главных компонентов успешной поисковой оптимизации.
Дубли страниц — это опасная проблема, которая нередко приводит к следующим негативным моментам:
- Представьте ситуацию: вы опубликовали информативную правильно оптимизированную статью от эксперта в теме. Через неделю при анализе обратных ссылок обнаруживаете, что на эту статью стали ссылаться другие блоги. Все, казалось бы, складывается идеально — ссылочный профиль растет и вместе с ними должны расти позиции веб-ресурса. Но этого не происходит. И все потому, что другие сайты ссылаются на дубль страницы, на которой опубликована статья. Про эффективность продвижения в таких случаях не может быть и речи.
- Искусственный интеллект, на котором базируется работа больших поисковых систем, научен определять дубли страниц. Но иногда делает это некорректно, и они попадают в выдачу. В результате каноническая (оригинальная) страница, ссылочный профиль которой создавался месяцами или даже годами, остается вне поля зрения пользователей поисковых систем. Опять же это негативно влияет на эффективность продвижения.
- Веб-пауки, которые определили, что на сайте есть дубликаты, начинают заходить на него реже. В результате период, в течение которого новый контент попадает в выдачу, увеличивается. Кроме того, возрастают риски падения позиций, если краулер нашел на интернет-проекте дубли.
Говоря о дублях, стоит также отметить, что дублироваться может не только видимое в окне браузера содержимое веб-страницы, но и мета-теги сайта. В таких случаях в выдачу поисковиков попадут страницы с идентичными тайтлами и дескрипшенами. Это путает пользователей и снижает показатель CTR, значение которого оказывает серьезное влияние на ранжирование веб-ресурса.
Только что вы узнали, что такое дубли страниц и какой вред они приносят поисковой оптимизации. Теперь пора научиться находить эту проблему.
Читайте также: Что такое поисковый робот и как им управлять
Как найти дубли на сайте
Для проверки сайта на дубликаты страниц рекомендуем выполнить следующие действия:
- Посмотрите, не доступен ли веб-ресурс сразу по двум протоколам: HTTP (http://example.com) и HTTPS (https://example.com/). Если в браузере открываются обе версии — это явный признак наличия дублей на сайте. Также проверьте адрес со слешем (https://example.com/) и без (https://example.com) в конце, с www (https://www.example.com/) и без www (https://example.com/).
- Воспользуйтесь инструментом для вебмастеров Google. Если в вашем блоге или интернет-магазине есть дублируемые веб-страницы, они будут отображены в отчете «Покрытие» в Google Search Console. Зная, что такое дубли и как их обнаружить с помощью инструмента для вебмастеров от Google, вам не придется тратить деньги на покупку SEO-софта.
- Воспользуйтесь инструментом Screaming Frog SEO Spider. В его бесплатной версии доступно сканирование до 500 URL — этих лимитов достаточно для небольших веб-проектов. Если же необходимо увеличить их — оформите годовую подписку (£199). Screaming Frog SEO Spider на 100% справляется с поиском дублируемых title и description. Ведь часто страницы с одинаковыми мета-тегами имеют идентичное содержимое.
Рекомендуем также обратить внимание на программное решение Netpeak Spider, которое умеет находить дубликаты страниц, текста, мета-тегов, заголовков H1. Пользоваться этой программой можно бесплатно в течение 14 дней. Кроме этого, Netpeak Spider определяет страницы, на загрузку которых уходит много времени. Если после сканирования этой программой оказалось много таких страниц, советуем подумать о том, чтобы заказать хостинг на Cityhost. Интернет-магазины, блоги и порталы, которые размещены у нас, загружаются моментально — от их посещения удовольствие получают и пользователи, и веб-пауки.
Читайте также: Как улучшить SEO своего сайта с помощью Yoast SEO
Как не допустить появления дубликатов
Регулярный поиск дублей страниц сайта с помощью указанных методов защитит ваш онлайн-ресурс от связанных с этой проблемой негативных последствий. Чтобы не забыть проверять дубли, поставьте еженедельное напоминание в приложении Google Календарь на смартфоне или любом другом аналогичном программном продукте. Если уже столкнулись с данной проблемой, воспользуйтесь способами из статьи о том, как убрать дубли страниц сайта.
Публикация была познавательной? Тогда поделитесь ею в социальных сетях и добавляйтесь в наш Telegram канал.