CityHost.UA
Допомога і підтримка

Що таке дублі сторінок сайту

 4617
12.06.2019
article

 

 

У внутрішній оптимізації сайту дублями називаються веб-сторінки, вміст яких ідентичний вмісту інших веб-сторінок. Найчастіше вони з’являються через недоробки CMS або в результаті помилкових дій вебмастера. Наприклад, коли веб-ресурс одночасно доступний за адресами https://www.example.com/ та https://example.com/.

Ми щойно з'ясували, що таке дублювання сторінок. А далі ми розповімо про те, яку шкоду приносить блогам, новинним порталам і інтернет-магазинам поява дублікатів. Ви також дізнаєтеся, як знайти дублі сторінок сайту за допомогою безплатних та платних методів.

Оренда виділених серверів з вибором процесора та пам’яті

Чому потрібно уникати дублів сторінок

Дублікати веб-сторінок на сайті небезпечні тим, що унікальність контенту, який на них розміщений, дорівнює нулю. А унікальний контент, як ви знаєте, — один із головних компонентів успішної пошукової оптимізації. 

Дублі сторінок — це небезпечна проблема, яка нерідко призводить до наступних негативних моментів:

  • Уявімо ситуацію: ви опублікували інформативну правильно оптимізовану статтю від експерта в темі. Через тиждень під час аналізу зворотних посилань виявляєте, що на цю статтю почали посилатися інші блоги. Усе, здавалося б, складається ідеально — посилальний профіль зростає й разом із ними повинні рости позиції веб-ресурсу. Але цього не відбувається. І все тому, що інші сайти посилаються на дубль сторінки, на якій опубліковано статтю. Про ефективність просування в таких випадках не може бути мови.
  • Штучний інтелект, на якому базується робота великих пошукових систем, навчений визначати дублі сторінок. Але іноді робить це некоректно і вони потрапляють у видачу. У результаті канонічна (оригінальна) сторінка, посилальний профіль якої створювався місяцями або навіть роками, залишається поза полем зору користувачів пошукових систем. Знову таки, це негативно впливає на ефективність просування.
  • Веб-павуки, які визначили, що на сайті є дублікати, починають заходити на нього рідше. У результаті, період, протягом якого новий контент потрапляє у видачу, збільшується. Крім того, збільшуються ризики падіння позицій, якщо краулер виявив на інтернет-проекті дублі.

Говорячи про дублі, варто також зазначити, що дублюватися може не тільки видимий у вікні браузера вміст веб-сторінки, але й мета-теги сайту. У таких випадках у видачу пошуковиків потраплять сторінки з ідентичними тайтлами й дескрипшнами. Це плутає користувачів і знижує показник CTR, значення якого серйозно впливає на ранжування веб-ресурсу.

Тільки що ви дізналися, що таке дублі сторінок і якої шкоди вони приносять пошуковій оптимізації. Тепер пора навчитися знаходити цю проблему.

Читайте також: Що таке пошуковий робот та як ним керувати

Як знайти дублі на сайті

Для перевірки сайту на дублікати сторінок рекомендуємо виконати такі дії:

  • Подивіться, чи не доступний веб-ресурс відразу за двома протоколами: HTTP (http://example.com) і HTTPS (https://example.com/). Якщо в браузері відкриваються обидві версії — це явна ознака наявності дублів на сайті. Також перевірте адресу зі слешем (https://example.com/) і без (https://example.com) у кінці, з www (https://www.example.com/) і без www (https: //example.com/).
  • Скористайтеся інструментом для вебмайстрів Google. Якщо у вашому блозі або інтернет-магазині є веб-сторінки, що дублюються, вони будуть відображені у звіті «Покриття» в Google Search Console. Знаючи, що таке дублі і як їх виявити за допомогою інструменту для вебмайстрів від Google, вам не доведеться витрачати гроші на покупку SEO-софта.
  • Скористайтеся інструментом Screaming Frog SEO Spider. У його безплатній версії доступно сканування до 500 URL — цих лімітів досить для невеликих веб-проектів. Якщо ж необхідно збільшити їх — оформіть річну передплату (£199). Screaming Frog SEO Spider на 100 % справляється з пошуком title і description, що дублюються. Адже часто сторінки з однаковими мета-тегами мають ідентичний вміст.

Рекомендуємо також звернути увагу на програмне рішення Netpeak Spider, яке вміє знаходити дублікати сторінок, тексту, мета-тегів, заголовків H1. Користуватися цією програмою можна безкоштовно протягом 14 днів. Крім цього, Netpeak Spider визначає сторінки, на завантаження яких йде багато часу. Якщо після сканування цією програмою виявилося багато таких сторінок, радимо подумати про те, щоб замовити хостинг на Cityhost. Інтернет-магазини, блоги й портали, які розміщені в нас, завантажуються моментально — від їхнього відвідування задоволення отримують і користувачі, і веб-павуки.

Читайте також: Як покращити SEO свого сайту за допомогою Yoast SEO

Як не допустити появи дублікатів

Регулярний пошук дублів сторінок сайту за допомогою вказаних методів захистить ваш онлайн-ресурс від пов'язаних із цією проблемою негативних наслідків. Щоб не забути перевіряти дублі, поставте щотижневе нагадування в додатку «Google Календар» на смартфоні або будь-якому іншому аналогічному програмному продукті. Якщо вже зіштовхнулися з даною проблемою, тоді скористайтеся способами зі статті про те, як прибрати дублі сторінок сайту.

Публікація була пізнавальною? Тоді поділіться нею в соціальних мережах і додавайтеся в наш Telegram канал.


Сподобалася стаття? Розкажіть про неї друзям:

Автор: Богдана Гайворонська

Журналіст (з 2003 року), IT-копірайтер (з 2013 року), контент-маркетолог Cityhost.ua. Спеціалізується на статтях про технології, створення та просування сайтів.