- Warum sollte man Seiten-Duplikate vermeiden
- Wie findet man Duplikate auf einer Website
- Wie man das Auftreten von Duplikaten verhindert
Bei der internen Optimierung einer Website werden Duplikate als Webseiten bezeichnet, deren Inhalt identisch mit dem Inhalt anderer Webseiten ist. Sie entstehen meist aufgrund von Mängeln im CMS oder infolge von fehlerhaften Aktionen des Webmasters. Zum Beispiel, wenn die Website unter den Adressen https://www.example.com/ und https://example.com/ verfügbar ist.
Wir haben gerade herausgefunden, was Seiten-Duplikate sind. Im Folgenden werden wir erläutern, welchen Schaden das Auftreten von Duplikaten für Blogs, Nachrichtenportale und Online-Shops anrichtet. Sie werden auch erfahren, wie man Duplikate von Webseiten mit kostenlosen und kostenpflichtigen Methoden findet.
Warum sollte man Seiten-Duplikate vermeiden
Duplikate von Webseiten auf der Website sind gefährlich, da die Einzigartigkeit des Inhalts, der dort veröffentlicht wird, null ist. Und einzigartiger Inhalt ist, wie Sie wissen, – eines der Hauptkomponenten einer erfolgreichen Suchmaschinenoptimierung.
Seiten-Duplikate sind ein gefährliches Problem, das oft zu folgenden negativen Punkten führt:
- Stellen Sie sich vor: Sie haben einen informativen, korrekt optimierten Artikel von einem Experten zu diesem Thema veröffentlicht. Eine Woche später, bei der Analyse der Backlinks, stellen Sie fest, dass andere Blogs auf diesen Artikel verlinken. Alles scheint perfekt zu sein – das Linkprofil wächst und damit sollten auch die Positionen der Website steigen. Aber das passiert nicht. Und das liegt daran, dass andere Websites auf ein Duplikat der Seite verlinken, auf der der Artikel veröffentlicht ist. Über die Effektivität der Promotion in solchen Fällen kann keine Rede sein.
- Künstliche Intelligenz, auf der die großen Suchmaschinen basieren, ist darauf trainiert, Seiten-Duplikate zu erkennen. Manchmal geschieht dies jedoch fehlerhaft, und sie erscheinen in den Suchergebnissen. Infolgedessen bleibt die kanonische (originale) Seite, deren Linkprofil über Monate oder sogar Jahre aufgebaut wurde, aus dem Sichtfeld der Nutzer der Suchmaschinen. Dies hat wiederum negative Auswirkungen auf die Effektivität der Promotion.
- Webcrawler, die festgestellt haben, dass auf der Website Duplikate vorhanden sind, besuchen sie seltener. Infolgedessen verlängert sich der Zeitraum, in dem neuer Inhalt in den Suchergebnissen erscheint. Darüber hinaus steigen die Risiken eines Rückgangs der Positionen, wenn der Crawler Duplikate auf dem Internetprojekt gefunden hat.
Wenn wir von Duplikaten sprechen, sollten wir auch erwähnen, dass nicht nur der im Browserfenster sichtbare Inhalt der Webseite dupliziert werden kann, sondern auch Meta-Tags der Website. In solchen Fällen gelangen Seiten mit identischen Titeln und Beschreibungen in die Suchergebnisse. Das verwirrt die Benutzer und senkt die CTR, deren Wert einen erheblichen Einfluss auf das Ranking der Website hat.
Sie haben gerade erfahren, was Seiten-Duplikate sind und welchen Schaden sie für die Suchmaschinenoptimierung verursachen. Jetzt ist es an der Zeit, zu lernen, wie man dieses Problem erkennt.
Lesen Sie auch: Was ist ein Suchroboter und wie verwaltet man ihn
Wie findet man Duplikate auf einer Website
Um die Website auf Seiten-Duplikate zu überprüfen, empfehlen wir folgende Schritte:
- Überprüfen Sie, ob die Website gleichzeitig unter zwei Protokollen verfügbar ist: HTTP (http://example.com) und HTTPS (https://example.com/). Wenn beide Versionen im Browser geöffnet werden können, ist das ein klarer Hinweis auf ein Problem mit Duplikaten auf der Website. Überprüfen Sie auch die Adresse mit einem Slash (https://example.com/) und ohne Slash (https://example.com) am Ende, mit www (https://www.example.com/) und ohne www (https://example.com/).
- Nutzen Sie das Google Webmaster-Tool. Wenn in Ihrem Blog oder Online-Shop Duplikate von Webseiten vorhanden sind, werden diese im Bericht „Coverage“ in der Google Search Console angezeigt. Wenn Sie wissen, was Duplikate sind und wie man sie mit dem Google Webmaster-Tool erkennt, müssen Sie kein Geld für den Kauf von SEO-Software ausgeben.
- Verwenden Sie das Tool Screaming Frog SEO Spider. In seiner kostenlosen Version können Sie bis zu 500 URLs scannen – diese Limits sind für kleine Webprojekte ausreichend. Wenn Sie die Limits erhöhen müssen, abonnieren Sie für ein Jahr (£199). Screaming Frog SEO Spider findet zu 100 % Duplikate von Titel und Beschreibung. Oft haben Seiten mit identischen Metatags denselben Inhalt.
Wir empfehlen auch, auf die Softwarelösung Netpeak Spider zu achten, die Duplikate von Seiten, Texten, Metatags und H1-Überschriften erkennen kann. Diese Software kann 14 Tage lang kostenlos genutzt werden. Darüber hinaus identifiziert Netpeak Spider Seiten, deren Ladezeit lang ist. Wenn nach dem Scannen dieser Software viele solcher Seiten festgestellt wurden, empfehlen wir, über Hosting bei Cityhost nachzudenken. Online-Shops, Blogs und Portale, die bei uns gehostet werden, laden sich sofort – sowohl Benutzer als auch Webcrawler haben Freude am Besuch.
Lesen Sie auch: Wie man SEO seiner Website mit Yoast SEO verbessert
Wie man das Auftreten von Duplikaten verhindert
Regelmäßige Suche nach Seiten-Duplikaten der Website mit den genannten Methoden schützt Ihre Online-Ressource vor den negativen Folgen, die mit diesem Problem verbunden sind. Um nicht zu vergessen, Duplikate zu überprüfen, setzen Sie eine wöchentliche Erinnerung in der App „Google Kalender“ auf Ihrem Smartphone oder einem anderen ähnlichen Programm. Wenn Sie bereits mit diesem Problem konfrontiert sind, verwenden Sie die Methoden aus dem Artikel darüber, wie man Seiten-Duplikate entfernt.
War die Veröffentlichung informativ? Dann teilen Sie sie in sozialen Netzwerken und treten Sie unserem Telegram-Kanal bei.
Hat Ihnen der Artikel gefallen? Erzählen Sie Ihren Freunden davon:




