How Can We Help?

Was ist Duplicate Content?

< All Topics

Eine der größten Feinde für SEO-Experten ist Duplicate Content, zu Deutsch „doppelte Inhalt“. Hierunter versteht man gleiche oder fast gleiche Inhalte, Dokumente oder Seiten, die über unterschiedliche Links erreichbar sind. Duplicate Content, egal ob absichtlich oder unabsichtlich entstanden, wird von Suchmaschinen – in weiterer Folge ist vornehmlich vom Branchenführer Google die Rede – mit Ranking-Einbußen bestraft und kann den Erfolg jeder noch so gut optimierten Seite zunichtemachen. Mit einigen gezielten Maßnahmen lässt sich Duplicate Content vermeiden oder umgehen.

So entsteht Duplicate Content

Doppelte Inhalte können aus interner und externer Quelle stammen. Ebenso entstehen sie entweder mutwillig oder unbeabsichtigt. Diese Ursachen sind besonders häufig:

  • gleicher oder fast gleicher Inhalt auf mehreren eigenen Seiten durch Copy & Paste, vor allem auf Untermenüpunkten
  • mehrere Domains / URLs (mit / ohne www, http vs. https, Subdomains) führen auf den gleichen Inhalt
  • mobil- und druckerfreundliche URLs führen auf den gleichen Inhalt
  • Copy & Paste bei Regional- und Sprachversionen ohne entsprechende Kennzeichnung
  • Pressemitteilungen, die auch auf der eigenen Website abgedruckt werden oder (Web-)Text von der eigenen Site verwenden
  • idente Meta-Tags (Title & Description) auf mehreren (Unter-)Seiten
  • Einbindung von RSS-Feeds und Frames
  • Kopie von Fremdcontent / mutwilliger Content-Diebstahl
  • eingepflegte Artikel-Beschreibungen von Herstellern in Online-Shops

Schnelle Beseitigung dieser Ranking-Falle ist unbedingt erforderlich, unabhängig von seiner Ursache.

 

Deswegen sind doppelte Inhalte gefährlich

 

Das Hauptziel der meisten Website-Betreiber: gefunden werden und Traffic generieren. Durch Suchmaschinenoptimierungen werden gute Platzierungen in Suchergebnissen, sogenannte Rankings, erzielt. Die erste Seite des jeweiligen Suchbegriffs sollte das Hauptziel sein, die obersten Positionen der Optimalfall. Google sucht nicht nur nach gut optimierten Seiten, sondern nach originellen Inhalten. Guter, einfallsreicher Content wird mit höherem Page-Ranking belohnt. Doppelte Inhalte stehen dem entgegen und bringen einen gegenteiligen Effekt.

Besonders schwerwiegende Sanktionen erwarten Betreiber, die mutwillig Content von anderen Seiten stehlen und als eigene Inhalte verkaufen. Ihnen drohen drakonische Rückreihungen und, bei mehrmaligen Vergehen, sogar kompletter Ausschluss aus den Suchergebnissen. Kurzum: es besteht Handlungsbedarf, und zwar am besten sofort.

 

So kann das Ranking-Problem Duplicate Content umgangen werden

 

Wird Duplicate Content ermittelt, muss ohne Umwege gehandelt werden. Die Ursache für doppelte Inhalte und der Nutzen dieser sind zu ermitteln und dementsprechend zu handeln. Zu den gängigsten Methoden zählen:

  • Eigene, originelle Inhalte schaffen
    Die offensichtlichste und zugleich schwierigste Methode: Falls es technisch möglich und sinnvoll ist, werden eigene Inhalte verfasst. Besonders wichtig ist die Informationsdichte: kurze, informative Texte sind wesentlich effektiver als ellenlange, sich ewig wiederholende Abhandlungen. Im besten Fall werden lange UND informative Content-Seiten verfasst.
  • Canonical Tags
    Durch den Einsatz von Canonical Tags wird bei Seiten mit identen Inhalten signalisiert, welche davon kanonisch, d. h. die bevorzugte Variante ist. Alle anderen Seiten werden vom Crawling- und Indizierungsvorgang ausgeschlossen. Diese Methode kann auch bei unterschiedlichen Domains, Links und Sprachversionen herangezogen werden.
  • Weiterleitungen
    301-Weiterleitungen sind, gerade für User, nicht gerade die eleganteste Lösung, werden aber von Crawlern entsprechend erkannt und verhindern die Entstehung von Duplicate Content. Mit 301 kann beispielsweise von https://www.testseite.at/ auf https://testseite.at/ verwiesen werden – die durch mehrere Links entstehende Dopplungs-Problematik wird erfolgreich umgangen.
  • Robots.txt
    Auch diese Version ist etwas umstritten, funktioniert aber. In der im Root-Verzeichnis abgelegten robots.txt können mittels Disallow Seiten und Verzeichnisse vom Crawling-Vorgang ausgeschlossen werden.

Zusammenfassung

 

Duplicate Content, zu Deutsch „doppelte Inhalte“, bezeichnet (nahezu) idente Inhalte unter verschiedenen internen und / oder externen Links. Duplicate Content kann durch Copy & Paste-Arbeitsweise, die Verwendung mehrerer Domains und URLs, Einbindungen von Fremd-Feeds und -Frames sowie mutwilligen Diebstahl von Fremdcontent entstehen. Je nach Art, Schwere und Häufigkeit des Vergehens werden doppelte Inhalte mit leichten bis schweren Ranking-Einbußen bestraft. Um Duplicate Content zu vermeiden, wird auf originelle, informative Inhalte gesetzt. Alternativ können bestimmte Seiten, Verzeichnisse oder Domains durch Canonical-Tags, 301-Weiterleitungen oder Disallow in der robots.txt vom Crawling-Vorgang durch Suchmaschinenanbieter ausgeschlossen werden.

Table of Contents

Diese Webseite verwendet Cookies
Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Webseite zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Webseite an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie Ihnen bereitgestellt haben oder die im Rahmen Ihrer Nutzung der Dienste gesammelt haben.

Datenschutz
Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.

Unbedingt notwendige Cookies
Unbedingt notwendige Cookies sollten jederzeit aktiviert sein, damit wir deine Einstellungen für die Cookie-Einstellungen speichern können.

Marketing & Statistik
Diese Website verwendet Google Analytics, um anonyme Informationen wie die Anzahl der Besucher der Website und die beliebtesten Seiten zu sammeln. Diesen Cookie aktiviert zu lassen, hilft uns, unsere Website zu verbessern.

Google Tag Manager
Dies ist ein Tag-Management-System. Über den Google Tag Manager können Tags zentral über eine Benutzeroberfläche eingebunden werden. Tags sind kleine Codeabschnitte, die Aktivitätenverfolgen können. Über den Google Tag Manager werden Scriptcodes anderer Tools eingebunden. Der Tag Manager ermöglicht es zu steuern, wann ein bestimmtes Tag ausgelöst wird.