Was ist Duplicate Content?

Programmer working about software cyberspace
Share on facebook
Share on whatsapp
Share on pinterest

Eine der größten Feinde für SEO-Experten ist Duplicate Content, zu Deutsch „doppelte Inhalt“. Hierunter versteht man gleiche oder fast gleiche Inhalte, Dokumente oder Seiten, die über unterschiedliche Links erreichbar sind. Duplicate Content, egal ob absichtlich oder unabsichtlich entstanden, wird von Suchmaschinen – in weiterer Folge ist vornehmlich vom Branchenführer Google die Rede – mit Ranking-Einbußen bestraft und kann den Erfolg jeder noch so gut optimierten Seite zunichtemachen. Mit einigen gezielten Maßnahmen lässt sich Duplicate Content vermeiden oder umgehen.

So entsteht Duplicate Content

Doppelte Inhalte können aus interner und externer Quelle stammen. Ebenso entstehen sie entweder mutwillig oder unbeabsichtigt. Diese Ursachen sind besonders häufig:

  • gleicher oder fast gleicher Inhalt auf mehreren eigenen Seiten durch Copy & Paste, vor allem auf Untermenüpunkten
  • mehrere Domains / URLs (mit / ohne www, http vs. https, Subdomains) führen auf den gleichen Inhalt
  • mobil- und druckerfreundliche URLs führen auf den gleichen Inhalt
  • Copy & Paste bei Regional- und Sprachversionen ohne entsprechende Kennzeichnung
  • Pressemitteilungen, die auch auf der eigenen Website abgedruckt werden oder (Web-)Text von der eigenen Site verwenden
  • idente Meta-Tags (Title & Description) auf mehreren (Unter-)Seiten
  • Einbindung von RSS-Feeds und Frames
  • Kopie von Fremdcontent / mutwilliger Content-Diebstahl
  • eingepflegte Artikel-Beschreibungen von Herstellern in Online-Shops

Schnelle Beseitigung dieser Ranking-Falle ist unbedingt erforderlich, unabhängig von seiner Ursache.

 

Deswegen sind doppelte Inhalte gefährlich

 

Das Hauptziel der meisten Website-Betreiber: gefunden werden und Traffic generieren. Durch Suchmaschinenoptimierungen werden gute Platzierungen in Suchergebnissen, sogenannte Rankings, erzielt. Die erste Seite des jeweiligen Suchbegriffs sollte das Hauptziel sein, die obersten Positionen der Optimalfall. Google sucht nicht nur nach gut optimierten Seiten, sondern nach originellen Inhalten. Guter, einfallsreicher Content wird mit höherem Page-Ranking belohnt. Doppelte Inhalte stehen dem entgegen und bringen einen gegenteiligen Effekt.

Besonders schwerwiegende Sanktionen erwarten Betreiber, die mutwillig Content von anderen Seiten stehlen und als eigene Inhalte verkaufen. Ihnen drohen drakonische Rückreihungen und, bei mehrmaligen Vergehen, sogar kompletter Ausschluss aus den Suchergebnissen. Kurzum: es besteht Handlungsbedarf, und zwar am besten sofort.

 

So kann das Ranking-Problem Duplicate Content umgangen werden

 

Wird Duplicate Content ermittelt, muss ohne Umwege gehandelt werden. Die Ursache für doppelte Inhalte und der Nutzen dieser sind zu ermitteln und dementsprechend zu handeln. Zu den gängigsten Methoden zählen:

  • Eigene, originelle Inhalte schaffen
    Die offensichtlichste und zugleich schwierigste Methode: Falls es technisch möglich und sinnvoll ist, werden eigene Inhalte verfasst. Besonders wichtig ist die Informationsdichte: kurze, informative Texte sind wesentlich effektiver als ellenlange, sich ewig wiederholende Abhandlungen. Im besten Fall werden lange UND informative Content-Seiten verfasst.
  • Canonical Tags
    Durch den Einsatz von Canonical Tags wird bei Seiten mit identen Inhalten signalisiert, welche davon kanonisch, d. h. die bevorzugte Variante ist. Alle anderen Seiten werden vom Crawling- und Indizierungsvorgang ausgeschlossen. Diese Methode kann auch bei unterschiedlichen Domains, Links und Sprachversionen herangezogen werden.
  • Weiterleitungen
    301-Weiterleitungen sind, gerade für User, nicht gerade die eleganteste Lösung, werden aber von Crawlern entsprechend erkannt und verhindern die Entstehung von Duplicate Content. Mit 301 kann beispielsweise von http://www.testseite.at/ auf http://testseite.at/ verwiesen werden – die durch mehrere Links entstehende Dopplungs-Problematik wird erfolgreich umgangen.
  • Robots.txt
    Auch diese Version ist etwas umstritten, funktioniert aber. In der im Root-Verzeichnis abgelegten robots.txt können mittels Disallow Seiten und Verzeichnisse vom Crawling-Vorgang ausgeschlossen werden.

Zusammenfassung

 

Duplicate Content, zu Deutsch „doppelte Inhalte“, bezeichnet (nahezu) idente Inhalte unter verschiedenen internen und / oder externen Links. Duplicate Content kann durch Copy & Paste-Arbeitsweise, die Verwendung mehrerer Domains und URLs, Einbindungen von Fremd-Feeds und -Frames sowie mutwilligen Diebstahl von Fremdcontent entstehen. Je nach Art, Schwere und Häufigkeit des Vergehens werden doppelte Inhalte mit leichten bis schweren Ranking-Einbußen bestraft. Um Duplicate Content zu vermeiden, wird auf originelle, informative Inhalte gesetzt. Alternativ können bestimmte Seiten, Verzeichnisse oder Domains durch Canonical-Tags, 301-Weiterleitungen oder Disallow in der robots.txt vom Crawling-Vorgang durch Suchmaschinenanbieter ausgeschlossen werden.

Tags:

Neuigkeiten per E-Mail erhalten

Fast täglich gibt es Neues, Faszinierendes rund um’s Online-Marketing, neueste Technologien und mehr zu berichten – und mit der Werbeagentur pinzweb.at GmbH & Co KG sind Sie natürlich immer live dabei!