Das Duplicate-Content-Problem

Der Umgang mit – oder besser: Die Vermeidung von – Duplicate Content gehört seit längerer Zeit zu den wichtigsten Aufgaben der Suchmaschinen-Optimierung. Vermeidet ein Webmaster doppelte Inhalte, so landet er keinen einzigen Platz weiter oben in den Ergebnislisten, aber er kann einen eventuellen Absturz seiner Listings vermeiden. Ich habe in den vergangenen Monaten etliche Websites gesehen, bei denen Duplicate Content zugeschlagen hatte und oftmals waren die vorhandenen Doppelungen erst nach längerer Analyse zu erkennen.

Dass Duplicate Content in der Tat ein erhebliches Problem darstellt, macht allein die Ansetzung eines eigenen Panels im Rahmen der New Yorker Search Engines Strategies Conference (SES) zu diesem Thema deutlich. Zwei Vertreter von großen Suchmaschinen – Rajat Mukherjee von Yahoo und Matt Cutts von Google – gestanden denn auch ein, dass Suchmaschinen hier ein Problem haben. „Wir wollen keine Inhalte abwerten, sondern die richtigen Inhalte nach vorne bringen,“ erklärte Mukherjee. Da dies aber schwierig sei, empfehle er Doppelungen „wo immer möglich zu vermeiden“.

Cutts stellte anschließend klar, dass die etwa durch zwei Top-Level-Domains entstandene Spiegelung „keine Abstrafung durch Google“ mit sich bringe und auch eine (zusätzliche) Druckversion einer Seite kein Problem darstellt. Meiner Erfahrung nach ist das aber nur die halbe Wahrheit. Denn oft genug sind das nicht die einzigen Vervielfältigungen, denen ein Seiteninhalt unterliegt: Zwei Top-Level-Domains und zu jeder normalen Seite eine (ebenfalls crawlbare) Druckversion ergibt bereits eine Vervierfachung – ein und der selbe Inhalt ist unter vier verschiedenen URLs zu erreichen. Für gewöhnlich ist dann jede Domain auch noch sowohl mit als auch ohne vorangestelltes www erreichbar, und schon sind wir bei acht Kopien angelangt.

Damit sind aber noch längst nicht alle Möglichkeiten moderner Webtechnologien erschöpft. Stellen Sie sich einen Online-Shop vor: Der Kopfbereich, die Navigation, Einkaufshinweise und der ganze Rattenschwanz an Kontakt-, Impressums- und Sonstwasangaben im Fuß der Seite machen oftmals 90 Prozent des Seiteninhalts aus. Ein anderer Fall, aber ähnlich problematisch sind Sites mit einem hohen Anteil an reinen Fotoseiten. Das kann etwa eine Ferienhausvermietung sein; für jedes Objekt eine eigene Seite, auf der nur das Foto und ein Standardtext erscheint – auch hier droht die Abstrafung wegen Duplicate Content.

Allein die Tatsache, dass das Thema Duplicate Content im Rahmen einer SES diskutiert wurde, erweckt die Hoffnung, dass die großen Suchmaschinen hier bessere Algorithmen finden, die oftmals sehr sinnvolle Wiederverwendungen von Inhalten auf einer Website gegenüber missbräuchlichem Duplicate Content abzugrenzen.

Newsletter-Anmeldung

*Pflichtfeld
– Anzeige –

8 thoughts on “Das Duplicate-Content-Problem

  • Pingback: INTRO - Musik und so.

  • 5. April 2008 at 13:41
    Permalink

    Also Seo ist ja auch nicht schwer. Es gibt nur ein paar Sachne zu beachten und wenn man das tut ist man auch ziemlich schnell ganz weit oben. Anfangen tut es mit der technischen Seite, sprich die Seite muß gut gemacht sein und bei den meisten hapert es schon da.

  • 13. Mai 2008 at 15:50
    Permalink

    hoffe das es in zukunft auch mal alternativen geben wird. aber in dem zeitalter der web 2.0 communitys weht jetzt schon ein bisschen frischer wind..

  • Pingback: Duplicate Content

  • 17. Juni 2008 at 21:04
    Permalink

    Aber immer kann man sich auch nicht gegen DC schützen. Was will man machen, wenn man ein guten Blog hat, und irgendeiner kopiert da Texte und veröffentlich sie woanders? Selbst wenn er dahinschreibt, Zitat von …. Ist das der Suchmaschiene ja egal. Für ihr ist es denn doppelter Content.

  • 28. Juni 2008 at 12:54
    Permalink

    Dass die Suchmaschienen sowas nicht mal checken können? ^^

  • 24. Juli 2008 at 07:54
    Permalink

    Hallo,
    leider hatte ich schon öfters solche Fälle mit DC gehabt. Gerade die letzte Woche hatte ich entdeckt das meine Seite bei der Suchmaschine mit DC gefunden wurde. Der Verursacher des DC war ein Webkatalog wo ich meine Seite eingetragen hatte. Als ich meine Seite dort eingetragen habe, stand da noch das die Einträge zuvor auf Qualität geprüft werden. Als Beschreibungstext meines Eintrages in diesem Webkatalog hatte ich natürlich einen anderen Text gewählt als auf meiner Homepage vorhanden war. Dennoch mußte ich dann im nachhinein feststellen, das die Webmaster des Webkatalogs einfach von meiner Hauptseite die erste Textpassage kopiert haben, das waren etwa 15 Zeilen. In den Serps war dann natürlich meine Seite nicht mehr auffindbar. Gestern habe ich veranlasst, das mein Eintrag dort wieder gelöscht worden ist. Ich habe kein Interresse auf Webkataloge die DC produzieren beziehungsweise Content grabben meine Webseiten zu listen. Habe aber auch schon Erfahrungen mit Bildern gemacht die mir geklaut worden sind, wo manche meine Fotos aus dem Urlaub einfach für Ihre Reiseportale genommen haben. Meist reicht es ja die Webmaster anzuschreiben, die den DC verursacht haben, doch die gegrabbte Seite ist dann schon bei der größten Suchmaschine deswegen abgestraft. Das kostet nur Nerven und Zeit. Wollte nur mal meine eigenen Erfahrungen los werden. In diesem Sinn, ist es ganz schön schwierig vernünftige Seiten zu finden, wo man seine Homepage ohne Bedenken eintragen kann oder Partner die Fair mit anderen Betreibern von Webseiten umgehen. Ich hoffe das sich noch alles zum Guten wendet und die viele Arbeit, die man beim Erstellen einer Seite hat auch belohnt wird.

    Gruß aus der Pfalz

  • 5. August 2008 at 19:41
    Permalink

    Ich denke mal vor solchen Sachen und Machenschaften kann man sich nicht schützen oder diese verhindern.

Comments are closed.