Das Leistungsschutzrecht für Verleger und seine Auswirkung auf SEO

Das Leistungsschutzrecht für Verleger und seine Auswirkung auf SEO

 

Das Leistungsschutzrecht für Presseverlage hat eine weitere Hürde genommen und wurde vom Rechtsausschuss des Bundestages befürwortet. Damit sieht es so aus, als würde die Bundestagsmehrheit aus Union und FDP dieses umstrittene Gesetz tatsächlich durchpeitschen. Vieles wurde zum Leistungsschutzrecht bereits geschrieben; ich möchte an dieser Stelle einmal darstellen, was die Umsetzung dieses Gesetzes fürs Suchmaschinenmarketing bedeuten könnte.

Auch wenn das Gesetz, dessen Details immer noch offen sind, unter dem Label „Leistungsschutzrecht“ diskutiert wird, so ist es doch letztlich ein Google-Kontroll-und-Abkassier-Gesetz. Die Zeitungsverleger geben das ja auch ganz offen zu, zetern sie doch bei jeder Diskussion um das neue Recht öffentlich über Googles angeblich so unfaires Geschäftsmodell. Schon daraus ergibt sich deutlich, dass das Leistungsschutzrecht für SEO wichtig sein dürfte.

Ich muss zugeben, ich habe die Strategie der Verlage lange nicht verstanden. Sie beschweren sich über Google News – doch alle machen dort freiwillig mit, niemand wird gezwungen. Wird die robots.txt-Datei erwähnt, weichen die Verlagsvertreter aus und reden wieder darüber, wie unfair Google doch sei. Eigentlich kam bei mir nur an, die Zeitungsverlage möchten ein Gesetz, das einfach nur das regelt, was sie ohnehin heute mit der robots.txt-Datei oder ein paar Meta-Tags erreichen könnten.

Dabei ist die Sache weitaus spannender. Natürlich weiß heute jeder Verlagschefs, dass es Möglichkeiten gibt, Google zu sagen, was indexiert werden soll und was nicht. Doch geht es ganz offensichtlich den Verlagen nicht ums Indexieren und auch nicht um Google News. Es geht ihnen um die absolute Kontrolle darüber, was Google in seinen Index aufnehmen und wie Google Verlagsergebnisse darstellen soll. Für diesen Wunsch wurde das robots.txt-Protokoll nicht erschaffen und kann das somit nicht leisten. Deshalb haben sich die Verlage eine Alternative zur robots.txt-Datei ausgedacht und verlangen nun im Zuge des Leistungsschutzrechts dieses neue Verfahren namens ACAP verbindlich festzulegen.

ACAP stellt eine Reihe von Verfahren dar, die letztlich eine erheblich Erweiterung des robots.txt-Protokolls sind; Erweiterungen, mit denen der Publisher einer Website der Suchmaschine bis ins Detail vorschreiben kann, wie diese Suchmaschine seine Website zu indexieren hat. Darunter sind Mechanismen, von denen sicherlich viele SEOs seit Jahren träumen – und die Google vollkommen zurecht als Einladung zur Manipulation zurückweist. Hierzu einige Beispiele, die meisten direkt entnommen aus der ACAP-Spezifikation. Ich hoffe, mit diesen Zitaten kein wie auch immer geartetes Leistungsschutzrecht zu verletzen.

ACAP-allow-index: /news/2007/ time-limit=until-2007-12-31

Diese Anweisung schreibt der Suchmaschine vor, alle indexierte Nachrichten aus dem Verzeichnis /news/2007/ nur bis zum 31.12.2007 im Index zu halten. Danach sind sie also zu deindexieren, letztlich also zu löschen.

ACAP-allow-index: /page-image.pdf must-use-resource=/page-image-index.txt

Diese Anweisung ist mein persönlicher Favorit. Mit must-use-resource schreibt der Publisher der Suchmaschine vor, dass sie die URL /page-image.pdf zu verlinken hat, dazu aber der Inhalt der URL /page-image-index.txt zu benutzen sei. Wer jetzt laut Cloaking schreit, hat diese Anweisung richtig verstanden. Auch die Entwickler von ACAP wissen das und schreiben in der Erläuterung dazu: „This qualification of the index usage type may be interpreted by some crawler operators as ‚cloaking‘.“ Da kämpfen die Suchmaschinen mit großem Aufwand – und absolut im Sinne der Nutzer – seit vielen Jahren gegen Cloaking und nun soll ein Gesetz verabschiedet werden, das sie zwingt eine Cloaking-Schnittstelle einzubauen. Die must-use-resource-Angabe kann laut Spezifikation auch eine absolute URL sein, mithin wäre es also auch möglich, externe Quellen anzuzapfen. Was für eine Arbeitserleichterung für Scraper! Sparen sie sich doch künftig das aufwändige und fehleranfällige Kopieren fremder Seiten, denn das muss künftig Google für sie übernehmen.

ACAP-allow-index: /articles/ must-use-resource=the-acap:extract:class:abstract

Doch die allow-index-Anweisung kann noch mehr. Es lässt sich im Detail angeben, welche Teilbereiche einer einzelnen Seite überhaupt indexiert werden dürfen. Im aufgeführten Beispiel wäre das nur der Inhalt aller HTML-Klassen mit dem Namen „abstract“.

ACAP-disallow-present-link: /article/

Fast schon von Valentinscher Komik ist die Anweisung present-link. Damit kann die Suchmaschine angewiesen werden, bestimmte gecrawlte und indexierte URLs nicht anzuzeigen. Weil ich diesen Befehl selbst fast nicht glauben kann, hier die Beschreibung aus der Spezifikation: „This usage type enables expression of a permission or prohibition to present a link to the crawled resource on the crawled site.“
Wer Google ärgern will, baut künftig also eine riesengroße Website, lässt dort alles indexieren, verbietet Google aber die Darstellung des Links.

ACAP-allow-present-currentcopy: /public/ prohibited-modification=style

Sie haben sich schon mal geärgert, dass Ihre typografisch fein gestaltete Website in Google so langweilig daherkommt? Nun, ACAP schafft hier Abhilfe. Mit prohibited-modification=style schreiben Sie der Suchmaschine vor, Ihre Typografie beizubehalten. Oder in den Worten der Spezifikation: „any typographic style or layout modification is prohibited“. Wenn ich also meine Seite mit Comic Sans verschönere, muss Google mein Snippet auch mit diesem wunderschönen Font präsentieren. Ganz nebenbei tut sich hier eine neue Verdienstmöglichkeit für Schriftsetzer auf.

ACAP-allow-present: /public/ must-include-link=/toller-artikel

Auch das dürfte sicherlich viele SEOs freuen: Künftig können wir Google anweisen, zusätzlich zum normalen Suchergebnis einen weiteren beliebigen Link einzublenden. Die einzige Voraussetzung dafür ist, dass dieser Link gecrawlt werden darf. Zeigt Google also künftig ein Suchergebnis von z.B. welt.de an, kann „Die Welt“ neben diesem Ergebnis einen Link zu einer anderen Axel-Springer-Website präsentieren. Noch nie war Cross-Promotion so einfach.

ACAP – die neue Google API

Mit ACAP haben sich die drei großen Zusammenschlüsse von Verlagen (World Association of Newspapers, European Publishers Council, International Publishers Association), die hinter der Initiative stehen, eine API gebastelt, mit der sie Google künftig weitgehend fernsteuern könnten. Letztlich fehlt nur noch eine Anweisung wie ACAP-force-ranking: http://example.com/ position=1, dann wäre das Feature-Set wirklich komplett.

So verrückt manche ACAP-Anweisungen auch klingen mögen, es ist beim derzeitigen Stand nicht ganz ausgeschlossen, dass sie durch das Leistungsschutzrecht eingeführt werden. Für uns wirft das die Frage auf, wie wir davon profitieren könnten? Nun, das zu beschließende Gesetz enthält kein Wort über ACAP. Die Umsetzung von ACAP könnte die Folge der Gesetzesänderung sein. Denn durch das geänderte Urheberrecht bekommen Presseverleger weitgehende Rechte und ACAP wäre der Mechanismus, diese Rechte automatisiert durchzusetzen. Wer also als Suchmaschinenoptimierer davon profitieren will, muss dafür sorgen, künftig unter den Geltungsbereich dieser Rechtsnorm zu fallen. Wie lässt sich das erreichen? Der Gesetzesentwurf vom 14.11.2012 definiert ein Presseerzeugnis so:

Ein Presseerzeugnis ist die redaktionell-technische Festlegung journalistischer Beiträge im Rahmen einer unter einem Titel auf beliebigen Trägern periodisch veröffentlichten Sammlung, die bei Würdigung der Gesamtumstände als überwiegend verlagstypisch anzusehen ist und die nicht überwiegend der Eigenwerbung dient. Journalistische Beiträge sind insbesondere Artikel und Abbildungen, die der Informationsvermittlung, Meinungsbildung oder Unterhaltung dienen.

Quelle: Deutscher Bundestag, Drucksache 17/11470, §87f (2)

Im Rahmen des aktuellen Content-ist-King-Hypes dürfte es nicht allzu schwer sein, SEO-getriebene Projekte so weit zu trimmen, dass sie unter diese Definition fallen und dann von all den schönen ACAP-Mechanismen profitieren können. Fast bin ich geneigt, den Zeitungsverlagen alles Gute für ihr Ansinnen zu wünschen …

Bildnachweis: © Scanrail – Fotolia.com

Update: Martin hatte bereits im Herbst eine kleine Glosse zu den Vorteilen des Leistungsschutzrechts für SEOs geschrieben: Das goldene Zeitalter der Suchmaschinenoptimierung liegt vor uns …

Newsletter-Anmeldung

*Pflichtfeld
Bildnachweis:
– Anzeige –

15 thoughts on “Das Leistungsschutzrecht für Verleger und seine Auswirkung auf SEO

  • 27. Februar 2013 at 15:32
    Permalink

    Ich bin dennoch gespannt, wann denn endlich das Kartellamt gegen Google eingreift. Faktisch haben wir in D. ein Monopol im search. Verlage, Leistungsschutzrecht hin oder her!

  • 27. Februar 2013 at 16:25
    Permalink

    Naja, die Wunschvorstellungen für die Erweiterung der robots.txt wurden 2009 vorgelegt. Ich schätze das ist in dieser Form schon ein paar Tage vom Tisch. Gibt es eigentlich eine Art Kontrahierungszwang für Suchmaschinen?

  • 27. Februar 2013 at 16:30
    Permalink

    Vom Tisch? Den aktuellen Berichten zufolge haben die Verlagsvertreter den Zwang zu ACAP dieser Tage wieder als Wunsch formuliert. Einen Kontrahierungszwang gibt es noch(!) nicht; das wird dann aber das nächste sein, was sich die Verleger einfallen lassen. Nämlich dann, wenn Google das zu dumm wird und all die schicken Verlagswebsites, die eh nur Agenturmeldungen wiederkauen, ausschließt.

  • 27. Februar 2013 at 16:43
    Permalink

    In dem Zuge könnte man doch auch noch ein
    ACAP-wikipedia-relative: /articles/ position=before
    einführen. Ich hoffe, das wird in den Spezifikationen noch ergänzt. Könnte viel Arbeit sparen.

    Danke für den Artikel, Stefan. Ich komme aus dem Kopfschütteln gar nicht mehr raus.

  • 27. Februar 2013 at 18:27
    Permalink

    Hi,

    also wenn das kommen sollte, habe ich am nächsten Tag 10 Verlage gegründet und eingetragen…
    Hier noch meine 2 Cent zum LSR: http://www.literaturasyl.de/politik/leistungsschutzrecht-deepthinking/

    Meiner Meinung nach kommt es entweder zu einem Verhalten Googles wie in Belgien und dann sind die Google-News einfach dicht oder die Tante schaut sich wirklich mal an, was diese „Verlage“ in die Serps pumpen. Das sind zum Großteil Agenturmeldungen und warum sollte Google nicht mit einer kleinen Readaktion die Artikel selbst kaufen und direkt online stellen? Die gefordete journalistische Leistung, ganz zu schweigen von gutem und unique Content, kann ich bis jetzt nur schwer entdecken 😉

  • 27. Februar 2013 at 22:11
    Permalink

    @Schulze, Thomas: Warum haben wir in Deutschland ein Monopol im Bereich Suche? Ich kann doch wählen ob ich Bing Yahoo oder Google verwende.

  • 27. Februar 2013 at 22:58
    Permalink

    Ich würde das Leistungsschutzgesetz begrüßen. Wie Martin schon schreibt würde dadurch eine menge gute Rankings frei, wenn die Verlage dann in Ihrem eigenen Kosmos agieren.

  • 28. Februar 2013 at 19:16
    Permalink

    Wenn die Verlage nicht wollen, dass etwas indexiert wird, sollen sie es doch nicht ins Netz stellen, oder verstehe ich da was falsch ^^?

  • Pingback: content marketing, seo, twitter vine, google+, lsr und evernote im blogsheet blog blick | bloggen | evernote, google+, seo, twitter

  • 4. März 2013 at 20:25
    Permalink

    Nachdem das Gesetz nun so wachsweich verabschiedet wurde – wird es – sollte es schlußendlich auch vom Bundesrat verabschiedet werden – vermutlich danach erst noch etliche (Rechts-)Streitereien darüber kommen, damit diese Gummi-Auslegung schlußendlich zweifelsfrei wird.

  • 7. März 2013 at 12:42
    Permalink

    @Frank – ja stimmt – das wird bestimmt spannend… – ich kann gar nicht verstehen wie man so einen Text bzw. so eine Formulierung überhaupt im Bundestag verabschieden kann… – der lässt ja schon beim Lesen genug möglichkeiten zur Interpretation – wie mag das dann erst aussehen wenn die Advokaten den Text zerlegen werden…

  • Pingback: Wann wird die robots.txt von ACAP ersetzt? |

  • 12. März 2013 at 15:35
    Permalink

    Ich kann mir beim besten Willen nicht vorstellen dass Google hier nachgeben wird. Wenn man Google dann so einfach manipulieren könnte, würde das sicherlich viele Änderungen im Algo mit sich bringen und das wird Google mit aller Macht verhindern wollen. Wie gesagt ich tippe, dass die Verleger damit nicht durchkommen.

  • 14. März 2013 at 20:36
    Permalink

    Trotz aller Attacken auf Google haben die jedoch alles gut im Griff. Ich bin gespannt, wie das ausgehen wird, aber Google wird sich nicht unterkriegen lassen und so langsam bekommt man wirklich den Eindruck, dass da doch etwas anderes dahinter steckt, hier bin ich voll und ganz der gleichen Meinung.

  • 2. Mai 2013 at 09:12
    Permalink

    der Monopolist G. wird hier nicht nachgeben – wieso auch? Es war mal ein kurzer Hype und nun wird alles schön todgeschwiegen… – eigentlich traurig, aber nachdem ein massiver „Aufstand“ nicht zustande kommt wird sicherlich nun alles so bleiben wie es ist – und jeder wird es zähneknirschend, stillschweigend akzeptieren (müssen).

Comments are closed.