Suchmaschinen-Ranking-Faktoren

Alle wichtigen Suchmaschinen setzen heute einen Ranking-Algorithmus ein, der im Wesentlichen aus zwei Teilen besteht:
1. Analyse des Seiteninhalts (Onpage-Faktoren)
2. Analyse externer Informationen, vor allem Verlinkung (Offpage-Faktoren)

Früher, das heißt bis zu der Zeit als Google begann, den Suchmarkt aufzurollen, waren die Onpage-Faktoren die zentralen, häufig sogar die einzigen Informationen fürs Ranking der Suchmaschinen. Google war dann die erste Suchmaschine, die auch die Verlinkung einer Seite intensiv zur Sortierung der Ergebnisse nutzte und so auch auf externe Informationen zurückgriff. Heute gibt es weitere externe Faktoren, die von den Suchmaschinen ausgewertet werden. Google spricht übrigens nicht von Ranking-Faktoren, sondern von Ranking-Signalen. Was damit gemeint ist, können Sie im Blogbeitrag Von Spam-Signalen und Ranking-Faktoren nachlesen.

Onpage-Faktoren

Die Inhalte einer Webseite, und das umfasst alle vom Autor direkt beeinflussbaren Aspekte wie etwa die URL, stellen nach wie vor die Grundlage der Suchverfahren da. Allerdings haben die Informationen aus den Offpage-Faktoren meist einen höheren Einfluss auf die Sortierung. Innerhalb der Onpage-Faktoren spielt der Inhalt des title-Tags die wichtigste Rolle. Wörter, die im title einer Seite vorkommen, bewerten alle Suchmaschinen sehr hoch. Daneben ist auch der Inhalt der HTML-Überschriften wie h1 oder h2 wichtig alle weiteren Stellen (Metatags, ALT-Attribut, etc.) im HTML-Code sind dagegen eher zu vernachlässigen und bringen kaum mehr Ranking-Vorteile als ein Vorkommen im normalen sichtbaren Text einer Seite.

Für Google ist der Seiteninhalt wichtig, um zu verstehen, worum es in der Seite geht. Werden auf der Seite also Ersatzteile fürs Auto verkauft oder Informationen zur Kindererziehung präsentiert? Die konkrete Wortwahl ist dabei nur noch zweitrangig und wird auch künftig immer weniger wichtig. Denn Google versucht zu verstehen, wonach der Google-Nutzer sucht und dafür die besten Ergebnisse zu präsentieren. Ob der Nutzer dabei genau die gleichen Begriffe zur Suche wählt, die auf der Seite vorkommen oder nach Synonymen gesucht hat, ist dafür nicht so entscheidend.

Um für Suchbegriffe mit hoher Konkurrenz weit vorne zu landen, ist es nötig, dass die gefundene Seite die Besucher zufrieden stellt. Genauer ist das unten im Abschnitt Nutzerverhalten beschrieben. Was genau den Besucher zufrieden stellt, hängt natürlich von der jeweiligen Suchanfrage ab und kann nicht pauschal beantwortet werden. Sehr oft aber ist die Voraussetzung, dass die gefundene Seite genügend gute und korrekte Informationen zum Suchbegriff bietet. Deshalb helfen umfangreiche Texte, die ein Thema recht ausführlich beleuchten, um weit vorne zu ranken. Eine generelle Regel, dass für Top-Platzierungen die Seite eine Mindest-Wortanzahl benötigt, lässt sich daraus aber nicht ableiten.

Keyword-Dichte

Immer noch gibt es Empfehlungen zur Suchmaschinenoptimierung, die von einem recht statischen Verständnis der Ranking-Verfahren ausgehen und in denen nahegelegt wird, doch darauf zu achten, eine Keyword-Dichte von mindestens zwei, aber höchstens fünf Prozent zu erreichen. Angesichts der zunehmenden Intelligenz von Suchmaschinen ist das Schielen auf solche Größen wie Keyword-Dichte häufig sogar kontraproduktiv. Wenn Texte so geschrieben werden, dass sie für den Nutzer hilfreich sind und alle Facetten des beleuchteten Themas gut abdecken, dann werden diese Texte auch gut in Google ranken.

Es gibt einen Einsatzzweck, für den das klassische Denken in Keyword-Dichte immer noch sehr gut funktioniert: Wenn es für eine Long-Tail-Suchanfrage nur relativ wenige Treffer gibt, kann eine Seite, die die gesuchte Phrase im Titel-Tag und mehrmals im Text enthält, hervorragende Platzierungen erreichen, auch wenn die Offpage-Faktoren schlecht sind. Das liegt einfach daran, dass Google für Long-Tail-Suchanfragen keine ausreichend große Suchhistorie hat und damit kein statistisch relevantes Nutzerverhalten auswerten kann.

Offpage-Faktoren

Eine wirklich gute Verlinkung der Website ist nach wie vor der wichtigste Faktor, um für umkämpfte Suchbegriffe Top-Platzierungen zu erreichen. „Gute Verlinkung“ bedeutet zwei Dinge: Erstens müssen möglichst viele Seiten, am besten auf voneinander unabhängigen Domains, auf die fragliche Seite verlinken und zum anderen muss in diesen Links (das heißt im anklickbaren Linktext) der gewünschte Begriff vorkommen. Dahinter steckt die Annahme der Suchmaschinen, dass Links als Empfehlung gesetzt werden. Wer auf eine fremde Website verlinkt, so die Überlegung, muss diese Website für sinnvoll halten. Je mehr fremde Seiten nun auf eine Website verlinken, um so wichtiger ist offenbar die verlinkte Website. Aber nicht nur die Anzahl der Links ist wichtig, auch die Texte in diesen Links spielen eine sehr wichtige Rolle. Denn die Suchmaschinen nehmen an, dass der Linktext der Seite zuzurechen ist, auf die dieser Link verweist.

Linktexte

Damit das deutlicher wird, nehmen wir ein Beispiel: Suchen Sie in Google nach [hier klicken]. Ganz vorne finden Sie die Download-Seite für den Adobe Acrobat Reader. Warum? Weil viele Webseiten dorthin verlinken und dabei einen Linktext „hier klicken“ verwenden:

Bitte hier klicken, um den Acrobat Reader kostenlos runterzuladen.

Die Suchmaschinen gehen nun davon aus, dass der Text hier klicken zur verlinkten Seite gehört; dies ist im Allgemeinen eine sinnvolle Annahme, denn üblicherweise steht im Linktext eine möglichst knappe Beschreibung der verlinkten Seite – und somit eine sehr wertvolle Informationen darüber, wofür die Zielseite relevant ist. Das ganze geht soweit, dass selbst für die Suche nach [hier] die Adobe-Seite auf Platz 1 steht; dabei kommt auf dieser Seite das Wörtchen „hier“ überhaupt nicht vor. Wenn Sie das hier klicken-Beispiel verstanden haben, haben Sie die wichtigste Grundlage der Ranking-Algorithmen verinnerlicht.

Nutzerverhalten

Lange Zeit war die Verlinkung einer Website der einzige Offpage-Faktor. Inzwischen aber gibt es viele Hinweise, dass insbesondere Google weitere Daten zum Ranking nutzt. Google speichert mit, wenn ein Nutzer auf ein Suchergebnis klickt. Kommt dieser Nutzer aber nach wenigen Augenblicken von der soeben angeklickten Website wieder zurück und klick im Google-Ergebnis auf den nächsten Treffer, so ist dies ein deutlicher Hinweis, dass der zuvor angeklickte Treffer für diese Suchanfrage nicht besonders gut geeignet war. Stellt Google fest, dass dieses Muster bei vielen Nutzern auftritt, wird die Seite mit der kurzen Aufenthaltsdauer bald weiter nach unten rutschen. Der Betreiber der Website kann dieses Verhalten nicht feststellen. Lediglich die Messung der Absprungrate (Bounce-Rate) von Google-Besuchern kann das Problem in grober Näherung aufdecken.

Usability

In der Konsequenz heißt das, dass die Usability (Benutzbarkeit) und damit auch das Design einer Website heute einen wichtigen Einfluss auf den SEO-Erfolg einer Website haben. Dieser Einfluss ist natürlich indirekt, es gibt kein Ranking-Signal „Gutes Design“. Schlechtes Design aber schreckt Nutzer ab und bringt sie dazu, auf den Zurück-Knopf zu klicken. Die Folge sind hohe Absprungraten und damit schlechtere Platzierungen.

Brands (Marken)

Das Brand-Update im Dezember 2009 war das erste deutliche Anzeichen, dass Google seine Ranking-Verfahren grundlegend überarbeitet hat. Von einer Woche auf die andere schossen Marken-Websites wie canon.de oder t-mobile.de für Begriffe in die Top-10, die vorher nicht mal in den Top-100 zu finden waren. Die naheliegendste Erklärung dafür ist, dass Google zum Beispiel über massenhafte Suchanfragen wie [canon drucker] erkennt, dass Canon und Drucker zusammengehören. Also wird die Marken-Website canon.de für [drucker] künftig deutlich bevorzugt. Dieses Vorgehen hat Google seither deutlich ausgebaut und setzt solche Erkenntnisse aus dem Suchverhalten fürs Ranking ein.

Trust

Ein weiterer Aspekt, der im Ranking-Algorithmus von Google eine wichtige Rolle spielt, wird häufig unter dem Begriff „Trust“ (Vertrauen), zusammengefasst. Der Begriff leitet sich von TrustRank ab, einem Verfahren, dass im Jahr 2004 vorgestellt wurde. Inzwischen aber hat sich der Begriff Trust von diesem Verfahren gelöst und bezeichnet heute alle Faktoren, die eine Webseite vertrauenswürdig erscheinen lassen. Dazu gehören natürlich die bereits aufgeführten Aspekte wie Verlinkung und Markenbekanntheit. In erster Linie aber meint man zusätzliche Faktoren:

  • Alter der Website: Je länger eine Website online ist und in dieser Zeit das gleiche Thema und die gleiche Ausrichtung hat, um so stärker vertrauen Suchmaschinen den Inhalten dieser Website
  • Alter der Links: Links, die schon seit vielen Jahren auf eine Website zeigen, signalisieren, dass diese Website besonders vertrauenswürdig ist.
  • Historie der Website: Wurde die Website in der Vergangenheit mit Ranking-Strafen belegt oder hat sie sich immer an die Richtlinien gehalten?

Ranking-Faktor oder Penalty?

Google hat über die Jahre verschiedenste Updates seines Algorithmus durchgeführt und dabei eine Reihe von Filtern eingebaut, die zur Abwertung von Seiten führen, falls sie bestimmte Eigenschaften aufweisen. Dazu gehören etwa Abwertungen für Seiten mit wenig eigenständigem Inhalt (Panda-Updates) oder mit vielen gekauften oder sonst zweifelhaften Links (Penguin-Update). Aber auch handfestere Filter gibt es: Wenn etwa wegen all der Werbung ohne zu scrollen zu wenig Inhalt sichtbar ist, kann das ebenfalls zur Abwertung führen.

Social-Media

Eine große Unsicherheit herrscht nach wie vor bei der Frage, ob denn Social-Media-Aktivitäten ein Ranking-Signal sind. Etliche Untersuchungen legen eine Korrelation nahe: Seiten, die viel in zum Beispiel Facebook geteilt werden, ranken tendenziell auch besser. Das kann in der Tat ein direkter Effekt sein. Es kann aber auch daran liegen, dass Websites, die sich intensiv um Facebook kümmern, meist auch ihre SEO-Hausaufgaben gemacht haben.

Und was ist mit dem PageRank?

Die weiter oben dargestellte Bewertung der Verlinkung einer Website (viele Links von vielen guten Seiten sind gut) wurde von Google über lange Zeit durch einen Wert kommuniziert. Dieser Wert heißt, in Anlehnung an Google-Gründer Larry Page, PageRank und ist ein Maß für die grundlegende Bedeutung dieser Seite, unabhängig von Keywords oder Suchbegriffen. Dabei wird nicht nur die Zahl der eingehenden Links betrachtet, sondern auch deren PageRank; es handelt sich also um eine rekursive Berechnung: Eine Seite ist dann bedeutend, wenn sie von möglichst vielen bedeutenden Seiten verlinkt wird. Dieser Wert wurde von Google über die Google Toolbar öffentlich einsehbar gemacht. Zwar gibt es den PageRank immer noch, er spielt aber keinerlei Rolle mehr. Denn Google bewertet weitaus mehr Eigenschaften von Links als dass sie im PageRank-Wert sinnvoll zum Ausdruck gebracht werden könnten. Zudem ist der PageRank, den Google über die Toolbar-Schnittstelle kommuniziert, hoffnungslos veraltet. Am besten ist es, über diesen Wert nicht weiter nachzudenken.

Machine Learning

Immer häufiger tauchte in den letzten Jahren der Begriff Machine Learning in der Debatte um die Ranking-Faktoren von Google auf. Mit Sicherheit setzt Google heute Machine-Learning-Techniken ein, es wäre aber ein Fehler zu glauben, dass Machine Learning ein eigenständiger Ranking-Faktor sei. Vielmehr dienen die verschiedenen Verfahren dazu, etwa die Qualität von Links besser bewerten zu können oder die oben erwähnten Nutzersignale auszuwerten. Im Oktober 2015 hat Google bekannt gegeben, dass sie bereits seit längerem ein Machine-Learning-Verfahren namens RankBrain einsetzen, das vor allem für Long-Tail-Suchanfragen bessere Ergebnisse liefern soll. Einen kurzen Blog-Post zu RankBrain finden Sie hier.

Newsletter-Anmeldung

*Pflichtfeld