Im Bereich der Suchmaschinenoptimierung gibt es immer wieder Gerüchte und Missverständnisse. So zum Beispiel bei der Frage „Wie viele Links können auf einer Seite sein, sodass sie von Suchrobots verfolgt werden? Gibt es da eine Obergrenze?“

Bis vor einigen Jahren galt es, dass man nicht mehr als 100 Links pro Seite haben sollte. In den Google Richtlinien für Webmaster steht zwar „Beschränken Sie die Anzahl der auf einer Seite vorhandenen Links auf ein vernünftiges Maß (weniger als 100).“ – es wird aber nichts darüber ausgesagt, ob der Suchrobot nach 100 Links das Verfolgen selbiger einstellt. Die These, dass es eine Obergrenze für Links auf einer Seite gibt, rührt aus alten Zeiten, als Google nicht mehr als 100KByte einer Seite indiziert hat. Da war der Gedanke natürlich nicht verkehrt, dass ab einem gewissen Maß an Links auf einer Seite diese nicht mehr verfolgt werden. Diese Limitierung gibt es seit einigen Jahren nicht mehr. Heutzutage indiziert Google größere Seiten viel umfassender. Um einmal festzustellen, wie viele Links Google auf einer Seite verfolgt und bewertet, haben wir eine Testseite mit 1000 Links eingerichtet. Bereits wenige Tage später waren fast alle verlinkten Seiten im Googleindex zu finden. Damit konnte die These entkräftet werden, dass der Googlebot nach 100 Links die Indizierung abbricht.

Und das sagt Matt Cutts dazu: „If you have a high PageRank page with lots of link juice, we may spider well beyond 100 links per page – possibly even 2-300 depending on how valuable we feel that page to be. […] Although we may crawl more than 100 links per page (maybe even many hundreds), we don’t recommend linking to that many, because of the dilution of link juice that occurs. Instead, use sub-navigation pages to help ease the link per page burden.“ (ganzen Artikel lesen)

Die Obergrenze der verfolgten Links auf einer Seite hängt also mit davon ab, wie hoch die Relevanz einer Website bzw. ihr PageRank ist.


Update: Um das Vererben von Link-Juice einzuschränken, ist es natürlich sinnvoll, die unwichtigen Seiten mit einem rel= nofollow zu versehen. Aber das ist ein anderes Thema. 😉

Suchmaschinenoptimierung ist nicht gleich Suchmaschinenoptimierung. Bei der Herangehensweise zur Optimierung einer Website unterscheidet man zwischen „White Hat SEO“, welches sich an die Richtlinien der Suchmaschinenbetreiber hält und mit allgemein üblichen Maßnahmen versucht, eine Website zu optimieren und damit das Ranking in den Suchergebnissen zu verbessern, und dem sogenannten „Black Hat SEO“, welches für eine Suchmaschinenoptimierung steht, die auch nicht auf Tricks verzichtet, die von Betreibern von Suchmaschinen als Spam bewertet werden. Beim Black Hat SEO geht man ein gewisses Risiko ein, denn sobald Suchmaschinen diese Tricks entlarven, kann es bis zum kompletten Ausschluss der Website aus dem Index kommen, sodass die Website überhaupt nicht mehr in den Suchergebnissen erscheint. Ein bekanntes Beispiel, wie man Suchmaschinenoptimierung nicht betreiben sollte, ist der Fall BMW aus dem Jahre 2006.

Whitehat und Blackhat „Cloaking“ wird oft im Zusammenhang mit Black Hat SEO genannt. Cloaking bedeutet, dass eine Website so eingerichtet wird, dass Suchmaschinen andere Inhalte präsentiert werden als normalen Surfern. In Verruf geraten ist die Technik, da diese oft dazu genutzt wurde/wird, um speziell für Suchmaschinen aufbereitete Doorwaypages (Brückenseiten) vor den realen Benutzern zu verstecken. Doorway-Seiten liefern den Suchmaschinen Webseiten, die auf bestimmte Keywords „optimiert“ sind. Durch oft karges Aussehen und sinnfreien Content sind sie für den User jedoch kaum attraktiv. Deswegen werden die User in der Regel gleich weitergeleitet, ohne die Seite zu Gesicht zu bekommen. Dabei sagen die bspw. Google Richtlinien für Webmaster ganz klar: „Vermeiden Sie Cloaking. […] Erstellen Sie Seiten für Nutzer und nicht für Suchmaschinen.

Auf der anderen Seite gibt es aber auch sog. „positives Cloaking“, welches zu keiner Abstrafung führt und ganz im Gegenteil dafür sorgt, dass den Suchmaschinen das Indizieren der Website vereinfacht wird. Websites, die mit Session-IDs innerhalb der URLs arbeiten, werden vom Robots zumeist gemieden: Die Session-IDs führen dazu, dass einem Suchmaschinen-Robot bei jedem Besuch eine neue ID zugewiesen wird und dieser somit stets neue URLs vorfindet, wodurch ein endloser, ressourcenfressender Kreislauf entsteht. Um dies zu umgehen, sollte man dem Googlebot mittels „positivem Cloaking“ oder auch „SID-Cloaking“ andere URLs anbieten als dem normalen Nutzer – eben ohne die SessionIDs.

Cloaking sollte also nicht benutzt werden, um den Suchmaschinen anderen Content anzubieten als den Usern. Diese Form des Cloaking gehört zum Bereich Black Hat SEO, die zum gänzlichen Ausschluss der Website aus dem Index führen kann. Um jedoch eine Website mit Session-IDs indizierbar zu machen, sollte Cloaking zur einfacheren Indizierung durch die Suchmaschinen eingesetzt werden.