Es heißt, dass Googles Penguin 4.0 nun aus dem Sack wäre. Präziser ist aber wohl, dass der Vogel jetzt erst richtig im Sack steckt. Denn der Schrecken aller unnatürlichen Links wurde jüngst direkt in den Core-Algorithmus eingepflegt und lebt dort ab sofort in Echtzeit weiter.

Google und Pinguin
Google rollt das neueste Pengiun Update aus: Was das Update mit sich bringt erfahren Sie ein unserem Blogeintrag!

Wir haben kurz alle wichtigen Infos zum neusten und wohl letzten offiziellen Penguin Update zusammengetragen. Lesen Sie sich fix rein! (mehr …)

Die Verlinkung einer Website ist elementar wichtig für die Autorität und somit das Ranking in den Suchergebnislisten der Suchmaschinen. Dabei kommt es auf einen gesunden Linkaufbau an, der sich aus einer natürlichen Mischung aus ein- und ausgehenden Links sowie einer sinnvollen internen Verlinkung zusammensetzt. Wenn von Linkbuilding die Rede ist, dann ist vornehmlich der Aufbau des Backlinkprofils gemeint, also die Offpage-Optimierung der Linkstruktur.

Während sich die Betreiber von Websites, die reich an hochwertigen Inhalten sind, nach und nach von (fast) ganz allein ein wertvolles Backlinkprofil verdient haben, werten andere Webmaster ihre Linkstruktur bspw. durch getauschte Links auf. Was sich zunächst vielleicht unfair anhört, wird nicht nur viel praktiziert, sondern ist auch zum Beispiel unter Bloggern gängige Praxis. Und was spricht auch dagegen, das eigene Projekt bei anderen bekannt machen zu wollen? Wie so oft ist auch hier die Art und Weise der springende Punkt. (mehr …)

Die Google Webmaster Tools haben eine erneute nützliche Aufwertung erhalten. Es ist nun möglich, eingehende Links nach Datum sortiert herunterzuladen. Diese neue Funktion kann beispielsweise genutzt werden, um den Linkzuwachs über bestimmte Zeiträume darzustellen.

Links herunterladen in den Webmaster Tools
Die Sortierung kann sich als sehr praktisch erweisen.

Der Zugriff auf die Link-Daten beschränkt sich allerdings – nach wie vor – auf den händischen Download über den Browser, denn auch die neuen Daten gibt Google leider nicht für den Zugriff via Webmaster Tools-API frei. Denkbare Anwendungen wie eine App, die bei neu hinzugekommenen Links automatisiert Alarm schlägt, sind daher leider nicht möglich.


Quelle: Tweet von Matt Cutts

Im Bereich der Suchmaschinenoptimierung gibt es immer wieder Gerüchte und Missverständnisse. So zum Beispiel bei der Frage „Wie viele Links können auf einer Seite sein, sodass sie von Suchrobots verfolgt werden? Gibt es da eine Obergrenze?“

Bis vor einigen Jahren galt es, dass man nicht mehr als 100 Links pro Seite haben sollte. In den Google Richtlinien für Webmaster steht zwar „Beschränken Sie die Anzahl der auf einer Seite vorhandenen Links auf ein vernünftiges Maß (weniger als 100).“ – es wird aber nichts darüber ausgesagt, ob der Suchrobot nach 100 Links das Verfolgen selbiger einstellt. Die These, dass es eine Obergrenze für Links auf einer Seite gibt, rührt aus alten Zeiten, als Google nicht mehr als 100KByte einer Seite indiziert hat. Da war der Gedanke natürlich nicht verkehrt, dass ab einem gewissen Maß an Links auf einer Seite diese nicht mehr verfolgt werden. Diese Limitierung gibt es seit einigen Jahren nicht mehr. Heutzutage indiziert Google größere Seiten viel umfassender. Um einmal festzustellen, wie viele Links Google auf einer Seite verfolgt und bewertet, haben wir eine Testseite mit 1000 Links eingerichtet. Bereits wenige Tage später waren fast alle verlinkten Seiten im Googleindex zu finden. Damit konnte die These entkräftet werden, dass der Googlebot nach 100 Links die Indizierung abbricht.

Und das sagt Matt Cutts dazu: „If you have a high PageRank page with lots of link juice, we may spider well beyond 100 links per page – possibly even 2-300 depending on how valuable we feel that page to be. […] Although we may crawl more than 100 links per page (maybe even many hundreds), we don’t recommend linking to that many, because of the dilution of link juice that occurs. Instead, use sub-navigation pages to help ease the link per page burden.“ (ganzen Artikel lesen)

Die Obergrenze der verfolgten Links auf einer Seite hängt also mit davon ab, wie hoch die Relevanz einer Website bzw. ihr PageRank ist.


Update: Um das Vererben von Link-Juice einzuschränken, ist es natürlich sinnvoll, die unwichtigen Seiten mit einem rel= nofollow zu versehen. Aber das ist ein anderes Thema. 😉