Nachdem der PageRank in der SEO-Szene schon länger kein Thema mehr ist, folgt jetzt auch die offizielle Bestätigung von Google. Diese kommt einem endgültigen Schlussstrich gleich. Der öffentlich einsehbare PageRank, immer noch oft in diversen Tools verankert, wird wahrscheinlich nie wieder aktualisiert.

PageRank Update Dezember 2013 (mehr …)

Andre Weyher, ein ehemaliger Mitarbeiter im Webspam-Team von Matt Cutts, bekräftigte in einem Interview auf Linkedin, dass der Linkaufbau nicht mehr das ist, was er früher mal war.

In seiner Argumentation misst er dem ursprünglichen, öffentlich einsehbaren PageRank, auf dessen Aktualisierung wir seit fast einem Jahr vergeblich warten, keine Bedeutung mehr zu. Ein weiteres Indiz dafür, dass der PageRank bei Marketing-Entscheidungen aktuell keine allzu große Rolle spielen sollte.

Dabei spricht er von „dramatischen Änderungen“, Linkbuilding sei nicht mehr „lediglich ein technischer Prozess“, sondern sollte viel mehr als eine Kampagne verstanden werden, in der es gelte, themennahe Webseiten zusammenzuführen. Bemühungen, ein zum Umfeld passendes Netzwerk aufzubauen, versprächen den größten Erfolg: Eine Website, die sich mit der Produktion von Käse beschäftige, solle beispielsweise den Kontakt zu Influencern aus der Milchindustrie suchen. „Damals war ein Link von einer Seite mit hohem PR (PageRank) viel Wert, heute aber ist die thematische Nähe entscheidender – Relevanz ist der neue PR“, so Weyher.

Verzeichnisse sind beim Linkbuilding immer noch wertvoll

In letzter Zeit mehren sich in der SEO-Szene Zweifel bezüglich Eintragungen in Webverzeichnissen. Hierbei kommt es häufiger zu Aussagen wie „Das bringt doch überhaupt nichts mehr.“ Dementsprechend fallen auch die Empfehlungen aus.

Dem steuert der ehemalige Google-Mitarbeiter mit „Das ist nicht der Fall“ dezidiert entgegen. Gut moderierte, qualitativ hochwertige Verzeichnisse – oder jene, die sich auf Nischen fokussierten – seien immer noch wertvoll. Weyher warnte aber vor Verzeichnissen, die eine reziproke Verlinkung für die Freischaltung voraussetzten oder keinen Mehrwert gegenüber anderen Linklisten böten.


Fazit:

Wer sich in den letzten 2 Jahren intensiver mit dem Linkaufbau beschäftigt hat, für den sind solche Aussagen nichts Neues, dennoch ist das Gespräch, zu finden auf Linkedin, einen Blick wert.

Es ist gut möglich, dass seine Aussagen nicht aus der Luft gegriffen oder lediglich seine persönlichen Einschätzungen widerspiegeln, sondern fundiert sind. Schließlich ist davon auszugehen, dass Andre Weyher als langjähriger Google-Mitarbeiter auf Einblicke in den Algorithmus zurückgreifen kann.

In diesem Interview spricht er auch über seine Rolle im Search-Quality-Team bei Google, in dem er vornehmlich die Content-Qualität und Backlinkprofile von Internetseiten bewertete und mitunter sogar bestrafte. Außerdem gibt er Tipps zur Onpage-Optimierung. In diesem Abschnitt warnt er ausdrücklich vor der Überoptimierung und empfiehlt Webmastern, die Ressourcen besser zu verteilen. Denn viele setzen zu stark auf die Offsite-Optimierung, den Linkaufbau, und vergessen darüber, dass auch die eigene Website bessere Inhalte vertragen könnte.

Zum Abschluss ein abrundendes Zitat von Andre Weyher:

„Google bewertet Ihr Linkprofil anhand der Qualität der Seiten, die auf Ihre Seite verlinken. 3 Links von authentischen Seiten haben einen viel größeren Effekt als 1000 Links von Spamblogs. Investieren Sie Ihre Zeit also in Qualität und nicht Quantität.“

Vorweihnachtliche Überraschung – Google aktualisiert den PageRank doch noch 2013!

Eigentlich hatten sich die SEO-Welt und die vielen wartenden Webmaster längst damit abgefunden, dass der PageRank in diesem Jahr nicht mehr aktualisiert werden würde. Mehr noch, nicht Wenige gingen davon aus, dass der immer mehr an Bedeutung verlierende Wert längst „tot“ sei. Doch wie tragend seine Rolle unter den zahlreichen Faktoren, die für das Google Suchmaschinenranking verantwortlich sind, auch noch sein mag, das Eine steht jetzt fest, so ganz verschwunden ist der PageRank noch nicht.

PageRank Update Dezember 2013

Vielleicht war es als vorweihnachtliche Überraschung geplant, vielleicht wird es aber auch der einen oder anderen Website die feierliche Vorfreude nehmen: Google hat den PageRank öffentlich aktualisiert.

Entgegen aller Vermutungen:

Vor einigen Wochen hatte Matt Cutts noch getwittert, dass er ein Update in diesem Jahr für unwahrscheinlich halte. Sie erinnern sich, wir hatten darüber berichtet. Jetzt kommt überraschend (mehr …)

Dieses Jahr wird’s wohl kein Update mehr geben…

Das letzte PageRank-Update ist schon eine Weile her. Na, wer weiß es auf Anhieb noch? Richtig, dieses Ereignis ereignete sich irgendwann im Frühjahr, genauer am 04. Februar 2013. Zwar ließen die öffentlichen Aktualisierungen in der Toolbar immer schon länger auf sich warten, aber acht Monate sind dann ja doch eine ganz schön lange Wartezeit – insbesondere für jene, die Ihre Online-Projekte im Frühjahr gestartet haben und wissen möchten, wie sie diesem Wert nach dastehen.

Nun scheint es wohl so zu sein, als würden sich alle Wartenden auch noch länger gedulden müssen, denn Google-Engel Matt Cutts hat jüngst bei Twitter durchblicken lassen, dass er wohl dieses Jahr nicht mehr mit einem Update rechne.

Google PageRank kein 2. Update 2013.

(mehr …)

Neuer Suchalgorithmus, verbesserter Knowledge Graph, mobile Suche vereinfacht

Die Google Suche ist stolze 15 Jahre alt geworden, und ob man nun ein Freund der Suchmaschine ist oder eben nicht, ändert nichts daran, dass sich der Erfolg mehr als nur sehen lassen kann – herzlichen Glückwunsch zum Geburtstag! Und wie wird das markante Jubiläum vom Internetriesen gefeiert? Natürlich gebührend, mit einigen Verbesserungen und Erweiterungen der Suchfunktionen. Zunächst aber folgt, wie könnte es anders sein, ein Blick zurück auf einen fulminanten Aufstieg und eine beachtliche Entwicklung der Google Suche, die den Internetkonzern zu einem Marktführer der ganz besonderen Art gemacht hat. Dankenswerterweise liefert der offizielle Google Search blog Inside Search hier eine anschauliche Übersicht der bedeutendsten Veränderungen.

Search Timeline 1997 - 2013

Als 1997 die Domain google.com registriert wurde, kannte hierzulande noch kaum jemand überhaupt den Begriff, der sich hinter dem Markennamen verbirgt. Heute dürfte das Verb ”googeln“ jedem Internetnutzer so geläufig sein wie das Wort Webseite. Google hat mit seiner Suchmaschine nicht nur das Internet revolutioniert, sondern es massiv zu dem gemacht, was es heute ist. Mit einem Marktanteil von weltweit circa 80% bestimmt die Google Suche maßgeblich, wie eine Webseite aufgebaut sein muss, damit sie für die User sichtbar wird. Das hat ohne Frage auch zu deutlich mehr Qualität im Netz beigetragen, macht Google aber auch zu einem der einflussreichsten Konzerne überhaupt.

Zu den aktuelleren Veränderungen zählen: ein neuer Algorithmus namens Hummingbird, Verbesserungen am Knowlege Graph und Verfeinerungen für die mobile Suche.

Hummingbird (zu dt. Kolibri) verfeinert ebenfalls, und zwar die Suche im Allgemeinen. Neben dem PageRank, der die Linkpopularität von Webseiten bewertet, ist der neue Algorithmus noch um weitere Faktoren reicher und soll vor allem die Kombination von Suchbegriffen stärker gewichten. Hummingbird versucht u.a. den Zusammenhang von sogenannten Longtail-Suchbegriffen besser zu verstehen und die Suche dahin gehend zu optimieren.

Nexus 4 - Butter v Olive Oil
Nexus 4 – Butter v Olive Oil

Die Neuerungen beim Knowlege Graph stehen zwar noch aus, doch auch hier soll es in Richtung Verfeinerung des Angebotes gehen. Mit speziellen Filtern und neuen Vergleichsmöglichkeiten werden dem Nutzer weitere Suchoptionen an die Hand gegeben. So sollen User beispielsweise in der Lage sein, bestimmte Suchbegriffe in einen direkten Vergleich zu setzen (siehe Bild).

Durch die Verbesserung des Designs wurde außerdem die mobile Suche auf Smartphones und Tablets vereinfacht. Die Ergebnisse sollen schlanker und auf die Touch-Bedienung optimiert worden sein. Noch intensiver als bisher setzt Google auch auf die Verwendung von Sprache. Die ”Konversation mit Google“ soll dabei natürlicher und alltäglicher werden.

google konversation

 Neben den vielen feinen ”Verfeinerungen“ der Google Suche sei abschließend noch auf das vermeintliche Motto des 15. Geburtstages hingewiesen: „After all, we’re just getting started.“ Die weitere Entwicklung – auch oder gerade aus SEO-Sicht – bleibt also definitiv spannend.

Abstrafungen durch Google können bei anhaltendem Fehlverhalten jeden treffen. In Großbritannien wurden gerade News-Seiten durch Google abgestraft. Der Grund: sogenannte Advertorials. Hierbei handelt es sich um News-Beiträge, die eigentlich nur dazu dienen, dofollow-Links als Werbung zu setzen.

Google drückt sich folgendermaßen aus:

We do take this issue very seriously, so we recommend you avoid selling (and buying) links that pass PageRank in order to prevent loss of trust, lower PageRank in the Google Toolbar, lower rankings, or in an extreme case, removal from Google’s search results.

Man merkt: Google meint es ernst und nimmt das Thema Advertorials ziemlich genau unter die Lupe. In den Google Webmaster Tools wird man aber zumindest gewarnt, wenn unnatürliche Links gefunden wurden, die den PageRank beeinflussen. Diese Warnung kann bereits als Vertrauensverlust gewertet werden. Matt Cutts empfiehlt, spätestens nach Erhalt dieser Mail entweder alle verkauften Links und Advertorials zu entfernen oder bezahlte Links mit dem nofollow-Attribut zu versehen.

Linkkauf kann auch den Verkäufer teuer zu stehen kommen. (Bildquelle: flickr.com / epsos.de CC-BY 2.0)

Es lässt sich an dem rigorosen Vorgehen in Großbritannien erkennen, dass Google durchaus nicht mit Platzpatronen zu schießen gedenkt. Auch große und bekannte Zeitungen wurden online abgestraft, darunter The Independent und The Scotsman. Des Weiteren kann man davon ausgehen, dass Google diese Abstrafungsmaßnahme über kurz oder lang auch in Deutschland umsetzen wird. Bereits in der Vergangenheit war dies bei ähnlichen Aktionen der Fall.

Einen „Geschmäckle“ erhält das Vorgehen von Google allerdings durch den Umstand, dass auch Google selbst im Gebrauch von Advertorials glänzt, wenn es beispielsweise um das Bewerben von Produkten wie Chromebooks, Google Analytics, Google Hangouts uvm. geht. Aaron Wall bringt es schön auf den Punkt:

Clearly Google takes paid links that pass pagerank seriously, as acknowledged by their repeated use of them.

Der PageRank war bisher ein festes Marketing Mittel von Google und wurde trotz viel Gemunkel bisher auch noch nicht entfernt. Seit kurzem ist es jedoch so, dass viele Browser Erweiterungen und SEO-Tools keinen PageRank Wert mehr ausgeben.

Dass jetzt wieder Gerüchte auftauchen, Google hätte den PageRank abgeschafft, ist verständlich – aber falsch. Google hat lediglich eine Änderung an der Abfrage URL vorgenommen, so dass viele Browser Erweiterungen und Tools nun die falsche URL abrufen.

Auch wenn viele Tools und Erweiterungen schon seit vielen Jahren die PageRank Abfragen durchführen, so hat Google dies dennoch bisher nicht als öffentliche Funktion bereit gestellt. Dies ist wohl auch der Grund, wieso Google ohne Vorwarnung die seit langer Zeit gültige URL zur Abfrage des PageRank geändert hat.

Vor mittlerweile 15 Jahren entwickelten die Studenten Sergey Brin und Larry Page ihre erste Suchmaschine, aus der dann 1998 Google entstand. Nachdem im Jahre 2001 Eric Schmidt die Leitung des Unternehmens als Chairman of the Executive Committee and Chief Executive Officer übernahm, geht  die Führung nun wieder zurück in die Hände von Firmengründer Larry Page.

„Klarere Aufgabenverteilung“

Der Übergang soll am 4. April geschehen, an dem dann Eric Schmidt die Rolle des Vorsitzenden des Verwaltungsrats übernimmt. Die Aufgabenverteilung soll nach Firmenangaben wie folgt gestaltet werden:
Larry Page führt das Tagesgeschäft, Sergey (Michailowitsch) Brin – aktuell President of Technology – die strategische Ausrichtung der Produkte und Eric Schmidt übernimmt den Bereich Kooperation und Übernahmen.

Zur Person Larry Page

larry-pageLawrence Edward Page (38), besonders durch den von ihm entwickelten und benannten PageRank bekannt, ist studierter Informatiker der renommierten Stanford University, auch wenn er seine Promotion nie abgeschlossen hat. Auch wenn sein genaues Vermögen nicht bekannt ist, darf man davon ausgehen, dass er mit 38.000.000 Google-Aktien zu den reichsten Menschen der Welt gehört. Anders als Eric Schmidt, der schon viele Unternehmen (Sun, Novell, Apple) geführt hat und auch zum offiziellen Beraterteam von Präsident Obama gehört, hat er aber keine Erfahrungen außerhalb Google Inc. sammeln können.

Scheinbar zur Feier des Tages gab es zudem ein PageRank-Update. 😉

Bild-Quelle: Wikipedia
 

Auf vielen Websites gibt es Inhalte, die aus verschiedensten Gründen nicht für die Suchmaschinen bestimmt sind, seien es „private“ Daten, die nicht gefunden werden sollen oder Seiten, die keine relevanten Informationen enthalten.

Grundsätzlich gibt es drei Möglichkeiten, Suchmaschinen-Robots zu beeinflussen:

  • NoFollow-Links (Links mit dem Attribut rel=“nofollow“)
  • das NoIndex-Metatag
  • die Datei robots.txt

Jede dieser drei Optionen hat ihre Existenzberechtigung, muss aber für sich genommen erklärt werden:

NoFollow-Links

Über das rel-Attribut kann man einen individuellen Link für Suchmaschinen entwerten.

<a href=“agb.html“ rel=“nofollow“>AGB</a>

Auch wenn diese Lösung sehr praktisch erscheint, hat sie doch einen entscheidenden Nachteil. Sollte eine Suchmaschine auf anderem Wege (z.B. durch einen externen Link) zu der entsprechenden Seite finden, so kann diese dennoch in den Index gelangen.

nofollow

Vorteil des nofollow-Attributs ist auf der anderen Seite die Möglichkeit, den Fluss des „Link-Juice“ zu anderen Seiten detailliert regulieren zu können.

NoIndex-Metatag

Soll eine Seite nicht in den Index kommen oder sogar aus diesem wieder entfernt werden, so empfiehlt sich ein entsprechendes Meta-Tag:

<meta name=“robots“ content=“noindex,follow“>

In diesem Fall darf der Crawler die Seite zwar besuchen, aber nicht in den Suchindex aufnehmen (noindex). Vorhandene Links dürfen jedoch verfolgt und gewertet werden (follow).

noindex

Da es etliche Content Management Systeme nicht erlauben, auf Seitenebene ein robots-Metatag zu pflegen, gestaltet sich die praktische Anwendung des Tags oft etwas schwierig. Einige Suchmaschinen unterstützen aber z.B. auch robots-Anweisungen, die als Header im HTTP-Verkehr ausgegeben werden.

Robots.txt

Dritte Möglichkeit der „Wegweisung“ ist die Datei robots.txt. Über diese kleine Text-Datei kann jedem Robot vorgegeben werden, welche Dateien oder Verzeichnisse er nicht besuchen darf.

User-agent: *
Disallow: /agb.html
Disallow: /admin/
Disallow: /*.mp3$

Der größte Vorteil der robots.txt ist die globale Wirkung. Es lassen sich so sowohl einzelne Dateien (/agb.html), aber auch ganze Verzeichnisse (/admin/) oder Dateitypen (Disallow: /*.mp3$) sperren. Dabei ist gleichgültig, ob eine URL durch einen internen oder externen Link gefunden wurde.

robots-txt

Die Sperrung via robots.txt verbietet allerdings in erster Linie nur Besuche von Seiten durch Suchmaschinen-Robots. Daher kann es vorkommen, dass z.B. eine populäre Seite dennoch in den Suchergebnissen erscheint, auch wenn diese schon lange nicht mehr von Suchmaschinen abgerufen wurde.


Fazit

Jeder der drei „Wegweiser“ hat seine Berechtigung, seine Vor- und Nachteile, so sollte von Fall zu Fall entschieden werden, was in der jeweiligen Situation angemessen ist.

So oder so sollte man aber immer im Hinterkopf haben, dass all diese Möglichkeiten für „ehrliche“ Suchmaschinen-Crawler bestimmt sind. Gerade Adress- oder E-Mail-Sammler werden sich von einem „Disallow“ nicht aufhalten lassen.