Reißerische Überschriften, Bilder und Videoausschnitte sind elementarer Bestandteil vieler Content-Strategien. Mit „Die 10 wichtigsten Aspekten hier“ und „Die 5 einfachsten Tricks da“ werden haufenweise Nutzer auf verschiedenste Websites geködert.

(mehr …)

Der EdgeRank wird assimiliert in 100.000+ neue Rankingfaktoren

facebook-edgerank

Jetzt wird sich vielleicht die Eine oder der Andere fragen: Was ist das eigentlich – EdgeRank? Das ist vereinfacht gesagt der geheime Algorithmus, den Facebook bis vor gut zweieinhalb Jahren ausschließlich für das Erstellen der Beitragsrankings verwendete. Der gehört nun zwar namentlich der Geschichte an, aber er bleibt natürlich auch weiterhin in den ihm nun nachfolgenden über 100.000 individuellen Rankingfaktoren relevant. Hier noch einmal ein kurzer, knackiger, von der ARD erstellter Clip zum EdgeRank – möge er in Frieden assimiliert worden sein.

Bereits vor zweieinhalb Jahren begann bei Facebook die Entwicklung eines Nachfolgeralgorithmus. Seit dieser Zeit, so heißt es auf marketingland.com, habe man schon gar nicht mehr vom EdgeRank gesprochen. (mehr …)

Wie heute Morgen bereits berichtet, hat Google ein weiteres Update durchgeführt, bei dem gewisse Websites in den Rankings abgewertet wurden.

Johannes Beus von SISTRIX hat nun eine erste Tabelle im Blog veröffentlicht, bei den man vorab die offensichtlichsten Gewinner und Verlierer auf Basis vom SISTRIX Sichtbarkeitsindex sehen kann. Wie zu erwarten und wie man auch aus anderen Quellen schon erfahren hat, konnten bei dem Update besonders die Seiten mit guten Inhalten bessere Positionen erreichen. Hierzu zählen unter anderem t3n.de, nachdenkseiten.de und perlentaucher.de.

Auf der Verliererseite treffen wir auf Affiliate Seiten. Mit einer Sichtbarkeitsveränderung von -100% wird die Tabelle von onlinekredite.com und kreditvergleich.com „angeführt“. Es bleibt spannend was sich noch genau verändert hat.

Google schaltet Update live

In der Nacht hat Google eine bereits angekündigte SERP-Optimierung durchgeführt. In Zukunft wird dieses Update weiterhin überoptimierte Seiten erwischen, die den Nutzern wenig sinnvolle und nicht hilfreiche Inhalte liefern.

Von Matt Cutts selbst wurden im Google Webmaster Central Blog Beispiele gegeben, wie sogenannter Webspam in den Augen von Google aussieht. Betreffen wird das Update laut Cutts etwa 3% der deutschsprachigen Suchergebnisse.

Neu ist hierbei, dass nicht nur Keywordstuffing abgestraft wird, sondern auch weniger offensichtliche Spam-Texte. Als Beispiel führt Cutts einen Text über Fitness an, der einerseits wenig hilfreiche Informationen bereit hält und andererseits nach einem bestimmten Muster auf Anbieter von Krediten verlinkt. In dem Beitrag von Matt Cutts wird auch gesagt, dass es nicht ganz einfach und mit einer simplen Analysen getan ist, solche Texte zu erkennen. Durch die vielen Keywords und Keywordlinks hebt sich der Text jedoch von üblichen White Hat Inhalten ab, so dass hierdurch ein Rückschluss auf eine Black-Hat-Optimierung, die gegen die Google Richtlinien verstößt, gezogen werden kann.

Weiterhin wohlmeinend steht Google laut Cutts der White Hat Optimerung gegenüber, die auf ein besseres Web-Erlebnis abzielt und auf hilfreiche und gut vermittelte Informationen setzt. Zitat Matt Cutts: „We want people doing white hat search engine optimization (or even no search engine optimization at all) to be free to focus on creating amazing, compelling web sites.“

Vorgestern veröffentlichten wir einen Post über ein kommendes Update beim Google Suchalgorithmus. Im Netz hat das Zitat von Matt Cutts schnell die Runde gemacht und bei vielen Seitenbetreibern mag sich eine leichte Panik breit gemacht haben.

Hierfür wollen wir an dieser Stelle Entwarnung geben. „Überoptimierung von Seiten“ meint im Grunde Spam-Verhalten. Also zum Beispiel die Verwendung von versteckten Keyword-Ketten, an der Stelle von gutem Content. Nachzulesen sind Googles eigene Ratschläge zur sinnvollen Optimierung von Seiten in diesem Dokument.

Wie es bei Yoast treffend festgehalten wurde: „As Matt said on that same panel one more time, they have nothing against SEO, they have something against spamming.”

Googles Änderungen im Suchalgorithmus gehen meist unbemerkt vonstatten. Es werden laufend viele kleine Verbesserungen am Zusammenspiel der mehreren hundert berücksichtigten Signale vorgenommen, die für sich betrachtet kaum Auswirkungen auf die Ergebnisse vom durchschnittlichen Internet-Nutzer haben. Doch immer mal wieder beschließt Google auch ein Update, das mal größere, mal kleinere Wellen schlägt. Als Beispiel sei hier das letztjährige Panda-Update genannt.

Nun steht laut Matt Cutts das nächste große Update im Suchalgorithmus an, welches vor allem überoptimierte Seiten betreffen soll. Entsprechend wird es auch schon inoffiziell als „Anti-SEO“ Update betitelt. Zu beachten ist bei dieser Meldung, dass Google lediglich „übermäßigen“ SEO-Gebrauch abstrafen wolle. Für Webmaster, die hochwertigen Content schaffen, soll so der Boden geebnet werden.

Zitiert nach Matt Cutts:

„What about the people optimizing really hard and doing a lot of SEO. We don’t normally pre-announce changes but there is something we are working in the last few months and hope to release it in the next months or few weeks. We are trying to level the playing field a bit. All those people doing, for lack of a better word, over optimization or overly SEO – versus those making great content and great site. We are trying to make GoogleBot smarter, make our relevance better, and we are also looking for those who abuse it, like too many keywords on a page, or exchange way too many links or go well beyond what you normally expect. We have several engineers on my team working on this right now.“

via Search Engine Roundtable


Update: Mittlerweile haben wir einen Nachtrag zum Update des Suchalgorithmus‘ verfasst. Darin findet ihr auch einen Verweis zu Googles eigener Anleitung zur Optimierung von Seiten.

Am 28.04.2010 fand das Google Agency Summit 2010 statt. Google hat in diesem Rahmen die führenden deutschen SEA-Agenturen zu einem interessanten Tag nach Düsseldorf eingeladen, an dem neue Trends und Entwicklungen vorgestellt und unter den anwesenden Agenturvertretern diskutiert wurden. Auch trafficmaxx war hier natürlich mit von der Partie.

Prof. Mario Fischer führt durch die Podiumsdiskussion zum Thema Website-Usabilty und Performance-Marketing.

Google-Größen wie Lino Cattaruzzi (Country Manager DACH) und Thomas de Buhr (Head of Media Solutions) haben den Programmtag eingeleitet und es folgten interessante Podiumsdiskussionen, an denen sich bekannte Köpfe aus der Suchmaschinen- und Online Marketing-Branche beteiligten, wie beispielsweise Thomas Peters, Mario Fischer oder Sebastian Reischl.

Google hat offenbar keine Kosten und Mühen gescheut und sogar die rund 50.000 Sitzplätze der Düsseldorfer Esprit-Arena, in deren Tagungsräumen das Google Agency Summit stattfand, präsentierten sich in den leuchten Google-Farben.

Neben den unterschiedlichen Erkenntnissen und Inspirationen rund um Google AdWords & Co. zeigte sich der Tag für trafficmaxx aber in ganz anderer Hinsicht besonders ergiebig, denn unbemerkt gelang es, den wohl bestgehüteten Schatz unserer Zeit zu entführen: den über 60 Seiten starken Google Algorithmus!

Da ist er: der Google Algorithmus

Die Freude ist aber derzeit noch gedämpft, denn wie sich herausgestellt hat, hat Google sein magisches Ranking-Rezept gut verschlüsselt und auf den ersten Blick erscheint dem Betrachter raffinierterweise nur weiße Schrift auf weißem Grund.

Weiße Schrift auf weißem Grund: so präsentiert sich der Google Algorithmus dem menschlien Auge zunächst – aber an der Entschlüsselung wird bereits fieberhaft gearbeitet.

Die trafficmaxx-Experten sind daher noch mit der Entschlüsselung des Geheimnisses beschäftigt und werden an dieser Stelle wieder berichten, sobald der Algorithmus enthüllt werden konnte.

Der Google Suchalgorithmus gehört wohl neben dem Rezept von Coca-Cola zu den am besten gehüteten Geheimnissen. Er bestimmt das für jeden Seiten-Betreiber so wichtige Ranking. Das einzige nach außen sichtbare Zeichen für die Stellung innerhalb des Internets ist noch immer der PageRank.

Am 20.Mai 2008 veröffentlichte Google bzw. Udi Manber von der Abteilung Google Search Quality den ersten Beitrag einer neuen Reihe bezüglich des Google-Algorithmus. Natürlich wird nicht allzu viel verraten, denn man will in Mountain View den „Spammern“ nicht mehr Hinweise geben als nötig. Davon abgesehen, stehen auch MSN und Yahoo in den Startlöchern für immer neue Innovationen.

Neben dem bekanntesten Teil des Algorithmus, dem PageRank, versucht Google diverse Sprach-, Frage- und Zeitmodelle sowie die persönlichen Aspekte des Fragenden zu beachten. Hierbei geht es oftmals um die recht unterschiedlichen Methoden, wie verschiedene Menschen Ihre Anfragen formulieren und was sie in speziell diesem Moment suchen. So kann das Ranking durchaus über Land, Region, Uhr- oder Jahreszeit variieren. Wenn die Suchmaschine dazu noch das Klickverhalten aus früheren Anfragen einrechnen kann, bspw. über die Google-Suchhistorie, dann wäre sogar eine Fallunterscheidung von mehrdeutigen Begriffen gut möglich.

Wie schon oftmals von Google betont, sei es das einzige Ziel, die Nutzererfahrungen zu verbessern. Hierzu wird laut Manber ein nicht zu unterschätzender Aufwand betrieben, was allein im Jahr 2007 zu mehr als 450 Änderungen / Verbesserungen am Algorithmus geführt haben soll.

Wirklich Neues präsentiert das Google Quality Team in Ihrer neuen Beitragsreihe bislang nicht. Die meisten Aspekte des Rankings waren schon bekannt, bzw. wurde aufgrund empirischer Werte ähnlich eingeschätzt. Google scheint hier eher etwas PR-Arbeit leisten zu wollen, um sich vom Image des datenhungrigen Geheimniskrämers zu distanzieren. Interessanter ist dagegen die enorme Innovationsfrequenz, denn gerade diese Zahlen zeigen deutlich, dass Suchmaschinenoptimierung kein einmaliger Prozess sein kann, es geht darum, beständig dem Trend zu folgen und Änderungen kurzfristig umzusetzen. Der erbitterte Kampf von Google gegen den sogenannten Webspam wird weitergehen, so dass sich langfristig nur eine saubere Optimierung durchsetzen kann. Wer glaubt einen so komplexen Algorithmus wie den der Google-Suche austricksen zu können, wird sich früher oder später mit den Konsequenzen auseinandersetzen müssen – und die können, gerade wenn es um umkämpfte und traffic-starke Begriffe geht, sehr bitter sein. Dann mag auch „nur“ Position 6 gar nicht so schlecht gewesen sein.

Google jedenfalls verspricht sich auch zukünftig mehr zu öffnen. Warten wir es ab.

[Deutsche Übersetzung: Google Watch Blog]

Nebenbei, hätten Sie gewusst, dass Google fast nirgends so eine wichtige Rolle fürs Suchmaschinen-Marketing spielt wie in Europa?

suchmaschinenanteile2.jpg

Quelle: comscore.com | Stand: Januar 2008