Linkbuilding / trafficmaxx 7. November 2013

Google Penalty: Manuelle Link-Spam-Maßnahme – und nun? Teil 1

Teil 1 – Nachrichten und Datengewinnung

In Jahren, in denen es im SEO vor allem um Backlinks zu gehen schien, wurden bei vielen Projekten einige Sünden angehäuft, welche die Webmaster heute wieder einholen. Backlinks waren einst ein Versprechen, schnell für wichtige, gut monetarisierbare Suchanfragen zu ranken. Entsprechend exzessiv wurden solche Links teilweise aufgebaut. Eine Praxis, die im Nachhinein einige Probleme verursacht. Auch abseits algorithmischer Maßnahmen eingehende Links betreffend (Penguin), hat Google Prozeduren etabliert, Webmastern ihre unvorsichtige Herangehensweise unter die Nase zu reiben. Alles begann mit blauen Briefen denen dann so genannte manuelle Maßnahmen folgten. Was zu Beginn noch ein recht seltenes Phänomen zu sein schien, betrifft heute mehr und mehr Projekte.

Manuelle Spammaßnahme - der Chef Matt Cutts
Wenn Matt Cutts die Falle zuschnappen lässt.

Was aber ist zu tun, wenn man die unschöne Nachricht erhält, gegen die eigene Domain sei eine manuelle Maßnahme eingehende Links betreffend verhängt worden? Wichtige Rankings stürzen ab, die Seite verliert an Sichtbarkeit und Einnahmen und Reichweite gehen verloren. Macht man sich ein wenig im Netz schlau, so stößt man zunehmend auf Fallbeispiele, in denen lange und häufig recht unkoordinierte Wege beschrieben werden, aus einer solchen Maßnahme wieder heraus zu kommen. Nicht wenige Fallbeispiele schließen die Akte, indem das Projekt auf eine neue Domain umgezogen und so schließlich von neuem begonnen wurde.

Doch der Weg aus einer solchen Maßnahme ist kein Hexenwerk und vor allem muss er nicht unkoordiniert beschritten werden. Vielmehr ist die Arbeit gegen eine solche Maßnahme planbar und was viel wichtiger ist: wiederholbar. Auch muss ein solcher Prozess nicht über Monate ausgedehnt werden. Google hat uns mit ansteigender Frequenz, in welcher solche Maßnahmen verhängt werden, auch Mittel und Wege an die Hand gegeben, diese Maßnahmen schnell und gezielt wieder aufzulösen. Seit aufkommen dieser Maßnahmen haben sich fünf verschiedene Webmaster an uns gewandt, gegen die eine solche Maßnahme verhängt wurde. Fünf Projekte wurden wieder aus dieser Maßnahme herausgeführt. Zwei davon bereits beim allerersten Versuch.

Schwere Zeiten – ein kurzer Blick zurück

Im Frühjahr 2012, als erste Berichte über derlei Maßnahmen an die Öffentlichkeit drangen, war die Verwirrung noch groß und niemand wusste so genau, was nun eigentlich zu tun war. Google verriet uns (den Webmastern) in kurzen, wenig aussagekräftigen Mitteilungen, dass man unzufrieden mit der jeweiligen Auslegung der Google Richtlinien für Webmaster im Hinblick auf eingehende Links sei.

Zu dieser Zeit war alles noch recht schwierig zu überblicken, denn mehr Informationen, als „irgendwas mit Backlinks“ hatte man ja nicht zur Hand. Man hatte kaum einen Anhaltspunkt, welche Links gemeint und welche konkreten Linkziele betroffen sein könnten. Damals war der erste Schritt hinaus aus einer solchen Maßnahme eine Zielanalyse, d.h. es wurde Versucht zuerst einmal eine ganz wichtige Frage zu beantworten: „Wo genau hat Google mich jetzt gepackt?“.

Also hieß es, erst einmal Daten über Rankings und Ranking-Verläufe zu sammeln. So wurden Analytics- und Backlink-Daten in rauen Mengen gesammelt und alles zu umfangreichen Datensammlungen aufbereitet. Dann galt es herauszufinden welche Keywords und damit, welche konkreten Dokumente betroffen sein könnten. Was uns hier wieder im Wege stand, war die Krux von Korrelationen und Kausalitäten. Auf keinen Fall durfte jeder beliebige Rankingverlust mit dieser Maßnahme gleichgesetzt werden. Das hätte letztlich zur Folge gehabt, dass sich der Webmaster veranlasst sehen musste, riesige Mengen vielleicht noch werthaltiger Backlinks abzubauen. Vielmehr galt es, gezielt die Verzeichnisse auszumachen, die mit der höchsten Wahrscheinlichkeit betroffen waren. Und dazu brauchte es einen geschulten Blick auf die Rankingverläufe und ein Wissen, um die Struktur der internen Verlinkung.

Man sah sich also an, welche Keywords auffällig Sichtbarkeit verloren hatten und ordnete diese dann bestimmten, dafür eigentlich rankenden Dokumenten zu. Jetzt hatte man also eine erste Idee, welches konkrete Verzeichnis, d.h. Linkziel betroffen sein könnte. Das musste jetzt noch recht umständlich verifiziert werden. Dazu sah man sich an, welche anderen Dokumente aus diesen heraus verlinkt wurden und betrachtete sich die Sichtbarkeit dieser Unterseiten. Konnte man feststellen, dass nicht nur ein Verzeichnis abgesackt war, sondern die von diesem gestützten gleich mit, dann hatte man ganz gute Gründe, anzunehmen, dass eben jenes Dokument von Google im Rahmen dieser Maßnahme abgewertet wurde. Und jetzt endlich konnte man damit beginnen, potentiell gefährliche Backlinks ausfindig zu machen. Heute jedoch, ist dieser Schritt weitestgehend obsolet.

Einen Manntag gespart – Warum heute alles besser ist

Mit zunehmender Frequenz, in der derlei Maßnahmen verhängt werden, hat uns Google auch zusätzliche Hilfe an die Hand gegeben. Im Spätherbst 2012 schenkte man uns bereits das Disavow-Tool, doch was uns Google ein Jahr später Ende August 2013 bereitstellte, ist für den Weg aus einer Maßnahme noch um einiges wertvoller. Seit dem Zeitpunkt lässt uns Google wissen, welches Verzeichnis von der Maßnahme betroffen ist. All die Arbeit, um dies herauszufinden, ist damit plötzlich hinfällig geworden. Man sagt uns ganz konkret, welche Dokumente Google im Visier hat. Jedes wird dabei mit einer gesonderten Nachricht bedacht. Natürlich werden solche Nachrichten nur über die Google Webmastertools versendet – wehe dem also, der seine Domain nicht in diesem Tool hinterlegt hat.

Im Menüpunkt „Manuelle Maßnahmen“ in den WMT führt Google alle gegen die Domain verhängten manuellen Spammaßnahmen auf. Der darin enthaltene Text ist noch immer so wenig aussagekräftig wie eh und je – jedoch findet sich nun eine Betreffzeile.

Betrifft: eingehende Links

Der Gehalt dieser Betreffzeile ist im Wert kaum zu überschätzen, denn hier erfahren wir, wo wir unsere Suche beginnen müssen. Jetzt gilt es nur noch die verschiedenen Betreffzeilen korrekt zu deuten und – sofern es mehrere sein sollten – die verschiedenen Mitteilungen in die richtige Relation zu setzen.

Prinzipiell können wir zwischen drei Maßnahmen unterscheiden (hinsichtlich eingehender Links versteht sich). Eine solche Maßnahme kann ein

Nachricht in den WebmastertoolsUnterverzeichnis (oder konkretes Dokument), die Startseite oder schlicht die gesamte Domain betreffen. Wie genau eine Nachricht aussieht, welche letzteres zum Gegenstand hat, ist noch unklar. Sicher ist jedoch, wodurch angezeigt wird, dass es sich um die Startseite oder aber konkrete Unterverzeichnisse handelt.

Der Betreff „eingehende Links“ zeigt dabei an, dass die Startseite von der Maßnahme betroffen ist (Google entpuppt sich wieder einmal als Vorreiter im Segment verständlicher Kundenkommunikation). Etwas deutlicher wird es, wenn ein Unterverzeichnis der Domain auf Googles Spam-Fighter-Radar geraten ist. Hier wird dann ganz klar angegeben, welches Unterverzeichnis eben dieses Schicksal ereilt hat.

EDIT (25.11.2013):

Wie sich nach einer weiteren Diskussion im Google Webmasterforum herausgestellt hat, sind Teile des oben dargestellten nicht korrekt und lassen sich auf ein Missverständnis zurückführen.

Weiterhin kann gesagt werden, dass Maßnahmen, welche sich auf ein bestimmten Dokument/Verzeichnis einer Domain beziehen, auch als solche angezeigt werden. In diesem Fall enthält das Feld betrifft die konkrete Adresse dieses Verzeichnisses. Der Betreff „Eingehende Links“ jedoch, verweist auf eine Maßnahme, welche sich auf mehrere Verzeichnisse und ggf. die gesamte Domain bezieht. In diesem Fall haben wir ebenso wenig Informationen, wie noch zu Zeiten, als derlei Mitteilungen noch nicht versendet wurden. Ein Webmaster, der eine so deklarierte Mitteilung erhält sieht sich also gezwungen, den im Abschnitt „Schwere Zeiten – ein kurzer Blick zurück“ umrissenen Prozess zur Gänze zu durchlaufen. 

Und das ist es eigentlich schon gewesen. Alles, was wir zuvor noch zu tun hatten, um herauszufinden, wo wir unsere Suche nach unpassenden Backlinks beginnen müssen, ist in einigen Fällen durch einen kurzen Blick auf eine Betreffzeile ersetzt worden. Jedoch wäre da noch eine Sache, die unbedingt zu beachten ist.

Alles, oder nichts

Hin und wieder kann es vorkommen, dass man es mit mehr als einer dieser Mitteilungen zu tun bekommt. So etwas ist etwa dann der Fall, wenn die Startseite und zusätzlich eine bestimmte Unterseite genannt werden. In einem solchen Fall ist es nicht möglich nur eine dieser Maßnahmen aufzuheben, während die andere unbearbeitet bleibt. Google will sehen, dass man sich jedes Problems, welches durch den Suchmaschinen-Giganten moniert wird, angenommen hat. Teillösungen gibt es nicht. Man sollte daher nicht zu vorschnell dabei sein, Wiederaufnahmeanträge zu verfassen, noch bevor man sich aller Teilprobleme gewidmet hat. Entweder man liefert das Komplettpaket, oder gar nichts – so Googles Einstellung hierzu.

Die Suche nach schädlichen Backlinks

Jetzt, da man die Verzeichnisse, d.h. die Linkziele kennt, die von schädlichen Links heruntergezogen werden, muss man noch alle Links finden, die als potentielle Ursache in Frage kommen. Und dies bedeutet wieder, Unmengen an Daten einzusammeln, zu clustern und schließlich zu bewerten.

Aber wo bekommt man all diese Daten her? Google verspricht zwar, alles was man braucht, fände sich in den Webmastertools, jedoch haben wir gute Gründe anzunehmen, dass eben dies nicht der Fall ist. Die Backlinkdaten aus den Google Webmastertools bilden, wie die meisten Backlinkdaten, die man von einzelnen Anbietern erhält, nur einen eher unvollständigen Überblick über die Gesamtheit der eingehenden Links. Nun könnte man natürlich argumentieren, dass es zwar nicht alle Links sind, jedoch alle die, welche Google für die Bewertung der Seite in Betracht zieht. Dies jedoch scheint nicht ganz korrekt zu sein.

Da bewegt sich was

In einem Fall, er liegt nun schon fast ein Jahr zurück, also zu einer Zeit in der noch umständlich potentielle Maßnahmen-Ziele ausfindig gemacht werden mussten und auch das Disavow-Tool eine neue, spektakuläre und noch gänzlich unverstandene Geschichte gewesen ist, haben wir im Laufe einer Maßnahme einmal die Bewegung in den Datensätzen der WMT ganz genau beobachtet. Ziel dieser Übung sollte damals eigentlich sein, nachzuvollziehen, ob Links, welche per Disavow übergeben wurden, aus den WMT verschwinden (was nicht der Fall ist).

Dabei haben wir zuerst einmal festgestellt, dass der WMT-Datensatz eine eher fließende Angelegenheit ist. Links tauchen auf und verschwinden wieder. Kein Datensatz gleicht dem anderen. Im Laufe des Prozesses zeigte uns Google dann ein paar Beispiellinks, welche für die Maßnahme verantwortlich waren. Und eben einer dieser Links war es, der sich nicht in jedem Datensatz wiederfand. Wir haben hier wöchentliche WMT-Exporte über mehrere Monate hinweg miteinander verglichen. In einigen Listen war der besagte Link nicht zu finden, taucht aber in anderen wieder auf. Nun mag man davon halten, was man möchte. Dieser Umstand lässt jedoch sehr an der Aussage zweifeln, dass die Backlinkdaten aus den WMT alles sind, was es braucht, um schädliche Links zu finden.

Mehr Daten – nur von wem?

Um wirklich auf Nummer sicher gehen zu können, müssen wir also die Backlinkdaten aus den WMT noch um weitere Backlinks anreichern. Anbieter solcher Daten gibt es nicht wenige, doch jeder dieser Anbieter unterscheidet sich zum einen in Größe und Qualität der angebotenen Datensätze, zum anderen aber auch in anderen Punkten wie Preis und dem Maß, in welchem die Daten bereits einer Vorab-Clusterung durchlaufen haben. Potentielle Quellen, um an Backlinkdaten zu kommen sind dabei vor allem:

  • Google Webmastertools
  • MajesticSEO
  • Opensiteexplorer
  • Linkresearchtools
  • Sistrix und Searchmetrics
  • ahrefs

So schade es auch sein mag, sind die Linkdaten, welche durch die großen deutschen Toolanbieter SISTRIX und Searchmetrics zur Verfügung gestellt werden, im Rahmen einer Spammaßnahme nur wenig zu gebrauchen. Entschieden zu klein sind die Datenbanken dieser Anbieter.

Umfangreicher sind dabei schon die Daten, welche Christoph Cemper uns mit den Linkresearchtools zur Verfügung stellt. Ganz davon abgesehen, gibt es kaum einen anderen Toolanbieter, der die entsprechenden Daten in so hilfreicher Weise bereits geclustert hat, so dass uns prinzipiell viel Arbeit erspart bleibt. Großes Manko bleibt jedoch der Umfang. Zwar stellen uns die Linkresearchtools weit mehr Daten zur Verfügung als andere deutsche Toolanbieter, jedoch reichen diese nicht an die die Zahl aus den WMT heran  (und diese waren ja bereits zu wenige).

In den Linkresearchtools kann man diesem Problem bis zu einem gewissen Maß begegnen, da hier Linkdaten anderer Quellen hochgeladen werden können. Aktuell ist dieses Feature jedoch noch quantitativ begrenzt, so dass es sich auf sehr große Linkprofile nicht anwenden lässt.

Ahrefs und der Opensiteexplorer steigern die Zahl der zur Verfügung gestellten Backlinks noch einmal, sind jedoch alles andere als kostengünstig und können allein verwendet auch nichts Entscheidendes zur Vervollständigung der Linkdaten beitragen.

Den wohl umfassensten Überblick über das aktuelle (und historische) Linkprofil einer Domain verschafft MajesticSEO. Von einem rein quantitativen Standpunkt aus kann kein anderes Tool auch nur annähernd mit MajesticSEO mithalten. Und: unter bestimmten Voraussetzungen gibt es diese Daten sogar kostenlos. Dazu legt man sich einfach einen kostenfreien Zugang an und verifiziert die Domain, deren Daten man haben möchte z.B. via Webmastertools. Im Handumdrehen kann man dann den wohl größten Datensatz herunterladen, der im Netz zu finden ist. Doch natürlich hat auch diese Sache einen ganz entscheidenden Haken. In der kostenlosen Version sind die Majestics-Daten mit einem ganz wichtigen Vermerk nicht versehen: ist der Link noch aktiv, oder aber nicht? Eine Information, die Gold wert ist, will man nicht Tage damit verbringen, nicht mehr vorhandene Links zu bewerten.

Daten der Linktoolanbieter zusammenführen

 

Aus diesem Dilemma gibt es einen schnellen und einen recht umständlichen Ausweg. Ziemlich schnell ist dieses Problem gelöst, übergibt man den Datensatz an die Linkresearchtools. Dies jedoch lässt sich zum einen (banaler Weise) nur dann bewerkstelligen, wenn man dieses Tool gebucht hat und ist zum zweiten durch die maximale Zahl an hochladbaren Links auch dann begrenzt, wenn ein Account vorhanden ist.

Etwas umständlicher und vor allem begrenzt durch die Leistung des eigenen Rechners, ist es, selbst herauszufinden, ob die Links noch aktiv sind, oder nicht. Dazu eignet sich erfahrungsgemäß vor allem Screaming Frog. Der elegante Crawler kann mit Listen umgehen und gezielt nach bestimmten Zeilen im HTML einer Website suchen. Für etwas über 100 Euro im Jahr gibt es hier ein sehr gut gemachtes SEO-Tool. Um diesen Weg beschreiten zu können, braucht es aber einiges an Hardware und Arbeitsspeicher. Je nach Größe des Datensatzes muss man allein dem Crawler Gigabyte-weise Arbeitsspeicher zur Verfügung stellen. Der Einsatz für die beschriebenen Zwecke ist daher nur auf einem 64Bit System möglich. Weiterhin sollte man auf Nummer sicher gehen, dass man wirklich eine Datenflat beim Anbieter seiner Wahl gebucht hat. Bei der Überprüfung eines größeren Linkprofils werden schon einmal im Laufe der Tage mehrere Gigabyte Transfervolumen generiert.

So viel eben geht

Je nachdem, welche Mittel und Tools zur Verfügung stehen, wird man mehr oder weniger umfangreiche Datensätze zur Grundlage der weiteren Analyse machen können. Idealerweise kombiniert man natürlich die Linkdaten aller Anbieter und schafft sich so einen eigenen Datensatz, der dem Status vollständig so nahe kommen sollte, wie sonst nur der von Google selbst. Wer jedoch keine SEO-Agentur betreibt und daher die verschiedenen Tools in Kombination zur Hand hat, kann sich dennoch dadurch, dass er die Daten aus den WMT und MajesticSEO kombiniert eine durchaus brauchbare und häufig auch ausreichende Basis schaffen. Die Daten sind da – jetzt kann es also weitergehen.

Was nun aber mit diesen Daten anzufangen ist, und wie man Excel an seine Grenzen treibt, steht in Teil 2 – Analyse und Bewertung. Dieser Teil folgt, so wie wieder einmal der Internetzugang gestört ist. 😉