Online Marketing / trafficmaxx 27. Januar 2011

Webspam heiß gekocht

Schon seit der grauen Vorzeit ist es Aufgabe der Suchmaschinen, die passendsten und besten Treffer auf die Suchanfragen zu liefern. Ein Aspekt der Algorithmen ist daher das identifizieren von Qualität, um tatsächlich den gesuchten Mehrwert an die Frau oder den Mann zu bringen. Die lukrativen Plätze an der Spitze der Suchergebnisse sind aber auch immer eine Verlockung gewesen, schnelles Geld auf einfachem Wege machen zu wollen, indem die Algorithmen überlistet werden sollen.

Es geht also um die Qualität der Suchergebnisse oder, dreht man den Spieß um, den Spam des Internets, der an die Oberfläche schwappt. Die Qualität der Treffer ist ein wichtiges Kriterium im Konkurrenzkampf der Suchmaschinen, und dieses Thema ist zuletzt in den Vordergrund gerückt.

Neuer Webspam zwischen dem 01. und 27.01.2011

Ein verhältnismäßig neuer Player auf diesem Markt, die Suchmaschine blekko, trat mit einer Kampfansage an den Spam an. Mit selbst- und vordefinierten „Slashtags“ können nur vertrauenswürdige Seiten berücksichtigt werden, zudem können einzelne Webseiten als Spam markiert werden und tauchen in der eigenen Suche nicht mehr auf. Den letzten Leuchtturm gegen Webspam setzte blekko Anfang Januar auf, mit der Spam Clock, einer visuellen Darstellung des Wachstums des Spams im Netz.

Google reagiert auf Spam-Ergebnisse:

Keine zwei Wochen später, auch nach anderen unterschiedlichen Reaktionen und Meinungen vor allem auch zu Spam in Google Ergebnissen, meldete sich auch der Suchmaschinenriese in seinem Blog zu Wort. Zusammengefasst wurde gesagt, dass die Qualität der Ergebnisse so gut ist wie nie zuvor – aufgrund diverser Maßnahmen die getroffen wurden, aber auch weiterhin umgesetzt sowie gesucht werden. So soll es einen neuen Klassifizierer für Dokumente geben, der bspw. sich wiederholende, unauthentische Phrasen entdeckt. Bedeutend war auch die Verbesserung der Erkennung gehackter Seiten, über die viel Spam ins Netz gespült worden ist. Ganze Webseiten, die Inhalte abgreifen oder geringe Teile eigenen Contents bieten, sollen künftig auch besser erkannt und dementsprechend bewertet werden. Interessant ist jedoch auch, dass das Feedback des Benutzer verstärkt mit einfließen soll – wie es blekko schwerpunktmäßig tut.

In Googles Fadenkreuz geraten nun vor allem sogenannte „Content Farmen“, die im großen Stile minderwertigen Inhalt produzieren. Das ganze ist nicht unbegründet, richten sich doch einige Firmen wie Demand Media darauf aus, in den Ergebnissen von Long Tail Suchen Ihre Seiten zu spülen, und dazu massenhaft Inhalte einspielen. Angepeilt werden dazu Maßstäbe von über eine Millionen Artikeln und Videos pro Monat (die FAZ berichtet).

Such-Neutralität ein Thema?

Einen weiteren interessanten Vorstoß in eine leicht andere Richtung hat der New Yorker Professor James Grimmelmann mit einem skeptischen Essay über Such-Neutralität (PDF) durchgeführt, der von Googles Matt Cutts aufgegriffen, aber nicht nennenswert kommentiert worden ist. Der Begriff der Such Neutralität (Search Neutrality) keimt seit etwas über einem Jahr, als er in der New York Times Erwähnung fand. Anfang des Jahres hat Ars Technica die Search Neutrality mehr im Nebensatz in Erinnerung gebracht, 19. Januar reagierte das Blog Searchengineland wie auch einige weitere Plattformen darauf.

Die Such Neutralität, als eine Art Erweiterung der Netzneutralität, strebt eine neutrale, transparente Einordnung der Suchergebnisse dar. Ausschlagebend für diese Maxime ist die Tatsache, dass der Branchenführer Google den größten Anteil an der Websuche hält und Einfluss ausüben kann, welche Webseiten gelistet und somit wahrgenommen werden. Im Prinzip ist es wünschenswert, wenn eine größere Konkurrenz auf dem Suchmaschinenmarkt besteht, die auch hinsichtlich der Qualität der Ergebnisse auf Augenhöhe ist. Die Grundschwierigkeit ist jedoch eher die Infrastruktur: um das ganze, schnell wachsende Netz erfassen und Suchabfragen behandeln zu können, sind entsprechende Rechenzentren notwendig. Dies ist nur mit entsprechendem Kapital realisierbar. Eine offene Suchmaschinensoftware, die zugleich dezentral ist, besteht mit YaCy bereits, eine darauf basierende Web-Suche bietet Peer Search.