„Does a site rank better if it has a lot of indexed pages?“ – so lautet die Frage, die Matt Cutts in einem der jüngsten Google-Videos beantwortet. Zunächst aber kurz zur Erinnerung, was ist eine indexierte (oder auch indizierte) Webseite? Um bei Google zu bleiben, bekanntlich streifen die sogenannten Google-Bots durch das Netz und crawlen Webseiten, die dann indexiert werden können. Das heißt, sie werden in den Index von Google aufgenommen, ähnlich einem Index in einer Bibliothek. Wichtig: Nur Seiten, die sich im Index befinden, können bei der Google Suche ausgegeben werden und nicht jede gecrawlte Seite wird auch indexiert.

Matt Cutts Erklärbär

Zurück zur Frage: Hilft eine große Anzahl an indexierten Webseiten das Ranking zu verbessern? Die Antwort lautet ganz klar: Jain! Grundsätzlich wird die Quantität der indexierten Seiten nicht beim Ranking berücksichtigt. Aber indirekt profitiert Ihre Website natürlich trotzdem von einem breiteren Content-Angebot für Ihre Besucher. Außerdem sagt Mr. Cutts, dass Google auf eine hohe Anzahl indexierter Seiten – vor allem dann, wenn sie gut verlinkt sind – eher aufmerksam werden würde, was zumindest mal eine genauere Prüfung der Website bedeutet. (mehr …)

Die mobile Suche im Internet ist von stetig steigender Bedeutung. Aus diesem Grund kann es von großem Nutzen sein, die Faktoren zu kennen, welche das mobile Ranking von Webseiten bei Google beeinflussen. Hierzu zählen laut einem Beitrag in Googles Webmaster Central Blog etwa fehlerhafte Redirects und Fehler, die auf die Darstellung bei Smartphones beschränkt sind.

Fehlerhafte Redirects vermeiden

Einige Seiten leiten Smartphone-Nutzer unabhängig von der angewählten Unterseite auf die mobile Version der Startseite weiter, anstatt direkt die mobile Version der eigentlich gewünschten Unterseite aufzurufen. Da hierdurch das Erlebnis der Nutzer getrübt wird, empfiehlt Google, diese Umstände nach Möglichkeit zu beheben. Sollte die gewählte Unterseite nicht in einer mobilen Form bestehen, sei eine Anzeige des Desktop Contents angebracht.

tumblr_mnh121HEWa1st5lhmo1_1280

Smartphone-exklusive Fehler vermeiden

(mehr …)

Google bringt seinem „Googlebot“ neue Kunststückchen bei und ermöglicht eine wesentlich detailliertere Steuerung von für die Suchmaschinen erlaubten und unerlaubten Inhalten.

Waren bisher noch vollständige URLs mit Protokoll- und Hostangabe notwendig, um die Position von URL-Daten nach Sitemaps-Standard in der robots.txt-Datei anzugeben, kann der Googlebot jetzt auch relative Pfade verarbeiten. Erheblich verbessert wurde auch das robots.txt-Analysetool in den Google Webmaster Tools, das sich nun zu evtl. auftretenden Fehlern genauer äußern kann.

Ebenfalls noch recht neu ist das „unavailable_after“-Kommando für den Googlebot, durch welches einzelne Dateien mit einem Ablaufdatum versehen werden können. Der Wert wird wie folgt entweder in das „Googlebot“-Metatag eingefügt …

<meta name="googlebot" content="unavailable_after:
15-Aug-2007 00:00:00 CET" />
  

… oder – und das ist ebenfalls ein Novum – über den HTTP-Header „X-Robots-Tag“ übertragen, wodurch man im Prinzip beliebige Dateien mit Robots-Steuerinformationen wie „noindex“ oder „nofollow“ versehen ausliefern kann:

X-Robots-Tag:  unavailable_after: 15-Aug-2007 00:00:00 CET

Via: New robots.txt feature and REP Meta Tags aus dem Webmaster Central Blog