„Instant Pages“ ist auf den ersten Blick ein nettes (wenn auch nicht besonders aufregendes) Feature, das demnächst Einzug in den Browser Google Chrome halten wird: Zielseiten von naheliegenden Suchtreffern werden bereits im Hintergrund gerendert und liegen fertig bereit. Häufig klickt der Besucher auf ein solches vorgeladenes Ergebnis – und darf sich freuen, denn die Seite erscheint verzögerungsfrei mit „null“ Sekunden Ladezeit.


Wermutstropfen

Was harmlos erscheint, kann durchaus einige Konsequenzen für Website-Betreiber mit sich bringen: Sites, die gute Platzierungen zu beliebten Suchbegriffen innehaben, dürfen sich auf ein mehr an Servertraffic einstellen, ohne aber zusätzlich Besucher zu erhalten. Schon das vor einigen Jahren in den Suchergebnissen eingeführte „Prefetching“ für Top-Ergebnisse (damals nur für Firefox verfügbar) verwirrte manche Statistik-Tools und sorgte bei manchen Surfern für Unmut – z.B. da man sich auf diese Weise auch Cookies von Websites einfangen konnte, die man nie besucht hat. Auch bei dieser Technik blieben zusätzlicher Traffic und Rechenzeit an den Website-Betreibern hängen.

Während beim „Prefetching“ nur HTML-Code vorausgeladen wird, geht „Prerendering“ nun im Namen der kurzen Ladezeiten noch einen Schritt weiter und lädt alle nötigen Seitenressourcen wie Bilder oder Scripte, wobei letztere auch ausgeführt werden. Beispielsweise bei bildreichen Seiten kann dies Server und Transfervolumen spürbar zusätzlich belasten.

Google lässt die Webentwickler allerdings nicht ganz im Regen stehen: via Page Visibility API (ein w3c-Standard, der sich derzeit im Stadium „Arbeitsentwurf“ befindet) können auf JavaScript basierende Seiten erkennen, ob Sie im Vorder- oder Hintergrund aufgerufen werden und so die Aktivität der Seite reduzieren. Pech dagegen, wenn Sie ressourcenhungrige Aufgaben serverseitig ausführen. In diesem Fall gibt es nämlich bislang keine Möglichkeit, das Prerendering von „echten“ Seitenaufrufen zu unterscheiden.

Da durch das Parsen und Ausführen von Scripten zudem auch gängige Trackinglösungen mit ausgelöst werden, drohen verfälschte Besucherzahlen unbekannter Höhe – denn auf jeden Google-Besucher, kommt ein Vielfaches von Einblendungen in den Suchergebnissen, bei denen Sie nicht geklickt wurden. Das eigene „Google Analytics“ wird dann wohl technisch bereits vorgesorgt haben. Auf Probleme mit anderen Tools wird in der Dokumentation nur kurz eingegangen, um den schwarzen Peter weiterzureichen:

If your site includes a third-party script for analytics or advertising, in many cases you shouldn’t have to make any modifications to your site—the third party will simply modify the script they provide slightly to make use of the Page Visibility API. You should contact the third party directly to see if their scripts are prerender-aware.

Schon bei früheren, vermeintlich harmlosen Veränderungen, die Google dem Web aufgedrückt hat, ist gelegentlich beträchtlicher Kollateralschaden entstanden. Dennoch bleibt vielen von Google abhängigen Website-Betreibern und Entwicklern letztlich nur übrig, auch hier mitzuziehen – ohne Diskussion. Wie immer wenn von Einzelnen ein neuer Vorstoß in Sachen Browsertechnik erfolgt, dürfte danach die Frage interessant sein, welche der weiteren Browser-Hersteller nachziehen.


Links: