Am 23. Mai hat Bing in seinem Webmaster Blog die Veröffentlichung des Bing Sitemap Plugin1.0 bekanntgegeben. Bereits im Februar hatte Bing eine Beta des Sitemap Plugin Tools der Öffentlichkeit vorgestellt und in den letzten Monaten weiter an der Optimierung geschraubt. Das Plugin erzeugt vollumfängliche Sitemaps und sog. Delta-Sitemaps, nach deren Erstellung es Bing über selbige informiert. Die Installation ist auf IIS und Apache Servern möglich.

Bing Sitemap Plugin

Zu den besonderen Features des Sitemap Plugins zählen wir das Handling von 404 Fehlern. Zwar wird das erzeugte XML File auskommentiert, doch kann diese Funktion dazu genutzt werden, Suchmaschinen über die nicht länger gültigen URLs zu informieren. Die http://sitemaps.org konformen XML-Sitemaps berücksichtigen darüber hinaus die vergebenen Canonical-URLs und schreiben den Wert aus in das Sitemap File.

In die grundlegende Sitemap werden nur jene URLs aufgenommen, die bei der Auslieferung an den Client den http-Status-Code 200 zurückgeben und nicht in der robots.txt gesperrt sind. URLs die weitergeleitet werden und einen abweichenden http-Status-Code ausgeben, können abhängig von der hinterlegten Konfiguration mit einem Zeitabstand X zwischen Wechsel der http-Status-Codes automatisch aus der Sitemap entfernt werden. Entspricht die in der robots.txt hinterlegte Information nicht dem gewünschten Umfang der XML-Sitemap, kann entsprechend der robots.txt Syntax eine individuelle Konfiguration vorgenommen werden.

(mehr …)

duplicate-content
Ihre Inhalte in
schlechter Gesellschaft:
Duplicate Content

Viele Webauftritte haben immer noch das Problem, dass auf verschiedenen Seiten oder unter verschiedenen URLs gleiche Inhalte bzw. Text zu finden sind (Duplicate Content). Viele Suchmaschinen tun sich nun noch immer schwer damit, zu interpretieren welche dieser Textvarianten nun die ursprüngliche bzw. die relevanteste ist.

Am gestrigen Donnerstag veröffentlichte nun Google in einem seiner Blogs einen neuen Parameter, um diesem Problem zu Leibe zu rücken. Dieser wird nicht nur von Google, sondern auch von Yahoo! und MSN unterstützt und soll jeweils einen Verweis auf den Ur-Text enthalten.

Ein Beispiel aus der Anwendung:

Viele Shops bieten bspw. verschiedene Layouts oder Währungen an und kommunizieren diese über die URL:

  • www.beispiel-shop.de/toller-artikel.html
  • www.beispiel-shop.de/toller-artikel.html?currency=yen
  • www.beispiel-shop.de/toller-artikel.html?currency=dollar

Dadurch entstehen zwei Probleme:

1) Suchmaschinen können nicht zwischen der canonical URL (toller-artikel.html) und den Dubletten unterscheiden.
Die verschiedenen Varianten derselben Seite konkurrieren unter Umständen miteinander und behindern sich so gegenseitig.

2) Die Suchmaschine gibt ggf. der falschen Variante den Vorzug – so landen deutschsprachige Surfer auf einer Seite, auf der z.B. Yen oder Dollar als Währung voreingestellt sind.

Abhilfe durch rel=“canonical“

Mit der Angabe

<link rel="canonical" href="www.beispiel-shop.de/toller-artikel.html">

im Headerbereich wird nun die Haupt-URL definiert. Damit kann verhindert werden, dass Suchmaschinen Originalseite und Dubletten miteinander verwechseln.

 

canonical-urls

Andere Anwendungsbeispiele wären bspw.:

  • Startseiten, die häufig auf verschiedenste Arten aufgerufen werden
  • Unterdrückung von SessionIDs oder Trackingparametern

Abschließend muß natürlich gesagt werden, dass das neue rel-Attribut zwar das Problem angeht, aber nicht die Ursache behebt. Ein von Anfang an durchstrukturierte Homepage sollte so wenig Duplicate Content wie möglich aufweisen. Der Aufwand für das Hinzufügen des entsprechenden Attributs entspricht oft demselben wie dem Aufwand zur Lösung des eigentlichen Problems.