SEO-DAY 2017: Recap
Konferenz für Suchmaschinen­optimierung in Köln

SEO-DAY 2017: Recap
Konferenz für Suchmaschinen­optimierung in Köln

1200 462 Olaf Pleines

Kein Karneval in Köln und dennoch – viele lustige Leute: Es ist der SEO-DAY 2017 in Köln! Die Pforten des Rheinenergie-Stadion öffnen sich heute für SEO-Experten. Auch wir sind dieses Jahr wieder dabei und werden Dich in unserem Blog mit dem SEO-DAY Recap 2017 auf dem Laufenden halten. Es erwarten Dich wieder viele interessante Vorträge und hoffentlich der ein oder andere Tipp, für erfolgreiche Suchmaschinenoptimierung.


SEO-Day recap

SEO-Day 2017: Auftakt unter dem Motto „Device matters“

Der heutige Tag beginnt mit dem Vortrag von Marcus Tober, dem Gründer von Searchmetrics. Unter dem Titel “Device matters” führt er den Zuhörern die Verschiebung hin zu mobilen Endgeräten vor Augen. Er widmet sich dabei der Fragestellung, wie stark sich SEO mittlerweile auf Mobile, Desktop und anderen Geräten unterscheidet. Seine Slides stehen unter searchmetrics.com/seoday-2017 bereit. Die Analyse der Rankings ergab für Deutschland eine Differenz von zehn Prozent zwischen den Suchergebnissen für Mobile und Desktop. In Belgien beträgt diese Differenz hingegen nur ein Prozent. Dies könnte darin begründet liegen, dass die Belgier Webseiten häufiger mobile ready ausgeliefern.

Beitragsbild 4 SEO Day 2017

 

Aus einer Analyse von Searchmetrics geht hervor, dass etwa ein Drittel aller Ergebnisse als AMP ausgeliefert werden. Dieser Trend zeichnet sich bei News noch deutlich stärker ab. Des Weiteren haben sich die Kollegen von Searchmetrics angeschaut, wie sich die organischen Ergebnisse von Desktop zu Mobile unterscheiden. Hier zeigt sich, dass etwa acht der Ergebnisse auf dem Desktop und etwa neun auf dem mobilen Endgerät organisch sind. Allerdings weichen die SERPs, wenn sie sich unterscheiden, deutlich voneinander ab. Als Beispiel nutzt Marcus den Suchbegriff “Undercut Männer”.

Beitragsbild 5 SEO Day 2017

Beitragsbild 6 SEO Day 2017

Eine große Bedeutung kommt neben der unterschiedlichen Darstellung auch der Verteilung der Suchanfrage nach Desktop versus Mobile zu.

SEO-Day 2017 Marcus Tober

Folgendes kann aus dem Vortrag von Marcus Tober mitgenommen werden:

  • Bei Smart Speakern zählt die Art der Optimierung.
  • Es wurden 100 Fragen an Smart Speaker gestellt. Nur Google erreicht mit einem Anteil korrekter Antworten von 38 Prozent einen Wert über einem Drittel.
  • Interessant ist, wie sich W-Fragen verteilen. Hier sollte immer der Vergleich von Desktop versus Mobile erfolgen.
  • Google PLA sinkt auf der Desktop-SERP, wohingegen der Anteil auf der mobilen SERP steigt.

Laut Tober werden herkömmlichen Apps durch Progressive Web Apps aussterben, da erstere keinen Benefit liefern würden.


11 konkret umsetzbare SEO-Tipps – für jeden was dabei!

Der als ausgefuchster Moderator bekannte Tobias Fox, CEO bei Verdure, vermittelte in seinem Vortrag 11 konkret umsetzbare SEO Tipps, unter denen für jeden etwas dabei sein soll. In der Kürze der Zeit schaffte er es zur Einleitung auf eine Fauldrath-Preis verdächtig hohe Termfrequenz. Im Wesentlichen sind seine Tipps vor allem für Einsteiger gedacht und lassen sich wie folgt zusammenfassen:

  1. Der regelmäßige Export der Suchanfragen aus dem Backend der Google Search Console ist nervig. Eine gute Alternative ist es, die Google Search Console mit Google Analytics zu verknüpfen. Dort kann ein Bericht eingerichtet werden, der per E-Mail zugestellt werden kann. Wie das geht? Das erklärt Dir Google: Search Console-Daten in Google Analytics aufrufen, Berichte exportieren und per E-Mail senden.
  2. Snippet Optimierung: Geh auf die Emotionen Deiner Zielgruppe ein. Stelle Vorteile statt einzelner Features heraus. Sei nicht langweilig und vermittel dem Suchenden, wie sich eine Lösung anfühlt.
  3. Nutze W-Fragen Tools als Content-Inspiration, bspw. https://answerthepublic.com/ Beitragsbild 1 SEO Day 2017
  4. Um wirkliche, echte Fragen zu finden, legt Tobias den Zuhörern termlabs.io ans Herz. Termlabs crawlt das deutsche Web und aggregiert in Foren, Blogs und auf vielen weiteren Webseiten gefundene Fragen. Der große Vorteil liegt darin, dass Menschen diese Fragen wirklich formuliert und auch beantwortet haben. Auch aus meiner Sicht ein geiles Tool!
  5. Monitoring 1: Nichts ist schlimmer als eine Webseite, die nicht erreichbar ist. Nutze daher Uptime Monitoring. Ein passendes Tool ist bspw. UptimeRobot.
  6. Monitoring 2: Eine erreichbare Webseite alleine macht nicht glücklich, vor allem wenn fehlerhafte Deployments SEO Maßnahmen verhageln. Änderungen sollten daher mit Tools wie bspw. URL-Monitor überwacht werden. Hier wäre die Editors Choice allerdings Testomato.
  7. Visualisierung der internen Verlinkung: Die Kombination von Screaming Frog Crawls via Gephi kann Defizite in der internen Verlinkung aufdecken, Link-Silos grafisch darstellen und Linkhubs zeigen. Auch die Integration von externen Signalen regt Tobias an. Alles in allem ein netter Tipp. Beachte dabei allerdings, dass du bei größeren Webseiten / Linkclustern die Hardware hier ggf. vor einige Herausforderungen stellst. Wer sich daranwagen will, findet ein kleines HowTo bei AWR.
  8. Tools für und im Browser: Redirect Path, hreflang Tags Testing Tool, Seerobots. Ich denke, die Namen erklären sich von alleine. Anmerkung: Obacht, traue nicht jeder Browser Extension und berücksichtige einige Sicherheitstipps!
  9. Besucherverhalten auf Deiner Webseite: Besuchersessions aufzeichnen und auswerten via Mouseflow oder Hotjar. Anmerkung: Obacht, grundsätzlich geil, allerdings sollte jeder klären wie er mit dem Datenschutz und Datenschutzbeauftragten übereinkommt. So werden Abmahnungen und letztlich Minderungen der durch die Optimierung erzielten Gewinne vermieden. Wirf bei der Gelegenheit auch einen Blick auf die Behavioral Analytics Features von Yandex Metrica
  10. Der mit Verlaub selbst für Einsteiger simpelste Tipp: Nutze Suchoperatoren für die Influencer Recherche. Doch manchmal sind es ja gerade die einfachen Dinge, die taugen…
  11. Keyword „not-provided“: Wirf mal einen Blick auf Keyword Hero zur Kompensation der Not Provided Daten. Anmerkung: Auch hier gilt: Denke deutlich darüber nach, wem Du Einsicht in Deine Daten gewährst. Bei den eigenen Daten wäre ich hier schon kritisch. Hingegen ist bei Kundendaten in jedem Fall eine umfangreiche Datenschutzerklärung notwendig.

Offene Fragerunde an Googles John Müller

Die meisten von Euch dürften ihn spätestens seit der Google Webmaster Hangouts kennen: John Müller, Senior Webmaster Trends Analyst bei Google in Zürich. John zeigt sich von der regen Beteiligung an der offenen Fragerunde überrascht und findet, dass die Zuhörer ab und an auch wirklich interessante Fragen stellen. Aktuell ist John Müller übrigens auf der Suche nach Verstärkung für sein Team. Die entsprechende Ausschreibung findet sich auf der Job-Webseite von Google. Folgende Fragen richtete das Publikum unter anderem an John:

  • Die erste Frage bezieht sich auf eine https-Umstellung. Einem Verlag gingen mit der https-Umstellung verschiedene Keywords aus dem Bereich Erotik / Softsex verloren. Die Vermutung geht in die Richtung, dass Google einen entsprechenden Adult Content Filter fälschlich angewandt hat. Hierzu kann John allerdings keine Antwort bieten.
  • Die zweite Frage bezieht sich auf versteckte Texte in Hinblick auf den Mobile-Index. John erläutert erneut, dass das mobile Indexing versteckte Texte  wieder höher gewichtet und nicht mehr abwertet. Der Switch zum Mobile-Index wird Schritt für Schritt und für einige Webseiten einzeln vorgenommen.
  • Die dritte Frage zielt darauf ab, warum es einen vollständigen Switch gibt und nicht zwei Indizes parallel betrieben werden. Darauf erwidert John, dass es weiterhin möglich sein wird, gut mit Seiten gefunden zu werden, die ausschließlich auf Desktop ausgerichtet sind. Dies impliziert allerdings die Voraussetzung, dass via Desktop gesucht wird. Zudem sollten hier keine Konkurrenten besser aufgestellt sein. 😀
  • Die vierte Fragesteller möchte gerne wissen, wie relevant die Ladezeit ist. Konkret wurde gefragt, ob es einen Mindestscore für die Google Pagespeed Insights Punkte gäbe. Hierzu sagt John, dass kein derartiger Wert existiert. Der Google Pagespeed Insights Score soll stattdessen sogar abgeschafft werden, da Google beobachtet hat, dass die Leute sich auf die Optimierung des Scores fokussieren. Im Kontrast dazu wäre es aber wünschenswert, eine für Besucher wirklich flinke Seite zu bauen.
  • Mit der fünften Frage richtet sich Marcus Tober an John Müller. Ihn interessiert, wie Google unter Berücksichtigung der Mobile First Indexierung crawlt. Google crawlt zurzeit mit der Chrome Version 41. Marcus Tobers Frage rührt daher, dass Chrome 41 viele Java Script Frameworks nicht zuverlässig ausführt. Dadurch bleiben einige Inhalte dem Crawler verborgen. Hier antwortet John, dass eine Umstellung der Chrome Version für das Crawling vorgesehen ist. Des Weiteren betont er, dass bspw. Chrome Serviceworker nicht unterstützt. Daher sollten Betreiber keine für die Indexierung relevanten  Inhalte über diese publizieren. Zudem wird John Müller mit der Frage konfrontiert, ob JS Frameworks überhaupt genutzt werden sollte. Diesbezüglich legt John nahe, dass Betreiber Seiten sicherheitshalber auf dem Server und nicht auf dem Client rendern und ausliefern sollten.
  • Frage sechs widmet sich der Linkjuice-Vererbung via Canonical-URL. Hier erläutert John, dass Google nicht zwingend den externen Linkjuice via Canonical weiterleitet, vor allem wenn die interne Verlinkung die nicht kanonische Variante überproportional verlinkt.
  • Zum Umgang mit Java Script hinterfragt Marcus Tober, ob Optimierungen, die mit dem Google Tag Manager vorgenommen werden, bei der Indexierung durch Google erkannt werden. John Müller erklärt, erst werde das HTML gecrawlt und indexiert. Erst im zweiten Schritt erfolge eine Auswertung der Java Script Ausführung. Dies könne unter anderem bei per Google Tag Manager gesetzten noindex-Anweisungen zu alternierenden Bewertungen führen.
  • Und wie nachteilig kann es sein, wenn CSS und JS per robots.txt gesperrt werden? Diesbezüglich verweist John insbesondere auf das Mobile Indexing. Dafür ist Google auf diese Files angewiesen, um die mobil-konforme Darstellung zu erkennen.
  • Hinsichtlich der neuen Google Search Console kann John Müller keinen konkreten Zeitpunkt des Launchs benennen. Was die Auswahl der Tester anbetrifft, wurde der Fokus des DEV Teams auf einen A/B-Test durch „normale Nutzer“ gelegt. So haben weitaus weniger SEOs einen Beta Zugang erhalten. Das Team arbeitet wohl auch eigenständig und vom Webmaster Trends Analyst Team getrennt.
  • Markus Hoevener stellt die abschließende Frage, welchen Vorteil John Müller hätte, wenn er Google verlassen und SEO werden würde? Darin sieht John keinen direkten Vorteil und meint, dass er kein Ergebnis nach oben schummeln könne. 😉 Auch sieht er es nicht als Vorteil an, wenn man als Ex-Googler SEO wird.

Microprozesse im SEO

Jens Fauldrath sieht eine der großen Herausforderungen in der Suchmaschinenoptimierung im dynamisches Marktumfeld, angereichert um interne Widerstände. Das Ziel sollte daher sein, die Kontrolle und Herrschaft über SEO relevante Themen zu bewahren. SEOs müssen nicht alle Themen sofort bearbeiten. Hier kommt es vor allem darauf an, zu priorisieren und aus den kleinen beherrschbaren Feldern heraus SEO in das Unternehmen wachsen zu lassen. Doch es bleibt die Frage: Wie kommt man dahin? Das erste Problem besteht darin, dass die IT oft überlastet und gleichzeitig der Flaschenhals zur Umsetzung von  SEO ist. Hier gilt es, an der IT vorbei Rechte einzufordern und zu nutzen. Dies vermeidet Abstimmungen mit der IT. Man sollte auch Anforderungen an die IT stellen, die den eigenen Arbeitsprozess vereinfachen und nicht ausschließlich reine SEO Tickets. Ein typisches Beispiel ist das Redirect Management. Mit folgenden Tipps kam Jens um die Ecke:

  • Stelle sicher, dass Du Deine Webseite im Griff hast und ein Tool dich flink über Fehler informiert. Idealerweise überwachst Du „alles“ per Realtime Monitoring. Hierzu solltest Du ein Set aus Templates zusammenstellen, mit denen Deine Website in der Hauptsache zusammengestellt wird. Diesbezüglich legt Jens Fauldrath den Zuhörern Testomato nahe, mit denen sie grundlegende Elemente auf ihren aktuellen Status überwachen können. Für komplexe Anwendungen und mit vielen Abhängigkeiten empfiehlt er einen Blick auf  das neue Monitoring Tool von Audisto. Eine Bewerbung um einen Betazugang kannst Du hier einreichen.

Beitragsbild 2 SEO Day 2017

  • Regelmäßige, per Screaming Frog gefertigte Crawls ermöglichen einen Abgleich der Veränderungen. Hierzu nutzt sein Team „R„, um das Delta zu errechnen.
  • GSC Daten zu Crawl Fehlern mitschneiden bzw. aus der GSC scrapen. So kann man zumindest die quantitative Veränderung überwachen.
  • Die Arbeit mit der Google Search Console gestaltet sich übersichtlicher, wenn erfasste 404er auf ihren aktuellen Status geprüft und bei 200 / 30X per Skript als behoben markiert werden. Da können wir nur beipflichten. 😉 Einen  netten Beitrag hierzu findest Du übrigens auch bei den Kollegen von get:traction.
  • Tipp für den Content Prozess: In der Suchanalyse der Google Search Console nach Klicks sortieren und jene URLs inhaltlich optimieren, deren Klicks bei gleichen Impressionen zurückgehen.
  • Nutze Excel Power BI, um die Daten aus der Google Search Console auszuwerten.

Fazit: Bring die Organisation dazu, zu arbeiten. Es muss nicht optimal sein. Optimierung erfolgt im Verlauf. Eine Redaktionsschulung bringt nichts. Lernen im Prozess. Mikroprozesse sind der Anfang, aus dem die Struktur wächst. Wer die Präsentation haben will, schickt eine Mail an ml@gettraction.de.


Welcome to a New Reality – SEO goes Mobile First in 2017

Bastian Grimm, Director Organic Search bei Peak Ace in Berlin, hat schon viele verschiedene Erläuterungen von Google gehört, wie Mobile First umgesetzt werden wird. Mit den Umsetzungen der Empfehlungen von Google ist bei Weitem nicht alles getan, um die eigene Seite erfolgreich in der Suche zu positionieren. Die Umstellung von Desktop- zum Mobile-Index wird über alle Ländergrenzen, unabhängig von der Sprache, erfolgen.

Beitragsbild 7 SEO Day 2017

Im Wesentlichen lassen sich seine Anregungen wie folgt zusammenfassen:

  • Es reicht nicht, nur eine responsive Seite aufzusetzen, denn SEOs müssen auch den User Intent der Zielgruppe und die von ihr genutzten Clients berücksichtigen.
  • Inhalte, die auf einer “m-Dot” Domain liegen, sind oftmals von reduziertem Umfang. Dies darf nicht aus dem Blick fallen, wenn der Mobile-Index der Maßstab sein wird. Alle Inhalte müssen vollumfänglich und nicht reduziert enthalten sein.
  • Google hat angekündigt, Nachrichten über vorhandene Probleme an jene Webseiten Betreiber zu versenden, die in Kürze auf den Mobile-Index gesetzt werden. So gibt der Suchmaschinengigant den Betreibern Gelegenheit zur Anpassung.
  • Die aktuell von Google für das Rendering verwendete Auflösung liegt für den Desktop bei 1024 x 768 Pixel, für einen Mobile Crawl bei 410 x 730 Pixel – das Rendering wird dabei hochkant vorgenommen.
  • Prüfe daher Responsive Breakpoints, sodass die Darstellung SEO relevanter Inhalte sichergestellt ist und Wichtiges in den vorgenannten Auflösungen sichtbar bleibt.
  • Kleiner Tipp zu “Fetch an der Render”: Du kannst die Webseiten Dritter in einem 100 Prozent iFrame über eine eigene Domain “schleifen”. Meine kleine Anmerkung hierzu: Viele Seiten (zumindest jene, die mich interessieren) senden im HTTP-Header Content Security Policy Anweisungen, die sicherstellen, dass eine Einbindung im iFrame unterbunden wird.
  • Das Scoring der Ladezeiten für den Mobile-Index erfolgt unter Annahme einer Hochkantdarstellung.
  • Kombiniert https immer mit http/2, um die Geschwindigkeitsdefizite durch die Verschlüsselung zu kompensieren.

Mein Fazit: Bastian Grimm hat verschiedene relevante Faktoren für den Mobile Index schön zusammengefasst. Wer größeres Interesse daran hat, gute Webseiten zu bauen, sollte unbedingt die Google Web Fundamentals durchgehen. Die Slides von Bastian Grimm findet Ihr übrigens auch bei Slideshare.


Machine Learning & SEO

Wie Machine Learning bei der Suchmaschinenoptimierung eingesetzt werden kann, stellte Michael Weber von Searchviu anhand von zwei Beispielen dar. Ganz der Coder hatte Michael keine Slides sondern ein Jupyter Workbook dabei. Die Breite der Zuhörer schien meinem Eindruck nach nicht durch seine Bespiele begeistert. Allerdings liegen die Gedanken hinter seinen Beispielen nahe. Auch ist die erzeugte Hilfe bei einer gelungenen Umsetzung gut. Seine zwei Beispiel können wie folgt kurz und knapp umrissen werden:

  • CTR Vorhersage für Keywords anhand von Trainingsdaten aus der Google Search Console
  • Welche Keywords sollte ich zur Optimierung auswählen? Die Basis für die Prognose sind Keyword-Daten von Semrush, die um den gescrapten Textkorpus der rankenden URLs erweitert wurden.

Mein Fazit: Spannender Ansatz, doch die Form der Präsentation passt nicht zu den Zuhörern des SEO DAYs. Sollen Dinge live vorgeführt werden, müssen sie top funktionieren und in die Augen knallen. Wer die Skripte und weitere Informationen haben möchte kann sich diese bei Michael bestellen.


Quellen und Links:

Die komplette Agenda des SEO-DAY 2017 findest Du übrigens hier https://www.seo-day.de/timetable