Zertifizierte Agentur

SMX 2017 Live Blog & Recap

14. März 2017 in Online Marketing | 1 Kommentar


Anmerkung: Hier gehts zum 2. Tag der SMX – wenn Sie den ersten bereits verfolgt haben. 🙂


An dieser Stelle werden wir im Verlauf der folgenden zwei Tage unsere Eindrücke der SMX 2017 in München für Euch sammeln.

Eröffnet wird die SMX wie in den Jahren zuvor mit einer sympathischen und inspirierenden Keynote von Rand Fishkin. In seiner Keynote tritt er einen Schritt zurück und wirft einen Blick auf die Verschiebung der Anforderungen an SEO.
From SERP Rankings to SERP Features

Eine der Kernaussagen lautet, dass Google eine Vielzahl der Antworten bereits auf der SERP liefert. Allerdings bieten viele der Answer Boxes / SERP Features auch Chancen für fachkundige SEOs. Eine größere Rolle spielt für ihn die sich immer stärker verbreitende Voicessearch, bei der er das Potenzial einräumt, organische Ergebnisse nachhaltig zu verdrängen. Mit Sorge schaut er zudem auf die sich in den USA abzeichnende Auflösung der Netzneutralität. Fazit: Spannende Keynote! Schauen Sie sich seine Seite an. Seine Slides sind unter https://www.slideshare.net/mobile/randfish/the-search-landscape-in-2017 abrufbar.


SERPs im Wandel. Phillip Klöckner

Pip beschäftigt sich mit der Veränderung der Google Suchergebnisse. Die Universal Search wurde 2007 eingeführt, also sind wir seit rund 10 Jahren weg von 10 rein blauen Links. Inzwischen ist es für einige Queries möglich, nur in Google Produkten zu navigieren. Nach Pips Einschätzung wird es früher oder später gar keine SERPs mehr geben, denn Googles Ziel bleibt es, die beste Antwort zu liefern. Ergo: Antworten statt SERPs oder Universal ist ungleich Universal und Universal steht für alles in Einem. Seine Slides zum Thema finden Sie hier: https://mobile.twitter.com/pip_net/status/841561217110011904

Philipp Klöckner SMX 2017


Was sind Featured Snippets? Astrid Kramer

Ständig werden Featured Snippets mit Answer Boxes verwechselt. Hier stellt Astrid klar wo der Unterschied liegt. Ein Weg Features Snippets zu erhalten, ist die bestehenden Snippets zu betrachten und diese nachzustellen. Mit anderen Worten: Werden Listen angezeigt, sollte ich also auch Listen erstellen. Sind es Absätze gehe ich auf Absätze usw. Mit einer Textlänge von 40 bis 50 Worten im ersten Absatz ist anscheinend ein formales Kriterium erfüllt. Ideal gestaltete Snippets liefern nicht die Antwort, sondern wecken Appetit auf die Lösung. Ein guter Einstieg ist Fragetypen zu analysieren und zu ermitteln, wozu es bereits ein Snippet gibt. Ihre Empfehlung für die Recherche ist Semrushs Tool SEO Keyword Magic.

Jede Webseite kann Featured Snippets erhalten – unabhängig von Reputation oder Größe. Daher haben wohl auch Spammer bereits Snippets für sich entdeckt. Ihren Vortrag schließt Astrid mit einigen konkreten To Dos, wie im folgenden Foto zu sehen und in ihren Slides zu lesen.

Astrid Jacobi SMX 2017


Search Marketing Reports oder warum dich deine Daten belügen

Felix Benz

Wenn Daten wissenschaftlich aussehen, glauben wir diesen mehr. Wir vertrauen scheinbaren Autoritäten. Ist es denn korrekt anzunehmen, dass ein Button die Konversion um neunzig Prozent steigert? Nein, sagt Felix Benz. Häufig werden Statistikdaten falsch verstanden oder nicht hinterfragt. Stichprobengröße ist ein wichtiger Faktor bei der Beurteilung von Daten. Wir sind im Prinzip blind für den Zufall, da wir bzw. unser Hirn zu einfachen Lösungen/Mustern neigt. Hier liegt das Problem vieler Untersuchungen im Online-Marketing. Er legt daher nahe, sich mit statistischen Methoden vertraut zu machen, bspw. sollte die Regression zur Mitte beachtet werden. Eine Frage, der sich gestellt werden sollte, ist wie groß eine Stichprobe sein muss, um statistische Relevanz zu erhalten.
Felix Benz SMX 2017
Thema Nummer zwei das Felix Benz mitgebracht hat, ist die KPI Betrachtung. Man sieht häufig signifikante Steigerungen bei harten Zahlen. Verschiedene Faktoren beeinflussen die Stichprobengröße. Es gilt, die richtige KPI zu wählen. Auf gar keinen Fall sollten Prognosen oder Steigerungen getroffen werden, also Finger weg von Hochrechnungen. Weitere Zahlen unter: konversionskraft.de/smx2017


Jens Fauldrath

Was ist eigentlich Position 1 in der Google Search Console? So werden bspw. „die Karussells“ als Position zwei gezählt obwohl diese oben stehen. Interessant ist auch Position 11, denn die rechtsseitige Box zahlt als Position 11. Daten in der GSC werden aggregiert. Je nach dem, welche Berichte angeschaut werden, befinden sich diese ggf. auf unterschiedlichen Aggregationsleveln (Page versus Property). Aus Datenschutzgründen zeigt die GSC nicht alle Suchanfragen. Da Google viele Daten unterschlägt, kann es bei der eigenen Zusammenführung der Daten zu großen Differenzen kommen. Bei steigender Größe der Datenmenge kommt es zu immer deutlicheren Abweichungen. Hier schlägt Jens basierend auf den als nahezu valide beurteilten Daten vor, hochzurechnen.
Jens Fauldrath SMX 2017
Für die Arbeit im Frontend oder API sollte immer der Länder-Filter genutzt werden, denn der ganze Mist aus anderen Länder zerstört aufgrund des mangelnden Marching zur Zielsprache Position, CTR usw. Die durchschnittliche Position trifft keine sinnvolle Aussage, da zum Beispiel die Anzahl der Keywords gestiegen sein kann und sich aus der Vielfalt der weiteren Keywords auch schlecht leistende einschleichen, außerdem den Durchschnitt zwar nicht mathematisch aber auf der Betrachtungsebene verfälschen.

Als kleinen Tipp für API Calls: Immer die Paginierung nutzen, denn mit kleinen Mogeleien kann teilweise deutlich über das scheinbare Limit der 5.000 Datensätze hinaus abgefragt werden.


Lösungsansätze für immense Herausforderungen – Attribution 2017 – Oliver Borm

Die Mehrzahl der Menschen schaut nur auf den letzten Klick. Warum sollte ich dennoch attribuieren? Attribution ist ein niemals endender Prozess, denn alle Prozesse unterliegen einer kontinuierlichen Veränderung. In der Vergangenheit war es da sehr einfach. Es wurde einfach der letzte Klick gezählt. Doch heutzutage wird ob der Vielzahl verschiedener Endgeräte eine datengetriebene Attribution unumgänglich. Cross device tracking ist daher notwendig. Oliver Borm stellt verschiedene Attributionswege vor. Hier sagt er, dass regelbasierte lineare Modelle wenig hilfreich sind. Diese Modelle führen eigentlich immer dazu, dass einer der Kanäle in der Betrachtung zu schlecht abschneidet. Zu Attribution sollen mathematische Modelle verwendet werden, die sich je nach Aktion dynamisch anpassen.
Oliver Borm SMX 2017
Oliver Borm stellt verschiedene Google KI Projekte vor, aus denen Google seine Erkenntnisse im Machine Learning gewinnt. Am Beispiel Airdroid bzw. Google Translate zeigt er, trotz technischer Pannen, wie ein geschriebener Text live übersetzt wird. Dog or Muffin, ein gutes Beispiel um die hohen Anforderungen an Bilderkennung darzustellen, denn wie Ihr seht, können Dogs und Muffins sehr ähnlich aussehen. 🙂
Dogs and Muffins
Mit diesen Erfahrungen aus dem Machine Learning sieht sich Google in der Lage, bessere Smart Bidding Strategien zu entwickeln.

Am Beispiel Hello Fresh zeigt er wie der ROAS gesteigert und sinnvoll attribuiert wurde. Mit einem weiteren Beispiel geht er auf die Online/Offline-Bezüge ein, die bei der Attribution eine große Herausforderung darstellen. So kann es bspw. mit einer Teilmenge der Besucher über Kundenkarten funktionieren. Ein Tracking über die Positionsdaten per Smartphone Sensoren ist mit größeren Schwierigkeiten verbunden, als zu erwarten wäre. So sind die Zuordnungen über WLAN nicht eindeutig und Stores sowie deren Signale müssen erst vermessen werden, um Fremdsignale, die den Standort verschieben, auszuschließen.


Die Vermessung der mobilen SERPs

Hans Kronenberg

Zwar hat Google Mobile first ausgerufen, doch wie Sistrix festgestellt hat, ist die Umstellung für viele Unternehmern immer noch extrem schmerzhaft. Sistrix bestimmte die Bedeutung von Mobile für KPI wie CTR und Impressionen oder auch die SERPs-Zusammensetzung im Vergleich zur Desktop-Version. Hier zeigt sich bereits klar, dass es Abstrafungen für mobil-unfreundliche Gestaltung gibt. Als Beispiel dient Hans Im Beitrag aerztezeitung.de.

Wie hat sich die Klickwahrscheinlichkeit geändert?

In der anonymisierten Auswertung der Klick-Wahrscheinlichkeit, basierend auf Daten aus der GSC, zeigt sich, dass diese auf Mobile für die ersten Plätze deutlich über denen für Desktop liegt. Hintergrund hierfür kann die unterschiedliche Usability, die Demografie der Nutzer oder auch die Situation der Nutzung sein.
Hans Kronenberg SMX 2017
Was den Traffic anbetrifft sieht Sistrix den Mobiletraffic teilweise als zusätzlichen Traffic, der sich aus den sich verschiebenden Nutzungsgewohnheiten resultiert. Zu beachten ist, dass diese Entwicklung für viele Länder sehr unterschiedlich ausfällt.


Norman Nielsen

Mobile First bedeutet auch dass die Werbemittel-Ausspielung wesentlich besser angepasst wird. Auch sollte nicht von Mobile sondern von Endgeräten gesprochen werden. Inzwischen gibt es vielfältige Endgeräte wie Pads, Home Entertainment, Smart Watches usw., die alle verschiedene Ansprüche an den Content stellen. So gibt es laut Norman überspitzt dargestellt, vier Mobile Content Formate: Video, Bilder, Text und Mobile Ads.

Laut einer Untersuchung von Zalando performt Video extrem gut (Beispiel Zalandos Yoga Guide). Gute Erfahrungen wurden auch mit Features Snippets gemacht, die Informationen Queries bedienen. So kann recht viel Werbefläche auf der SERP eingenommen werden. Eine seiner Vorschläge ist, die Productlistings eines Shops ab einer gewissen Scrolltiefe mit informationellen Texten anzureichern.
Norman Nielsen SMX 2017
Nach Normans Einschätzung ist es gerade Mobile wichtig, welchen Content zu welcher Tageszeit geliefert wird. Die Suche nach einem Cocktailkleid am Montagmorgen unterscheidet sich deutlich von der Suchintention am Samstagabend. Dies ist bei der Kreation und Bereitstellung von Inhalten zu berücksichtigen.

Dessous ist eine AMP-Seite, die Zalando gerade testet. Hier geht seine Einschätzung dahin, dass Nutzer sich daran gewöhnen werden und AMP bei Suchenden für eine schnelle Befriedigung sorgt. Was wiederum in einer höheren CTR mit den entsprechenden SEO-Effekten einhergeht.

Auch PWA helfen unwahrscheinlich stark bei der Bindung der Besucher im eigenen System. Funktionen wie Push Notfication, offline Features (bswp. ein kleines Spiel während die Verbindung off ist) sowie horizontale Scrolling Navigation usw.

Als Ausblick schließt Norman mit der Anekdote, dass seine Tochter nach Mama und Papa anschließend bereits Google sagen kann, da sie Papa auffordern möchte zu sagen „Ok Google, wie klingt ein Hund“. Sie erwartet in diesem Sinne keine physische Existenz einer Google SERP mehr und wächst bereits mit einer gänzlich anderen Art der Suche auf als wir.


 Wie sich die lokale Welt verändert und was das für die Keyword Strategie bedeutet

Christian Paavo Spieker

Christian kritisiert die klassische SEO-Denke, nach der einzig mit reiner OnPage-Optimierung ein Ziel erreicht wird. “Wir haben jetzt 14 Monate OnPage SEO gemacht und nichts ist passiert” ist ein Satz, mit dem er so oder ähnlich häufiger konfrontiert wurde. Hier sollte bereits bei der Strategieentwicklung berücksichtigt werden, weiter zu denken und den Suchenden und seine Wünsche einzubeziehen (Stichwort: Nutzer-Intention). Ergo: Wenn wir uns einig sind, dass Keywords bei Google ranken sollen, brauchen wir eine entsprechende Keywords-Strategie. Zu beachten ist das vielfältige User-Verhalten, was in unterschiedlichsten Queries und gewünschten Antworten mündet. Im Hinblick auf die Keyword-Strategie nennt er als wichtigen Faktor die Lokalisierung der Keywords.

Christian Paavo Spieker SMX 207

Am Beispiel SEO-Agentur: Seinen Agentur nimmt Platz 1 für SEO-Agentur in München ein. Blickt er hingegen in die Search Console wird ihm 17,7 in der GSC angezeigt. Ein großes Delta zu der ihm bekannten Position, dass sich nach seiner Wahrnehmung auch in vielen weiteren Toolboxen widerspiegelt. Er verweist hier auf die Schwäche der Tracking Tools, welche die Location nicht einbeziehen. Hierzu stellt er am vereinfachten Beispiel dar, wie Rankings abgefragt werden. Eine Schwäche sieht er in der mangelnden Abdeckung der Standorte. [BTW: Er erwähnt allerdings nicht, dass inzwischen fast alle besseren Toolboxen Standortberücksichtigung anbieten. Getstats, Advanced Webranking und einige weitere sind hier gut aufgestellt. Ein bisschen Eigenwerbung steckt also auch in der Aussage]. Am Beispiel der zusammengefassten Suchvolumen für die Kombination aus Keywords und Ortsname zeigt er das Potential für zu befriedigende Suchbedürfnisse auf.

Im Weiteren zeigt Christian das viele Keywords bereits lokalisiert sind. Basis seiner Auswertung sind 1 Millionen Keywords die in Kombination mit Ortsangaben abgefragt wurden. Nach dieser Auswertung sind etwa 20 % der Ergebnisse lokalisiert. Was aus seiner Sicht vor allem in Hinblick auf die geringe Unterscheidung zwischen Local- und Mobile-Suchergebnissen spannend für die Keyword-Strategie und -Optimierung ist.

Am Ende hat er noch die Empfehlung, SEA zu nutzen, um schnell hohe Sichtbarkeit in Orten fern der Top Positionen zu erlangen. Er sieht, nachvollziehbar, wenig Chancen eine nachhaltige Sichtbarkeit durch NAP- oder Text-Spamming zu erlangen. Alles in allem ein interessanter Beitrag mit spannenden Themen.


Bastian Grimm

Bei der Keyword-Auswahl ist zu beachten, dass es inzwischen einige Keywords gibt, zu denen ein organisches Ranking nahezu unmöglich ist. So führt Bastian Beispiel-SERPs an, die mitunter so gestaltet sind, dass diese ausschließlich Answer Boxes oder individuell gestaltete Google Features im initial sichtbaren Bereich aufweisen. Seine Beispiele hierfür sind die Oscar Verleihung oder die US-Wahl. Hier geht die auf der SMX aktuell scheinbar angesagte und absolut legitime Präsentation verschiedener SERPs los, mit der er verdeutlichen möchte, dass die Entwicklung der Keyword-Strategie nicht alleine auf der Bewertung von Keywords anhand Suchvolumen funktioniert, sondern individuell auf die hinter dem Keyword liegende SERP und vor allem die zugrunde liegende Suchintention berücksichtigt werden muss. Soweit so klar. 🙂

Als Empfehlung gibt er den Anwesenden die Entwicklung von Personas auf den Weg, welche im Marketing bereits üblich sind, aber scheinbar nicht so regelmäßig in der Onlinemarketing-Branche, vor allem nicht bei Keyword-Recherchen, genutzt werden. Im Hinblick auf Shorthead-Keywords verweist Bastian noch auf QDD-Queries “query deserves diversity”, die häufig daran zu erkennen sind, wenn Google die SERP kontinuierlich durchmischt und Ergebnisse neu anordnet, weil es aus dem Keyword in Kombination mit dem Userverhalten keine Suchintention erkennen kann. Zum Ende zählt Bastian noch einige Tools auf, die zur Keywordqualifizierung genutzt werden können, darunter:

  • Linkclump
  • Secockpit
  • Searchintent.co.UK
  • Hyscore.io
  • SEMrush SEO Keywords Magic
  • Searchmetrics Content Experience

Seine Slides findet Ihr hier: https://goo.gl/kkonVA


Was wir schon immer mal wissen wollten: Q & A mit Rand und Wil

Der erste SMX 2017-Tag endet für uns mit der Q&A Runde. Alexander Holl und Marcus Tober leiten diese mit einem steilen Video ein, in der die Hypothese aufgestellt wird, Amazon und Alphabet fusionieren gemeinsam mit Microsoft und werden zu Alphazon. 🙂 In dieser Hypothese werden verschiedene aktuelle Entwicklungen der Suche, künstlichen Intelligenz und des Machine Learning verwoben, sodass – abgekürzt – 2025 die Konsumenten aka Menschen mit In-Ear-Plugins und projizierenden Kontaktlinsen durch die Welt schreiten und die Antworten auf Suchen bereits vor dem bewusst werden des Suchwunsches gegeben werden. Alles in allem auch aus meier Sicht eine steile These vor allem in der Kürze der Zeit. Hier teile ich eine Meinung mit Rand und Wil.
Wil Reynolds und Rand Fishkin SMX 2017
Rand Fishkin sieht rückblickend für die letzten 18 Jahre keine wirkliche Revolution in der Suche. Er schätzt, flapsig gesagt, nicht das wir in 2025 nahezu Cyborgs sind und in einer nahezu virtuellen Realität leben. Wil Reynolds pflichtet ihm hier bei und vertritt den Standpunkt, dass nicht alle Entwicklungen mit dem Druck die Welt veränderten, wie es zum Zeitpunkt ihres Bestehens eingeschätzt wurde. Siehe Second Life und Segways, die er als Beispiel anführt.


Für uns geht damit ein spannender mit vielen interessanten Eindrücken gespickter SMX-Tag zu Ende. Wir hoffen, dass wir mit unserem kleinen Live-Recap einen guten Eindruck für alle daheim Gebliebenen vermitteln konnten und wünschen Euch einen schönen Abend. 🙂


Tag 2 auf der SMX 2017 – Live-Recap

So, und weiter geht es! Auch am zweiten Tag der SMX 2017 liefern wir hier interessante Live-Eindrücke und Informationen von der Veranstaltung aus München.


Anmerkung: Hier gehts zum 1. Tag der SMX – wenn Sie den zweiten bereits verfolgt haben. 🙂


Der Aufstieg der Relevanzfaktoren und das Ende der Rankingfaktoren – Marcus Tober

Marcus erinnert an den Googleguy aka Matt Cutts, der bereits vor vielen Jahren immer wieder gemahnt hatte, gute Inhalte zu verfassen. Heute werden rund 145 Milliarden in guten Content investiert, wovon allerdings circa 80 Prozent nicht konsumiert werden. Ein wichtiger Faktor bei der Produktion ist das Erzielen von User-Engagement.

SEO Taktiken sind tot, statische Faktoren verlieren an Bedeutung. Dies führt für Marcus zur Frage, wie guter Content erstellt werden kann. Er sagt, dass gerade die größten Brands viel Content produzieren, jedoch selten zu scheinbar relevanten Queries präsent sind. Sein Beispiel ist Dominos Pizza – kein Ranking für Kalorien Pizza. Ein weiteres Beispiel ist für ihn Media Markt, denen nach seiner Einschätzung eine Vergleichs-Landingpage für die Gegenüberstellung zweier Telefone fehlt.
Marcus Tober SMX 2017
Oft fällt auf, dass Content aus dem Nichts erstellt wird und bereits erstellter Content in Vergessenheit gerät. Insbesondere dann, wenn zeitliche Komponenten Teil des Textes sind. Auch kritisiert er die Herangehensweise an die Kreation, die selten wirklich datenbasiert erfolgt, sondern vielmehr aus Datenmüll resultiert. So werden stumpf Daten aus Tools wie Answer the Public auf einen Haufen geworfen und daran entlang geschrieben. Entscheidend ist jedoch die Gewichtung und Relevanz der erkannten Keywords und Phrasen im Hinblick auf die Zielsetzung der Seite. Hier verweist Marcus natürlich auf die Searchmetrics Content Experience Suite und den dort verbauten Ansatz Keywords mittels Googles Word 2 Vec zu gewichten.

Wie nahezu jeder bisherige Speaker kommt auch Marcus nicht umhin, auf die unterschiedlichen Desktop- und Mobile-SERPs hinzuweisen und am Beispiel „Wie ich eine Krawatte binde“ das Ganze zu visualisieren.

Am Beispiel springlane.de und pflege.de stellt Marcus dar, wie Inhalte, die bereits vorhanden sind, genutzt werden können. So hat Springlane seine bestehenden Inhalte vollumfänglich überarbeitet und pflege.de sich von vielen alten Inhalte getrennt sowie den entsprechenden Content gelöscht oder deindexiert.

Im folgenden präsentiert Marcus einige Zahlen und Eindrücke zu den Relevanzfaktoren, die allerdings keine Überraschung bieten. Aus meiner Sicht ist es streitbar, ob das gehäufte Auftreten gewisser Items ein Relevanz-Faktor ist. Die Folien von Marcus Tover stehen hier zum Download bereit: http://pages.searchmetrics.com/SMX2017_Order.html


Keynote: Suchresultate brauchen mehr Menschlichkeit oder warum kaufen wir eigentlich? Wil Reynolds

Wil leitet seinen Vortrag mit der Frage ein, welche Keywords er für sein Business verwenden sollte. Von den Besuchern werden SEO Agency, SEO Consultant und Ähnliche genannt. Er hält alle für falsch. Warum? Mit allen wurde kein einziger Kunde gewonnen. Denn keine der Personen, die hinter dieser Query stehen, sind für seine Agentur als Kunden interessant. Es ist eine typische Query für kleine Unternehmen und sie arbeitet auf Enterprise Niveau.
Wil Reynolds SMX 2017
Thanks, better than Ranks! Richtet er an eine Kollegin, die mehr als jedes Ranking geleistet hat, in dem sie viele Kunden in die Agentur gebracht und gehalten hat.

Labels Matter Words Matter. Am Beispiel Obamacare versus Affordable Care Act unterstreicht er dies mit zwei kleinen Videos von ABC, in denen Amerikaner befragt werden, welches der beiden sie bevorzugen würden. Allerdings sind beide Programme identisch, nur mit verschiedenen Labels versehen. Diese Labels sind allerdings entscheidend für die Bewertung. Mit einem weiteren Beispiel “get the fuck out” verdeutlicht er wie Ton, Kontext und Umfeld die Wahrnehmung und Wirkung der Phrase völlig verändern. Dies gilt es auch, auf die Keywordwahl zu adaptieren. Um dies zu unterstreichen führt er die Suche nach seiner Personen heran. Es gibt sowohl ihn als auch ein Model namens Wil Reynolds. Im Verlauf der Jahre hat sich die Query Will Reynolds Model ergeben. Google hat hier erkannt, aus der Suchanfrage “Wil Reynolds” gehen unterschiedliche Intentionen hervor und häufig wird die erste Anfrage über die Ergänzung “Model” verfeinert.

An verschiedenen Beispielen Illustriert Wil welche geringen Änderungen bereits zu einer deutlichen Ausnutzung der bestehenden Traffic-Potentiale geführt haben. Im Fokus steht immer die zielgerichtete Ansprache der Kunden aka Suchenden in der organischen Suche. Teilweise waren die Wege hier wirklich kurz, in dem einfach die PPC AdCopy genutzt wurde. Auch sinnvoll seiner Meinung nach ist es, Kunden der jeweiligen Agentur-Kunden zu befragen, um einen Eindruck derer Suchgewohnheiten und Fragestellungen zu erhalten. Als Beispiel führt er hier die Erfahrungen mit Homedepot heran. Bei dem Projekt ergaben sich nach der Befragung der Besucher bezüglich des Filialen-Verständnisses für den Content verschiedene Suchanfragen, die nun mit entsprechenden Landingpages bedient werden.

Sein Fazit: Say Goodbye to Oldschool!

Aus meiner Sicht war das einer der besten Vorträge der bisherigen SMX – sowohl inhaltlich als auch vom Präsentationsstil.


WOTR: Advanced SEO – Was ist neu und wichtig? Eric Engene, Lisa Meyrs, Dan Petrovic, Marcus Tober und Wil Reynolds

Zum Einstieg stellt Marcus Tandler die Runde der diesjährigen Webmasters on the Roof vor. WOTR ist als offene Fragerunde konzipiert und leitet direkt mit der ersten Frage ein: Wer ist Fred? Dan sagt, dass es der Name des Goldfisches von Garry ist. 🙂 Laut Dan schreitet das Update seit bereits fünf Tagen voran. Es lässt sich noch nicht einschätzen, auf was das Update einwirkt. In jedem Fall geht es – nichtssagend – um Qualität. Marcus wirft ein, dass es ggf. um eine neuerliche Korrektur vorhergehender Updates geht. Eric ergänzt, dass Google das Update nicht als signifikant bezeichnet. Für Google ist es nur eine weitere Iteration vorhandener Algorithmen. Aus Marcus Perspektive ist das aus dem Auditorium genannte Beispiel, eine alte Affiliateseite, ein gutes Beispiel für die höhere Gewichtung der User Signale.
Webmasters in the Roof SMX 2017
Marcus Tandler leitet auf die nächste Frage über: Ist es notwendig hilfreich zu AMP zu wechseln, wenn bereits einen sehr schnelle mobile Seite vorhanden ist? Eric sagt hierzu, es kann interessant sein, da die CTR mutmaßlich durch das kleine AMP Blitz Symbol auf der SERP ausschlaggebend ist, auch wen die User gar nicht wissen, was das Symbol bedeutet. Unabhängig davon ist es unbestreitbar, dass eine sehr schnelle Seite eine gute Nutzererfahrung erzeugt und sich der Wechsel alleine schon deshalb empfiehlt. Lisa ergänzt, wie bedeutsam einen flinke Seite für das Crawling ist. Marcus Tandler merkt – Trivia – an das AMP in Hamburg entwickelt wurde.

Wie passen die AMP Spezifikationen (wenig Java Script, wenig Interaktivität) mit reichhaltigen interaktiven Inhalten zusammen? Lisa sagt, dass sie AMP noch nicht für diese Inhalte einsetzen und nur bestimmte Seiten geampt werden. Will sagt, dass es nicht immer notwendigerweise bedeuten muss, auf die aktuellen Google Wünsche aufzuspringen. Marcus Tober Pflichten ihm hier bei. Es müssen zuallererst die Bedürfnisse der Kunden befriedigt werden. Will weist darauf hin, wie bedeutsam es ist, um welche Industrie es geht, bevor und für welchen Inhalt AMP genutzt wird. Für News Themen, wirft Marcus Tober ein, war der überwiegende Teil der rankenden Seiten zu Oscars 2017 AMP Ergebnisse.

Mit dem dritten Fragekomplex steuert Marcus Tandler auf Voicesearch zu. Lisa merkt engagiert an, das Sprachliche sei nicht die Gefahr für SEO, vielmehr ist es AI, was die Form der Suche verändern wird. Marcus Tober vertritt hier den Standpunkt, dass es nicht die Sprachsuche ist, die eine Gefahr darstellt, sondern die darauf fußende Konversationssuche. Eric sieht den Grund für die Gefahr der sich verändernden Suche darin, dass sich die Form der Antwort mehr und mehr in Richtung Google gibt die Antwort verschiebt. Dan sieht in Voicesearch keine Gefahr sondern vielmehr eine große Chance. Im Hinblick auf E-Commerce sieht Marcus Tober ein Risiko für Anbieter, da diese von den verschiedenen Gatekeepern wie Google ausgeblendet werden, wenn die Sprachsuche keine Vielfalt an Antworten sondern nur eine Antwort gibt.

Will sieht sich selber als Early Adoptor, dennoch führt er keine Sprachsuchen aus. Marcus Tober fragt sich, warum Leute mit dem Telefon vor dem Mund durch die Straßen gehen. Das Gespräch hierzu führt dahin, das Will erst mehr Menschen sehen will die Voicesearch einsetzen, bevor er seinen Kunden eine Optimierung empfiehlt. Eric merkt an, viele Sprachsuchen werden nur daheim ausgeführt, da eine entsprechende Suche immer die Privatsphäre berührt.

Wil merkt hinsichtlich der Vielfalt an Antworten an, dass es einige Suchanfragen gibt, für die es eine einfache Antwort gibt. Manche Fragen allerdings müssen mit einer Auswahl verschiedener Antworten befriedigt werden, denn Menschen wünschen sich für viele Entscheidungen die Freiheit, Dinge vergleichen zu können.


Data, Strategie, Content und Outreach Automatisierung – Dan Petrovic

In einer wirklich gut gefüllten Sessions stellt Dan verschiedene Ansätze der Automatisierung vor. Als eines der ersten Tools empfiehlt er Wordsmith und Algoroo. Beide Tools eignen sich für template-basierte Content-Erstellung. Des Weiteren verweist Dan auf IBM Watson Analytics zur Content-Kategorisierung.

Sein Traum ist es: Daten einzugeben – Content herausbekommen – Outreach zu generieren. Leider sind die Ergebnisse häufig weit vom Wunschtraum entfernt. Dies unterfüttert er mit einigen lustigen Bildern, die das Delta zwischen Werbung und der realen Anmutung von Produkten aufzeigen.

Im technischen Teil seiner Slides empfiehlt er, die Daten aus der Search Console so zu ziehen, dass immer alphabetisch gefiltert wird. Also alle Fragen ohne a alle ohne b usw. Dementsprechend können die Daten einfach zusammengeführt werden. Zur Auswertung der Daten zeigt Dan verschiedene Wege und Formeln. So ist es bspw. wichtig, Daten anhand der statistischen Relevanz zu filtern. Ein Indikator für geringe Relevanz ist die niedrige Anzahl an Impressionen. Zur Klassifizierung der GSC-Keywords schlägt er sein Tool http://www.phraseresearch.com vor.

Identifiziert man aus dem Datenset Keywords, die gestärkt werden sollen, ist es wichtig, die entsprechende SERP zu betrachten und eine Keyword-Schwierigkeit zu ermitteln. Hierzu kann man die SERPs anhand des Auftretens der entsprechenden Elemente klassifizieren. Im Anschluss stellt Dan vor, wie er basierend auf den ausgewerteten Daten Outreach Kampagnen aufbaut. Hierzu hat er zu den gewählten Themen weitere Informationen durch Umfragen gesammelt.

Als Resultat werden passende Landingpages aufgebaut und diese wiederum durch gezielte Kampagnen beworben. Hierbei zielt er auf Journalisten ab, die für das Thema und die Region relevant sind. Die entsprechenden Kampagnen schneidet er dabei sehr genau auf wenige Personen zu. So werden zwar nur einige hundert Journalisten erreicht, doch diese erhaltenen Impulse für einen neuen Artikel.

An einem weiteren Beispiel stellt Dan vor, wie er für das Thema Kosmetik Outreach aufgebaut hat. Hierzu hat er Content zum Schminken mit historischen Kosmetika aufgesetzt und diesen von einem Professor validieren lassen. Das ganze natürlich so, dass sich der angeschriebene involviert sieht und im Idealfall auf das erstellte Werk verweist.Dan Petrovic SMX 2017

Die Slides von Dan Petrovic könnt Ihr hier herunterladen: https://goo.gl/C3Kffc


SMX Technical Technical Onpage & Onsite Clinic – John Müller

Eines der ersten Beispiele ist die missbräuchliche Verwendung von Rich Snippets. John erläutert kurz dass es nicht hilfreich ist, Snippets für ein einzelnes Item wiederkehrend auf er gesamten Webseite zu verwenden. Einer der negativen Punkte die John bei der Betrachtung von rosebikes.de rekennt, ist die Auswahl der Sprachversionen per Interstitial statt über einen Banner. Hier sagt er, würde Google lieber einen Banner im oberen Bereich der Seite mit einem entsprechenden Hinweis sehen. Zwischenzeitlich ist die direkt auf das Projekt bezugnehmende Siteklinik in ein offenes Q&A um geschwungen. Daher nun etwas stakkatohaft zusammengefasst:

  • Zum Crawling bzw. der Crawling-Frequenz gibt Google in der Search Console keine eindeutigen Auskünfte. John sagt hier muss der Webmaster auf seiner Seite schauen, bspw. in den Logfiles. Ein entsprechendes URL basiertes Feature kann er für die Search Console nicht versprechen.
  • Zwischen https-Zertifikaten unterscheidet Google nicht. Alle Anbieter von Zertifikaten werden gleichwertig betrachtet.
  • Google Search Console weist unter der Fehlern ständig uralte 404 URLs auf, die aber schon lange erledigt sind. Ist hier eine Verbesserung geplant? John sagt hierzu, dass etwas geplant ist, hüllt sich aber in John Müller typisches schweigendes Grinsen 😉
  • Bei der Bewertung der Crawling Fehler Berichte sollte die Priorisierung berücksichtigt werden:
    • Wurde die URL in einem Suchergebnis präsentiert?
    • War die URL in der XML-Sitemap enthalten?
    • War die URL intern verlinkt?
    • Ist anhand der Priorisierung erkennbar, dass bereits der erste Eintrag in der Liste der Crawling Fehler Müll ist, können alle restlichen URLs mit geringerer Priorität ignoriert werden.
  • Rich Snippets und Rich Cards einsetzen. Dies kann gerade bei Rezepten bzw. visuellen Inhalten spannend sein. Allerdings ist die Umsetzung der Rich Cards in Deutschland eher träge und Rich Cards für neue Bereiche werden zuerst in den USA eingeführt.
  • Eigentlich für das Testing von PWA Progressive Web Apps entwickelt, kann einem das Lighthouse Chrome Plugin viele spannende Hinweise zur Optimierung der Ladezeiten und des Rendering bieten. Lighthouse kann hier https://developers.google.com/web/tools/lighthouse/ heruntergeladen werden.
    Intern wird index.html verwendet jedoch von Google eigenständig beschnitten, oder wie John es sagt, eigenständig kanonisiert. Hinsichtlich der Angabe von Sprachversionen fällt auch bei schott.de auf, dass die Auszeichnung fehlerhaft ist.
  • Zur internen Verlinkung bzw. dem Pageranksculpting per Linkmaskierung sagt John, „meistens muss man das nicht mehr machen“, denn Google erkennt sehr gut stark verlinkte, doch wenig relevante Inhalte, wie Impressum, AGB und Kontaktseiten. Hier habe ich vor allem beim „muss man nicht mehr machen“ aufgehorcht, was klingt als hätte man sollen 😉
  • Hinsichtlich der Sprachtrennung via hreflang erläutert John mit zwei Slides, warum einige der Fehler sehr lange in der Google Search Console angezeigt werden. Hintergrund für die Verzögerung ist das Crawling der jeweils beteiligten URLs, deren Crawl Budget gerade bei einer großen Anzahl von beteiligten URLs nicht für einen schnellen Abgleich aller URLs ausreicht.

john mueller smx 2017 sprachtrennung crawling und indexing

john mueller smx 2017 sprachtrennung crawling

  • Bei der Auszeichnung nahezu vollständig identischer Inhalte mit hreflang kann es dennoch dazu kommen das bspw. Preisangaben vertauscht und im falschen Land ausgespielt werden.

john-mueller-smx-2017-sprachtrennung-duplicate-content-achtung

  • Als abschließende Randnotiz sei erwähnt, der Googlebot bewegt nicht die Maus… 😉

Accelerated Mobile – jenseits von AMP! – Jono Alderson

Eigentlich als gemeinsame Session mit Fili Wiese angesetzt muss Jono auf Fili verzichten da dieser in Berlin festsitzt. Google AMP ist Grundsätze in gutes Ding. Allerdings nur die Spitze des Eisbergs,wenn es um wirklich schnelle Seiten geh. AMP weist auch viele Nachteile auf. Es ist eine sich ständig erweiternde Plattform, die über die kontinuierliche Erweiterung aktuell schwer zu handeln ist. Als Beispiel der Veränderung führt Jono das Update für den Caching Ping an, um von hier aus direkt zur AMP-Caching Kritik überzuleiten: Man hat keine direkte und wenn, nur eine verzögerte Einwirkung auf die bei Google gecachte Version der eigenen Inhalte. Google kommuniziert hier von sich aus Zeitspannen die eine deutliche Verzögerung möglich erscheinen lassen.

Er schlägt vor, sich einzelner Elemente aus dem AMP Repository https://github.com/ampproject bedient und so wichtige Funktionen, bspw. für den Critical Rendering Path oder eine wunderbare Bildkompression, nutzen kann. Zwar qualifiziert man sich so nicht für den Googles AMP Cache bzw. eine entsprechende Darstellung auf der SERP, profitiert aber dennoch hinsichtlich verbesserter Ladezeiten. Jono merkt an, er will damit nicht sagen das er AMP nicht mag, es sich jedoch nur für gewisse Seitentypen lohnt AMP einzusetzen.

jono-alderson-smx-2017-amp

Im weiteren Verlauf der Session wurden die folgenden Punkt kurz thematisiert:

  • Hinsichtlich der Verwendung von https-Zertifikaten, merkt Jono an, dass deren Länger für die Dauer eines Handshakes relevant ist und diese ansteigen kann, wenn es ein günstiges (dann häufiger langes) Zertifikat ist.
  • HSTS ready werden, in dem man weitere HTTPS Checks implementiert und wirklich alle Ressourcen via HTTPS ausliefert. Einer der Effekte kann die Einsparung von Handshakes sein, die zwar wenig im einzelnen, aber viel in der Summe ausmachen.
  • Was die Optimierung responsiver Webseiten anbetrifft, soll vermehrt auf User Detection gesetzt werden, um immer optimale Bildgrößen und Medien auszuliefern.
  • Den für ihn einzig probaten Weg Bilder passend zum Endgerät auszuliefern,  sieht er in der Verwendung von srcset
  • Für kleine einfache Bilder trifft er die Empfehlung per base64 Data-URI auszuliefern, allerdings nur dann verwenden, wenn man sich den Wechselwirkungen bewusst ist, die daraus hervorgehen, dass diese Bilder nicht gecached werden!

Welche Metriken können zur Messung genutzt werden?
Praktisch alle Tools verwischen den Blick auf die wirklich wichtige Bewertung – die Besucher Zufriedenheit. Zwar können Webpagetest, Google Pagespeed Insights, Pingdom und viele weitere Tools gute hilfreiche Informationen liefern, doch sind diese Tools in der Form der Datenerhebung nicht vergleichbar. Seine Empfehlung ist ganz klar Messwerte mit menschlichem Empfinden abzugleichen.

Doch alle Maßnahmen der Optimierungen setzen auch voraus, eine leistungsstarke Serverarchitektur aufzusetzen, denn irgendwann sollte doch der Punkt kommen an dem ein einziger Server nicht mehr reicht. Zum Abschluss seines Vortrags gibt Jono noch einige Stichpunkte mit auf den Weg:

  • Verwendet Ressource Hints
  • Bedenkt die richtigen Caching Einstellungen zu verwenden
  • CDNs sind weiterhin bedeutsam
  • Berücksichtigt den Critical Rendering Path
  • Reduziert Repaint und Reflow Vorgänge
  • Fragt Euch welche Elemente ggf. nachgeladen werden können

Und vor allem: Es gibt Millionen Wege die Performance zu verbessern! Jono Aldersons Slides findet Ihr hier: https://goo.gl/mfSHwe


Unser Fazit: Hat Spaß gemacht

Ich hoffe Euch hat es ein wenig Spaß gemacht mitzulesen, auch wenn wir nicht immer ganz aktuell waren, haben wir Euch doch hoffentlich einen guten Einblick der 2017er SMX in München liefern können. Sollten wir nach der harten Rückkehr in den Agentur Alltag Gelegenheit für ein Fazit finden, werdet Ihr es hier lesen können.

Vielen Dank für Euer Interesse und bis demnächst!


Weitere Recaps zur SMX 2017 findet Ihr hier:

 
 

Kommentare

Cool, sehr informativ euer Live-Recap. Vielen Dank! Auch wir waren auf der SMX, hier unser Recap: https://www.onlinesolutionsgroup.de/blog/smx-recap-2017-tag-1/

Kommentar schreiben

Kommentar