Zertifizierte Agentur

SMX 2017 Live Blog & Recap

14. März 2017 in Online Marketing | 1 Kommentar


Anmerkung: Hier gehts zum 2. Tag der SMX – wenn Sie den ersten bereits verfolgt haben. 🙂


An dieser Stelle werden wir im Verlauf der folgenden zwei Tage unsere Eindrücke der SMX 2017 in München für Euch sammeln.

Eröffnet wird die SMX wie in den Jahren zuvor mit einer sympathischen und inspirierenden Keynote von Rand Fishkin. In seiner Keynote tritt er einen Schritt zurück und wirft einen Blick auf die Verschiebung der Anforderungen an SEO.
From SERP Rankings to SERP Features

Eine der Kernaussagen lautet, dass Google eine Vielzahl der Antworten bereits auf der SERP liefert. Allerdings bieten viele der Answer Boxes / SERP Features auch Chancen für fachkundige SEOs. Eine größere Rolle spielt für ihn die sich immer stärker verbreitende Voicessearch, bei der er das Potenzial einräumt, organische Ergebnisse nachhaltig zu verdrängen. Mit Sorge schaut er zudem auf die sich in den USA abzeichnende Auflösung der Netzneutralität. Fazit: Spannende Keynote! Schauen Sie sich seine Seite an. Seine Slides sind unter https://www.slideshare.net/mobile/randfish/the-search-landscape-in-2017 abrufbar.


SERPs im Wandel. Phillip Klöckner

Pip beschäftigt sich mit der Veränderung der Google Suchergebnisse. Die Universal Search wurde 2007 eingeführt, also sind wir seit rund 10 Jahren weg von 10 rein blauen Links. Inzwischen ist es für einige Queries möglich, nur in Google Produkten zu navigieren. Nach Pips Einschätzung wird es früher oder später gar keine SERPs mehr geben, denn Googles Ziel bleibt es, die beste Antwort zu liefern. Ergo: Antworten statt SERPs oder Universal ist ungleich Universal und Universal steht für alles in Einem. Seine Slides zum Thema finden Sie hier: https://mobile.twitter.com/pip_net/status/841561217110011904

Philipp Klöckner SMX 2017


Was sind Featured Snippets? Astrid Kramer

Ständig werden Featured Snippets mit Answer Boxes verwechselt. Hier stellt Astrid klar wo der Unterschied liegt. Ein Weg Features Snippets zu erhalten, ist die bestehenden Snippets zu betrachten und diese nachzustellen. Mit anderen Worten: Werden Listen angezeigt, sollte ich also auch Listen erstellen. Sind es Absätze gehe ich auf Absätze usw. Mit einer Textlänge von 40 bis 50 Worten im ersten Absatz ist anscheinend ein formales Kriterium erfüllt. Ideal gestaltete Snippets liefern nicht die Antwort, sondern wecken Appetit auf die Lösung. Ein guter Einstieg ist Fragetypen zu analysieren und zu ermitteln, wozu es bereits ein Snippet gibt. Ihre Empfehlung für die Recherche ist Semrushs Tool SEO Keyword Magic.

Jede Webseite kann Featured Snippets erhalten – unabhängig von Reputation oder Größe. Daher haben wohl auch Spammer bereits Snippets für sich entdeckt. Ihren Vortrag schließt Astrid mit einigen konkreten To Dos, wie im folgenden Foto zu sehen und in ihren Slides zu lesen.

Astrid Jacobi SMX 2017


Search Marketing Reports oder warum dich deine Daten belügen

Felix Benz

Wenn Daten wissenschaftlich aussehen, glauben wir diesen mehr. Wir vertrauen scheinbaren Autoritäten. Ist es denn korrekt anzunehmen, dass ein Button die Konversion um neunzig Prozent steigert? Nein, sagt Felix Benz. Häufig werden Statistikdaten falsch verstanden oder nicht hinterfragt. Stichprobengröße ist ein wichtiger Faktor bei der Beurteilung von Daten. Wir sind im Prinzip blind für den Zufall, da wir bzw. unser Hirn zu einfachen Lösungen/Mustern neigt. Hier liegt das Problem vieler Untersuchungen im Online-Marketing. Er legt daher nahe, sich mit statistischen Methoden vertraut zu machen, bspw. sollte die Regression zur Mitte beachtet werden. Eine Frage, der sich gestellt werden sollte, ist wie groß eine Stichprobe sein muss, um statistische Relevanz zu erhalten.
Felix Benz SMX 2017
Thema Nummer zwei das Felix Benz mitgebracht hat, ist die KPI Betrachtung. Man sieht häufig signifikante Steigerungen bei harten Zahlen. Verschiedene Faktoren beeinflussen die Stichprobengröße. Es gilt, die richtige KPI zu wählen. Auf gar keinen Fall sollten Prognosen oder Steigerungen getroffen werden, also Finger weg von Hochrechnungen. Weitere Zahlen unter: konversionskraft.de/smx2017


Jens Fauldrath

Was ist eigentlich Position 1 in der Google Search Console? So werden bspw. „die Karussells“ als Position zwei gezählt obwohl diese oben stehen. Interessant ist auch Position 11, denn die rechtsseitige Box zahlt als Position 11. Daten in der GSC werden aggregiert. Je nach dem, welche Berichte angeschaut werden, befinden sich diese ggf. auf unterschiedlichen Aggregationsleveln (Page versus Property). Aus Datenschutzgründen zeigt die GSC nicht alle Suchanfragen. Da Google viele Daten unterschlägt, kann es bei der eigenen Zusammenführung der Daten zu großen Differenzen kommen. Bei steigender Größe der Datenmenge kommt es zu immer deutlicheren Abweichungen. Hier schlägt Jens basierend auf den als nahezu valide beurteilten Daten vor, hochzurechnen.
Jens Fauldrath SMX 2017
Für die Arbeit im Frontend oder API sollte immer der Länder-Filter genutzt werden, denn der ganze Mist aus anderen Länder zerstört aufgrund des mangelnden Marching zur Zielsprache Position, CTR usw. Die durchschnittliche Position trifft keine sinnvolle Aussage, da zum Beispiel die Anzahl der Keywords gestiegen sein kann und sich aus der Vielfalt der weiteren Keywords auch schlecht leistende einschleichen, außerdem den Durchschnitt zwar nicht mathematisch aber auf der Betrachtungsebene verfälschen.

Als kleinen Tipp für API Calls: Immer die Paginierung nutzen, denn mit kleinen Mogeleien kann teilweise deutlich über das scheinbare Limit der 5.000 Datensätze hinaus abgefragt werden.


Lösungsansätze für immense Herausforderungen – Attribution 2017 – Oliver Borm

Die Mehrzahl der Menschen schaut nur auf den letzten Klick. Warum sollte ich dennoch attribuieren? Attribution ist ein niemals endender Prozess, denn alle Prozesse unterliegen einer kontinuierlichen Veränderung. In der Vergangenheit war es da sehr einfach. Es wurde einfach der letzte Klick gezählt. Doch heutzutage wird ob der Vielzahl verschiedener Endgeräte eine datengetriebene Attribution unumgänglich. Cross device tracking ist daher notwendig. Oliver Borm stellt verschiedene Attributionswege vor. Hier sagt er, dass regelbasierte lineare Modelle wenig hilfreich sind. Diese Modelle führen eigentlich immer dazu, dass einer der Kanäle in der Betrachtung zu schlecht abschneidet. Zu Attribution sollen mathematische Modelle verwendet werden, die sich je nach Aktion dynamisch anpassen.
Oliver Borm SMX 2017
Oliver Borm stellt verschiedene Google KI Projekte vor, aus denen Google seine Erkenntnisse im Machine Learning gewinnt. Am Beispiel Airdroid bzw. Google Translate zeigt er, trotz technischer Pannen, wie ein geschriebener Text live übersetzt wird. Dog or Muffin, ein gutes Beispiel um die hohen Anforderungen an Bilderkennung darzustellen, denn wie Ihr seht, können Dogs und Muffins sehr ähnlich aussehen. 🙂
Dogs and Muffins
Mit diesen Erfahrungen aus dem Machine Learning sieht sich Google in der Lage, bessere Smart Bidding Strategien zu entwickeln.

Am Beispiel Hello Fresh zeigt er wie der ROAS gesteigert und sinnvoll attribuiert wurde. Mit einem weiteren Beispiel geht er auf die Online/Offline-Bezüge ein, die bei der Attribution eine große Herausforderung darstellen. So kann es bspw. mit einer Teilmenge der Besucher über Kundenkarten funktionieren. Ein Tracking über die Positionsdaten per Smartphone Sensoren ist mit größeren Schwierigkeiten verbunden, als zu erwarten wäre. So sind die Zuordnungen über WLAN nicht eindeutig und Stores sowie deren Signale müssen erst vermessen werden, um Fremdsignale, die den Standort verschieben, auszuschließen.


Die Vermessung der mobilen SERPs

Hans Kronenberg

Zwar hat Google Mobile first ausgerufen, doch wie Sistrix festgestellt hat, ist die Umstellung für viele Unternehmern immer noch extrem schmerzhaft. Sistrix bestimmte die Bedeutung von Mobile für KPI wie CTR und Impressionen oder auch die SERPs-Zusammensetzung im Vergleich zur Desktop-Version. Hier zeigt sich bereits klar, dass es Abstrafungen für mobil-unfreundliche Gestaltung gibt. Als Beispiel dient Hans Im Beitrag aerztezeitung.de.

Wie hat sich die Klickwahrscheinlichkeit geändert?

In der anonymisierten Auswertung der Klick-Wahrscheinlichkeit, basierend auf Daten aus der GSC, zeigt sich, dass diese auf Mobile für die ersten Plätze deutlich über denen für Desktop liegt. Hintergrund hierfür kann die unterschiedliche Usability, die Demografie der Nutzer oder auch die Situation der Nutzung sein.
Hans Kronenberg SMX 2017
Was den Traffic anbetrifft sieht Sistrix den Mobiletraffic teilweise als zusätzlichen Traffic, der sich aus den sich verschiebenden Nutzungsgewohnheiten resultiert. Zu beachten ist, dass diese Entwicklung für viele Länder sehr unterschiedlich ausfällt.


Norman Nielsen

Mobile First bedeutet auch dass die Werbemittel-Ausspielung wesentlich besser angepasst wird. Auch sollte nicht von Mobile sondern von Endgeräten gesprochen werden. Inzwischen gibt es vielfältige Endgeräte wie Pads, Home Entertainment, Smart Watches usw., die alle verschiedene Ansprüche an den Content stellen. So gibt es laut Norman überspitzt dargestellt, vier Mobile Content Formate: Video, Bilder, Text und Mobile Ads.

Laut einer Untersuchung von Zalando performt Video extrem gut (Beispiel Zalandos Yoga Guide). Gute Erfahrungen wurden auch mit Features Snippets gemacht, die Informationen Queries bedienen. So kann recht viel Werbefläche auf der SERP eingenommen werden. Eine seiner Vorschläge ist, die Productlistings eines Shops ab einer gewissen Scrolltiefe mit informationellen Texten anzureichern.
Norman Nielsen SMX 2017
Nach Normans Einschätzung ist es gerade Mobile wichtig, welchen Content zu welcher Tageszeit geliefert wird. Die Suche nach einem Cocktailkleid am Montagmorgen unterscheidet sich deutlich von der Suchintention am Samstagabend. Dies ist bei der Kreation und Bereitstellung von Inhalten zu berücksichtigen.

Dessous ist eine AMP-Seite, die Zalando gerade testet. Hier geht seine Einschätzung dahin, dass Nutzer sich daran gewöhnen werden und AMP bei Suchenden für eine schnelle Befriedigung sorgt. Was wiederum in einer höheren CTR mit den entsprechenden SEO-Effekten einhergeht.

Auch PWA helfen unwahrscheinlich stark bei der Bindung der Besucher im eigenen System. Funktionen wie Push Notfication, offline Features (bswp. ein kleines Spiel während die Verbindung off ist) sowie horizontale Scrolling Navigation usw.

Als Ausblick schließt Norman mit der Anekdote, dass seine Tochter nach Mama und Papa anschließend bereits Google sagen kann, da sie Papa auffordern möchte zu sagen „Ok Google, wie klingt ein Hund“. Sie erwartet in diesem Sinne keine physische Existenz einer Google SERP mehr und wächst bereits mit einer gänzlich anderen Art der Suche auf als wir.


 Wie sich die lokale Welt verändert und was das für die Keyword Strategie bedeutet

Christian Paavo Spieker

Christian kritisiert die klassische SEO-Denke, nach der einzig mit reiner OnPage-Optimierung ein Ziel erreicht wird. “Wir haben jetzt 14 Monate OnPage SEO gemacht und nichts ist passiert” ist ein Satz, mit dem er so oder ähnlich häufiger konfrontiert wurde. Hier sollte bereits bei der Strategieentwicklung berücksichtigt werden, weiter zu denken und den Suchenden und seine Wünsche einzubeziehen (Stichwort: Nutzer-Intention). Ergo: Wenn wir uns einig sind, dass Keywords bei Google ranken sollen, brauchen wir eine entsprechende Keywords-Strategie. Zu beachten ist das vielfältige User-Verhalten, was in unterschiedlichsten Queries und gewünschten Antworten mündet. Im Hinblick auf die Keyword-Strategie nennt er als wichtigen Faktor die Lokalisierung der Keywords.

Christian Paavo Spieker SMX 207

Am Beispiel SEO-Agentur: Seinen Agentur nimmt Platz 1 für SEO-Agentur in München ein. Blickt er hingegen in die Search Console wird ihm 17,7 in der GSC angezeigt. Ein großes Delta zu der ihm bekannten Position, dass sich nach seiner Wahrnehmung auch in vielen weiteren Toolboxen widerspiegelt. Er verweist hier auf die Schwäche der Tracking Tools, welche die Location nicht einbeziehen. Hierzu stellt er am vereinfachten Beispiel dar, wie Rankings abgefragt werden. Eine Schwäche sieht er in der mangelnden Abdeckung der Standorte. [BTW: Er erwähnt allerdings nicht, dass inzwischen fast alle besseren Toolboxen Standortberücksichtigung anbieten. Getstats, Advanced Webranking und einige weitere sind hier gut aufgestellt. Ein bisschen Eigenwerbung steckt also auch in der Aussage]. Am Beispiel der zusammengefassten Suchvolumen für die Kombination aus Keywords und Ortsname zeigt er das Potential für zu befriedigende Suchbedürfnisse auf.

Im Weiteren zeigt Christian das viele Keywords bereits lokalisiert sind. Basis seiner Auswertung sind 1 Millionen Keywords die in Kombination mit Ortsangaben abgefragt wurden. Nach dieser Auswertung sind etwa 20 % der Ergebnisse lokalisiert. Was aus seiner Sicht vor allem in Hinblick auf die geringe Unterscheidung zwischen Local- und Mobile-Suchergebnissen spannend für die Keyword-Strategie und -Optimierung ist.

Am Ende hat er noch die Empfehlung, SEA zu nutzen, um schnell hohe Sichtbarkeit in Orten fern der Top Positionen zu erlangen. Er sieht, nachvollziehbar, wenig Chancen eine nachhaltige Sichtbarkeit durch NAP- oder Text-Spamming zu erlangen. Alles in allem ein interessanter Beitrag mit spannenden Themen.


Bastian Grimm

Bei der Keyword-Auswahl ist zu beachten, dass es inzwischen einige Keywords gibt, zu denen ein organisches Ranking nahezu unmöglich ist. So führt Bastian Beispiel-SERPs an, die mitunter so gestaltet sind, dass diese ausschließlich Answer Boxes oder individuell gestaltete Google Features im initial sichtbaren Bereich aufweisen. Seine Beispiele hierfür sind die Oscar Verleihung oder die US-Wahl. Hier geht die auf der SMX aktuell scheinbar angesagte und absolut legitime Präsentation verschiedener SERPs los, mit der er verdeutlichen möchte, dass die Entwicklung der Keyword-Strategie nicht alleine auf der Bewertung von Keywords anhand Suchvolumen funktioniert, sondern individuell auf die hinter dem Keyword liegende SERP und vor allem die zugrunde liegende Suchintention berücksichtigt werden muss. Soweit so klar. 🙂

Als Empfehlung gibt er den Anwesenden die Entwicklung von Personas auf den Weg, welche im Marketing bereits üblich sind, aber scheinbar nicht so regelmäßig in der Onlinemarketing-Branche, vor allem nicht bei Keyword-Recherchen, genutzt werden. Im Hinblick auf Shorthead-Keywords verweist Bastian noch auf QDD-Queries “query deserves diversity”, die häufig daran zu erkennen sind, wenn Google die SERP kontinuierlich durchmischt und Ergebnisse neu anordnet, weil es aus dem Keyword in Kombination mit dem Userverhalten keine Suchintention erkennen kann. Zum Ende zählt Bastian noch einige Tools auf, die zur Keywordqualifizierung genutzt werden können, darunter:

  • Linkclump
  • Secockpit
  • Searchintent.co.UK
  • Hyscore.io
  • SEMrush SEO Keywords Magic
  • Searchmetrics Content Experience

Seine Slides findet Ihr hier: https://goo.gl/kkonVA


Was wir schon immer mal wissen wollten: Q & A mit Rand und Wil

Der erste SMX 2017-Tag endet für uns mit der Q&A Runde. Alexander Holl und Marcus Tober leiten diese mit einem steilen Video ein, in der die Hypothese aufgestellt wird, Amazon und Alphabet fusionieren gemeinsam mit Microsoft und werden zu Alphazon. 🙂 In dieser Hypothese werden verschiedene aktuelle Entwicklungen der Suche, künstlichen Intelligenz und des Machine Learning verwoben, sodass – abgekürzt – 2025 die Konsumenten aka Menschen mit In-Ear-Plugins und projizierenden Kontaktlinsen durch die Welt schreiten und die Antworten auf Suchen bereits vor dem bewusst werden des Suchwunsches gegeben werden. Alles in allem auch aus meier Sicht eine steile These vor allem in der Kürze der Zeit. Hier teile ich eine Meinung mit Rand und Wil.
Wil Reynolds und Rand Fishkin SMX 2017
Rand Fishkin sieht rückblickend für die letzten 18 Jahre keine wirkliche Revolution in der Suche. Er schätzt, flapsig gesagt, nicht das wir in 2025 nahezu Cyborgs sind und in einer nahezu virtuellen Realität leben. Wil Reynolds pflichtet ihm hier bei und vertritt den Standpunkt, dass nicht alle Entwicklungen mit dem Druck die Welt veränderten, wie es zum Zeitpunkt ihres Bestehens eingeschätzt wurde. Siehe Second Life und Segways, die er als Beispiel anführt.


Für uns geht damit ein spannender mit vielen interessanten Eindrücken gespickter SMX-Tag zu Ende. Wir hoffen, dass wir mit unserem kleinen Live-Recap einen guten Eindruck für alle daheim Gebliebenen vermitteln konnten und wünschen Euch einen schönen Abend. 🙂


 
 

Kommentare

Cool, sehr informativ euer Live-Recap. Vielen Dank! Auch wir waren auf der SMX, hier unser Recap: https://www.onlinesolutionsgroup.de/blog/smx-recap-2017-tag-1/

Kommentar schreiben

Kommentar