SMX Recap 2018: Die führende Konferenz zum Thema Suchmaschinenmarketing

SMX Recap 2018: Die führende Konferenz zum Thema Suchmaschinenmarketing

1000 525 Olaf Pleines

SMX München Logo

Wie startet ein gelungenes Jahr im Online-Marketing? Mit der Search Marketing Expo München 2018. Kurz gesagt, die SMX 2018 in München!

Seid mit unserem SMX Recap hautnah dabei, wenn das Branchenevent Nummer 1 im  ICM – Internationales Congress Center München stattfindet. An dieser Stelle werden wir im Verlauf der SMX 2018 unsere Eindrücke für euch sammeln. Von daher, viel Spaß mit unserem SMX Recap 2018 direkt aus München.

Bereits seit zehn Jahren findet die SMX in München statt. Kurz zur Einordnung: 2008 kam Facebook nach Deutschland, Zalando wurde gegründet und es wurde geduldig auf Pagerank Updates gewartet. 🙂


Keynote: „Kein Grund zur Panik! Tipps, um die mobile Suche und die Sprachsuche 2018 und in Zukunft zu meistern“

Greg Gifford, Director of Search, DealerOn

Kein Grund zur Panik! Tipps, um die mobile Suche und die Sprachsuche 2018 und in Zukunft zu meistern

Kein Grund zur Panik! Tipps, um die mobile Suche und die Sprachsuche 2018 und in Zukunft zu meistern

Bullet Points töten Katzen! Daher verzichtet Greg auf selbige. Mit einer sehr unterhaltsamen und vor allem humorvollen Keynote leitet Greg Gifford die diesjährige SMX ein. In seiner Keynote widmet er sich der mobilen Suche sowie der Sprachsuche. Aus Sicht von Greg verändert sich mit der Voice Search nur die Eingabeform. Von daher: Don’t freak out, it’s an interface not a strategy!

Wesentlich ist, dass die Suche zu einer konversationalen Suche wird. Dies ist allerdings die Zukunft – nicht die Gegenwart. Denn viele Nutzer sind mit der Sprachsuche bisher nicht wirklich zufrieden. Mit zwei lustigen Videos untermalt Greg die Hürden der Sprachsuche. Letztere leidet noch immer an ihrer Genauigkeit. Sie wird häufig für einfache, klar strukturierte Fragen verwendet. Die beste Qualität bietet hier noch immer Google. Laut einer Studie von Rust werden 80 Prozent der Google Home Antworten aus Featured Snippets gespeist. Hierzu ist auch eine aktuelle Studie von Backlinko interessant. Für diese wurden 10.000 Sprachsuchen analysiert und auf ihre Qualität hin ausgewertet:

50 Prozent der Smartphone-Nutzer verwenden die Sprachsuche. Davon  verwendet jeder Dritte täglich die Sprachsuche. Quelle: comscore 2017

55 Prozent der Teenager und 40 Prozent der Erwachsenen nutzen die Sprachsuche täglich. Quelle: Google Studie

Bis 2020 werden 50 Prozent der Suchen per Sprache oder basierend auf Bildern ausgeführt werden. Quelle: Andrew Ng, Baidu

  • Im Mittel beträgt die Ladezeit der Ergebnisse einer Sprachsuche bis zu 4,6 Sekunden.
  • 70,4 Prozent der Suchergebnisse stammen von HTTPS gesicherten Seiten.
  • Die typische Sprachantwort hat eine Länge von 29 Worten.
  • Die typische Datenquelle hat eine Länge von 2.312 Worten.
  • Das Leseniveau einer Antwort bzw. Textquelle liegt auf dem Niveau der 9. Klasse.

SEO für Google’s Mobile-First Index & die Mobile-Friendly Welt

John Müller, Webmaster Trends Analyst, Google
Leslie To, VP of SEO, 3Q Digital

John Müller auf der SMX 2018 "SEO für Googles Mobile-First Index die Mobile-Friendly Welt"

John Müller auf der SMX 2018 „SEO für Googles Mobile-First Index die Mobile-Friendly Welt“

Es werden aktuell etwa 20 Milliarden Seiten pro Tag gecrawlt. Die Dinge befinden sich im Wandel.

Wie ging Google früher vor?

  • Generic Crawling
  • Generic Indexing
  • Equal Serving

Was war daran falsch?
Die meisten Benutzer kamen per Smartphone, aber Google bezog sich auf den Desktopinhalt. Am Rande: Der Googelbot Useragent ist verwirrend. 🙂

Dynamic Serving – ebenso wie m-dot Domains – stellen den Betreiber vor die Herausforderung, beide Versionen zu vergleichen. Daher gilt:

One URL to serve them all #responsivedesign

Wie geht Google jetzt vor?

  • Generic Crawling
  • Check for mobile Version
  • Smartphone Indexing
  • Specific Serving

Was sollte der Seitenbetreiber prüfen?

  • Sind die Inhalte in beiden Versionen äquivalent?
  • Ist die Linkstruktur bzw. sind die Outlinks identisch und für beide User Agents von gleicher Funktion?
  • Wurden alle Images und Alternativtexte identisch gewählt?
  • Wurden die strukturierten Daten bzw. das JSON-LD in beiden Versionen verbaut? Der Mobile-Index greift nicht auf Auszeichnungen der Desktopversion zurück!

John sagt, dass in der nächsten Zeit weitere Blogposts mit Informationen folgen. Begleitet werden diese durch den Ausbau der Google Dokumentation für Webmaster. Es ist laut John ebenfalls geplant, weitere Seiten in den Mobile-Index umzuziehen. Die Webmaster erhalten dann in der Search Console eine Information, die über den Umzug informiert. Es besteht übrigens keine Möglichkeit, den Umzug zu verhindern. Ein Tipp wie erkannt werden kann, welcher User Agent für die Website Version im Google Cache verwendet wurde:

Google User Agent erkennen

Google User Agent erkennen

Und was ist mit AMP?
Es werden die normalen Websites indexiert. Die AMP Version wird nur für die Beschleunigung verwendet. Handelt es sich allerdings um eine Stand-Alone AMP Website, wird selbstredend diese indexiert.

Key Takeaways: John Müller

  • Google wird „bald“ nicht mehr mit Chrome 41 crawlen. Ein genauer Termin ist unbekannt.
  • Für die Search Console gibt es nur einen Index. Die alte und die neue Search Console zeigen identische Daten an.
  • Wurden Inhalte mit dem Data Highlighter ausgezeichnet, sollte die Auszeichnung bzw. das Training auf Seitentypen / Seitentemplates erneut vorgenommen werden.
  • Zur Prüfung, durch welchen User Agent Inhalte in den Index gelangt sind, kann das oben gezeigte PHP-Schnipselchen verwendet werden.

Den zweiten Teil des Vortrags übernimmt Leslie To:

Der Mobile First Index sollte niemanden überraschen!

Zur Vorbereitung empfiehlt Leslie To den Mobile Readiness Test in der Google Search Console. Auch die Mobile Readiness Website von Google sollte für die Betrachtung einzelner URLs genutzt werden. Natürlich legt Leslie ebenfalls den Blick in die Logfiles nahe. Hier zeichnet sich der Shift vom klassischen zum mobilen Googlebot User Agent und damit der anstehende Transfer in den mobilen Index ab. Nach Leslies Einschätzung ist der Wechsel in erster Linie eine technische Herausforderung. Es muss daher die technische Bereitschaft für den Wechsel geschaffen werden. Hierzu ist für die Prüfung ein Crawler wie beispielsweise Screaming Frog einzusetzen. Mit dem Crawler könnt ihr das Verhalten der Webseite beim Aufruf mit einem mobile User Agent beurteilen. Neben den technischen Merkmalen wie funktionierende Links sind auch Auszeichnungen wie beispielsweise hreflang zu prüfen. Gerade diese multidirektionalen Auszeichnungen bilden ein großes Fehlerpotential, wenn zum Beispiel Dynamic Serving oder m-dot Domains involviert sind.

SMX München 2018 Leslie To Mobile Technical Readiness Checklist

Leslie To Mobile Technical Readiness Checklist

Ein wenig zusätzliche Liebe benötigen JS Frameworks. Hier sollten Sie besonderes Augenmerk auf die Auswahl der Frameworks und auf Serverside-Rendering legen.

Load fast or finish last

Leslie sieht hier keinen Raum für Ausreden, denn es stehen eine Vielzahl verschiedener Tools zur Prüfung bereit: Pingdom, Chrome Developer Tools, Lighthouse usw. Sie vergisst dabei allerdings zu erwähnen, dass alle Tools nur einen kleinen Ausschnitt weitab des wahren Lebens zeigen (Stichwort: Laborbedingungen). Abseits der technischen Herausforderungen gelten weiterhin klassische Themen. So ist die Content Qualität entscheidend. Zur rein quantitativen Bewertung der Inhalte können verschiedene technische Hilfsmittel – readabe.io oder hemmingway app –
herangezogen werden. Zudem betont Leslie erneut, dass die Synchronizität der Desktop- und Mobileversion bedeutend ist.

Beachtet, dass eure Navigation jeweils auf das Endgerät abgestimmt sein sollte. Zieht hierzu die Daten eurer internen Suche heran. Versucht anhand dieser Daten, den Weg zum Ziel zu vereinfachen. Der simpelste Indikator: Die Besucher nutzen die Suche auf mobilen Geräten signifikant häufiger.

Verwendet auf Ebene der Devices abgestimmte Reportings. Diese Betrachtung ist ganz unabhängig vom Mobile Index Switch enorm aufschlussreich.

Key Takeaways: Leslie To

  • Prüft die Synchronizität der Desktop- und Mobileversion.
  • Wertet das Navigationsverhalten aus, um die UX für Mobile-User zu verbessern.
  • Teilt eure Reportings nach Devices auf.

Das Local-Mobile SEO Playbook 2018

Greg Gifford, Director of Search, DealerOn
Cindy Krum, Chief Executive Officer, MobileMoxie

Zur Einleitung verweist Cindy Krum auf eine aktuelle Blogpost-Serie zum Thema Mobile Indexing. Mit dem Beispiel, dass bei der Suchanfrage nach der Uhrzeit nur die selbige angezeigt wird, zeigt sie, dass für das Mobile Indexing im lokalen Kontext die Erkennung von Entitäten entscheidend ist. Hiermit leitet Cindy auf den Google Assistant weiter, der auf dem Verständnis von Entitäten basiert.

Was eine Entität ist, erläutert Cindy anhand der Eindeutigkeit von Orten. München ist zum Beispiel eine Entität, egal in welcher Sprache der Ortsname geschrieben wird. Entitäten benötigen keine Website. Sie sind sprachunabhängig. Entitäten sind keine Keywords und bezeichnen unabhängig von der Sprache einen identischen Ort, ein Produkt usw. Im Kontext der mobilen Suche lassen sich von Google erkannte Entitäten an der Darstellung auf der Local Pack Auszeichnung erkennen. Zur Verbesserung der Erkennung von Entitäten nutzt Google seine Android Nutzer. Viele Android Nutzer kennen sicherlich die von Google gestellten Fragen zu einem Ort. Basierend auf den als korrekt klassifizierten Entitäten setzt Google Explore auf. Hier wird zu einem Ort die Information zu verschiedenen weiteren Orten zusammengestellt und als Reiseführer angepriesen.

  • Google übersetzt seit einiger Zeit Reviews für Orte, Geschäfte usw.
  • Google bietet zu verschiedenen Themenfeldern die Option an, PWA auf dem Endgerät zu installieren. Die PWA wird den Android Nutzern direkt innerhalb von Google Maps empfohlen.
  • OpenTable wird in den USA direkt im Google Assistant zur Query „Tätige eine Reservierung im …“ ausgeliefert. Es ist keine Installation erforderlich. Hier stehen viele weitere installationsfreie Apps zur Nutzung im Google Assistant bereit.

Am Beispiel der eigenen Location History stellt Cindy dar, dass Google Informationen aus dieser direkt in die Google Produkte, hier der Google Local Eintrag des Konferenzhotels, injiziert.

 


Unicorn Marketing 2018: So liefern alle Marketing Channel langfristig großartige Resultate

Larry Kim, CEO, Mobile Monkey

Key Takeaways


JavaScript SEO – Kann Google euren Content crawlen und indizieren?

Bartosz Góralewicz, CEO, Elephate
Max Prin, Head of Technical SEO, Merkle

Mit einem Blick auf die weltschlechteste Website startet Max Prin in seinen Vortrag. Hier liegt noch alles im Source Code. View-Source funktioniert hier noch… Crawling > Indexing > Rank

Das Gegenteil ist Flipcart. Eine Website die vollumfänglcih auf JavaScript setzt. Alle Inhalte finden sich nicht mehr im Source Code sondern im DOM.
Crawling > (Rendering) > Indexing > Rank

Google nutzt für das Crawling Chrome in der Version 41 als Web Rendering Service. Es ist zu berücksichtigen das einige Features wie Service Workers nicht unterstützt werden. Ein sauberes Crawling, Rendering und Indexing ist daher nicht mehr garantiert. Stellt daher sicher, dass Google eure Webseite versteht. Eine Grundlage bilden dabei nachvollziehbare URLs.

No Go’s:

  • Fragment Identifier
  • Hashbang

Go’s:

  • Clean URLs

Bart Goralewicz
Eine entscheidende Frage, der sich Bart immer wieder gegenüber sah: Welches JS Framework kann ich verwenden? Eine wichtige Frage ist nicht alleine, ob ein Inhalt indexiert werden kann, sondern auch, ob er ranken kann. Am Beispiel von hulu.com, vimeo und Youtube zeigt Bart, dass alle drei mehr oder weniger vollständig auf JavaScript setzen. Allerdings wird bei YouTube der gesamte Inhalte für den Googlebot vorgerendert.

Ein Schlüsselproblem von JavaScript Frameworks ist der Anspruch an die Leistung des Clients, auf dem die Website ausgeführt wird. Es gibt Dutzende verschiedene Frameworks, viele verschiedene Konfigurationen und Versionen dieser Frameworks. Dies erschwert die Erfassung der Inhalte durch Suchmaschinen ungemein. Google ist hier bereits sehr weit fortgeschritten. Dennoch bleibt es immer fraglich, ob Google den Aufwand für eine Website betreibt und alle Register zur Erfassung der Inhalte zieht. Denn immerhin ist der Aufwand ein wirtschaftlicher Faktor.

Bart Goralewicz: Crawl Budget / Crawl Demand versus JavaScript Framework

Bart Goralewicz: Crawl Budget / Crawl Demand versus JavaScript Framework

Ein kleines Beispiel für den unsicheren Umgang von Google mit AngularJS ist, dass es in manchen Fällen nur das erste Verzeichnis einer AngularJS Site crawlt.

Key Takeaways

  • JavaScript Websites können das Crawling Budget verschwenden.
  • JavaScript Website erzeugen Ranking-Einschränkungen.
  • Für kleine Webseiten sollte klassisch HTML genutzt werden.
  • Für umfangreiche Webseiten sollte ausschließlich auf Server-Side Rendering gesetzt werden.

SEO Tests auf großen und kleinen Webseiten – was wir von Etsy, Pinterest und anderen lernen können

Tom Anthony, Head of R&D, Distilled

Mit einem schönen Beispiel leitet Tom seinen Vortrag ein: Nicht alles sollte gelesen und direkt umgesetzt werden! Als Beispiel dient hier ein Arzt, der sich nach Lektüre mit Kokain um die Ecke gebracht hat. Distilled hat in vielen Fällen verschiedene SEO Split Test aufgesetzt und ausgewertet. Viele der sog. „SEO Best Practices“ waren dabei nicht effektiv. Betrachtet man die Entwicklung der Suchmaschinen, sind wir inzwischen an einem Punkt angelangt, der es nicht mehr länger möglich machen wird, einfache Vorhersagen zu treffen. Es ist daher zwingend notwendig, in das Testing einzusteigen, gerade im Hinblick auf die extrem individuellen Rankingfaktoren.

Tom Anthony: We are in an new era of seo

Tom Anthony: „We are in an new era of seo“

Pinterest Beispiel 1
Pinterest hat aus der Google Search Console die Info erhalten, das viele Duplikate vorliegen. Sie haben diese Duplikate beseitigt. Doch trat keine signifikanten Verbesserung ein.

Pinterest Beispiel 2:
Bessere Beschreibungen für die Pins durch das Verwenden von Beschreibungen anderer identischer Pins. Dies hat einen positiven Effekt von 30 Prozent erzeugt. Im Endeffekt wurde so duplizierter Inhalt geschaffen. Hypothese: Warum ist ein positiver Effekt eingetreten? Die User Signale wurden verbessert, da mehr Bilder beschrieben sind!

Tom Anthony SEO Split Test bei Pinterest

Tom Anthony SEO Split Test bei Pinterest

Takeaway aus diesen Tests: Versteht, warum ihr diese Warnungen seht. Versucht den dahinterliegenden Fehler zu beheben. User sind unvorhersehbar in ihrem Verhalten, daher müsst ihr immer testen, wenn diese involviert sind.

Etsy Beispiel 1:
Es wurden die Title Tags verkürzt. Dies hatte einen positiven Effekt. Die Hypothese lautet, dass Suchende klarer und eindeutiger erfassen, um was es auf der Seite geht. Die Anpassung erzeugte einen Zuwachs von etwa 5 Prozent der organischen Entries.

Etsy Beispiel 2:
Mit einer ähnlichen Hypothese wurden auch die Headlines verkürzt. Dies hatte ebenfalls einen positiven Effekt, der einen Zuwachs von etwa 5 Prozent erzeugte.

Beide Tests gemeinsam auf Seitentypen angesetzt erzeugten allerdings nur ein Wachstum von 7 Prozent.

Wichtig: Die Ergebnisse eines Tests dürfen nicht als Vorlage für eine weitere Umsetzung dienen. Zu jeder Änderung muss eine individuelle Hypothese entwickelt werden. Siehe auch https://dis.tl/cro-hypothesis und https://conversion.com/blog/introducing-hypothesis-framework/

Jede Hypothese muss spezifisch sein:

  • Mit Änderung X soll Ergebnis Y eintreten.
  • Jede Hypothese muss auf eine einzelne Website Bezug nehmen!
  • Es muss euch immer klar sein, warum ihr eine Änderung vornehmen wollt.

Key Takeaways

  • SEO muss benutzerzentrisch agieren.
  • Seid euch klar darüber, dass ihr nicht so optimiert seid, wie ihr denkt.
  • Ihr könnt Rankingsignale nicht einfach summieren.
  • Habt eine Hypothese für eure Änderungen.
  • Testing erlaubt euch individuelle Rankingfaktoren zu erkennen.
  • http://dis.tl/smx-testing-2018

Abend Inspiration: Keynote „Der wichtigste Erfolgsfaktor? Das Team und seine Menschen!“

Lisa Myers, CEO & Founder, Verve Search

Key Takeaways


Content Marketing Strategien – welche ist die Richtige für mich?

Frank Hohenleitner, Director Consulting, Catbird Seat GmbH

Viele Informationen, die von Unternehmen in der Vergangenheit publiziert wurden, sind selbst bezogen. Sie stellen ausschließlich die Sicht des Unternehmens auf die eigenen Produkte und Dienstleistungen dar. Der Kunde wird hier oftmals außenvorgelassen. Hier setzt Content Marketing an, um die Bedürfnisse und Wünsche der Kunden durch das Unternehmen zu bedienen. Eine Vielzahl verschiedener Kanäle steht inzwischen zur Verfügung. Der Kunde interessiert sich vornehmlich für die eigenen Ziele und nicht für die des Unternehmens. Vier Schritte führen aus Sicht von Frank zur Content Strategie.

  1. Ziele und KPI
  2. Zielgruppen
  3. Planung
  4. Umsetzung

Ein häufiger Fehler bei der Entwicklung von Personas ist die Fokussierung auf eine Teilmenge, die nicht die gesamte Zielgruppe abdeckt. Datenquellen für die Strategieentwicklung sind bspw. Analytics, FB Insights, MAFO usw.

1. Defend & Conquer

  • Defend sind alle Keywords/Themen, die ich besitze. Also beispielsweise Marke, Produkt, Technologie.
  • Conquer sind generische Themen, wie Transaktionales und Informationelles.

2. Hero Hub Help

  • Hygiene oder Help Content sind jene Inhalte. die ich regelmäßig produziere, wie Produktbeschreibungen. Ein Beispiel ist Gerolsteiners Mineralwasser-Darstellung der Story rund um Mineralwasser. Hier kann das Youtube Playbook als Inspiration dienen.
  • Hub Content ist ebenfalls serieller Content, allerdings mit geringerer Frequenz. Er muss aber distribuiert werden. Ein Beispiel hierfür ist der Nike Running Hub.
  • Hero Content sind Inhalte, die mit sehr großem Aufwand nur selten produziert werden.

3. Content Inc von Joe Pulizzi

  • Sehr contentzentrierter Ansatz, es wird eher das „was“ denn das „wie“ betrachtet.

4. FISH Modell

  • Strategisches Framework zur Einordnung der Inhalte in vier Bereiche. Siehe auch Mirko Lange „Content Radar“.

5. AIDA

  • Einfaches standardisiertes Modell, das sich sehr klar am Kunden orientiert. Allerdings kann dieses Modell recht großen Aufwand erzeugen. Kurz gesagt, wer viel Geld und Ressourcen hat, kann hier erfolgreich sein.

Fazit

Aus Sicht von Frank sollte man sich aus allen fünf Modellen die Rosinen herauspicken. Grundsätzlich gilt natürlich, dass gutes Content Marketing Geld kostet. Es sollte bei der Umsetzung klar sein, dass die Mitarbeiter nicht in einem Silo sitzen dürfen. Für gutes Content Marketing ist der Austausch zwischen den Units entscheidend. Ein toller Case ist BMW (siehe Horizont Beitrag).


Keynote „AI wird alles verändern – seid ihr bereit?“

Johannes Schaback, CTO, Ladenzeile.de

Keynote SMX München Tag 2: AI wird alles verändern - seid ihr bereit?

Keynote SMX München Tag 2: AI wird alles verändern – seid ihr bereit?

Die Einleitung seines Vortrags bestreitet Johannes mit einer netten Parabel:

Artificial Intelligence is like teenage sex: everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it.

Das AI nicht nur in aller Munde ist, zeigt sich auch aufgrund der Entwicklung von Akquisitionen und AI Gründungen durch große Technologiekonzerne. Die Frequenz der Zukäufe hat vor allem in den letzten drei Jahren rasant zugenommen. Es hat sich also ein Bewusstsein für die grundsätzliche Bedeutung von AI entwickelt.

Im Folgenden erklärt Johannes die Grundlagen von AI. Menschen lernen aus Erfahrungen – Maschinen hingegen folgen Instruktionen. Die Kombination bildet AI. Sie lernt aus großen Datenmengen, die durch den Menschen vorqualifiziert sind. Gerade in den letzten Jahren hat sich eine große Grundlage für AI Ansätze gebildet, da die Datenmengen exponentiell anwachsen und gleichzeitig die Rechenleistung deutlich angestiegen ist.

Software is eating the world, Marc Andreessen, 2011

Zirkel: … User > Data > Porduct > User …

In verschiedenen Bereichen wird AI deutliche Auswirkungen auf die Jobs nehmen. Allerdings ist klar herauszustellen, dass AI in vielen Bereichen nur in einer Nische deutlich besser als ein Mensch ist bzw. kurzfristig sein wird. Momentan ist AI eher ein „One Trick Pony“ und kein Terminator.

Johannes Schaback: When will AI exceed human performance?

Johannes Schaback: When will AI exceed human performance?

Johannes sieht geringe Eingangshürden bei der Implementierung von AI im eigenen Unternehmen. Es stehen viele verschiedene Frameworks zu Realisierung der eigenen Lösung bereit. Wesentlich ist es, eine Grundmenge Daten zur Verfügung zu haben, mit der AI trainiert werden kann.

AI & SEO
Hier kann eine Fragestellung des Marketeers sein, wie sich Google verhalten würde.

AI & SEA
Viele der herkömmlichen Kampagnen lassen sich durch AIs besser steuern und optimieren als es ein Mensch je könnte. Auch das Erstellen von situationsbezogenen Bannern ließe sich mit AI direkt im Moment des Kontakts mit den Kunden umsetzen.

cybercontrols.com
informationisbeautiful.com


AI in der Praxis: Wie ihr – auch ohne Doktortitel in Computerwissenschaften – AI Potential erschließen könnt.

Johannes Schaback, CTO, Ladenzeile.de

"<yoastmark

Johannes stellt vor, wie Machine Learning in das Unternehmen getragen werden kann. Anhand von drei Beispielen aus der Praxis bei Ladenzeile zeigt er wie „einfach“ AI einzusetzen ist.

Lernt Python! Es ist eine einfache Programmiersprache, die schnell zu erfassen ist. Es war ursprünglich als eine einfache für das Verstehen des Programmierens entwickelte Sprache. Wichtig für den Transfer der eigenen Ideen ist mathematisches Verständnis. Jedes Machine Learning setzt auf Mathematik, denn die Informationen werden in einen Vektor transferiert. So werden Informationen verarbeitbar für die lineare Algebra. 🙂 Bezeichnet werden die transferierte Informationen als Input- oder auch Feature-Vektor. Die Vektoren werden verkürzt beschrieben so verrechnet, dass der Fehlerwert nahe NULL liegt.

Johannes Schaback - Word Embeddings

Johannes Schaback – Word Embeddings

Use Case 1 „Generating Keywords for SEA Account“

Da Ladenzeile in vielen Märkten unterwegs ist, besteht die Herausforderung, Anzeigen in vielen Fremdsprachen effizient zu generieren, ohne eine Vielzahl unterschiedlich sprachlich versierterer Mitarbeiter zu beschäftigen. Die Zielsetzung war Word Embeddings zu erkennen, um diese als Keywords für die Schaltung von Anzeigen zu verwenden, da jedes Wort in Kontexten auftritt, die für eine Schaltung von Anzeigen relevant sein kann. Zwischen den Context Words und den Words (aus dem Wörterbuch) werden die Embeddings ermittelt. Diese ist bei einem Korpus von etwa 60.000 Worten die Quintessenz von etwa 300 Dimensionen. Es wurde ein Keyword genommen und aus dem semantischen Space das Word Embedding ermittelt. Hierzu wurde ein semantischer Space aus etwa 500.000 Produktdaten gebaut. Diese Embeddings wurden dann genutzt, um daraus Keywords für die Schaltung von Anzeigen zu bilden. Im Endeffekt hätte es aber auch Dynamic Advertising getan.

Use Case 2 „Classifying Products Into Categories“

Ausgangssituation ein Konvolut von vielen unterschiedlichen aber doch ähnlichen Produkten. Der Grundgedanke von Ladenzeile war schon immer eine visuelle Metasuchmaschine zu sein. Ladenzeile erhält von verschiedenen Shops regelmäßig Datenfeeds in großem Umfang wie beispielsweise 50 GB pro Stunde von Amazon. Ladenzeile extrahiert aus diesen Daten die Tags für Produkte. Die gesamte Architektur von Ladenzeile basiert auf einem Tagsystem. Es ist kein feststehender Kategoriebaum, sondern die Sortierung und Gruppierung von Tags in einer sinnvollen Taxonomie, aus der sich dann Ontologien entwickeln. Alle Informationen zu einem Produkt werden in einen Feature Vektor übertragen. Zu jedem Produkt-Tag wird dann ein Classifier eingesetzt, der die Tags in hierarchisch gruppierte Taxonomien einordnet. Am Beispiel: Zuerst wird die Produktgattung erkannt. Handelt es sich um einen Schuh, ist es nicht mehr erforderlich entscheiden zu lassen, ob das Tag Akku gültig ist.

Johannes Schaback - Porukt Kategorien per AI festlegen

Johannes Schaback – Produkt Kategorien per AI festlegen

Precision (Wie genau ist ein Ergebnis?) und Recal (Wie vollständig ist das Ergbenis?) werden mit dem Traffic verrechnet, um den Quality Score eines gebildeten Produktclusters zu berechnen.

Use Case 3 „Visual Search – Shop a look“

Es soll erkannt werden, in welchen Bildern auf Instagram Produkte enthalten sind, die bei Ladenzeile erworben werden können. Dies soll die Basis für eine Empfehlung von zum Style passenden Produkten schaffen. Der erste Schritt bei der Verarbeitung der Bilddaten ist zu erkennen, wo der Schwerpunkt im Bild, also das für den Vergleich heranzuziehende Produkt, liegt. Wird ein schwarzer Sneaker erkannt, kann dem Kunden dieses Produkt oder ein vergleichbares präsentiert werden.


Large Scale SEO: Automatisierung von SEO Checks bei ABOUT YOU und Site Performance bei Zalando

Pascal Landau, Head of Marketing Technology & SEO, ABOUT YOU

Das einmalige Implementieren von SEO Features ist meist mit geringem Aufwand verknüpft. Soll die Funktion dieses Features jedoch regelmäßig geprüft werden, leitet sich hieraus oft unerwarteter Aufwand ab. Pascal spricht hier vom Eisbergprinzip, um zu verdeutlichen, wie unter der Oberfläche meist ein deutlich größerer Aufwand für Qualitätssicherung verborgen liegt.

Da sich aus trivialen SEO Features recht komplexe Prüfaufgaben entwickeln, ist eine manuelle Prüfung des Systems ineffektiv. Entwickler sprechen beim manuellen Prüfen gerne vom “Hippie Path”. Komplexe Prüfungen sind aus den vorgenannten Gründen schwerlich ohne Automatisierung abzudecken. Die Prinzipien des automatisierten Testings sollten sich SEOs aus der Softwareentwicklung aneignen, um eine effiziente Qualitätssicherung vorzunehmen.

Der erste Schritt zur Etablierung von Tests ist eine Sammlung von Seitentypen vorzunehmen und zu jedem Seitentyp / Template die Testkriterien zu definieren. Wider der Erwartung dient bei About You ein Excel Sheet als Ausgangsbasis, da dieses einfacher nutzbar war als eine GUI, mit dem verschiedene Tests „per Klick“ zusammengestellt werden.

Die definierten Tests werden hiernach in das selbst entwickelte Framework importiert und in regelmäßigen Abständen ausgeführt. Ergänzend wird für eine spätere Analyse das gesamte HTML der Seite gespeichert. So können weitere Checks auch retrospektiv durchgeführt und die auftretenden Fehler direkt im getesteten HTML nachvollzogen werden. Die nächste Entwicklungsstufe bei About You ist, die Ergebnisse per internem Messenger zu verteilen, sodass die relevanten APs direkt adressiert werden.

Key Takeaways – Pascal Landau

  • Unterschätzt den Aufwand für das Setup von Tests nicht.
  • Eignet euch Techniken aus dem Softwaredevelopment an.
  • Sammelt Seitentypen und definiert formale Kriterien zur Prüfung.

Ralf Ohlenbostel, Lead Tech SEO, Zalando SE

Mit einem Klassiker – dem zu großen Bild (Dimension unpassend zur Dateigröße) auf der Startseite – startet Ralf in seinen Vortrag. Zur Erkennung solchen Ungemachs führt Ralf verschiedene Tools an, mit denen einzelne URLs untersucht werden können. Gerade in Hinblick auf mobile Endgeräte ist Pagespeed ein entscheidender Faktor. Hier lohnt sich aus Ralfs Sicht für jeden Betreiber größerer Webseiten ein Blick in den Datenschatz, den Google unter dem Label “Chrome User Experience Report” veröffentlicht hat. Diese Daten sind in den überarbeiteten Google Pagespeed Insights enthalten und in deutlich größerem Detailgrad via Google BigQuery einsehbar.

Google Chrome User Experience Report in Big Query

Google Chrome User Experience Report in Big Query

Für die eigene Analyse empfiehlt Ralf das Lighthouse Plugin, welches in der aktuellen Version der Google Chrome Developer Tools enthalten ist. Lighthouse bietet eine Vielzahl unterschiedlicher Metriken zur Ladezeit, dem Rendering und der technischen Nutzbarkeit einer Website bzw. PWA. Wer regelmäßige Tests per Lighthouse automatisiert ausführen will, kann Lighthouse als Serverversion unter node.js installieren und neue Features sowie Veränderungen vor dem Deployment oder in der produktiven Umgebung testen. Anzumerken bleibt allerdings, dass es sich dabei immer um simulierte Rahmenbedingungen handelt. Die Wahrnehmung durch den Benutzer ist mitunter deutlich abweichend. Zur Erfassung der echten Benutzererfahrung setzt Zalando auf Real User Monitoring. Hierzu werden unter anderem folgende Funktionen der Browser APIs genutzt:

Die User Timing API kann eingesetzt werden, um zu erfassen, ob und wann ein Element geladen wurde. In einem ersten Schritt solltet ihr die für den Inhalt der Landingpage relevantesten Elemente messen. In Kombination mit den Messergebnissen aus der Network Information API lassen sich klare Bilder zeichnen, die Aufschluss darüber liefern können, welche Elemente warum wann geladen werden.

Large Scale SEO User Timing API

Large Scale SEO User Timing API

Zalando verwendet zur spezifischen Optimierung auf die Vielzahl unterschiedlicher Endgeräte ein Media Optimized CDN, kurz MOC. Dies bedeutet basierend auf dem Wissen um den User Agent des Clients und der zu ihm bestehenden Netzwerkverbindung ein optimal auf die Bedürfnisse zugeschnittenes Dateiformat in den optimal zugeschnittenen Formaten auszuliefern. Um die Anfragen der Clients optimal zu bedienen, kann die Auslieferung ebensoo über auf die jeweilige Bildqualität ausgerichtete Server erfolgen. Durch dieses Vorgehen konnte Zalando eine spürbare Verbesserung der Konversionsrate erzielen.

Large Sclae SEO Media Optimized CDN

Large Sclae SEO Media Optimized CDN

Ein weiterer guter Hinweis ist der Verweis auf die Funktion Code Coverage in den Google Chrome Developer Tools. Mit dieser Funktion kann unbenutztes CSS und JS erkannt werden. Eine Ableitung aus den Ergebnissen kann sein, dass die Dateien anhand der Eignung für die jeweiligen Seitentypen gesplittet werden. So können jene Elemente, die nicht ausgeführt werden, nur im konkreten Bedarfsfall geladen werden.

Chrome DevTools Code Coverage

Chrome DevTools Code Coverage

Key Takeaways – Ralf Ohlenbostel

  • Nutzt die Browser APIs für das Real User Monitoring und erkennt Hürden für eure Besucher.
  • Bewertet die Code Coverage eurer CSS und JS Dateien und optimiert diese bedarfsgerecht.
  • Stellt jedem Client ein auf seine Bedürfnisse zugeschnittenes Bild zur Verfügung.

WOTR: Advanced SEO – was ist neu und wichtig?

Cindy Krum, Chief Executive Officer, MobileMoxie
Lisa Myers, CEO & Founder, Verve Search
Michelle Robbins, SVP Content & Marketing Technology, Third Door Media
Moderation: Marcus Tandler, Ryte

WOTR: Advanced SEO - was ist neu und wichtig?

WOTR: Advanced SEO – was ist neu und wichtig?

Im Folgenden noch einige Punkte, die im Webmasters On The Roof herausstachen:

  • Aus der Sicht von Cindy ist der Mobile Index ein „Wiederverstehen“ der Inhalte im Netz. Es geht weniger um Keywords sondern vielmehr darum, Ideen zu verstehen. Hier zieht Cindy den Vergleich zu Entitäten und Subentitäten.
  • Michelle sieht die Veränderung vor allem in der Ausgabe einer Suche. Denn die Oberflächen zur Darstellung der Suchergebnisse werden sich verändern. Diejenigen Unternehmen, die sich nicht auf diese Veränderung einstellen, werden in fünf Jahren mutmaßlich sparsam gucken.
  • Alle drei waren sich einig, dass der Kauf von Links noch immer eine Option ist. Allerdings sprechen die meisten nicht mehr darüber. Lisa merkt hierzu an, dass es natürlich auch vom jeweiligen Markt abhängig ist. Es gibt einfach einige Märkte, in denen beim Anwenden der strikten Regeln, die „eigentlich gelten“, keine Suchergebnisse mehr angezeigt würden. Dies ist natürlich überspitzt formuliert.
  • Aus Sicht von Cindy wird die Bedeutung mit dem besseren Verständnis von Entitäten abnehmen, da die Einschätzung, ob ein Inhalt zur Suchanfrage passt, noch stärker vom eigentlichen Inhalt abhängen wird. Es werden also die Inhalte und die Referenz der enthaltenen Entitäten in anderen Dokumenten angelegt.
  • Ranktracker werden, wenn Rankings weniger bedeutsam werden, ebenfalls bedeutungslos. Michelle sieht für die Zukunft ein Ende der URLs, da viele Suchanfragen nicht mehr innerhalb des klassischen Modells Website beantwortet werden. Zukünftig werden anderen Medien/Interfaces viele Inhalte bedienen. Auch Marcus würde keinen Ranktracker, also gescrapte Daten, mehr verwenden. Es kann davon ausgegangen werden, dass Google bereits eine Vielzahl der Suchanfragen erkennt. Nebenhin sind es keine authentischen Daten, die eine Entsprechung mit aus echten Nutzergewohnheiten abgeleiteten individuellen Rankings aufweisen.
  • Michelle schlägt zum Thema AMP vor, dass man AMP las Layer einsetzt und bspw. nur einzelnen Seitentypen „Startseite“ als AMP baut.

Was zusammengehört, soll man nicht trennen: SEA SEO AdWords Optimierung

Christian Paavo Spieker, Vorstand SEO, One Advertising

Wie lässt sich SEO von SEA und andersrum begleiten. 2002 war der Launch von AdWords. One Advertising war eine der ersten Agenturen, die SEA als Dienstleistung anbot. Das war lange ein gutes Geschäft. Ein Euro rein, zwei Euro raus. Doch dann stiegen die Klickpreise um 8 Prozent pro Monat. Hieraus leitete sich steigendes Interesse an SEO ab. Wenn es rankt, ist es SEO, wenn nicht, ist es doof. 🙂

Was zusammengehört, soll man nicht trennen: SEASEO AdWords Optimierung

Was zusammengehört, soll man nicht trennen: SEASEO AdWords Optimierung

Das wichtigste Signal für SEO und SEA ist User Experience. Aus Paavoo Sicht ist SEA das komplexere Thema. Alleine Google bietet 25 verschiedene SEA Produkte an. Wenn der Quality Score kleiner 6 ist, ist es ebenfalls doof.

SEO SEA Teams gemeinsam arbeiten lassen.

SEO SEA Teams gemeinsam arbeiten lassen.

SEA SEO Balancer
SEA ist die beste Mafo für die Keywordrecherche. Grundsätzlich laufen auch gescrapte Suchanfragen in das Suchvolumen des Keywordplanners ein. Aus der Auswertung von Keywordplanner-Daten ergab sich, dass verwandte bzw. vorgeschlagene Suchanfragen in den HTML-Title übernommen wurden. Paavo legt den Unternehmen nahe, die SEA und SEO Teams so zu strukturieren, dass ein Austausch zwischen den Teams initiiert wird. Dieser Austausch muss allerdings forciert werden, da es nicht reicht, das Team in einem Raum zu lokalisieren. Daher müssen Unternehmen über ihren Teams eine gemeinsame Strategie installieren und abstimmen werden.


Fazit:

Zwischen den Zeilen des Recaps zur SMX 2018 ist sicherlich schon heraus gestochen, dass es sich auch dieses Jahr wieder gelohnt hat, den Weg nach München anzutreten. Die SMX ist und bleibt die beste Mischung aus guten Inhalten und vielen interessanten Menschen.  Mit der Party  hingegen liegt die SEOkomm uneinholbar vorn … 🙂

Quellen & Links

Die komplette Agenda der Search Marketing Expo München 2018 findet ihr hier: https://smxmuenchen.de/programm/

  • Servus,

    super Bericht, vielen Dank! Da man sich ja leider nicht aufteilen kann, muss man Prioritäten setzen. Euer Recap behandelt daher ein paar Vorträge, die ich leider nicht besuchen konnte. Javascript SEO hätte mich ja auch interessiert. Ich fand ja besonders die beiden Vorträge von Greg Gifford amüsant und aufschlussreich zugleich.
    Ich hab die Vorträge, die wir besuche haben, auch mal zusammengefasst: https://www.onlinesolutionsgroup.de/blog/smx-2018-recap-tag-1/

    Wir waren danach noch bei der SEMY-Award-Verleihung, die After-Dark-Party musste ich mir dann aber nach einen langen Tag sparen.

    Danke nochmals & bis bald!

    Gruß Jörg

Hinterlasse eine Antwort

Olaf Pleines

Olaf Pleines ist Head of SEO bei trafficmaxx in Bremen. trafficmaxx ist eine Markendienstleistung der construktiv GmbH.

Beitrag von: Olaf Pleines