SEOkomm Recap 2017
Die Konferenz für SEO in Salzburg

SEOkomm Recap 2017
Die Konferenz für SEO in Salzburg

1500 1500 Olaf Pleines

Das Jahr nähert sich dem Ende und ein Highlight steht vor der Tür: Die SEOkomm in Salzburg 2017 !

Sei mit unserem SEOkomm Recap hautnah dabei, wenn sich die Experten der Suchmaschinenoptimierung zu wertvollen Vorträgen in Österreich treffen. An dieser Stelle werden wir im Verlauf der SEOkomm 2017 unsere Eindrücke für euch sammeln. 


Keynote

Marcus Tandler

Marcus, Gründer von Ryte, stellt einleitend mit einigen Slides die Migration von OnPage.org zu Ryte.com vor. Hier geht er auf einige grundlegende Faktoren ein, die einen guten Relaunch ausmachen. Im Weiteren erläutert Marcus den Wert der in der Google Search Console einsehbaren Daten und zeigt, mit welchen recht einfachen Learnings aus der Datendurchsicht schnell neuer Traffic generiert werden konnte. So baut er eine Brücke für den zarten Hinweis, dass es in einiger Zeit ein neues Modul für Ryte geben wird, mit dem die Daten aus der Search Console noch besser ausgewertet werden können 😉

Nach Marcus‘ Einschätzung ist der Mobile First Index nach dem Caffeine-Index der nächste große, wirklich einschneidende Schritt in der Entwicklung der Suchmaschine. Marcus stellt die Theorie auf, dass es in der Zukunft keine URLs im klassischen Sinn mehr geben wird. Dieses Aussage unterfüttert er mit Zahlen zur Verteilung der vorhandenen Daten. Zum einen ist ein Großteil – etwa 90 Prozent – aller Daten erst in den letzten zwei Jahren entstanden, zum anderen ist nur ein verschwindend geringer Anteil über eine URL erreichbar. Apps sind beispielsweise ein „URL-loser“ Bereich des Webs und für Google kaum erreichbar.

Marcus Tandler auf der SEOkomm

Für Suchmaschinen ist es ungemein schwierig, diese Daten zu erfassen und dem Anspruch, entsprechende Suchanfragen zu beantworten, gerecht zu werden. Um der schwierigen Erfassung Herr zu werden, empfiehlt Google die Verwendung von strukturierten Auszeichnungen wie JSON-LD. Zwar gibt es verschiedene Aussagen Googles, dass strukturierte Daten nur temporär notwendig sind, bis eine bessere Erfassung der Daten möglich ist, doch sollten Data-Schemes zurzeit auf jeden Fall ausgezeichnet werden.

Gary: I want to live in a world where schema is not that important, but currently, we need it. If a team at Google recommends it, you probably should make use of it, as schema helps us understand the content on the page, and it is used in certain search features (but not in rankings algorithms).

Michelle: Why do you want to be less reliant on it?

Gary: I’m with Sergey and Larry on this. Google should have algorithms that can figure out things without needing schema, and there really should not be a need for penalties.

Die Daten-Zugänglichkeit und der Umstand, dass Crawling ein enorm ressourcenintensiver Prozess ist, führt Marcus zu der Hypothese, dass Google ein großes Interesse daran hat, Daten – Inhalte und Webseiten – in die eigene Google Cloud Platform zu ziehen. Dies bietet den Vorteil, auf einen der größten Kostentreiber und die technische Herausforderung „Crawling“ verzichten zu können. Lägen „alle“ Inhalte bei Google, wäre es deutlich einfacher und extrem schnell, neue Daten aka Informationen zu erhalten und diese direkt auf den eigenen Servern analysieren zu können.


Datenorientiertes SEO mit Fokus auf die Google Search Console

Sebastian Erlhofer

Zur Einleitung seines Vortrags stellt Sebastian drei SEO-Typen vor. Da ist zum einen derjenige, der eher rät, unter welchem Becher die Nuss ist. Der zweite vertraut eher seinem begründeten Bauchgefühl und der dritte Typus versucht, Daten dediziert auszuwerten. Sebastian sieht in jedem Fall den Wert der Datenauswertung, hat aber auch erkannt, wie schwer es für viele Unternehmen ist, die entsprechenden Mittel bereitzustellen. Auch verstellt der aktuelle Big-Data-Hype den Blick für die Vielzahl der alltäglichen SEO-Herausforderungen der oft mangelbehafteten Webseiten. Statt große Buzzwords wie Big Data bedienen zu wollen, gilt es Small und Medium Data zu nutzen. Bei Mindshape hat Sebastian ein datenorientiertes SEO-Framework aufgesetzt, entlang dessen SEO-Projekte bearbeitet werden. Für die Arbeit mit der Google Search Console empfiehlt er folgende Grundlagen:

  • Erstelle Property Sätze für deine Domain, denn es gilt
  • den Property Cap zu berücksichtigen, gemäß dem nur 1.000 URLs pro Tag von der Google Search Console erfasst werden.
  • Nutze die GSC-API um mehr Daten zu erhalten und
  • lade Daten jeweils auf Tagesbasis und gruppiert nach Gerätetyp herunter.

Sebastian Erlhofer auf der SEOkomm
Bei der Auswertung der Daten betrachtet Sebastian kritisch, dass höhere Rankings scheinbar die einzige Zielsetzung sind, obwohl doch auch aus vorhandenen Positionen bereits viel mehr herausgeholt werden kann – Stichwort Snippet-Optimierung zur Verbesserung der CTR. Hierzu können Daten aus der Google Search Console herangezogen und in einer Clicks-/Impressionen-Matrix aufgetragen werden.

Nutzt Daten statt zu raten 😉

Einen anderen interessanten Ansatz präsentiert Sebastian bei der Analyse von Thin Content. Um innerhalb einer großen Webseite dünne  Inhalte automatisch zu identifizieren, wurde auf Machine Learning gesetzt, um effizient zu bleiben.

  • Klassifiziere ein Set von gegebenen URLs nach dünn / nicht dünn
  • Speise diese Trainingsdaten in dein System, bspw. Rapidminer oder OpenML
  • Reichere deine Trainingsdaten so lange an, bis die gewünschte Genauigkeit erreicht wird

Hernach kann das  trainierte System weitere URLs klassifizieren und Dir deinen SEO-Prozess deutlich vereinfachen. Eine gute Quelle dünner Inhalte findet sich in der Google Search Console unter „Crawling Fehler > Soft 404“.

Da es die Zeit hergab, hatte Sebastian noch Gelegenheit, verschiedene weitere Tools und Techniken anzuteasern:

  • Für die Visualisierung von Daten gerne mal einen Blick auf http://app.rawgraphs.io werfen
  • Überwache deine TTFB (time to first byte), zumindest auf der Ebene von Templates
  • Richte Alerts in Google Analytics ein, um Überschreitungen von Schwellwerten zu erkennen

Key Takeaways

  • Speichere deine Search Console Daten auf täglicher Ebene
  • Optimiere nicht nur Rankings, sondern auch deine CTR (geht oft auch schneller)
  • Nutze Daten statt zu raten

Relaunch: Chancen, Risiken und Strategien für Migration

Bastian Grimm

Eine grundsätzliche Frage sollte sein: Ist ein vollständiger Relaunch wirklich sinnvoll? Sollten wir getreu dem Motto „never change a running system“ handeln? Manchmal mag das sinnvoll sein, doch bietet ein Relaunch große Chancen für nachhaltige Veränderungen an der bestehenden Site. Eine Relaunch ist eine gute Gelegenheit beispielsweise um Altlasten zu verabschieden, die im laufenden Prozess nicht angegangen werden können.

Für einen Relaunch empfiehlt Bastian einen mehrstufigen Ansatz. Werden alle Maßnahmen auf einmal angegangen, stehen sich Debugging Aufgaben oft gegenseitig im Weg. Auch daher ist es wichtig, die Erwartungen richtig zu managen. Blickt in die Google Search Console und bewertet die Crawling Frequenz. Es kann nicht mehr Neues entdeckt werden, als das Crawl Budget hergibt. Einige Tipps, bevor Ihr in die Slides klickt:

  • Bei jeder Migration ist ein vollständiges Inventar aller Inhalte (HTML, Bilder, XML, …) erforderlich.
  • URLs inventarisieren, die besondere Bedeutung haben
  • Setzt ein Performance Benchmark für die neue Webseite (Management der Erwartungen)
  • URL Mapping für die Weiterleitungen erstellen

Berücksichtige bei der Relaunch Planung auch die wenig offensichtlichen Dinge. Interne Links sind auch in JavaScript oder CSS Dateien enthalten und müssen natürlich angepasst werden. Ebenso werden oft serverbasierte Informationen übersehen, wie beispielsweise Anweisungen im HTTP-Header, die natürlich auch auf ein neues URL-Schema umgestellt werden müssen.

Nach dem „Golive“: Weiterleitungen prüfen sollte einer der ersten Schritte sein. Macht euch direkt daran, fehlerhafte Weiterleitungen zu fixen. Zur Migration sollte bereits im Vorfeld ein Logfile Monitoring aufgebaut sein, um zeitlich unabhängig von der Google Search Console zu sein und schnell Informationen über Crawling und etwaige Fehler informiert zu sein. Bei der Anpassung der externen Verlinkung verfolgt Bastian den Top Down Ansatz. Hier sollten also nur Ressourcen für die wirklich wichtigen Verlinkungen aufgewendet werden oder eben jene, die in direkter eigener Verfügbarkeit stehen.

Zum Abschluss gibt es noch eine kleine kompakte Liste mit Relaunch Tipps:

  • Mobile Friendly Bulk Tersting Tool bei technicalseo.com
  • hreflang Bulk Testing Tool bei technicalseo.com
  • BulkTesting von Redirects via httpstatus.io
  • Simuliert Googlebot für mobile mit JS Rendering
  • Vergesse nicht deine Bilder umzuziehen
  • Auch die robots.txt Dateien mit umziehen
  • HTTP-Status 503 verwenden, um die Downtime zu benennen
  • Verifiziere die Google Search Console via DNS, so kannst Du bereits vor dem Live deine Properties einrichten
  • Korrigiere Weiterleitungsketten
  • Bitte bedenke den Einsatz von JS Frameworks weise

Key Takeaways

  • Nicht alle Änderungen auf einmal angehen. Bleibe Handlungsfähig.
  • IP-basierter Schutz der Staging / DEV Umgebung
  • In jedem Fall ein Pro-Tipp: Ruhe bewahren!

Die Slides findet Ihr unter https://pa.ag/seok17mig.


Technisches SEO @ OTTO

Patrick Christoph

Patrick ist Team Lead Onpage SEO bei OTTO in Hamburg und hält heute seinen ersten Vortrag auf einer SEO-Konferenz. Seinen Vortrag hat er in zwei Blöcke aufgeteilt: Indexierungsmanagement und Crawlability. Ein übergeordnetes Ziel bei OTTO ist die Skalierbarkeit mit Qualität. Zu den skalierbaren Seitentypen zählen unter anderen:

SeitentypAnzahl URLs
Artikeldetailseite650.000
Filterseiten2.000.000
Kategorieseiten15.000
Alternative Zugänge90.000
Sale30.000
Marken180.000

Unter den vorgenannten fallen vor allem zwei Millionen Filterseiten ins Gewicht. Diese wurden bisher wenig granular ausgesteuert. So wurden beispielsweise indexierbare URLs für rote Bohrmaschinen oder ähnlich abseitige, keine Suchintention befriedigende Kombinationen erzeugt. Dies hat bei OTTO zu einem sehr hohen Anteil an Thin Content geführt. Eine Überarbeitung des bisherigen Konzepts war daher unumgänglich, vor allem, da man sich auch seit einiger Zeit als Marktplatz positioniert und neue Produkte ungesteuert in das Sortiment aufgenommen werden. Es wurden folgende Maßnahmen / Prozesse für das Indexmanagement abgeleitet:

  • neue URLs werden per Default als „noindex“ publiziert und müssen individuell freigegeben werden
  • jede Nacht wird der gesamte Shop gecrawlt, um zu ermitteln, was neu hinzugekommen ist
  • Überwachung der Indexierung via Google Search Console
  • Überwachung der Indexierung via SERP-Scraping

Der aktuelle Indexierungsgrad der freigegeben URLs liegt inzwischen bei 99 Prozent. Vor der Anpassung lag der Indexierungsgrad bei nur 90 Prozent. Zur Bestimmung, welche URLs indexiert werden sollen, setzt OTTO bei Kategorie, Filterseiten usw. unter anderem auf die Anzahl der vorhandenen Produkte und das aggregierte Suchvolumen für eine URL. Dennoch, es bleiben einige URLs übrig, die nicht indexiert werden. Dem geht OTTO mit einer angemessenen Priorisierung nach und klärt folgende Fragen :

  • Wurde die URL bereits von Google abgerufen?
  • Sind formale SEO-Kriterien erfüllt? (in XML-Sitemap, meta-robots auf „index“, verlinkt usw.)

Das Indexmanagement bei ADS (Artikeldetailseiten) stellt OTTO, ob der großen Anzahl ADS, zurzeit noch vor größere Herausforderungen. Die Vielzahl der unterschiedlichen Marktplatz-Teilnehmer sorgt hier für mitunter uneinheitliche Produktdaten eigentlich gleicher Produkte. Abseits dieser Herausforderung werden die erkannten Duplikate per Canonical-URL zusammengeführt. Hier gilt unter anderem der folgenden Parameter

  • Die URL mit den meisten Page Impressions wird Master. Alle Varianten verweisen auf diesen.

Wichtig ist es, einen entsprechenden Schwellenwert zu setzen, sodass ein Pendeln der Ziel-Canonical-URL vermieden wird. Zukünftig soll anhand der Produktdaten(qualität) eine Prognose erstellt werden, welche Produkt-URL die besten Chancen auf ein gutes Ranking hat.

Um die Crawlability zu verbessern, will OTTO zukünftig eine „One Content One URL“ Politik verfolgen. Aktuell steht dem die Synchronität zwischen Navigationspfad und URL-Struktur entgegen. So sind Inhalte über viele verschiedene Pfade erreichbar und dem Indexer wird erschwert, die richtige URL aus einem Crawl auszuwählen. Wird die „One Content One URL“ Prämisse erfüllt, geht die Zahl der bereitgestellten URLs um 60 Prozent zurück! Zur Verbesserung der Crawlability gibt Patrick seinen Zuhörern die weiteren Tipps und Informationen auf den Weg:

  • Die in der Google Search Console hinterlegten Informationen zu gecrawlten Seiten können verwirren. Gemeint sind mit „Seiten“ nicht HTML-Dokumente, sondern alle Ressourcen (CSS, JS, Images, PDF usw.) der Domain. Anmerkung: Weiterhin ist zu beachten, dass identische Ressourcen auch mehrfach an einem Tag angefragt und gezählt werden.
  • Häufig werden Links innerhalb einer Faceted Navigation oder an anderer Stelle maskiert. Zum Einsatz kommen oft das PRG-Pattern oder eine Linkmaskierung per JavaScript. Beide Varianten funktionieren aus der Sicht von Patrick. OTTO hat sich für die Maskierung per JavaScript entschieden. Es sind keine negativen Tendenzen in den Log-Files erkennbar. Anmerkung: Ich würde auf das PRG-Pattern setzen, denn zurzeit sehe ich in einigen Projekten, dass der per base64 codierte String der Ziel-URL als 404er in der Google Search Console – nur bei Smartphones – aufläuft.
  • Rendering: Nur 15 Prozent der Seiten auf otto.de werden auch gerendert. Dies bedeutet im Umkehrschluss, 85 Prozent der anderen Seiten sollten keine relevanten Inhalte nachladen, da diese sonst nicht von Google berücksichtigt werden.
  • Es ist zwischen Rendering Budget und Crawl Budget zu unterscheiden. Laut Gary Illyes sind beide Budgets ähnlich wichtig. Siehe auch Rendering on Google Search.
  • Menschliche Besucher und der Google Crawler legen eine unterschiedliche Geschwindigkeit beim Crawling an den Start. Lazy Loading der Bilder auf ADS erzeugen mitunter zu Timeouts, wenn Google vorbeikommt.
  • Aus technischen Gründen können Bilder bei OTTO noch nicht per http/2 ausgeliefert werden. Hier stellt sich das Caching quer.

Key Takeaways

  • Lazy Loading der Bilder auf ADS erzeugen mitunter Timeouts, wenn Google vorbeikommt.
  • Es ist zwischen Rendering Budget und Crawl Budget zu unterscheiden
  • OTTO ist lange nicht so weit, wie ich gedacht hätte …

Ein Vektor sagt mehr als tausend Wörter: Machine-Learning mit Word2Vec

Stefan Fischerländer

Der Gründer der Agentur Gipfelstolz aus Passau hat bereist seit einigen Jahren das Thema Machine Learning und Natural Language Processing für sich entdeckt. Maßgeblich sich in das Thema zu vertiefen, war für ihn ein Zitat Sundar Pichais:

“[…] Machine learning is a core, transformative way by which we’re rethinking everything we’re doing. […] We’re thoughtfully applying it across all our products, be it search, ads, YouTube, or Play,” Pichai said. “We’re in the early days, but you’ll see us in a systematic way think about how we can apply machine learning to all these areas. […]”

In seinem Vortrag geht Stefan auf die Grundzüge der Sprachverarbeitung ein und stellt diese an einigen per Word2Vec erstellten Beispielen dar. Stefan macht deutlich, dass es bei Machine Learning auf eine solide, um nicht zu sagen große Datenbasis ankommt.

TextmengeErgebnis
5 GB Wikipedia DumpAllgemein einsetzbare Vektoren, auch ohne intensive Datenaufbereitung nutzbar
14 MB Tweets aus der SEO-SzeneFür Zusammenhänge in der Branche gut nutzbar
300kB Inhalte beliebiger WebsiteSelbst mit guter Datenaufbereitung keine sinnvollen Ergebnisse

Anwendungsfälle für den Einsatz von Machine Learning sind typischerweise große Datenmengen, wie das Clustern von Dokumenten oder auch Empfehlungen zur Aussteuerung der internen Verlinkung (Welche Dokumente sollten miteinander in Relation stehen?). Die folgenden Slides stammen zwar von der SEO Campixx, geben seinen heutigen Vortrag aber nahezu 1 zu 1 wieder, wie Stefan mir gesagt hat. Guckt auf jeden Fall einmal hinein … und lernt Python 😉

Key Takeaways

  • Machine Learning ist keine künstliche Intelligenz, es ist ein statistisches Verfahren
  • Der Hauptautor des Rank Brain Patent ist der Entwickler von Word2Vec
  • Google erkennt Suchabsichten immer besser. Wir müssen uns von Keywords lösen und für Suchabsichten optimieren!

Google steuern, so geht’s

Niels Dahnke

Niels Dahnke ist Head of SEO, SEA und Social Media bei Madsack Market Solutions GmbH aus Hannover. Aus der Perspektive eines Publishers erläutert Niels, wie Google gesteuert werden kann. Ähnlich wie auch Marcus Tandler betont er, dass Google nichts zu verschenken hat und eine gute Ausnutzung des Crawl Budget von großer Bedeutung für den Erfolg einer Webseite ist. Die Beliebtheit beziehungsweise Bekanntheit einer Webseite wie auch das Alter ihrer Inhalte bestimmt den Bedarf, den Google sieht, sein Ziel, immer die aktuellsten Informationen bereitzustellen, durch ein regelmäßiges Crawling zu erfüllen. Gleichermaßen muss Google effizient arbeiten – die Kosten für den Stromverbrauch dürften bei etwa 10 Milliarden US Dollar liegen – und seine Crawling Ressourcen wirtschaftlich sinnvoll einsetzen. Eine Abwägung zwischen diesen beiden Polen bestimmt das für jede Webseite individuelle Crawling Budget.

Was beeinflusst das Crawl Budget?

  • Alter & Trust
  • Linkprofil
  • Crawl-Pfade
  • Größe und Aktualität
  • Erreichbarkeit
  • Priorisierung
  • Effizienz & Qualität der Seite

Hinsichtlich der Effizienz und Qualität einer Seite kann ein Blick in die Soft-404er der Google Search Console helfen, inhaltlich dünne Seite zu identifizieren, wenn einem diese nicht ohnehin bekannt sind. Gerade bei großen Seiten kann aber auch der von Sebastian Erlhofer skizzierte Machine Learning Ansatz bei der Recherche dünner Inhalte helfen. Abseits dessen können folgende typische Ursachen zu einer niedrigen Qualitätseinstufung der Webseite führen:

  • Facettierte Navigation
  • URL-basierte Sessions / Session-IDs in der URL
  • Duplizierte Inhalte
  • Soft-Errors
  • Gehackte Seiten / Ressourcen
  • Endlose Bereiche, bspw. endlose Paginierung von Jahren bei Kalendern

Um eine eigene Einschätzung zu entwickeln, sollte man Klarheit über die folgende Fragestellungen finden:

  • Wie viele Inhalte habe ich?
  • Wie viele Inhalte indiziert Google?

Abseits der wohl selbstverständlichen Crawls, die ein Webseitenbetreiber regelmäßig durchführt, sollte die Beobachtung des Verlaufs der Indexierung in der Google Search Console zum Prozess gehören. Achte hierbei auch immer darauf, dass du für alle relevanten Protokolle eine Property in der Google Search Console angelegt hast. Ergänzend zu regelmäßigen Crawls der eigenen Webseite schlägt Niels vor, das Ergebnis eines Crawls mit Gephi auszuwerten. Gephi unterstützt dich bei der visuellen Identifikation von Schwachstellen und ermöglicht dir so, schneller Antworten auf die folgenden Fragen zu finden:

  • Wie sieht die Seitenstruktur aus?
  • Wie lässt sich die Strukturtiefe verringern?
  • Was sind wichtige Hub Pages?
  • Sind wichtige Inhalte gut verlinkt?
  • Was sind zusammenhängende Themencluster?

Doch die Erkenntnis allein reicht nicht, du brauchst Werkzeuge, um zu handeln. Hier gibt Niels den Zuhörern einige typische Werkzeuge für die Indexierungs- und Crawlingsteuerung auf den Weg.

  • Sperrung per robots.txt
  • Canonical-URLs zur Auszeichnung von Duplikaten
  • rel=prev / rel=next für Seitenserien
  • hreflang für Sprachversionen
  • PRG-Pattern zur Maskierung von Bedienelementen / zum Siloing
  • XML-Sitemaps

Sollte mit den vorgenannten Werkzeugen keine Steuerung bzw. Reduktion des Crawlings / der Indexierung wertarmer Inhalte möglich sein, ist auch das Löschen selbiger Inhalte in Erwägung zu ziehen. Ganz getreu dem Motto:

Räume auf, bevor Google es macht!

Key Takeaways

  • Off Topic – SEO Karrieren sind schon schräg: Niels Dahnke hat mal einen Waldkindergarten geleitet.
  • Wie viele Inhalte habe ich? Wie viele Inhalte indiziert Google? Räume auf, bevor Google es macht!
  • Für jede Webseite gilt ein individuelles Crawling Budget.

Content: Failure is predictable

Thomas Mindnich

Bereits seit vielen Jahren ist Thomas ein fester Bestandteil der deutschen SEO-Szene und hat mit seinem Tool termlabs.io eine großartige Hilfe gebaut, gute Inhalte datenbasiert zu verfassen. Eine der Kernfragen, auf die er in seinem Vortrag eingeht: Wie analysiert Google Texte? Hier liegt natürlich ein großer Fokus auf dem Information Retrieval. So vermittelt er den Zuhörern zuerst den Aufbau einer Suchmaschine. Basierend auf dem Vector Space Model geht es einer Suchmaschine im Grunde um nichts anderes, als die Terme gegebener Dokumente als Vektoren darzustellen und mit der Query, ebenfalls als Vektor dargestellt, zu vergleichen. Jene Vektoren, die eine ähnliche Richtung und Winkel aufweisen, können eine passende Antwort sein. Allerdings verbirgt die deutlich verknappte Darstellung viele Hürden.

Als Beispiel: Die generischen Merkmale von Tieren (Hals, Ohren, zwei Augen usw.) ermöglichen keine Unterscheidbarkeit. Spezifische Terme (langer Hals, Rüssel usw.) erlauben hingegen eine einfachere Unterscheidung. Query versus Document: Wenn andere Terme in einem Dokument höher platziert sind als Terme, die in der Query vorkommen.

Termgewichtung beachten

Wo ist der Main Content in einem Dokument? Wird im Main Content die Ziel-Query ausreichend beantwortet? Dieser Main Content muss von einer Suchmaschine einfach erfasst werden können. Er sollte idealerweise zusammenhängend sein und nicht durch verschiedene Elemente gebrochen werden. Google unterscheidet hier zwischen Main und Supplementary Content.

Gucke in die Qualityrater Guidelines

Eine Suchmaschine teilt den verschiedenen Elementen im Dokumentaufbau eine Gewichtung zu und überträgt diese auf den Vektor des Inhalts. Inzwischen hat ein Paradigmenwechsel stattgefunden: Es wird nicht mehr auf Keywords, sondern auf Topics optimiert. Das ist allerdings nur dann richtig, wenn man dies nicht weichgespült, sondern datenbasiert betrachtet. Dies ist allerdings kaum beurteilbar, da Googles Datenbasis nicht einsehbar ist. Thomas sagt daher, dass ein Topic nur wirklich sehr spitz betrachtet werden kann, denn entscheidend ist die Beantwortung der Suchintention. Hier liegen die richtigen Antworten auf eine Suchintention teilweise sehr weit auseinander, obwohl die Suchanfrage sehr ähnlich wirkt.

Man sollte sich die Frage stellen, ob ich das Thema der SERP treffe, sprich: Welche Terme erwartet der User beziehungsweise dementsprechend die Suchmaschine? Informationelle Suchanfragen stechen hier besonders hervor. Hervorragend rankende Seiten in einer informationellen SERP haben eine hohe Ähnlichkeit, was die verwendeten Terme anbetrifft.

Search Task Completion ist eine wichtige Metrik für die Such-Qualität. Mit holistischer Abdeckung ist nach Thomas‘ Einschätzung gemeint, eine hohe Abdeckung der Feature Elemente einer SERP abzudecken.

 

Quellen & Links

Die komplette Agenda der SEOkomm findest Du hier: https://www.seokomm.at/agenda/

    Hinterlasse eine Antwort

    Olaf Pleines

    Olaf Pleines ist Head of SEO bei trafficmaxx in Bremen. trafficmaxx ist eine Markendienstleistung der construktiv GmbH.

    Beitrag von: Olaf Pleines