Der Recap zur SEO CAMPIXX 2020

von SEO Portal

Kategorie(n): Konferenzen und Recaps Datum: 9. April 2020
Am 12. März 2020 begann die SEO-Konferenz SEO CAMPIXX in Berlin und wir waren wieder mit dabei. Leider musste die Veranstaltung nach dem ersten Tag aufgrund der aktuellen Corona-Pandemie abgebrochen werden. Trotzdem wollen wir Euch die interessanten Vorträge des ersten Tages natürlich nicht vorenthalten und haben hier ein paar unserer Highlights für Euch zusammengefasst.

Long Tail Domination – Skalierbarer Traffic ohne Content

Der Online-Marketing-Experte Jan Gruchow präsentierte in seinem Vortrag die Erkenntnisse und Erfahrungen mit seinen eigenen Websites und Testprojekten. Im Fokus der Präsentation stand das Vorhaben, Rankings über skalierbare Longtail-Keywords mit wenig Suchvolumen und ohne eigenen Content zu generieren. Jan setzte dabei auf den Einsatz von Textspinning, Lückentexten, übersetzten Inhalten oder Autobloggern mit Inhalten anderer Seiten.  Anschließend wurden die dann entstandenen Rankings beispielsweise durch Context Ads oder Produkt Affiliates monetarisiert. Zudem verwies Jan auf die kurzen Lebenszyklen der aufgebauten Seiten und Projekte von ca. einem Jahr. Erfahrungsgemäß verweilen die Domains eine gewisse Zeit im Index und sterben danach ab. Die mehrere tausend URLs umfassenden Seiten generierten bei Bing aufgrund der unterschiedlichen Qualitätsbewertung gegenüber Google über einen längeren Zeitraum Traffic.

Frog, Ryte & Co.: The Missing Manual

Die Präsentation von Markus Hövener von Bloofusion hatte die Vorstellung und Live-Anwendung verschiedener Tools wie Screaming Frog, Ryte, Sitebulb oder Site Analyzer zum Inhalt. Markus hat gezeigt, wie die Crawls von großen Seiten im Vorhinein ausgedünnt werden können, um selbige zu beschleunigen und dementsprechend bessere Daten zu erhalten sowie die Server- und Netzlast zu verringern. Zusammenfassend hat er vor diesem Hintergrund folgende Empfehlungen ausgesprochen:
  • Pre-Crawl mit ca. 5000 URLs durchführen (in Abhängigkeit der Größe der gesamten Seite), um grundlegende Fehler frühzeitig identifizieren zu können, z.B. durch die Analyse der Ordnerstrukturen
  • Einzelseitenanalyse: Für alle Seitentypen mindestens eine URL prüfen. Z.B. über die Tools Sitebulb oder Ryte und anschließend die Ergebnisse jeweiliger Seitentypen (Kategorie, Produkt etc.) in beiden Tools vergleichen
  • Über Sitebulb bestimmte Seitentypen rendern, um erkennen zu können, ob der Bot alles so ausliest, wie es im Frontend angezeigt wird
  • Abgleich von URLs aus dem Crawl mit den URLs aus der XML-Sitemap im Crawler anzeigen lassen, bspw. über Sitebulb (wichtig: XML- Sitemap auf Korrektheit prüfen)
  • URL Normalisierung per URL-Rewriting im Screaming Frog, um Duplicates, z.B. durch die http- und https-Version der jeweiligen URL, zu vermeiden
  • Crawl mit realen Nutzerdaten aus GSC oder GA ergänzen
  • Voreinstellung der Klicktiefe, von noindex Inhalten (per Exclude-Befehl sperren für langfristige Sicht) und von parametrisierten URLs (z.B. Inlinks von Parameter-URLs prüfen) im Screaming Frog
  • Automatisierung des Screaming Frog: Vollständige Anleitung unter https://seobutler.com/badass-seo-automate-screaming-frog/

Google Data Studio für SEOs

Thomas Langnau von clicks digital hat darüber berichtet, wie Google Data Studio im Rahmen von Analysen, Auswertungen und Kundenreportings eingesetzt werden kann und wie ein SEO Dashboard auszusehen hat. Im Rahmen dessen hat er auf einige Beispiele zurückgegriffen, die er selbst im Alltag bei Kundenreportings oder Analysen einsetzt. Dabei hat er unter anderem folgende Auswertungsmöglichkeiten über das Google Data Studio genannt:
  • Integration von Keyword-Rankings, Sichtbarkeit, Traffic und Umsatz in ein SEO Dashboard
  • Abbildung der Daten aus SISTRIX im Google Data Studio über ein Skript in Google Sheets, da die SISTRIX API nicht fehlerfrei funktioniert
  • Vergleich der Daten aus Google Analytics mit denen aus der Google Search Console (Sitzungen vs. Clicks), um mögliche Fehler bei Analytics zu identifizieren
  • Pagespeed Auswertung mit Google Analytics
  • Contentperformance durch Zusammenfassen der Inhalte in Bereich wie Blog, Kategorien etc. und die Analyse der Leserate durch den Vergleich aktueller und älterer Artikel
Thomas hat als Inspiration für die Visualisierung von Daten im Google Data Studio unter folgendem Link seine erstellten Datenblätter zur Verfügung gestellt: www.clicks.de/gsc-datastudio-dashboard.  Er hat darauf hingewiesen, dass er keine Möglichkeit hat, die Daten einzusehen. Die Dashboards können dementsprechend problemlos mit den eigenen Daten gefüllt werden. 

Wie kann ich eine eigene Sichtbarkeits-Metrik mit den Daten aus der Google Search Console berechnen?

In seinem Beitrag hat Laurent von Aufgesang eine Möglichkeit geschildert, seinen eigenen Sichtbarkeitsindex auf der Basis von Daten aus der Google Search Console zu erstellen. Er bezeichnet diesen Indexwert als Q-Wert. Für dessen Ermittlung ist eine Google Search Console API und weitere Tools, wie bspw. die SEO Tools for Excel, notwendig. Mit folgender Formel hat Laurent den q-Wert auf Grundlage der Impressionen und durchschnittlichen Position errechnet: Sobald die verschiedenen Werte in eine Trendkurve übertragen werden, können Schwellen- Keywords identifiziert und sowohl positive als auch negative Veränderungen über einen längeren Zeitraum erkannt werden. Grundsätzlich sollte bei der Anwendung dieses Indexwertes aber berücksichtigt werden, dass der Wert eher keine eigene Sichtbarkeitsmetrik darstellt, sondern mehr als Indikator für Veränderungen angesehen werden kann. Dementsprechend ist dieses interessante Konzept im Anschluss an die Präsentation auch kontrovers diskutiert worden.

Mein Traffic ist weg! Wo zur Hölle ist er hin?

Ciara Serrano Temprado, Head of Marketing der Webgears Group, beschäftigte sich mit dem Thema „Mein Traffic ist weg! Wo zur Hölle ist er hin?“ und nennt Ursachen und mögliche Lösungen dafür.  Folgende Ursachen sind denkbar:
  • Natürliche Ursachen: Saisonalität, Veranstaltungen, besondere Vorkommnisse
  • Unfall: noindex / disallow
  • Falsche Implementierung von Google Analytics 
  • Änderungen an der Webseite: Redesign, Relaunch, Änderung der Seitenstruktur 
  • Technische Ursachen/ Serverprobleme
  • Eingeschränkte Crawlbarkeit
  • Verschlechterung der Rankings 
  • Manuelle Maßnahmen 
  • Google Update 
  • Wettbewerber 
Mögliche Gründe für die Verschlechterung der Rankings sind beispielsweise Folgende:
  • Verlust von Backlinks 
  • Hohe Ladezeit 
  • Keine mobiloptimierte Seite 
  • Contentrelevanz: Content sollte überarbeitet werden 
  • Suchintention der Nutzer hat sich verändert 
  • Nutzerverhalten (Desktop, Smartphone)
Folgende Lösungen wurden vorgestellt: 
  • Beschäftigung mit der User Intention: Ist der Content noch zielgerichtet und an die Zielgruppe angepasst?
  • Wettbewerberanalyse: Hier könnte man den Content der Konkurrenten über die Wayback Maschine verfolgen. Die technischen Aspekte können über den Screaming Frog verfolgt werden. Die einzelnen Crawls sollten abgespeichert werden, sodass man die Entwicklung nachvollziehen kann. Zudem sollte man die Backlinks der Konkurrenten, sowie deren Ladezeiten und das Layout/Design betrachten. 
  • Website-Diät: Viele URLs erschweren die Crawlbarkeit einer Seite und ähnliche Seiten sollten daher zusammengefasst werden. 
  • Longtail- und Branded Keywords verwenden: Gegebenenfalls sollte man sich auf ein Nischenthema konzentrieren. Branded Keywords bieten den Vorteil, dass sie nicht von Google selbst eingenommen werden können. 
  • Diversifizierung: Abhängigkeiten von einem Kanal sollten vermieden werden
Dies ist ein Beitrag von Yannick Leisenheimer und Sandra Kosolowski. Bild: Headway / Unsplash.com