Google Webmaster Hangout Transkript, 05.05.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 5. Mai 2017

Thema: Ranking

Zeit: 05:05 Frage: Welche Seite rankt höher, wenn Googlebot zwei identische Seiten indexiert? Antwort: Da gibt es keine absolute Antwort. Wenn wir das sehen, dann suchen wir uns oft eine aus und indexieren einfach die. Manchmal indexieren wir auch beide, zeigen aber trotzdem nur eine im Ranking. Es geht also weniger um das höher ranken, als vielmehr um das Ranken allgemein. Und dafür haben wir mehrere Faktoren, wie Canonicals, Weiterleitungen, interne und externe Links. So versuchen wir dann, die richtige Seite auszusuchen. Bei mehrsprachigen Seiten hilft auch das Hreflang, damit wir die passende Seite in der richtigen Region zeigen können. Das geht dann automatisch und ihr solltet Nutzer nicht zwingen, auf eine bestimmte Seite zu gehen. Jeder sollte auf jede Version zugreifen können, ihr könnt aber mit kleinen Bannern auf die regionalen Versionen hinweisen. Es ist auch wichtig, dass Nutzer und Googlebot immer die gleiche Version sehen.  

Thema: SERPs

Zeit: 15:39 Frage: Wenn man in Google UK nach dem Markennamen eines unserer Kunden sucht, dann erhalten wir einen Tracking Link aus einem Verzeichnis. Die Seitelinks sind richtig, aber die hauptsächlich rankende URL ist der Tracking Link. Antwort: Wenn ich die Suche durchführe, dann sehe ich das nicht. Ich denke also, dass das eher eine vorübergehende Sache ist. Wenn das weiterhin passiert, dann eröffne am besten einen Thread im Hilfeforum und melde dich nochmal bei mir.  

Thema: 

Zeit: 20:38 Frage: Ich habe eine .com Website und mein Hauptmarkt ist der nahe Osten, daher habe ich viele arabische Keywords mit guten Platzierungen. Ich bekomme aber fast keine Besucher aus Katar, VAE und anderen. Wie kann ich dort organischen Traffic bekommen? Antwort: Da gibt es nichts spezielles für diese Region. Du kannst problemlos eine .com Domain nutzen. Da gelten die ganz normalen Voraussetzungen für Crawlen, Indexieren und Ranken. Schaut euch die Regeln also mal an.  

Thema: URL-Struktur

Zeit: 21:54 Frage: Was kann Google besser crawlen - Ordner oder domain/keyword? Antwort: Das funktioniert alles problemlos. Das könnt ihr euch also aussuchen, wie es für euch am besten passt. Ich empfehle aber, dass ihr das so einfach wie möglich mit wenigen Domains macht.  

Thema: Crawling

Zeit: 23:32 Frage: Wie lange dauert es, bis Google Fehler auf Seiten erkennt und das das Crawling verstärkt? Antwort: Ich bin mir nicht sicher, was du damit meinst. Crawlfehler testen wir immer mal wieder, auch nach vielen Jahren. Da müsst ihr also nichts künstlich verstecken, denn das ist technisch total ok und bringt euch keine Nachteile.  

Thema: Hreflang

Zeit: 24:42 Frage: Ist es wichtig dass eine Seite eine Hreflang Annotation mit Link zu sich selbst neben den anderen Sprachvarianten hat? Antwort: Nein. Das haben wir empfohlen, um euch das Leben einfacher zu machen. Denn so kann man mit Copy und Paste arbeiten.  

Thema: Indexierung

Zeit: 25:40 Frage: Warum wird meine Seite indexiert, wenn Google die indexierten URLs nach wenigen Minuten wieder aus dem Index schmeißt? Antwort: Da muss ich mir die Seite mal anschauen. Oft ist es aber so, dass die Seite ein Canonical hat, das auf eine andere Seite zeigt. Andernfalls kann es auch eine Soft 404 sein, die wir erst auf den zweiten Blick sehen. Möglich ist auch, dass ihr euch verschiedene Versionen des Index anschaut, da das Ergebnis vielleicht nicht so schnell zu allen Datencentern ausgerollt wurde. Da gibt es manchmal kleine Unterschiede.  

Thema: Sitemap

Zeit: 27:58 Frage: Haben Fehler in der Sitemap einen Einfluss auf das Ranking? Antwort: Nein. Wenn wir die Seiten aus der Sitemap schon kennen, dann ändert das nichts. Wenn es aber Änderungen gab und wir die Sitemap nicht verarbeiten können, dann dauert es vielleicht länger, bis wir diese Änderungen verstehen. Aber sorgt dafür, dass die Sitemap funktioniert. Weil wenn das nicht der Fall ist, dann braucht ihr sie ja auch gar nicht.  

Thema: Rich Snippets

Zeit: 29:05 Frage: Kann Google Rich Snippet Spam erkennen? Zum Beispiel, wenn Seite A Inhalte von Seite B nutzt, um eine Website mit Rich Snippets zu bauen. Verliert dann Seite B das Rich Snippet und Seite A erhält die Vorteile? Antwort: Da gibt es zwei Dinge zu beachten. Wir versuchen, solchen Spam automatisch und manuell zu finden. Ihr könnt da auch eine Rich Snippet Spam Form ausfüllen. Zweitens ist es Webspam, wenn eine Seite eine andere Seite kopiert. Da tun wir dann etwas gegen und ihr könnt auch rechtliche Schritte einleiten.  

Thema: Canonical

Zeit: 30:39 Frage: Wie sehr kann eine falsche Implementierung des Canonical Tags einer Website schaden? Antwort: Das kann natürlich zu Problemen sorgen. Es kann sein, dass wir uns die falsche Seite zur Indexierung aussuchen. Wir haben früher auch oft gesehen, dass alle Unterseiten ein Canonical zur Homepage hatten. Das führt dazu, dass wir auch nur die Homepage indexieren und alle Unterseiten ignorieren. Wir haben zwar Algorithmen, die die häufigsten Fehler erkennen und verbessern, aber die finden natürlich auch nicht alles. Anstatt ein falsches Canonical einzubauen, würde ich lieber gar keins nutzen.  

Thema: AMP

Zeit: 32:26 Frage: Ich habe eine Seite mit Millionen von URLs, soll ich AMP nutzen? Antwort: Klar sollst du AMP nutzen. Vor allem, wenn die Inhalte eher statisch sind. Bei dynamischen Inhalten musst du schauen, ob du den Aufwand dahinter bewältigen kannst.  

Thema: AMP

Zeit: 37:43 Frage: Ist es einfach, AMP für E-Commerce Seiten zu implementieren? Antwort: Für E-Commerce ist das nicht ganz so trivial - gute Programmierer kriegen da aber sich was sinnvolles hin. Aber vielleicht solltet ihr da warten, bis euer CMS da eine Lösung anbietet. Andernfalls könnt ihr AMP auch nur im Blog einbauen und die Produktseiten erstmal weglassen. Denn AMP kann ja pro Unterseite genutzt werden. AMP ist auch kein Rankingfaktor, es zeigt nur eine schneller ladende URL in den SERPs.  

Thema: Crawling

Zeit: 39:40 Frage: Meine Seite hat etwa 500.000 Seiten, von denen 150.000 jeden Tag aktualisiert werden. Was kann ich tun, um das Crawlbudget zu maximieren? Eine Priorität in der Sitemap oder einen RSS Feed mit den letzten Updates einrichten? Antwort: 150.000 Seiten mit Updates hört sich für mich fragwürdig an. Das sieht nach automatisch generierten Inhalten aus. Manchmal macht sowas Sinn, z.B. auf einer Seite mit Wetterberichten. Aber wenn ihr eine Content Website habt, dann würde ich das mal hinterfragen. Ansonsten schauen wir uns in der Sitemap vor allem das Last Modifikation Date an. RSS ist auch immer gut, da wir durch PubSubHubbub die Dinge noch ein bisschen schneller sehen. Da gibt es auch einen aktuellen Blogpost zum Thema Crawl Budget. Meistens ist auch das Problem weniger die Menge des Budgets, sondern eher, dass wir auf euren Seiten stecken bleiben.  

Thema: Content

Zeit: 43:50 Frage: Wir haben eine Affiliate E-Commerce Seite. Wir haben ähnliche Produkte hinzugefügt, wir dachten dass so etwas den Nutzern als Vergleich helfen wird? Stimmst du da zu und wie sollen wir das am besten einbauen, damit Google das erkennt? Antwort: Das könnt ihr machen, wie ihr wollt. Wenn ihr zusätzliche Infos bietet, dann können wir das meist erkennen. Achtet aber darauf, dass ihr nicht einfach Feeds von zwei Firmen kombiniert, denn das wäre wirklich kein Mehrwert. Ihr müsst mehr machen, als nur Inhalte von anderen Seiten wiederzugeben.  

Thema: Content

Zeit: 46:04 Frage: Wir bieten dasselbe Produkt mehrfach an, nur die Größen ändern sich. Ist das problematisch bzw. wie kann man das am besten darstellen? Antwort: Die Frage kommt immer wieder. Das Problem ist, dass es nicht die eine universelle Antwort gibt. Schaut euch die Seiten an und überlegt, ob die Seiten wirklich einzigartig sind und einen einzigartigen Wunsch befriedigen. Oft ist es dann einfacher, sehr ähnliche Dinge zusammenzuklappen. Außer natürlich, wenn die Größen so einzigartig sind, dass Leute wirklich nach den einzelnen Dingen suchen. Suchen Menschen z.B. nach Schuhen und du hast unterschiedliche Farben, dann gilt: Sind es normale Farben, dann kann man das zusammenklappen. Sind es aber sehr ungewöhnliche Farben oder Kombinationen, dann lohnen sich vielleicht auch eigene Seiten.  

Thema: Canonical

Zeit: 48:31 Frage: Sollte ich auf allen paginierten Seiten sowohl das Canonical als auch rel=prev und rel=next nutzen? Antwort: Das kann man auf jeden Fall machen. Ich weiß aber nicht, wie sehr euch das in der Suche nach vorne bringt. Es kann aber sicher nicht schaden.  

Thema: Tags

Zeit: 49:19 Frage: Sollte man das Veröffentlichungsdatum ändern, wenn man einen Artikel mit deutlichen Updates versieht? Und sollte man den Timestamp entfernen? Antwort: Das könnt ihr euch aussuchen. Für Nutzer macht es aber oft Sinn, ein Datum zu haben - gerade bei Inhalten, die aktuell sind oder an eine gewisse Zeit gebunden sind.  

Thema: JavaScript

Zeit: 50:51 Frage: Wie kann man eine Seite mit viel JavaScript (z.B. Lazy Load Bilder und Beschreibungen für Galerien) SEO-freundlich halten? Antwort: Da ist manchmal schwer. Wir können JavaScript meistens so verarbeiten, dass wir alle Inhalte sehen können. Googlebot ist mittlerweile ein Browser und kann fast alles so sehen wie ein normaler Browser. Aber bei Lazy Load sehen wir Dinge z.B. nicht, wenn man für das Laden eine Aktion durchführen muss.  

Thema: Redirect

Zeit: 52:51 Frage: Wie sieht Google eine 302 Weiterleitung, die auf eine Seite mit einem anderen Thema führt? Denn das ist ja nur ein vorübergehender Platzhalter, bis die originale Seite wieder live geht. Antwort: Weiterleitungen sind Weiterleitungen. Wir schauen uns die Inhalte nicht zu sehr an, wir versuchen einfach, den Weiterleitungen zu folgen. Bei 302 behalten wir meist die alte URL im Index, bei 301 nehmen wir meistens die neue.  

Thema: AMP

Zeit: 55:03 Frage: Kann ich Pagination auch auf AMP nutzen? Und wie kann man es dort managen? Antwort: Das weiß ich nicht genau. Wenn ihr nur AMP habt, dann kann man glaube ich Tags im Header nutzen. Wenn ihr AMP zusätzlich zur normalen Website habt, dann könnt ihr es einfach dort nutzen und die AMP ist damit dann verknüpft.  

Thema: Subdomains

Zeit: 55:49 Frage: Haben Subdomains für Google dieselbe IP wie die Hauptdomain? Wäre es besser, sie separat zu hosten, um das Crawlbudget zu optimieren? Antwort: Wir haben meistens keine strikten Regeln für sowas. Oft sehen wir sie als Teil der Hauptdomain, manchmal aber auch als deutlich separat (z.B. bei Blogger). Wir schauen einfach, dass wir den Server nicht überfordern. Das hat aber auch nicht nur mit der IP Adresse zu tun.  

Thema: Content

Zeit: 58:28 Frage: Ich habe "Search within a site" zu meinem Code hinzugefügt aber die Suchleiste ist in den SERPs nicht zu sehen. Wie lange dauert es, bis das angezeigt wird? Antwort: Dieser Code wird nur genutzt, wenn wir die Suchbox schon in den Snippets zeigen. Wenn wir es also bisher nicht gezeigt haben, dann ändert der Code auch nichts daran.  

Thema: Redirects

Zeit: 59:12 Frage: Wir haben eine alte Seite gekauft, die viele gute Inhalte und organischen Traffic hat. Die Website ist aber sehr alt und nicht responsive und es wird schwer, sie zu überwachen. Der organische Traffic ist am Fallen und wir denken, dass das an der fehlenden Mobiloptimierung liegt. Wir würden die Artikel von der Seite gerne auf unsere Hauptseite umleiten und die Rankings behalten (unsere Seite hat 10 Mal weniger Traffic als die alte Seite, die wir umleiten wollen). Ist das ein Risiko und sollen wir es vielleicht erstmal mit ein paar Artikeln testen? Oder sollen wir es lieber sein lassen? Antwort: Das Zusammenführen ist sicher eine gute Idee, auch für die Nutzer. Aber wenn ihr sowas macht, dann wird es Fluktuationen geben und man kann nicht voraussagen, wie es am Ende aussehen wird. Es wird auch etwas dauern, bis wir das alles verstehen und verarbeitet haben. Wenn ihr einfach nur die Seite migriert, dann sieht man zumindest die meisten neuen URLs nach ein paar Tagen.  

Thema: Redirect

Zeit: 1:02:10 Frage: Da Weiterleitungen keine Rankingverluste mehr bedeuten: Hat es negative Effekte, wenn man einen Extraordner in die URL einbaut? Also statt /productname dann /product/productname. Das würde das Caching verbessern und uns die Möglichkeit für bessere 404-Seiten für gelöschte Produkte geben. Antwort: Das könnt ihr machen. Denn in deinem Beispiel sieht man klar, dass sich die Funktionalität deutlich verbessern wird. Das wäre also auch dann anzuraten, wenn Weiterleitungen noch zu einem Verlust von Signalen führen würden. Aber bedenkt, dass ihr damit die Seitenstruktur ändern werdet. Das wird also zu Fluktuationen für ein paar Wochen führen. Macht das also, wenn ihr vielleicht für einige Zeit nicht so sehr auf organischen Traffic angewiesen seid.   Den ganzen Hangout könnt ihr euch hier ansehen: