Deutsches Google Webmaster Hangout Transkript, 29.07.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 29. Juli 2016

Thema: Weiterleitungen 

Zeit: 01:01 Frage: Haben die Änderungen bei 30x Redirects auch einen Einfluss auf Weiterleitungsketten? Würde der PageRank an die finale Seite gehen oder zwischen den einzelnen Stopps aufgeteilt werden? Antwort: Wir schauen uns immer den Start und das Ziel an. Was dazwischen passiert ist nicht so wichtig für uns. Aber wenn es viele Zwischenstopps gibt, dann kann das Laden für den Nutzer dauern. Und wenn es mehr als 5 Stopps sind, dann können wir auch nicht alles auf einmal crawlen, sondern müssen später nochmal wiederkommen. Im Bestfall sollte man also Zwischenstopps immer weglassen. Und wenn es große Änderungen gibt, dann wird es Zeit brauchen, bis wir das alles verstehen und umsetzen können. Und das kann dann auch die Rankings - zumindest vorübergehend - beeinflussen. Bei großen Änderungen hilft auch immer eine Sitemap, in der die alten und neuen URLs mit Datum drinstehen.  

Thema: Weiterleitungen

Zeit: 06:06 Frage: Wie wird mit Weiterleitungen umgegangen? Haben alte Weiterleitungen die verlorenen Werte wiederbekommen oder werden nur neue Weiterleitungen verlustfrei gewertet? Antwort: Das Ganze gibt es schon seit einiger Zeit. Wir müssen da also nichts vergangenes mehr anfassen.  

Thema: Weiterleitungen

Zeit: 06:32 Frage: Ist es eine gute Idee, Seiten mit abgelaufenen Inhalten (tausende von alten Immobilienanzeigen) weiterzuleiten, um Google das Crawlen zu erleichtern? Antwort: Wenn es das Produkt nicht mehr gibt, dann sollte es ein 404 werden. Ich würde das nicht weiterleiten, außer wenn es ein gleiches Produkt gibt. Zur Homepage oder so weiterleiten macht da keinen Sinn. Die andere URL muss ein guter Ersatz sein. Oft macht es dann Sinn, eine gute 404-Seite mit hilfreichen Links aufzubauen. Denn wenn wir sehen, dass viele Weiterleitungen keinen Sinn machen, sehen wir sie vielleicht eh als soft 404.  

Thema: Manuelle Abstrafung

Zeit: 11:44 Frage: 2012 hatten wir eine manuelle Abstrafung wegen unnatürlicher Links. Aber seit dem können wir den Penalty nicht mehr in Search Console sehen und deswegen keine Reconsideration Request senden. Ist der Penalty von selbst abgelaufen? Antwort: Ja, das dürfte sich erledigt haben. Wenn ihr aktuell eine Abstrafung hättet, dann würdet ihr das in Search Console sehen. Man würde es auch noch sehen, wenn es für eine andere Variante (also http / https oder www / kein-www.) eine Abstrafung gäbe.  

Thema: Links 

Zeit: 13:18 Frage: Wir haben viele Kunden in UK und möchten dort nun ein Affiliate Programm mit vorgebauten Magento-Modulen starten. Wie kann man am besten verhindern, dass die daraus resultierenden Links nicht zu einer Abstrafung führen? Antwort: Wir empfehlen, Affiliate Links auf Nofollow zu stellen. Dann gibt es keine Probleme. Wenn ein kleiner Teil eurer Affiliates sich nicht daran hält, dann gibt es dafür auch keine manuellen Abstrafungen. Ihr könnt die, die sich nicht daran halten, auch ins Disavow File packen. Social Links zählen wir nicht für das Ranking.  

Thema: A/B Test

Zeit: 19:32 Frage: Wir planen, eine neue und eine alte Seite für 2-4 Wochen als A/B Test zu nutzen. Wir wollen den Test nicht im Index haben und blocken ihn daher für Google. Was wäre hier der beste Weg, um SEO-Probleme zu vermeiden? Antwort: Wir empfehlen hier immer ein Canonical. Dann sehen wir eigentlich, welche Version euch lieber ist: Es kann aber für kurze Zeit sein, dass beide Versionen im Index landen. Das ist dann aber kein Problem und ändert sich, sobald wir das Canonical verarbeitet haben.  

Thema: Panda

Zeit: 21:04 Frage: Ich will einen Panda loswerden. Sollte ich alle Daten aus Search Console nutzen, um meine Inhalte besser auf die Wünsche der Nutzer zuzuschneiden und ihnen eine bessere Erfahrung zu bieten? Wie oft werden kleinere seitenweite Algorithmen erneuert? Antwort: Es ist immer eine gute Idee, auf die Nutzerwünsche einzugehen. Das hat nicht nur mit unseren Algorithmen zu tun. Viele kleine Unternehmen zeigen zum Beispiel nur eine Visitenkarte und gehen damit gar nicht auf die Nutzerwünsche ein. Manche Algorithmen werden oft geupdated, andere brauchen länger.  

Thema: Https

Zeit: 23:03 Frage: Wir haben vor vier Monaten auf Https umgestellt, seit dem werden unsere Seiten nicht mehr so gut gecrawlt und indexiert. Antwort: Dazu müsste ich mir den Fall einmal anschauen. Im Hilfecenter gibt es dazu auch noch einige Dokumente.  

Thema: Duplicate Content

Zeit: 23:52 Frage: In Search Console sehen wir Duplicate Content für 2 URLs, die bis auf den Tracking Parameter gleich sind. Wie können wir diesen Hinweis verhindern? Können wir ein Crawlen der URL mit Parameter durch die robots.txt verhindern? Antwort: Da solltet ihr Weiterleitungen und Canonicals verwenden. Nutzt außerdem die interne Verlinkung, um immer nur die richtige URL zu nutzen. Außer in Extremfällen (wo die Server in die Knie gehen) würde ich aber keine robots.txt nutzen. Wir wissen dann nicht, dass es DC ist und indexieren beide URLs - denn wir wissen bei der geblockten ja nur, dass sie existiert, nicht was dort zu finden ist. Mit Canonicals etc. können wir sie hingegen zusammenlegen. Wichtig ist dabei, dass ihr immer gleich handelt und uns klare Wege aufzeigt. Kontext ist immer hilfreich, damit wir das richtige indexieren und anzeigen.  

Thema: Pagespeed

Zeit: 31:11 Frage: Wir haben jetzt Retina-freundliche Bilder. Wird unser PageSpeed leiden oder erhalten wir einen Penalty, wenn wir solche Bilder an Nutzer ausspielen, die zwar einen passenden Bildschirm aber keine gute Internetverbindung haben? Antwort: Gute Frage. Für den PageSpeed gibt es keinen Penalty, wenn es im normalen Rahmen ist. Wenn die Seite nicht ewig braucht, dann ist das eher was für die Nutzerfreundlichkeit. Aber wenn ihr viel geändert habt, dann müsst ihr alles vernünftig weiterleiten - das gilt auch für Bilder-URLs für die Bildersuche. Aber es wird immer dauern, bis wir alles erkannt haben.  

Thema: Mobile

Zeit: 36:45 Frage: Was für Tipps kannst du im Hinblick auf Canonical und Hreflang geben, wenn wir die selben URLs für Desktop und Mobile benutzen wollen? Antwort: Wenn ihr das wollt, dann muss das Canonical diese exakte URL sein, die ihr für beide Versionen nutzen wollt.. Dann habt ihr entweder eine responsive Seite oder dynamic serving. Habt ihr gleiche Seiten in verschiedenen Sprachen, dann muss das Hreflang zwischen denen hin und her gehen.  

Thema: Duplicate Content

Zeit: 38:01 Frage: Sollte die Anzahl der indexierten Seiten in etwa so hoch sein wie die, die in den SERPs angezeigt werden? Sind beide Zahlen sehr unterschiedlich, lässt sich das als viel DC oder Fehlerseiten deuten? Antwort: Ich glaube nicht, dass das immer der Fall ist. Die Zahlen können auch mal gleich sein, aber das kann dann auch eher Zufall sein. Viele URLs zeigen wir nicht, weil nicht nach ihnen gesucht wird. DC könnte man eher sehen, wenn man alle einzigartigen Seiten in eine Sitemap packt und diese Nummer mit dem Indexierungsstatus abgleicht. All diese Werte muss man aber auch immer im Kontext der Seite sehen und hinterfragen.  

Thema: Search Console

Zeit: 39:58 Frage: Wie oft wird der Sicherheitscheck durchgeführt - und wie gut ist er darin, Probleme zu finden? Antwort: Ich denke, du meinst das Malware Review. Das hat nichts mit dem Crawlen zu tun, sondern passiert ohne genauen Zeitplan. Das kommt also auch immer auf die Seite an.  

Thema: Weiterleitungen

Zeit: 40:34 Frage: Kann man einen Penalty erhalten, wenn man hunderte von geparkten URLs per 302 auf eine Website weiterleitet? Antwort: Wir sehen das immer mal wieder. Unsere Algorithmen sehen, wenn man das nur macht, um irgendwelche Vorteile aus geparkten Domains zu ziehen. Dann hat das Ganze einfach gar keinen Effekt. Eine manuelle Abstrafung würde es aber eher nicht geben.  

Thema: Interne Verlinkung

Zeit: 41:10 Frage: Kann man für übersättigte interne Ankertexte einen Penalty erhalten? Antwort: Soweit ich weiß nicht. Wir würden das als Keyword Stuffing sehen und die Algorithmen würden damit umgehen. Aber eine manuelle Straffe würde es eher nicht geben.  

Thema: Autorität

Zeit: 41:50 Frage: Was können kleine Geschäftsleute tun, um von Google als Autorität wahrgenommen zu werden? Antwort: Das ist echt schwer und mehr eine Frage des Marketing. Findet eine Nische und bietet dort einzigartige Inhalte.  

Thema: AdSense

Zeit: 51:46 Frage: Kann es passieren, dass Google Algorithmen wie Panda AdSense Matched Content JavaScript als weitere Anzeigeneinheit erkennen? Ich habe 3 AdSense und zwei Matched Content Einheiten, ist das zu viel? Antwort: Grundsätzlich crawlen wir die Inhalte von Werbeeinheiten nicht. Ob es zu viel ist oder nicht ist eine Sache zwischen dir und deinen Nutzern.  

Thema: Texte 

Zeit: 52:37 Frage: Viele E-Commerce Seiten nutzen Texte nur unter den Produkten. Aber ist nicht Text Above the Fold viel wertvoller? Antwort: Nicht unbedingt. Viele E-Commerce Seiten packen aber auch einfach sinnlose lange Texte ans Ende der Seite. Das sehen wir aber und das hilft ihnen nicht beim Ranken. Ihr solltet nur Texte einbauen, die es auch wirklich wert sind, gelesen zu werden. Und wenn etwas so wichtig ist, dann sollte es auch dort eingebaut werden, wo die Nutzer es finden. Das kann dann auch das Nutzerverhalten beeinflussen.  

Thema: Blog

Zeit: 1:00:50 Frage: Wir wollen einen Blog starten, der aber nicht auf der Hauptseite sein soll. Die Struktur der Seite wollen wir nämlich nicht anfassen. Sollen wir hierfür eine Subdomain nutzen? Antwort: Das hört sich nach einem guten Weg an. Aber nicht viele Subdomains, weil das würde das Crawlen erschweren.   Den ganzen Hangout könnt ihr euch hier ansehen: