Deutsches Google Webmaster Hangout Transkript, 20.12.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 5. Januar 2017

Thema: Search Console

Zeit: 20:50 Frage: Auf wie viel Prozent aller Websites wird Search Console überhaupt genutzt? Antwort: Ich glaube, dazu haben wir keine Zahl. Denn wir schauen eher, wie viel Prozent der Seiten, die in der Suche vorkommen, Search Console nutzen. Denn es gibt ja viele Seiten, die brach liegen oder ähnliches. Das würde ja keinen Sinn machen. Von denen, die in der Suche vorkommen, sind viele in Search Console verifiziert. Aber ob die es auch immer nutzen, weiß ich nicht. Denn wenn alles funktioniert, braucht man es ja vielleicht nicht unbedingt. Genaue Zahlen, die ich mit euch teilen könnte, habe ich da aber nicht.  

Thema: Search Console

Zeit: 22:19 Frage: Ich habe ein Google Sheet gebaut, dass dir erlaubt, Backup Daten zu erfragen. Da gibt es aber ein Problem mit den Property Sets. Diese scheinen in der API nicht so ganz unterstützt zu werden. Es geht, wenn ich mit der URL statt mit der Property Set ID suche, aber sonst nicht. Antwort: Das sollte eigentlich funktionieren, ich habe das ganz am Anfang mal probiert und da ging es. Vielleicht hat sich was geändert?  

Thema: Search Console

Zeit: 23:41 Frage: Mehrere Leute haben einen Bug reportet: Wenn das Start- und Enddatum identisch ist und es mehr als 5000 Einträge gibt, dann funktioniert die Paginierung nicht sondern es werden immer 4999 auf einer Seite angezeigt. Antwort: Das muss ich mir mal anschauen. Ich glaube, dass wir bei der API mal ein bisschen testen müssen.  

Thema: Search Console

Zeit: 24:46 Frage: Es wäre hilfreich, wenn man beim Gruppieren nach Suchanfragen eine Nachricht zu den Resultaten sehen könnte, die wegen Privacy Problemen gesperrt wurden. Denn im Moment muss man Umwege gehen, um diese Information zu erhalten. Antwort: Das macht Sinn, da sollten wir uns mal etwas ausdenken.  

Thema: Fetch as Google 

Zeit: 25:49 Frage: Gibt es Pläne, das Captcha bei Fetch and Render seltener einzublenden? Antwort: Ich weiß nicht, was da die Pläne sind. Ich glaube aber, dass wir bald ein unsichtbares Captcha einführen. Da müsst ihr dann nichts mehr selbst machen. Ich weiß aber nicht, wann das kommen wird.  

Thema: SERPs

Zeit: 27:34 Frage: Könnt ihr zwischen Nutzern unterscheiden, die nach einem Thema suchen und solchen, die zu einer Website mit der entsprechenden EMD gelangen wollen? Antwort: Eher nicht, denke ich. Jedenfalls nicht in Search Console.  

Thema: Search Console

Zeit: 27:53 Frage: Gibt es in Search Console Daten, die Aufschluss darüber geben, welche Teile einer Website die Nutzer als qualitativ hochwertig einschätzen? Antwort: Nicht direkt, aber indirekt schon. In Zusammenarbeit mit Analytics kannst du ja sehen, wie lange sie auf deiner Seite bleiben und ob sie schnell wieder verschwinden. Wir haben aber keinen Quality Report.  

Thema: Search Console

Zeit: 28:29 Frage: Können wir mehr Daten zu den Suchanfragen erwarten? Zum Beispiel den Traffic für ein ganzes Jahr? Antwort: Du bist nicht der erste, der danach fragt. Soweit ich weiß arbeitet das Team daran. Es dauert aber etwas, bis das funktioniert und die UI auch passend gemacht wird.  

Thema: Search Console

Zeit: 29:08 Frage: Basiert die durchschnittliche Position in Search Console auf personalisierten Suchergebnissen? Antwort: Ja, es basiert auf allem, was den Nutzern wirklich gezeigt wurde. Es ist keine theoretische Berechnung sondern das, was wirklich ausgespielt wurde.  

Thema: Search Console

Zeit: 29:34 Frage: Wir sehen in der Suchanalyse 1000 Seiten. Nach welchen Kriterien entscheidet Google darüber, welche Seiten angezeigt werden? Mit der API kann man bis zu 10.000 sehen, wie kann man an alle URLs kommen? Antwort: Soweit ich weiß zeigen wir die mit den meisten Impressionen. Ich glaube nicht, dass man alle sehen kann, vor allem nicht bei großen Seiten. Aber ihr könnt den Zeitrahmen eingrenzen, um genauer zu werden. Wir werden den Rahmen aber nicht deutlich erhöhen, da es das sonst zu unübersichtlich macht. Wenn ihr aber tolle Ideen für das UI habt, dann schickt sie mir und ich trage sie an das Team weiter.  

Thema: Search Console

Zeit: 30:59 Frage: Gibt es ein Update im Hinblick auf Voice Search in Search Console? Antwort: Nein, da gibt es noch nichts neues.  

Thema: Search Console

Zeit: 31:05 Frage: Hat es einen negativen Einfluss auf das Ranking, wenn man in einem seitenweiten Redirect zu einer neuen Domain eine XML Sitemap und eine robots.txt einfügt? Könnte sowas in Search Console analysiert werden? Antwort: Nein das sollte ok sein, solange wir die URLs crawlen können. Ihr dürft die also nicht in der robots.txt blockieren.  

Thema: Hreflang

Zeit: 31:43 Frage: Hast du einen Tipp, wie man Hreflang am besten auf einer mobilen Subdomain nutzen klnn, bei der die Canonicals zum Desktop zeigen? Reicht es, sie auf dem Desktop mit einem Alternate Tag zu nennen? Antwort: Momentan reicht das aus. Denn ihr habt das Hreflang zwischen den Canonicals. Für das mobile First Indexing kann ich das noch nicht sagen, wir schauen da gerade, was die einfachste Variante wäre. Da geben wir noch rechtzeitig Informationen heraus.  

Thema: Fetch as Google

Zeit: 32:39 Frage: Hat es einen negativen Einfluss auf das Ranking, wenn man während des Fetch and Render eine URL Type Severity Message erhält, die das komplette Rendern verhindert? Antwort: Meistens nicht. Wir weisen euch darauf hin, weil manchmal ja wichtige Inhalte im JavaScript stehen. Bei euch hört sich das aber nur nach Scripten an, die keine Inhalte verändern. Und in solchen Fällen könnt ihr das ignorieren.  

Thema: Fetch as Google

Zeit: 33:36 Frage: Du hast gesagt dass Google beim Indexieren erst das HTML anschaut, dann die gerenderte Version. Unsere mobile Seite wurde mit Angular gebaut, im HTML View wird also nichts angezeigt. Der Body ist <div id=”wrapper”><menu></menu></div>, gefolgt von Links zu Scripten (aber keine Inhalte oder Links). Die gerenderte Version zeigt die Inhalte an. Ist das bei Angular ok oder haben wir ein Problem? Antwort: Ja, das ist bei Angular normal. Der HTML View zeigt nur das grundlegende HTML, damit Nutzer dort Fehler analysieren können. Wenn Googlebot alles in der gerenderten Version sieht, ist alles ok.  

Thema: Crawling

Zeit: 35:59 Frage: Wir würden gerne die URL Parameter Funktion nutzen, um Crawlbudget zu sparen. Aber online gibt es dazu unterschiedliche Meinungen. Antwort: Das Parameter Tool macht Sinn, um unterschiedliche Parameter für das Crawlen anzulegen. Es ist keine Garantie, dass wir das nie Crawlen werden, aber wenn wir sehen, dass wir die Parameter eigentlich nicht brauchen, dann hilft uns das und wir werden uns auch daran halten.  

Thema: Search Console

Zeit: 37:19 Frage: Könnte Google eine Crawlstatistik hinzufügen, die zeigt, wie viele Seiten Googlebot auf natürliche Weise gecrawlt hat - anstelle der, die zeigt, wie viele man in der Sitemap hat und wie viele indexiert sind? Wir wollen sicher gehen, dass alle Seiten einfach zu erreichen sind und der Crawler nirgendwo blockiert wird. Antwort: Ich glaube nicht, dass wir dazu eine Statistik bieten könnten. Wir sammeln URLs auf mehreren verschiedenen Wegen, das ist also nicht möglich. Es gibt aber ein paar tolle Tools wie Screaming Frog, mit dem ihr eure Seite crawlen könnt. Dann seht ihr, was da vor sich geht.  

Thema: Search Console

Zeit: 39:53 Frage: Ich habe eine Https www. Domain und all die anderen Varianten werden hierhin weitergeleitet. Wenn sie weitergeleitet sind, gibt es da aber keine Daten oder? Antwort: Grundsätzlich zeigen wir das Canonical. Nur da musst du dann auch nach Fehlern suchen.  

Thema: Search Console 

Zeit: 41:09 Frage: Was kann ich unter den Backlinks bei Search Console finden? Finde ich da aller oder nur einen Teil? Antwort: Wir haben da keine strikten Richtlinien. Grundsätzlich sehr ihr dort Beispiele. Bei kleinen Seiten sind es vielleicht (fast) alle, bei großen Seiten sind es die relevantesten. Es zeigt dabei auch Nofollow Links und auch Links, die im Disavow Tool stehen.  

Thema: Search Console

Zeit: 43:09 Frage: Aus welchem Grund zeigt uns Google überhaupt diese Links? Und warum stehen die unter "Ranking"? Denn wenn ihr Nofollow Links zeigt, dann folgt ihr denen ja trotzdem irgendwie? Antwort: Wenn ihr z.B. die Links aufräumen wollt, dann ist das hilfreich. Normalerweise ist es eher eine Info, um zu sehen, wie sich die Seite mit der Zeit entwickelt. Aber wir denken, dass diese als Quellen für euren Traffic interessant sind - nicht so sehr, um sie auf dieser Grundlage zu optimieren. Deswegen zeigen wir ja auch die Links, von denen wir denken, dass sie für euch relevant sind.  

Thema: Search Console 

Zeit: 46:23 Frage: Die Links sind auch eine akkurate Repräsentation und es kann dauern, bis Seiten, die weg sind, auch überall verschwinden? Die Links, die dort stehen, werden von Google aktuell noch erkannt? Antwort: Das stimmt so.  

Thema: Https

Zeit: 49:41 Frage: Seht ihr das Https nur als Rankingfaktor, wenn weitergeleitet wurde? oder reicht auch ein Canonical? Antwort: Es geht um die URL, die in den SERPs gezeigt wird. Da ist es egal, was dahinter steht.  

Thema: Search Console

Zeit: 50:14 Frage: Kannst du ein Tool für automatische Backups empfehlen? Antwort: Mihai hat ein gutes Tool. Ansonsten weiß ich das nicht. Ich habe da meine eigenen Python Scripts, aber es gibt auch gute andere Tools, die Search Console da gut verbinden. Es gibt nichts, dass wir bei Google offiziell empfehlen. Viele nutzen vielleicht unsere API, aber da kennen wir ja auch nicht alle Tools, die es gibt.   Den ganzen Hangout könnt ihr euch hier ansehen: