Google Webmaster Hangout Transkript, 10.03.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 10. März 2017

Thema: SERPs

Zeit: 00:32 Frage: Eine Seite produziert jeden Tag hunderte von Seiten. Wie kann man schauen, wie gut Inhalte an einem Tag performen? Denn ihr updated die Suche doch sicher nicht so oft täglich. Und wird alles, was an einem Tag rauskommt, ranken? Antwort: Da solltet ihr euch anschauen, wie schnell die News Stories indexiert werden und ob sie gut ranken. Ihr solltet einfach sicherstellen, dass alles crawlbar ist und gut indexiert werden kann. Dann könnt ihr die Logfiles anschauen um zu sehen, wann etwas veröffentlicht wurde, wann Googlebot es angesehen hat und wann Nutzer anfangen, auf die Seite zu gehen. Da kann man dann einige Metriken herausfiltern. In Analytics sieht man aber nur, wann Nutzer kommen - nicht wann Googlebot vorbeischaut. Wenn News nicht gut ranken, dann kann man da eh nicht mehr viel machen und die SEO Tricks auspacken. Da kann man dann höchstens Ideen für neue Beiträge herausnehmen und darauf achten, dass technisch alles richtig aufgebaut ist.  

Thema: Hreflang

Zeit: 08:50 Frage: Kann man Hreflang nicht auf Seiten einstellen, die nicht das Canonical sind? Antwort: Der technische Grund dafür ist, dass wir URLs, die nicht das Canonial sind, nicht so oft crawlen. Deswegen sollen die Links zwischen den jeweiligen Canonicals der Sprachversionen sein. Andernfalls sehen wir das Hreflang wahrscheinlich eher gar nicht.  

Thema: Indexierung

Zeit: 17:14 Frage: Was kann der Grund dafür sein, dass eine Seite nicht im Index ist, obwohl technisch alles stimmt und es keine Abstrafung gibt? Antwort: Das ist schwer zu sagen, da gibt es mehrere mögliche Gründe. Wir indexieren nicht alles, was wir finden. Manchmal aus technischen und manchmal aus inhaltlichen Gründen. Nicht jede Unterseite gibt uns einen ausreichenden Grund, sie zu indexieren. Du kannst sie aber per Fetch as Google an den Index schicken, wenn technisch alles stimmt, dann sollte sie damit im Index landen.  

Thema: Ranking

Zeit: 18:53 Frage: Ich ranke für ein großes Keyword auf Platz eins, erhalte aber kaum Traffic. Woran kann das liegen? Antwort: Entweder suchen es nicht viele oder eure Seite ist nicht das, was Nutzer erwarten (Title oder Description). Suche also so, wie deine Nutzer suchen würden.  

Thema: 

Zeit: 20:00 Frage: Ist es geplant, in Search Console auch die Seiten auszulisten, die als qualitätsarm angesehen werden? Antwort: Das ist eine interessante Idee, ich glaube aber nicht, dass es solche Pläne bei uns gibt. Ich weiß auch nicht, ob wir das überhaupt könnten - auch wenn ich zustimme, dass ihr da manchmal mehr Infos gebrauchen könntet. Ich leite die Idee auch mal an das Team weiter.  

Thema: Hreflang

Zeit: 21:15 Frage: Ich kriege in den Hreflang Sitemaps No return Fehler. Was kann ich tun, die Seiten sind hin- und her verlinkt. Antwort: Das heißt wahrscheinlich, dass wir einige URLs noch crawlen müssen und die Rücklinks deswegen noch nicht gesehen haben. Wir nehmen die Dinge aus den Sitemaps erst richtig dazu, wenn wir wieder gecrawlt haben. Nicht schon dann, wenn wir sie in der Sitemap lesen. Vielleicht hilft ein Last Modification Date, damit wir die entsprechenden Seiten schneller crawlen. Das bringt aber nichts, wenn alle Seiten das selbe Last Modification Date haben, dann ignorieren wir das.  

Thema: Https

Zeit: 23:18 Frage: Wir sind auf Https umgezogen und haben dabei auch die URLs und die Architektur geändert. Jetzt haben wir 30% organischen Traffic verloren. Woran kann das liegen? Antwort: Das ist schwer zu generalisieren, ich müsste mir die Seite mal anschauen. Poste vielleicht in den Foren oder schick mir das mal. Aber wenn man zusätzlich die URLs und die Architektur ändert, dann müssen wir alles neu analysieren und das kann etwas dauern. Die Architektur zu ändern ist auch immer schmerzhaft. Wenn es passt, kann man das ruhig mit https zeitgleich machen.  

Thema: Rankingfaktoren

Zeit: 27:06 Frage: Kann es schaden, PopUnder Traffic einzukaufen? Spielt die Qualität der Domain, von der der Traffic kommt, eine Rolle? Antwort: Ich glaube nicht, dass wir das unter SEO Gesichtspunkten überhaupt sehen würden. Aber Nutzer wären davon vielleicht nicht so begeistert.  

Thema: Indexierung?

Zeit: 34:31 Frage: Hilft das Fetch as Google beim Ranking oder sollte man Google überlassen, welche neuen Seiten sie indexieren wollen? Antwort: Grundsätzlich finden wir neue Seiten relativ schnell selbst. Bei neuen Seiten dauert es aber immer etwas, bis wir wissen, wo wir es ranken sollen. Es ist also egal, auf welchem Wege sie bei uns ankommen.  

Thema: Indexierung

Zeit: 35:21 Frage: Wird es beim Mobile First Index Probleme für Seiten mit Dynamic Serving geben? Wird es ein Problem sein, wenn man sowohl eine responsive als auch eine dynamische Seite anbietet? Antwort: Ich glaube nicht, dass es ein Problem ist, beides zu haben. Dadurch geht nichts kaputt, aber es ist schwerer für euch, mögliche Bugs zu finden und die Tools drüber laufen zu lassen. Es führt also nicht zu Abstrafungen oder so, macht euch das Leben aber schwerer. Wenn ihr eine mobile Seite im vary Header auszeichnet, dann vertrauen wir dem auch. Wenn wir dann in Zukunft mit dem Smartphone User Agent crawlen, sehen wir dann die mobile dynamische Seite, auf die ihr uns hinweist.  

Thema: Search Console

Zeit: 37:52 Frage: Ich habe in Search Console www. und non-www. verifiziert und will mit jetzt eine aussuchen. Dann werde ich immer gebeten, beide zu verifizieren. Aber das habe ich ja schon gemacht. Wie kann ich das umgehen? Antwort: Das hört sich nach einem komischen Fehler an. Vielleicht habt ihr eine mit https und eine http? Ansonsten ist das Setting auch nur eine Bestätigung aller anderen Faktoren, die wir schon für das Canonical sehen. Dazu gehören interne und externe Links, URLs in der Sitemap und auch interne Links. Wenn ihr uns da also schon auf das richtige hinweist, dann ist das Preferred Domain Setting nicht mehr so wichtig. Du kannst mir das Beispiel aber gerne mal zuschicken, dann schaue ich mir das mit dem Team an.  

Thema: Hreflang

Zeit: 40:05 Frage: Meine große Seite hat viel User generated Content mit drei Sprachversionen auf unterschiedlichen Domains. Für Nutzer macht es aber Sinn, auch die anderen Sprachen zu sehen. Es geht um die Niederlande, Belgien und Frankreich. Wir haben Hreflang etc. Für den Nutzer macht es Sinn, aber seit wir das haben verlieren wir Traffic. Antwort: Das Hreflang hat nichts mit dem Traffic oder Ranking zu tun. Es zeigt uns nur, welche URL wir wo zeigen sollen. Vielleicht müssen wir aber seit der Umstellung viel mehr crawlen und ihr verwässert nun die Inhalte, da es zu viele URLs gibt. Wenn ihr aber nur Hreflang eingebaut habt, dann sollte es keine Änderungen im Ranking geben. Wenn Inhalte mit der falschen Sprache in den SERPs auftauchen, dann zeigen wir vielleicht den Translate Link, das sollte aber kein Problem sein.  

Thema: Canonical

Zeit: 45:09 Frage: Was kann passieren, wenn ich im Hreflang eine URL einbaue, die kein Canonical ist? Antwort: Dann werden wir das Hreflang wahrscheinlich ignorieren.  

Thema: Manuelle Abstrafungen

Zeit: 45:58 Frage: Wie kann ich die Person finden, die meine Seite gebannt hat. Ich habe monatelang daran gearbeitet und bekam immer nur Copy und Paste Antworten, bis ich die Arbeit aufgegeben habe. Antwort: Das Webspam Team hat sehr klare Richtlinien dazu, wann sie eine Abstrafung aussprechen dürfen. Du musst dich also an die Richtlinien halten. Uns ist auch klar, dass es da manchmal Schwierigkeiten gibt, z.B. bei Ad Networks, die euch problematische Anzeigen zur Verfügung stellen.  

Thema: Hreflang

Zeit: 47:41 Frage: Meine US Seite rankt in UK höher als die UK Seite, trotz Hreflang und x-default? Antwort: Wir tauschen die URLs eigentlich nur aus, wenn das Hreflang richtig eingebaut ist.  

Thema: Strukturierte Daten

Zeit: 49:11 Frage: Ist das strukturierte Markup immer noch wichtig für das Ranking meiner Seite? Antwort: Nein, nicht unbedingt. Wir nutzen das vor allem, um die Inhalte zu verstehen und um Rich Snippets zu erstellen. Damit sehen eure Ergebnisse vielleicht besser aus, bringen sie aber nicht zu besserem Ranking. Aber wenn ihr das habt, dann können wir es vielleicht passender darstellen.  

Thema: AMP

Zeit: 51:17 Frage: Gibt es ein Risiko, wenn man einen "mehr lesen" Link oder einen zur Seite 2 des Textes von der AMP zur normalen responsiven Version leiten lässt? Antwort: Das sollte ok sein, ich glaube nicht, dass wir das als Doorway Page sehen würden. Wichtig ist aber, dass die Inhalte gleich sind. Die AMP und die mobile Version müssen also beide den "mehr lesen" Link haben, der dann auf eine ganz andere Seite weiterleitet.  

Thema: Inhalte

Zeit: 52:23 Frage: Gibt es ein Limit für die Keyworddichte in Texten? Antwort: Nein, wir erwarten, dass Texte natürlich geschrieben sind. Ich würde sagen, dass das Konzentrieren auf die Keyworddichte eine absolute Zeitverschwendung ist. Eure Inhalte müssen leicht zu lesen sein. Lest sie laut vor, und wenn sie gut sind, dann passt es. Wenn wir Keyword Stuffing sehen, dann ignorieren wir das Keyword eh. Ihr müsst auch nicht gezwungenermaßen Synonyme nutzen. Wir können auch eure Inhalte anzeigen, wenn jemand nach dem Synonym oder einem Spitznamen sucht. Schreibt einfach in natürlicher Weise über euer Thema.  

Thema: JavaScript

Zeit: 56:33 Frage: Ist es ok, Angular JS für die Boiler Plate zu nutzen und den Client den Rest rendern zu lassen? Antwort: Das kann man definitiv machen. Wenn es bei Fetch an Render alles richtig angezeigt wird, dann funktioniert es auch. Da ist es dann egal, was genau ihr dahinter benutzt. Passt aber auf, dass Angular manchmal schwer zu De-Buggen ist. Mit manchen Tools geht das aber auch mittlerweile.  

Thema: Internationale Websites

Zeit: 58:00 Frage: Kann Google zwei Sprachen auf einer Website erkennen und diese dann den passenden Nutzern ausspielen? Antwort: Ja, wir versuchen pro Unterseite eine Hauptsprache zu herauszufinden. Sind es also verschiedene Seiten, dann ist es problemlos. Sind es mehrere Sprachen auf einer Unterseite, dann ist es etwas schwerer.  

Thema: Https

Zeit: 1:02:34 Frage: 1. Plant Google eine Open Source Lösung für Https? 2. Gibt es ein ausreichendes Https für Standardseiten? Antwort: 1. Ich glaube nicht, dass wir sowas planen, Let's Encrypt macht das ja gut. 2. Für unsere Suche muss das Zertifikat nur in modernen Browsern gut funktionieren. Den Rest könnt ihr euch aussuchen.  

Thema: Redirect

Zeit: 1:03:37 Frage: Ist es ok, den Nutzer basierend auf dem letzten Besuch (gespeichert per Cookie) per 302 zur jeweils passenden Kategorie (Herren, Damen) weiterzuleiten? Google hat ja keine Cookies und sieht das dann nicht, oder? Antwort: Ja, wir nutzen keine Cookies. Googlebot würde das also nicht sehen. Wir nutzen nur dann Cookies, wenn wir Inhalte sonst gar nicht sehen könnten. Das ist aber sehr selten und sollte nicht gemacht werden.  

Thema: Videos

Zeit: 1:06:41 Frage: Wir bieten viele Videos und da Google Seiten dank neuer Daten rankt, will ich die Videos mit meiner Seite verknüpfen. Sie werden aber in Google Drive hochgeladen. Was kann ich da machen, damit meine Seite von den Videos profitiert? Antwort: Wenn wir sehen, dass sie bei euch gehostet werden, dann können wir das in der Videosuche anzeigen. Aber nur, weil ihr ein Video habt, rankt ihr in der organischen Suche nicht besser. Überlegt euch also, ob das in der Videosuche auftauchen soll und leitet dann entsprechende Schritte ein.  

Thema: Https

Zeit: 1:09:04 Frage: Ich ziehe grad zu Https um und will das Crawlen für gewisse http Unterseiten auf disallow stellen, die man weiterhin auch von Https sehen wird. Kann ich das machen? Antwort: Wichtig ist für uns, dass wir erkennen, dass ihr auf eine neue Seite umzieht. Wenn ihr die alte Seite blockiert, dann können wir die Weiterleitungen nicht erkennen und deswegen sagen unsere Regeln, dass wir die alte Seite crawlen können sollten. Wenn ihr aber unbedingt etwas blockieren müsst, dann können wir euch das nicht verbieten. Es macht uns das Leben aber deutlich schwieriger.  

Thema: 404

Zeit: 1:10:17 Frage: Ich habe viele 404er und habe sie bearbeitet. Trotzdem sind noch viele da, was kann ich da tun? Antwort: Wir müssen erstmal alles Crawlen, bis wir die Zahlen in Search Console anpassen können. Das kann Monate dauern, bis wir alles gesehen haben. 404er sind aber auch kein Problem, sondern ein normaler Teil des Internets. Wenn ihr zum Beispiel einen endlosen Kalender offline nehmt, dann habt ihr theoretisch auf einmal Millionen an 404ern, die sind aber total egal. Wir versuchen auch, die wichtigeren 404err in Search Console besser hervorzuheben. Aktuell zeigen wir Prioritäten, wenn die URL in einer Sitemap war, externe Links hat oder ähnliches. Wenn also die obersten 404er schon egal sind, dann kommt darunter auch nichts relevantes mehr. Wir kriegen die Frage aber immer wieder, deswegen wollen wir das noch deutlicher machen. Wenn wir crawlen, konzentrieren wir uns auch erstmal auf wichtige URLs, viele 404er richten da also eigentlich auch keinen Schaden an.   Den ganzen Hangout könnt ihr euch hier ansehen: