Google Webmaster Hangout Transkript, 23.02.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 23. Februar 2017

Thema: Seitenstruktur

Zeit: 01:08 Frage: Ist der Klickpfad auf der Website wichtig für Google Rankings bzw. sollten alle Produktseiten in 3 Klicks erreichbar sein? Antwort: Müssen nicht. An und für sich achten wir da nicht auf eine Anzahl. Aber wenn etwas sehr verschachtelt ist, dann ist es schwer für uns zu finden. Solche Seiten crawlen wir dann vielleicht nicht so oft und halten sie vielleicht für nicht so wichtig. Stellt also sicher, dass Google und Nutzer die wichtigsten Inhalte schnell finden können.  

Thema: Canonical

Zeit: 02:56 Frage: Angenommen der Webmaster kann mit der Index- & Canonicaleinstellung sicher umgehen: Sollten dynamische Filterseiten (inkl. ?-Parameter) auf NoIndex+Canonical-Tag oder besser auf Index+Canonical-Tag gestellt werden? Antwort: Man könnte beides machen. Für uns ist es immer ein bisschen schwierig, wenn wir gegensätzliche Anweisungen auf einer Seite finden. Das wäre z.B. bei Noindex und Canonical der Fall. Canonical bedeutet äquivalent, die eine Seite hat dann aber Noindex und die andere wahrscheinlich nicht. Wir können da eigentlich mit umgehen,  es kann uns aber verwirren. Es wäre also besser, sie indexieren zu lassen - oder sie einfach direkt weiterleiten. Noindex verändert auch das Crawlbudget nicht, da wir die Seiten ja trotzdem crawlen. Bevor der Server in die Knie geht, kann man das mit der robots.txt ausschließen, aber sonst braucht man das nicht.  

Thema: Sitemap

Zeit: 06:52 Frage: Wird es aus Google Sicht empfohlen, die sitemap in komprimierte Version (.gz) oder unkomprimiert als xml bereit zu stellen (Webseite mit 100k-1Mio Url's)? Oder ist dies völlig gleich? Antwort: Das ist für uns total egal. Auch, wie ihr das aufteilt, ist euch überlassen.  

Thema: Bilder

Zeit: 07:30 Frage: Seit einigen Tagen ist die "neue" Bildersuche auch in Deutschland aktiv. In der Search-Console wird als Klick für die Bildersuche nur noch der Besuch der Seite gezählt, z.B. über den Button [Seite besuchen]. Was ist mit dem Button [Bild ansehen], der direkt zum Bild weiterleitet. Geht der Klick darauf auch in die Klick-Statistik der Bildersuche ein? Antwort: Das ist eine gute Frage, das weiß ich nicht. Da muss ich das Team mal fragen.  

Thema: SERPs

Zeit: 08:05 Frage: Wenn ich zum Beispiel in WordPress mit einem A/B Test Plugin zwei verschiedene Titel oder andere Inhalte wie verschiedene Newsletterformulare teste, was haltet Google davon, wenn sich der Inhalt so ändert? Und ist von A/B Tests allgemein abzuraten oder ist das kein Problem? Antwort: In der Regel ist das kein Problem. Du musst Googlebot aber so behandeln, wie alle anderen Nutzer auch. Außerdem müssen die A/B Tests irgendwann auch mal abgeschlossen sein. Wenn die Inhalte sich ändern, dann indexieren wir mal das eine und mal das andere. Da kann es dann auch Änderungen in den SERPs geben. Sind die Inhalte größtenteils gleich, dann sollte sich in den SERPs nichts groß verändern. Manchmal machen Leute solche Tests ja auch nur, um zu sehen, was besser rankt und mehr Klicks bringt.  

Thema: Crawling

Zeit: 10:15 Frage: Gibt es ein Limit bei Verwendung von Sonderzeichen wie z Bsp. "Schweiz" , Schweiz, [Schweiz], etc. werden alle beim crawling auch entsprechend berücksichtigt? Antwort: Ich wüsste nicht, dass es da beim Crawlen oder Indexieren irgendwelche Limits geben würde. Da nehmen wir die Seite, wie sie kommt. Sonderzeichen in den Wörtern kann aber einen Einfluss haben, wenn Nutzer das nicht suchen. Wenn man z.B. "@" als "a" benutzt. Dann zeigen wir das vielleicht nicht, weil Nutzer so nicht suchen. Aber mit normalen Zeichen oder Emojis sollte es keine Probleme geben. Und finden werden wir die Inhalte immer.  

Thema: Https

Zeit: 12:22 Frage: Wir stellen unsere Domains gerade auf HTTPS um und haben nach mehreren Checks keine technischen Probleme feststellen können. Nichtsdestotrotz verlieren wir stark an Traffic. Was können wir machen um das zu verhindern? Antwort: Das weiß ich nicht, da musst du mir mal die Seite über Google+ oder Twitter zuschicken. Dann kann ich mir das mit dem Team anschauen. Denn gerade bei Https haben wir Vorkehrungen getroffen, damit es keine großen Schwankungen gibt. Es kann aber immer passieren, dass wir die Seite mittlerweile anders einstufen oder ihr technisch etwas vergessen habt.  

Thema: Negative SEO

Zeit: 15:43 Frage: Bei einem Projekt haben wir derzeit damit zu kämpfen, dass wir Links aus aller Welt von Spam-Seiten etc. bekommen. Zirka 3 - 5 Domains in der Woche die fast den kompletten Content, also mit ca. 2800 Links zu uns linken (manchmal aber auch nur gezielt auf starke Unterseiten). Diese sind auch in den WMT sichtbar und linken alle DoFollow. Unsere Disavow Liste wächst und wächst. Dennoch mussten wir feststellen, dass das Projekt seit diesen Attacken ständig an Sichtbarkeit verliert. Was kann dagegen getan werden? Ist es wirklich ausgeschlossen das Negative SEO funktioniert? Antwort: In der Regel sorgt ein Eintrag in die Disavow Datei dafür, dass wir sie komplett aus den Algorithmen rausnehmen. Dann werden sie für die SERPs auch nicht verwendet. Wenn es da Veränderungen gibt, gibt es da also andere Gründe. Da bietet sich das Hilfeforum an, um einmal Feedback zu bekommen.  

Thema: Canonical

Zeit: 17:42 Frage: Ich habe eine Frage zum Canonical Tag. In dem Beispiel bekommt MSN von Businessinsider.de per Feed News zugespielt. MSN verbaut einen Canonical Tag auf die Quell-URL. Jedoch wenn man nach dem Beitrag in Google sucht, wird erst MSN und dann Businessinsider.de angezeigt. Keyword "deutschlands discounter im krieg" Antwort: Das müsste ich mir mit dem Team mal genauer anschauen. In der Regel müssen wir aber erstmal alles genau verarbeiten und indexieren, bevor wir dem Canonical folgen können. Es kann also eine Zwischenzeit geben, in der die Seite in den SERPs auftaucht. Später sollte sie dann aber rausfallen. Da kannst du mir aber gerne auch Beispiele mit den Suchbegriffen zuschicken.  

Thema: Featured Snippets

Zeit: 19:17 Frage: Kann es sein, dass wenn zwei Seiten die exakt gleiche Tabelle haben (also auch das HTML identisch ist), ihr dazu neigt die Seite auszuspielen, die nicht auf Platz eins ist? Darüber hinaus würde mich interessieren, ob die Position der Tabelle auf der Seite eine Rolle spielt? Und ob Ihr darauf achtet welche HTML Version man verwendet? Antwort: Meines Wissens nach passiert das nicht. Wir schauen die Seiten allgemein an: Es geht also nicht nur um die Tabelle, sondern um alle Inhalte auf der Seite. Manchmal nehmen wir sicher Dinge von weiter unten, das ist aber nicht vorgegeben.  

Thema: JavaScript

Zeit: 20:22 Frage: Ich habe einige Fragen bzgl. der verschiedenen Render Optionen bei Angular JS Webseiten durch Google: Gibt es neben dem Einsatz von ReactJS noch weitere Optionen - welche "Wunschkonfiguration" hat Google? Kannst Du mir sagen, welchen Timeout der Bot für das Rendern einer URL hat? 6, 12, 30 sec.? Antwort: Schwer zu sagen. Das Team sagt, wir sollten alles verstehen können. In der Praxis sehe ich aber oft Probleme bei lokalen Dingen, wenn die Seiten nur per Rendering sichtbar sind. Unsere Empfehlung ist, dass die Seiten für alle Nutzer gerendert ausgegeben werden. Dann wird die erste Seite ausgespielt und die anderen Seiten laden dann per JavaScript nach, wenn der Nutzer sich weiter bewegt. Dann würden Bots immer die normale HTML Version sehen, Nutzer sehen auch die vorgerenderte Version und können den Rest per JS sehen. Bezüglich Timeout geben wir nichts explizit an. Das kann sich immer mal wieder ändern und dreht sich auch um das Nachladen. Und bei unserem Rendering können wir viele Dinge auch aus dem Cache holen, bei uns geht es also oft schneller als bei normalen Nutzern. Testet das am besten mit Fetch and Render.  

Thema: Https

Zeit: 23:58 Frage: Unsere Firma betreibt einige (Spezialisten-)Jobplattformen auf ein und demselben Server. Nun sind wir daran, die Seiten auf https umzustellen. Im Zuge dessen schalten wir an einem Tag bis zu 10 Websites um. Das Problem: Seit der Umstellung sind die angezeigten Seitentitel in den organischen Suchresultaten "verschoben". Beispiel für pflege-berufe.ch: https://www.google.ch/search?q=site%3Apflege-berufe.ch da werden im Titel andere Jobplattformen von uns angezeigt (systemingenieur-jobs.ch oder kv-stelle.ch), welche zwar auf demselben Server laufen, jedoch ein komplett anderes Zielpublikum haben. Antwort: Das kann es manchmal geben. Meistens erkennen wir dann, das die Seiten wahrscheinlich die gleichen Daten haben. Das verwirrt uns dann und wir wissen nicht, wie es zusammen hängt. Meistens sieht man das, wenn unsere Systeme eine URL sehen, die mit mehreren Hostnames funktionieren. Ich weiß aber nicht, ob das bei eurem speziellen Fall so ist. Kontrolliert mal, ob die URLs wirklich separat sind. Das sollten wir aber auch besser lösen, daher zeige ich das dem Team nochmal.  

Thema: Internationale Websites

Zeit: 26:39 Frage: Wir haben mit einigen unserer Domains mit dem Country-targeting bei Ländern mit gleicher Sprache ein Problem. Das Problem liegt darin, dass z.B. für AT Index Domain.at angezeigt wird, der Title jedoch die Domain.de anzeigt. Wenn man sich den Cache anschaut, dann ist dort für domain.at die domain.de abgebildet. Das Problem tritt bei allen indexierten Seiten von Domain.at. Es scheint auch Auswirkungen auf die Indexierung zu haben, die Anzahl der indexierten Seiten sinkt. Href lang tags sind implementiert, Canonical Link zeigt auf die richtige Version, es gibt keinen automatischen IP Redirect zu Domain.de oder ähnliches. Antwort: Normalerweise sollten wir mit dem Hreflang die richtigen Domains darstellen, fassen sie aber beim Indexieren zusammen. Das passiert, wenn die Inhalte gleich sind. Wir wissen dann aber durch das Hreflang, dass es die Länderversionen gibt. Dann ist in den SERPs vielleicht mal etwas für das falsche Land dabei, im Snippet zum Beispiel. Wenn das ein Problem für euch ist, müsst ihr dafür sorgen, dass die Inhalte unterschiedlich sind. Das ist nicht immer so einfach, ist aber der einzige Weg.  

Thema: Mobil

Zeit: 28:58 Frage: Im Tool https://search.google.com/search-console/mobile-friendly Hier gibt es die Aussage „Blockierte Ressource“ in Zusammenhang mit dem Conversion-Tracking-Script. Hat diese Aussage Auswirkungen auf das korrekte und voll umfängliche Tracken von Conversions? Wir haben den Webmaster dazu befragt, nach seiner Aussage wäre es nicht der Fall. Antwort: Aus unserer Sicht ist das egal. Wenn blockierte Dinge keinen sichtbaren Einfluss auf das Indexieren haben, ist das egal. Denn wir verpassen dann ja nichts. Solche Scripte sind ja unsichtbar und können daher problemlos blockiert werden.  

Thema: Inhalte

Zeit: 30:06 Frage: Ich wäre heute auch gerne dabei. Seit einer Weile bin ich meine Homepage am aufwerten und habe für meine Kunden interessante Hochzeitslocations auf der Seite hinzugefügt. Hat das negativen einfluss wenn ich bei jeder Seite zu einer Location das Wort Hochzeitslocation einfüge? (Keyword Stuffing) Antwort: Wenn es relevant ist und passt, dann kann man das an und für sich machen. Ich würde einfach davon abraten, dass einzelne Keywords immer wieder platziert werden und es sich deswegen schlecht liest. Unsere Systeme versuchen, solches Stuffing zu erkennen. Wir können auch mit Synonymen und so arbeiten und brauchen nicht ein Keyword immer in fünf verschiedenen Varianten. Erwähnt das Wort, für das ihr ranken wollt, aber wenigstens ein Mal auf der Seite. Einmal ist dann aber eigentlich auch genug.  

Thema: Noindex

Zeit: 32:54 Frage: Wir haben Anfang November ca. 200k Thin-Content Produktseiten auf "noindex" gesetzt. Bis heute kommt bei ca. 30% der URLs noch Organic-Traffic an. Gibt es eine Möglichkeit die Deindexierung bei solch einer Größenordnung zu beschleunigen, da wir weitere TLDs haben bei denen wir den Thin-Content deindexieren möchten. Antwort: Ich würde raten, dass wir hier mit dem Crawling nicht ganz nachkommen. Dass wir zwar viel Crawlen, aber die alle noch nicht wieder gesehen haben. Bei 200.000 Seiten sollten wir das aber eigentlich ziemlich schnell hinkriegen. Es kann sein, dass wir viel Duplicate Content finden, wodurch wir deutlich mehr als diese 200.000 Seiten crawlen müssen. Schaut mal in die Logs, weil vielleicht gibt es auch noch Parameter oder so. Wahrscheinlich fanden wir die Seiten auch vorher schon nicht so wichtig, deswegen werden sie selten gecrawlt. Hier hilft eine Sitemap mit dem Änderungsdatum, an dem der Noindex eingebaut wurde. Dann sollten wir das relativ schnell sehen.  

Thema: Seitenstruktur

Zeit: 37:13 Frage: Ich beschäftige mich mit der Code-Text Rate. Kann die ein Problem werden? Antwort: Nein, an und für sich nicht. Diese Rate spielt gar keine Rolle. Höchstens, wenn die Seite deswegen extrem groß wird, wird es ein Problem. Dann hören wir vielleicht irgendwann auf, die Seite runterzuladen, nach 100 mb oder so. bei normalen Seiten ist das aber egal.  

Thema: Bilder

Zeit: 39:08 Frage: Können SVG Daten dazu führen, dass es robots.txt Probleme bei Fetch and Render gibt? Antwort: Nein, das blockiert durch robots.txt bezieht sich darauf, dass die Ressource blockiert ist. Letzte Woche hatten wir aber ein Problem, dass in Fetch as Google nur "Fehler" stand und nichts weiteres. Das haben wir aber auch schon behoben. SVG lesen wir in der Regel als Bilder und zeigen sie auch in der Bildersuche. Da kann man zwar auch Texte und Links einfügen, das würden wir aber trotzdem als Bild sehen und nicht die Inhalte sonst indexieren.  

Thema: Https

Zeit: 41:55 Frage: Warum zeigt ihr nicht direkt in den SERPs, ob eine Seite Https hat oder nicht? Antwort: Wenn wir es können, zeigen wir es direkt in der URL. Wir haben auch Tests gemacht, zum beispiel mit einem Schlüssel oder Schloss, da haben wir aber keine perfekte Lösung gefunden. Aber die Entwicklungen zeigen auch alle, dass Https immer wichtiger wird und ich gehe davon aus, dass wir das in den SERPs in ein oder zwei Jahren auch anders darstellen werden.  

Thema: Backlinks

Zeit: 43:53 Frage: Oft liest man, dass nicht nur auf die Hauptseite verlinkt werden soll. Antwort: Die externen Links sollten ja von Benutzern gesetzt werden, sonst ist das eher unnatürlich. Und Nutzer setzen die Links dahin, wo sie es gerade für sinnvoll halten. Daher ist es für uns natürlich, dass manche Links auf die Homepage gehen und andere woanders hin.   Den ganzen Hangout könnt ihr euch hier ansehen: