Deutsches Google Webmaster Hangout Transkript, 26.08.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 26. August 2016

Thema: Internationale Seiten

Zeit: 00:31 Frage: Wie kann ich meine Seite für die tschechische Sprache optimieren? Antwort: Wichtig ist, dass die Inhalte gut und einzigartig sind. Die Übersetzungen aus dem englischen müssen fehlerlos sein. Dann helfen vielleicht Geotargeting und Hreflang.  

Thema: Panda

Zeit: 02:50 Frage: Google hat 10 Monate gebraucht, um das letzte Panda Update zu starten. Können wir also sagen, dass der langsame Rollout etwa 10 Monate dauert? Antwort: Das würde ich nicht unbedingt sagen. Da ist keine Verbindung zu sehen.  

Thema: Nutzersignale

Zeit: 03:18 Frage: Nutzt Google Aufenthaltsdauer und Bounce Rate als Rankingsignale? Antwort: Das würdet ihr mit Analytics tracken und wir nutzen Analytics nicht für Rankings und Search. Wir nutzen Nutzersignale nur, wenn wir Algorithmen testen. Da sind dann aber Millionen Seiten im Fokus. Mit einzelnen Seiten geht das nicht.  

Thema: Nutzersignale

Zeit: 04:09 Frage: Sagen wir, dass Google 1000 Leute auf eine Website schickt. Schaut ihr euch Statistiken wie die folgende an: 300 Nutzer haben gefunden, was sie gesucht haben, 400 haben es etwas Zeit verbracht und dann weiter gesucht, 300 sind schnell zu den SERPs zurückgekehrt. Verändert das die Rankings? Antwort: Wir schauen uns das wie gesagt auf einem aggregierten Level für Millionen von Seiten an. Pro Seite aber nicht.  

Thema: Search Console

Zeit: 04:47 Frage: Wie können wir es schaffen, dass irrelevante 404 Fehler nicht mehr in Search Console auftauchen? Antwort: Sie werden weiterhin da sein. Google hat ein gutes Gedächtnis und deswegen kommen sie immer wieder. Da müsst ihr aber nichts machen. Wir sehen das nicht als Problem, es ist einfach ein technischer Hinweis. Wir prüfen wir URLs nur, um sicher zu gehen, dass wir nichts verpassen.  

Thema: Überschriften

Zeit: 05:51 Frage: Wobei helfen Überschriften? Was ist, wenn ich eine oder keine H1 habe? Antwort: Sie geben uns Hinweise auf die Inhalte und Zusammenhänge der Seite, ich würde das immer nutzen. Denn so könnt ihr Nutzern und uns helfen. Aber mit Keyword Stuffing erreicht ihr da nichts. Es geht mehr um den Kontext.  

Thema: Nutzersignale

Zeit: 06:51 Frage:  Im deutschen Hangout hast du gesagt, dass Nutzersignale nicht für das Ranking zählen. Heißt das, dass es mein Ranking nicht verbessert, wenn der Nutzer auf meiner Seite findet, was er gesucht hat? Antwort: Das haben wir ja grad besprochen. Wir nutzen es, um Algorithmen besser zu verstehen. Indirekt hilft es aber, wenn Nutzer eure Seite mögen, oft wiederkommen und sie teilen. Das hilft ja auch bei den Konversionen. Für die Rankings haben wir aber eine andere Situation.  

Thema: Local Search

Zeit: 08:05 Frage:  Wie kann man "near me" Keywords richtig targeten? Antwort: Alles, was ihr tun könnt, um eurer Seite eine Local Präsenz zu geben. Denn Local triggert das.  

Thema: Indexierung

Zeit: 08:47 Frage:  Viele unserer Produkte sind nicht im Index. Woran kann das liegen? Antwort: Ich bin mir nicht sicher, wie das aussieht. Da müsstet ihr in den Webmaster Hilfe Foren posten.  

Thema: Crawling

Zeit: 09:39 Frage: Ich habe meine Inhalte geändert, aber Google hat die Seiten nach 7 Tagen immer noch nicht gecrawlt - jedenfalls sehe ich im Cache nichts dazu. Ich habe eine Sitemap und eine dynamische Seite. Antwort: Du kannst interne Links von der Homepage aus setzen. Du kannst eine Sitemap mit dem letzten Änderungsdatum erstellen und uns diese zur Verfügung stellen. Wenn es nur eine Seite ist, dann kannst du die Seite in Abruf wie durch Google an den Index schicken. Grundsätzlich repräsentiert der Cache nicht immer, was wir beim Indexieren machen. Eine Seitenabfrage für die entsprechenden Keywords würde da eher helfen. Wenn deine Seite JavaScript ist, dann würden wir sie erst rendern, und das zeigen wir nicht im Cache.  

Thema: Weiterleitungen

Zeit: 19:00 Frage: Wir haben auf unserer E-Commerce Seite alle doppelten Produktbeschreibungen in eine Subdomain verschoben und auf Noindex gesetzt. Sobald wir dafür einzigartige Inhalte geschrieben haben, werden wir sie per 301 wieder auf die Hauptdomain bringen. Kann man das machen? Antwort: Ich denke, das könnt ihr machen. Ihr könnt den Noindex aber auch einfach auf die Produktbeschreibungen auf der Hauptdomain setzen, der Umweg mit der Subdomain ist nicht nötig.  

Thema: Interstitial

Zeit: 19:36 Frage: Google sagt, dass Interstitials bald bestraft werden. Gilt das auch für kleine Widgets für die Personalisierung von Websites? Antwort: Wir haben im Blogpost Beispiele für Ausnahmen. Das solltet ihr euch anschauen, denn Widgets können ja alles sein.  

Thema: Https

Zeit: 20:20 Frage:  Kannst du zusammenfassen, warum wir https nutzen sollten und was die Vorteile sind? Antwort: Es gibt viele Vorteile, vor allem drei. Der Nutzer weiß, dass er mit dem Server selbst spricht. Alles, was gesendet wird, ist verschlüsselt. Nichts kann unterwegs modifiziert werden. Zum Beispiel, wenn offene Hotspots Werbung auf eurer Seite einbauen, ohne dass ihr das wollt. Https braucht man auch für http/2, womit Seiten schneller gemacht werden können. Wenn ihr Dinge wie WebApps oder Offline Websites nutzt, dann brauchen die auch Https. Ich empfehle auch allen Seiten https, egal was sie anbieten. Der Trend geht sicher in die Richtung. Wir geben bei 301 PageRank weiter, es geht also bei der Umstellung nichts verloren. Aber bei Änderungen an der Seitenstruktur wird es immer vorübergehende Fluktuationen geben. Vielleicht für ein paar Wochen oder etwas länger. Https ist auch mehr ein kleines Signal und es ist auf einer Seitenbasis. Es zählt also für jede Unterseite. Wenn andere Unterseiten nicht auf https sind, dann ist das für die https Unterseiten kein Problem.  

Thema: Interne Links

Zeit: 25:41 Frage: Verliert ein Link seinen Wert, wenn eine Website Parameter hat und diese mit robots.txt blockiert sind? Antwort: Nicht unbedingt. Das wäre eher ein Link zu einer robot URL. Wir wissen nicht, was sich auf der Seite verbirgt, aber wir kennen den Kontext des Links. Dann indexieren wir die Seite ohne Inhalte und versuchen, das in den SERPs zu zeigen. Das kann auch aus technischen Gründen einmal Sinn machen. Aber die robots.txt würde ich nicht für Duplicate Content machen. Da solltet ihr beide freigeben und wir suchen uns dann eine aus und klappen das zusammen. Da kann man vielleicht auch mit Canonicals oder Weiterleitungen arbeiten. Stellt sicher, dass das crawlbar ist. Dann können wir die Signale für beide Seiten für die bevorzugte Version zusammenfassen.  

Thema: Https

Zeit: 28:08 Frage: Macht bei https das Zertifikat einen Unterschied? Antwort: Für uns ist das alles gleich. Solange es valide Zertifikate sind und sie von einem modernen Browser erkannt werden. Das können auch kostenlose Zertifikate sein.  

Thema: Ranking

Zeit: 28:39 Frage: Versucht Google, auch kleinen Unternehmen die Chance zu geben, für spezielle Nischen über großen Firmen zu ranken? Antwort: Ja klar. Wenn ihr klein seid und euch auf etwas einzigartiges konzentriert, dann könnz ihr der Experte in eurer Nische werden und über allen anderen ranken. Da gibt es viele Möglichkeiten. Versucht aber, nicht die Großen zu kopieren. Macht eurer eigenes Ding.  

Thema: Social Signals

Zeit: 30:15 Frage: Sieht Google Social Signals als Noise, weswegen sie keine Hilfe für die Algorithmen sind? Antwort: Soweit ich weiß nutzen wir sie gar nicht. Vor allem, weil wir sie nicht alle crawlen können. Und wenn wir sie sehen können, sind eh alle Links Nofollow. Das bringt uns dann nichts.  

Thema: Weiterleitungen

Zeit: 30:42 Frage: Wie lange braucht Google, um Weiterleitungen zu verarbeiten? Antwort: Wir nutzen Weiterleitungen, sobald wir sie sehen. Das passiert beim nächsten Crawlen. Wenn es schneller gehen soll, könnt ihr auch eine Sitemap anbieten. Ansonsten nutzt das Search Console Tool.  

Thema: Duplicate Content

Zeit: 32:21 Frage: Unser Traffic ist eingebrochen, nachdem wir die Navigation umgebaut haben. Wir haben dann gesehen, dass die selbe Zeile mit 150 Zeichen mehr als 70 mal auf der Seite wiederholt wird, da sie sich in der Navigation befindet. Ist das Duplicate Content? Antwort: Für uns sollte das kein Problem sein. Wir können Dinge wie die Navigation, Sidebar oder Footer auseinanderhalten. Das ist Boiler Plate, da ist uns Duplicate Content egal. Denn diese Dinge sind nun mal meistens gleich. Wenn es aber Keyword Stuffing ist, dann würde ich das löschen.  

Thema: Panda

Zeit: 33:51 Frage: Gab es einen erneuten Rollout nach Panda 4.2? Antwort: Ich weiß nicht, was Panda 4.2 ist. Aber der Panda rollt in Echtzeit aus, da werdet ihr keine großen einmaligen Sprünge mehr sehen. Das sind mehr individuelle Änderungen.  

Thema: Duplicate Content

Zeit: 34:39 Frage:  Ich habe eine Kurswebsite, auf der die Kurse für mehrere Orte angeboten werden. Aber die Inhalte sind ja immer die gleichen, nur die Orte ändern sich. Ist das Duplicate Content? Antwort: Da müsst ihr schauen, für wie viele verschiedene Orte das Sinn macht. Für Leute an dem Ort macht es Sinn, es einzeln zu haben. Aber es an einem Ort haben, macht die Inhalt für uns vielleicht stärker. Das müsst ihr euch im Hinblick auf euer Geschäftsmodell überlegen. Für wenige Filialen macht einzelnes Sinn, für hunderte - wie zum Beispiel McDonalds - macht eine zentrale Seite mit Verweisen auf die einzelnen Filialen mehr Sinn.  

Thema: Local Search

Zeit: 36:33 Frage: Was können lokale Unternehmen tun, um in der lokalen Suche erfolgreich zu sein? Antwort: Ich würde mich da auf Google my Business konzentrieren. Da gibt es sicher auch SEO Tricks, aber ich weiß darüber nichts weil das nicht ein Themengebiet ist. Ihr könnt dazu viele Blogs finden. Ihr könnt aber auf eurer Website auch euren Ort per Markup stärken.  

Thema: Duplicate Content

Zeit: 38:01 Frage: Meine Seite hat Alternate Tags für die m.site. Aber Google indexiert manchmal die falschen URLs. Die Tags sind aber korrekt. Antwort: Grundsätzlich ist Duplicate Content da kein Problem. Wenn ihr das aber in der Desktop Suche seht, dann ist das ein Zeichen dafür, dass wir die Verbindung nicht richtig sehen. Da müsst ihr prüfen, ob alles technisch richtig eingebaut ist. In solchen Fällen hat das responsive Design echte Vorteile, da sich da alles auf einer URL befindet.  

Thema: Interstitials

Zeit: 40:32 Frage: Wie sieht es bei der neuen Regelung mit Interstitials aus, die erst mit einer Verzögerung ausgespielt werden? Antwort: Das hört sich so an, als wolltet ihr die Regeln austricksen. Da würde ich aufpassen. Interstitials sollten nur aus rechtlichen Gründen gezeigt werden.  

Thema: Siloing

Zeit: 41:15 Frage: Hast du Tipps für das Siloing von Inhalten? Sollte man so viel wie möglich zusammenfassen oder es in Unterthemen aufsplitten? Antwort: Beide Wege sind in Ordnung. Da müsst ihr euch überlegen, wie sehr ihr die Inhalte abgrenzen wollt. Wir nehmen die Inhalte, wie sie kommen.  

Thema: Indexierung

Zeit: 42:26 Frage: Ich sehe Unterschiede und Fluktuationen bei der Anzahl der indexierten Seiten für meine Single Page App in Search Console. Antwort: Zum Einen war der Index Status Report eingefroren. Das sollte jetzt langsam wieder funktionieren. Wenn ihr sicher gehen wollt, dass alle wichtigen URLs im Index sind, dann solltet ihr die in eine oder mehrere Sitemaps packen. Single Page Apps sind oft schwierig. Wenn wir sie crawlen, dann sehen wir nur die identischen HTML Seiten. Wir müssen sie dann erst rendern. Und das geht nicht, wenn das JavaScript blockiert ist. Dann denken wir, dass alle Seiten gleich sind und klappen die zusammen.  

Thema: Seitenabfrage

Zeit: 45:20 Frage: Wenn ich eine Seitenabfrage mache, erscheint meine Homepage nicht als erstes. Ist das ein Problem? Antwort: Oft zeigen wir die Homepage zuerst für eine Seitenabfrage. Das ist aber nicht garantiert. Gerade eine Seitenabfrage ist eher künstlich, wo es für uns kein "richtiges" Ranking gibt. Das ist also kein Anzeichen für ein Problem.  

Thema: Bilder

Zeit: 46:19 Frage: Hast du Tipps, um Bilder auf Seiten mit Lazy Load einfacher crawlbar zu machen? Ist eine Sitemap eine gute Idee? Antwort: Sitemaps sind immer eine gute Idee. Bei Lazy Load ist wichtig, dass wir wenigstens einen statischen Link zum Bild finden, wenn wir die Seite das erste Mal crawlen.  

Thema: Crawling

Zeit: 47:28 Frage: Ich habe eine Single Page App mit Angular JavaScript. Meine Textinhalte werden zwar indexiert, aber nicht konstant. Die Hyperlinks werden nicht gecrawlt, daher müssen wir alle neuen Inhalte in Search Console einreichen. Antwort: Das hört sich so an, als könnten wir die Seite nicht richtig crawlen. Schaut euch mal Abruf wie durch Google in Search Console an, um zu prüfen, was wir sehen können. Ihr könnt auch eine Noindex Testseite erschaffen, um alles zu prüfen. Stellt auch sicher, dass wir JavaScript wirklich crawlen und indexieren können.  

Thema: Mobil

Zeit: 49:31 Frage: Wir haben eine Seite für Desktop und Mobil mit unterschiedlichen Unterordnern. Beide haben eine Sitemap aber kein Alternate Tag. Sollten wir die Sitemap nutzen oder Markup anlegen? Antwort: Das ist für uns das Gleiche.  

Thema: Mobil

Zeit: 50:30 Frage: Gibt Google mobilen Seiten weniger Wert, wenn sich das Menü im Vergleich zum Desktop ändert? Antwort: Momentan nutzen wir die Desktop Version für das Indexieren. Denn diese hat das Canonical. Das kann sich aber mit der Zeit auch ändern.  

Thema: Google Sites

Zeit: 51:41 Frage: Hast du Tipps für das gute Ranken von Google Sites? Antwort: Nichts spezielles. Google Sites sind normale HTML Seiten die wir normal zeigen.  

Thema: Search Console

Zeit: 52:35 Frage: Wie kann ich testen, ob ich aus Versehen unter Sitelinks meine Domain demoted habe? Antwort: Das steht in Search Console. Wenn es dort nicht steht, sollte alles ok sein.   Den ganzen Hangout könnt ihr euch hier ansehen: