Deutsches Google Webmaster Hangout Transkript, 26.01.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 26. Januar 2017

Thema: Chrome

Zeit: 01:00 Frage: Hat es negative Auswirkungen auf die organischen Rankings wenn Seiten als "nicht sicher" (in Chrome) markiert werden? Antwort: Das gibt es in der neuen Version von Chrome, die Ende Januar Standard wird. Seiten auf http mit Passwortabfragen und Kreditkarteneingaben werden so gekennzeichnet. Wenn man das verhindern will muss man diese Dinge entfernen oder auf Https wechseln. Und dieser Wechsel macht früher oder später eh Sinn. Momentan zeigen wir das aber nur in Chrome und das hat keinen Einfluss auf die SERPs. Das sollte auch in der näheren Zukunft so bleiben. Es gibt aber einen kleinen Rankingboost für Https.  

Thema: Indexierung

Zeit: 03:33 Frage: Ab wann ungefähr können wir mit der Umstellung auf die Mobile First Indexierung rechnen? Antwort: Da gibt es noch kein offizielles Datum. Wir experimentieren noch. Und aktuell sind die Experimente auch noch in sehr kleinem Rahmen. Wir schauen mal, wann wir die Experimente erweitern können. Der Bestfall für uns ist, wenn Websites zum Großteil so bleiben können, wie sie jetzt sind.  

Thema: Chrome

Zeit: 05:05 Frage: Ist es geplant, dass die Sicherheitsmeldung in Chrome (ab Version 56) "nicht sicher" auch auf Seiten ohne Login-Möglichkeit angezeigt wird? Antwort: Ich kenne die genauen Pläne nicht. Ich kann mir aber vorstellen, dass das irgendwann für alle http Seiten angezeigt wird. Da gibt es aber keine genauen Pläne. Ihr könnt aber mal beim Chrome Team nachfragen.  

Thema: Internationale Websites

Zeit: 06:34 Frage: Wir betreuen eine internationale Seite mit mehrsprachigem Content. Beim Aufruf der Domain direkt www.domain.com wird von dem Root-Verzeichnis auf das jeweilige Sprachverzeichnis mittels IP Erkennung weitergeleitet. Also ein Nutzer aus Österreich kommt bei dem Aufruf von www.domain.com via 302 auf www.domain.com/de-at/hreflang Auszeichnungen sind auch korrekt gesetzt. Nun wird in der Google-Suche (google.at) zum Brand immer die URL mit dem Root-Verzeichnis und den englischen Metas ausgegeben. Auch die Sitelinks sind die URLs der englischen Sprachversion. Es gibt aber für die Sprach-Länderkombination (de_AT) einen korrekt ausgezeichneten Content (hreflang, <html lang="de-AT">). Warum erkennt der Google Crawler hier nicht die offensichtliche, korrekte Sprachversion der Seite und gibt diese korrekt in den SERPs aus? Antwort: Wir crawlen zum Großteil aus Amerika, so werden dann auch unsere IP Adressen erkannt. Googlebot wird dann meistens auf die englische Version weitergeleitet und wir sehen gar nicht, dass andere woanders hin geleitet werden. Wir kennen dann also nur diese Version und indexieren diese. Ihr könnt Hreflang nutzen und dabei die Homepage als x-default einstellen. Dann können wir die Zusammenhänge sehen und das passend darstellen.  

Thema: Https

Zeit: 10:17 Frage: Ich hätte noch 4 kurze, konkrete Fragen zum Thema Umstellung von http auf https: 1. Was muss in Google Analytics angepasst werden im Zuge der Umstellung damit die Website Daten wie gehabt einfließen? 2. Welche Anpassungen sind in der Search Console vorzunehmen? Muss ich eine neue URL eintragen / anlegen? 3. Unsere Sitemap ist in der Search Console aktuell als : /sitemap.xml hinterlegt. Das kann dann so bleiben korrekt? 4. "Versteht" Google, dass die serverseitigen 301-Weiterleitungen kein "Relaunch" sind sondern lediglich auf die Umstellung von http auf https zurück zu führen sind? (Die URLs bleiben ja unverändert) Antwort: 1. Soweit ich weiß gibt es da nichts spezielles. Das ist aber nicht mein Spezialgebiet. 2. Ja, du musst die Https Version auch verifizieren. Dann können wir die Meldungen direkt dahin schicken. 3. Das sollte passen. 4. Die URLs sind anders. Es ist für uns also nicht automatisch als gleich gegeben, denn ihr habt ja das Protokoll gewechselt. Es ist aber einfacher für uns, wenn sich sonst nichts ändert.  

Thema: JavaScript

Zeit: 13:45 Frage: Wenn ich eine Onepage Webseite mit HTML und JavaScript habe und ich die Inhalte per AJAX nachlade, dabei werden Fragments, also “#“ im Menü verwendet und in der URL steht dann hintendran auch jeweils ein “#“ mit dem Namen des Inhaltes, ist das für Google ein Problem beim indexieren und gibt es hier Nachteile? Antwort: Ja, das ist unter Umständen problematisch. In der Regel indexieren wir ohne das Fragment. Wenn damit also Inhalte nachgeladen werden, die sonst nicht da sind, dann nutzen wir sie vielleicht nicht für die Indexierung. HTML5 mit History API wäre hier vielleicht eine gute Alternative, um das zu beheben.  

Thema: SERPs

Zeit: 15:12 Frage: Wir haben jetzt mehrfach beobachtet, dass eine Seite, die mal in den Top 10 war plötzlich nicht mehr auf der ersten Seite zu finden ist. Klickt man dann auf Seite 2 findet sich das Ergebnis auch dort nicht wieder. Bis dahin ist soweit alles "normal" - wenn man dann jedoch zurück auf die erste Seite blättert, findet man plötzlich die gesuchte Seite auf Position 10 oder höher - Hier wäre es interessant zu wissen, wie solche Fälle zustande kommen und was man als Webmaster dann machen kann. Außerdem beobachten wir in den letzten Tagen/Wochen sehr starke Änderungen in den Ergebnissen für lokale Suchanfragen und auch in der Darstellung der Ergebnisse - sind hier größere Änderungen geplant? Antwort: Das müsste ich mir mal anschauen. Schicke mir doch bitte Beispiele. Das klingt nach einem Fehler im UI und nicht nach etwas, das wir so planen.  

Thema: Https

Zeit: 17:43 Frage: Kann es vorkommen, dass man im Rahmen einer Umstellung von http auf Https mit Ranking Verlusten konfrontiert wird? Oder darf dies eigentlich nicht sein, wenn man grundlegendes beachtet (serverseitige 301 Weiterleitungen, Anpassung Sitemap). Sollen wir die alte Sitemap auch drin lassen? Antwort: Theoretisch kann es schon zumindest Schwankungen geben. Meistens sind das aber normale Schwankungen, die es eh gegeben hätte. Ein paar Tage nach der Umstellung sind Schwankungen auch normal. Dauert es länger, könnt ihr mir das mal zuschicken. Es macht Sinn, die alte Sitemap nochmal mit Änderungsdaten einzureichen. Längerfristig kann man sie aber rausnehmen.  

Thema: Ranking

Zeit: 19:35 Frage: Ich möchte gerne wissen, was dazu führen kann, dass eine bestehende Ratgeber-Website kontinuierlich über ein 3/4 Jahr oder mehr hinweg massiv an Sichtbarkeit einbüßt. Massiv ist in einem konkreten Beispiel von 100% auf 16%. Auffällig ist, dass es sich nicht unbedingt um die gewissen "Updates" konzentriert, sondern langsam über die gesamte Zeit verteilt und alle Themenbereiche gleichermaßen zu betreffen scheint. Keine manuellen Maßnahmen vorhanden. Bisher eigene versuchte Maßnahmen ohne Erfolg - und daher gefragt: 1. Das Löschen von eventuell "tiny content" hat nichts gebracht: Sind die Blog-Typischen "Tag-Seiten" nachteilig, weil diese eventuell "tiny content" oder "duplicate content" sind? Und führt so etwas zu einer Verschlechterung der gesamten Site oder wird einfach nur der tiny content nicht in den Suchergebnissen angezeigt? 2. Ist es nachteilig, wenn man jeden neuen Blog-Artikel auf seiner FB-Seite, in Google+, XING, Pinterest und Twitter mittels kurzem Teaser vorstellt? Ist das natürlich oder unnatürlich? 3. Wie viel Einfluss kann die Wahl des Designs auf das Ranking haben? Subdomains, die als Doorwaypages angelegt wurden, hatten in der gleichen Periode übrigens keinerlei Verluste. 4. Welche Faktoren bleiben möglicherweise übrig, die eine komplette Site/Domain betreffen können und zu so einer starken Abwertung führen können? 5. Und gibt es darüber hinaus eine Möglichkeit, im Webmaster-Forum, wo ich einen langen Thread zu diesem Thema gestartet habe, einen Mitarbeiter von Google direkt zu dem konkreten Fall ansprechen zu können? Antwort: 1. Das Löschen von dünnen Inhalten macht eigentlich immer Sinn. Gerade auch im Hinblick auf nutzergenerierte Inhalte. 2. Das Teilen in Social Media ändert für uns nichts, denn die Links sind eh immer Nofollow. Aber das kann eine gute Trafficquelle sein, wenn es die Nutzer interessiert. 3. Das Design hat meistens keinen oder wenig Einfluss auf das Ranking. Eine Möglichkeit ist aber, dass wir durch ein neues Design die interne Verlinkung besser erkennen können. Wir erkennen aber nicht, ob ein Design alt oder neu bzw. schön oder hässlich ist. Manchmal hat das aber einen indirekten Einfluss, da die Nutzer es ja sehen und darauf reagieren. 4. Gerade bei so einer langfristigen Sache sind es Dinge, die sich mit der Zeit ansammeln. Da sehen wir vielleicht Schritt für Schritt, dass die Seite für die Anfragen nicht mehr das beste Ergebnis ist. Vielleicht verändern sich auch die Anfragen der Nutzer und auch ihre Gewohnheiten, wenn es an das Weiterempfehlen geht. Da können euch A/B Tests helfen.  

Thema: Hreflang

Zeit: 27:25 Frage: Würde gerne wissen was ich unbedingt bei einer Mehrsprachige & internationale Websites beachten muss? Antwort: Da haben wir viele Blogbeiträge und auch einen Hangout, der sich nur mit diesem Thema befasst. Das könntest du dir mal anschauen.  

Thema: Indexierung

Zeit: 28:33 Frage: Wir betreiben ein Portal, auf dem wir Produkte und Dienstleistungen stationärer, regionaler Händler aggregieren. Ca. 14.000 Seiten werden über 6 separate Sitemaps (pro Seitentyp mit Prio) zur Indexierung eingereicht. In der Google Search Console ist jedoch nur für ca. 30% aller eingereichten URLs pro Sitemap eine erfolgreiche Indexierung erkennbar. 1. Was können wir tun, um möglichst alle Seiten in den Index zu bringen? 2. Könnte die Aufteilung in Subdomains zu einem besseren Ergebnis führen? 3. Wird die in den Sitemaps angegebene Priorität berücksichtigt und bei erneuter Einreichung aktualisiert? 4. Wir haben validierte Rich Cards in den indexierten Seiten, Preis und Verfügbarkeit wird aber nur teilweise in den Suchergebnissen angezeigt und verschwinden nach einiger Zeit im Index? Antwort: Grundsätzlich müsst ihr wissen, dass wir nicht garantieren, dass wir alle Seiten einer Website indexieren. Es muss sich lohnen, die Seiten müssen also einzigartig sein. Wenn ihr also nur aggregiert, dann ist das für unsere Systeme vielleicht nicht etwas, wo sich das Indexieren von tausenden Seiten lohnt. Die Priorität in Sitemaps ignorieren wir, denn wir haben gemerkt, dass die nicht hilfreich ist. Ich würde mich auch erstmal auf die Indexierung konzentrieren, bevor es um Rich Cards geht.  

Thema: Versteckte Inhalte

Zeit: 32:50 Frage: Wie werden Akkordeons und Tabs bewertet? nicht sichtbarer Content rankt oder rankt nicht? Analysiert Goolge bei Mobilfreundlichkeit auch Touchunterstützung? Beispiel Slider kann gewischt werden. Antwort: Sind die Inhalte versteckt, dann sehen wir sie auf dem Desktop als weniger wichtig. Wir indexieren sie aber. Im kommenden Mobilindex wird das aber anders aussehen.  

Thema: Mobil

Zeit: 33:52 Frage: Ein Kunde betreibt eine große Website mit hunderttausenden URLs im Index. Die mobile Variante befindet sich im Verzeichnis /mobile/. (Verknüpfung via. <link rel="alternate" media="only screen and (max-width: 640px)" href="https://www.domain.com/mobile/seitexyz" />) Die mobile Variante läuft als Single Page Application mit AngularJS und beinhaltet nur einen Bruchteil der Informationen der Desktop Variante (keine Title/Descriptions/Markups/hreflangTags usw.). Wie sollen wir in diesem Fall vorgehen, damit wir im Mobile First Update kein Probleme bekommen? Wie wird der Google Bot beim „Mobile First Update“ allgemein mit Singe Page Applications (AngularJS) umgehen? Antwort: Die Meta-Daten, Markups und Tags müssen auch auf der mobilen Seite vorhanden sein. Wie das gemacht wird, ist euch überlassen. Es muss aber gut zu crawlen und rendern sein. Service Worker können zum Beispiel problematisch sein.  

Thema: Https

Zeit: 35:52 Frage: Folgende Änderung habe ich im Oktober 2016 vorgenommen: 1. Unsere Webseite haben wir von HTTP auf HTTPS umgestellt 2. Gleichzeitig habe ich eine mobile Webseite eingerichtet (https://mobil.domain.de) Anmerkung: Unsere Desktop-Version ist unter https://www.domain.de erreichbar. Ich habe jetzt folgende Fragen/Probleme: 1. Welche Anpassungen/Änderungen muss ich in der Search Console vornehmen? Anmerkung: Für die mobile Webseite habe ich eine eigene Sitemap erstellt (die auch automatisch upgedated wird) und in der Search Console hinzugefügt. D.h. ich habe aktuell zwei Sitemaps definiert. > Die Anzahl der Seiten mit "Strukturierten Daten" ist sehr gering - mein Eindruck ist, dass keine Seiten mehr erkannt werden obwohl wir immer die entsprechenden Snippets verwenden - im Vergleich zu vor der Umstellung werden aktuell von der Anzahl her nur noch ein niedriger einstelliger Prozent erkannt. > Auch bei der Indexierung gibt es laut Search Console Probleme. Nur ca. 50 Prozent der eingereichten Seiten wurden laut Search Console indexiert. Im Bereich der mobilen Seiten ist das Verhältnis zwischen eingereichten und indexierten Seiten sehr viel schlechter (ca. 30 Prozent) bei der Desktop-Version liegt es bei rund 80 Prozent. 2. Muss ich in Google Analytics Anpassungen machen? Wenn ja, welche? -> Bei über 90 Prozent der Suchanfragen ist das Keyword = not provided - Woran liegt das? Wie kann ich das ändern? Antwort: Es muss alles verifiziert sein, damit wir alles darstellen können. Ich würde mich dann immer auf die Canonical Version konzentrieren. Das not provided ist normal, man sieht sie nur noch in der Suchanalyse.  

Thema: Search Console

Zeit: 38:05 Frage: Wir hatten ein Fall bzgl. der Anlage von Properties in der GSC. Ich habe einen Kunden mit einer festen IP für seinen Webhost. Auf dem Webhost liegen 3 TLDs und eine GEO Abfrage filtert die User und leitet diesen weiter auf die richtige TLDs. Wenn ich für jedes Land eine Property anlege: xy.de xy.at xy.ch dann haben alle drei Properties die selben Daten. In Google Analytics sind Filter vorhanden, mit denen wir länderspezifische Daten sichern. Die Frage ist: Wie lege ich diesen Fall in der GSC an? Alle drei haben TLDs haben die selbe IP. Antwort: Aus unserer Sicht ist die IP Adresse irrelevant. Bei generischen TLD kann man die Länder in Search Console angeben. Sind es aber Länder TLDs, dann geht das ja eh nicht.  

Thema: SERPs

Zeit: 39:42 Frage: Mir fällt letzter Zeit auf, das Google die vorhandene Pixelbreite in den SERPs bzgl. Meta Daten nicht ausnutzt, und hierbei ist es nicht wichtig, welcher Content für das Snippet verwenet wird. Also, egal ob aus der Meta Description oder aus dem Content der Webseite, die Snippets sind meistens kürzer, als wie die vorhandene Pixel breite. Warum ist dies so? Wegen den mobilen Suchen? Antwort: Das liegt denke ich einfach an der UI, nicht an den Suchergebnissen selbst.  

Thema: Ranking

Zeit: 40:29 Frage: Nochmal wegen den Rankingverlusten. Ich habe diese Ratgeberwebsite über Jahre hinweg aufgebaut und habe ich an alle Regeln gehalten. Das war immer erfolgreich, aber dann gab es einen Wendepunkt. Kein Update, sondern es ging kontinuierlich bergab. Ich frage mich, woran das liegen kann. Antwort: Zeig mir doch mal schnell den Link. Wir haben ja grad Zeit. Man kann sich in solchen Fällen immer anschauen, was früher gerankt hat. Das geht auch mit den Server Logs. So sieht man vielleicht, was sich bei den Nutzern verändert hat. Ich sehe bei deiner Seite jetzt auf Anhieb nichts, was ich groß hervorheben könnte. Bei kontinuierlichen Veränderungen ist es eh oft schwierig. Das Crawling und Indexing sieht gut aus, wir sind beim Crawlen aber am Limit. Wenn sich die Inhalte schnell verändern, dann müsste das Crawling vielleicht mal angeschaut werden, bei statischen Inhalten wäre es aber kein Problem. Entweder gibt es ein Qualitätsproblem oder das Nutzerverhalten hat sich geändert. Ich schaue mir das nachher nochmal an.  

Thema: Seitenstruktur

Zeit: 49:53 Frage: Macht es Sinn, die Boiler Plate auf Noindex, Nofollow zu setzen? Antwort: Das ändert nichts. Wir erkennen automatisch, dass es sich um die Boiler Plate handelt und sehen es dann automatisch als nicht Hauptinhalt an. Lasst es einfach so, wie es ist.  

Thema: Duplicate Content

Zeit: 51:08 Frage: Ein Kunde repariert Handys. Wir sollen jetzt für jeden Schaden, jedes Modell eine eigene Seite erstellen. Antwort: Duplicate Content sollte kein Problem sein. Aber wenn die Seiten keinen eigenen Wert haben, dann könnte das Webspam Team das als Doorway Pages sehen. Macht lieber eine starke Seite, zum Beispiel pro Hersteller.   Den ganzen Hangout könnt ihr euch hier ansehen: