Deutscher Google Webmaster Hangout vom 5. Oktober 2017

von Jochen Moschko

Kategorie(n): Wissenswertes Datum: 1. Dezember 2017
Hier findet Ihr das deutsche Google Webmaster Hangout vom 5. Oktober 2017.   Thema: Rankingveränderungen Zeit: 0:58 Frage: Wir bemerken gerade viele Rankingveränderungen bei unserer Website. Unser Backlinkprofil ist wesentlich stärker als das unserer Mitbewerber. Mit dem Pagespeed etc. sind wir weit vorne. Was uns allerdings auffiel ist, dass unsere Mitbewerber das wichtigste Keywords in ihrem Domainnamen haben. Ist letzteres wirklich kein Ranking-Faktor mehr? Antwort: In den Suchergebnissen gibt es immer Veränderungen. Wenn man gute Platzierungen hat, bedeutet das nicht, dass das ständig und immer so sein wird. Das Ranking hängt von sehr vielen Faktoren ab. Oft kann man die Ursache gar nicht an einem Faktor alleine festmachen. Keywords, die sich in der URL befinden, werden von Google durchaus erkannt und als kleiner Rankingfaktor herangezogen – allerdings in sehr geringem Maße und bei weitem nicht als kritischer Faktor. Wenn Keywords in der URI verwendet werden, sollten sie mit einem Minuszeichen verbunden werden, anstelle mit einem Unterstrich.   Thema: Medien Zeit: 4:02 Frage: Vor kurzem wurde in den Medien über eine Kooperation zwischen Medienhäusern und Google gesprochen. Was hat es damit auf sich? Antwort: Dabei geht es sich um den Ausbau von „First Click free“ (Anm. d. Red.: das ist ein Bestandteil des Paywall-Bezahlsystems, mit dem online digitale Inhalte erworben werden können https://support.google.com/news/publisher/answer/40543?hl=de). Den Medienhäusern wurde jetzt mehr Flexibilität eingeräumt, so dass sich dieser Begriff nicht mehr zwingend auf die ersten Klicks bezieht, sondern die Publisher größere Freiheiten bei der Ausgestaltung ihrer Paywall haben. Zum Begriff „First Click free“: Der Nutzer hat die Möglichkeit, einen Teil der angebotenen Inhalte kostenfrei zu konsumieren, muss ab einem bestimmten Zeitpunkt aber dafür bezahlen Beispiel: ein journalistischer Beitrag, von welchem die ersten zwei Absätze kostenfrei gelesen werden können. Trotz der Paywall für den Nutzer kann der Googlebot die vollständigen Inhalte sehen, so dass der gesamte Inhalt für die Suchergebnisse herangezogen werden kann.   Thema: UTM-Parameter Zeit: 9:25 Frage: Wir setzen auf unserem Blog Google Analytics ein und verwenden hierbei UTM-Parameter (Source, Kampagne etc.). Ist mit der Verwendung des Canonical-Tags auf der Zielseite die Gefahr von Duplicate Content aus der Welt geschafft oder sollte man auch in der Robots.txt-Datei die Parameter ausschließen? Antwort: Mit dem Canonical-Tag ist es sauber gelöst. Google crawlt alle Varianten der Seite – also auch die mit den UTM-Parametern – und im zweiten Schritt greift dann der Canonical-Tag. Wenn man im Google-Index gezielt nach den Seiten mit den UTM-Parametern sucht, wird man diese möglicherweise parallel finden. Das ist aber nicht weiter schlimm. Auch kann man in der Google Search Console angeben, welche Parameter irrelevant sind. Ein Ausschluss der UTM-Parameter über die Robots.txt-Datei wird hingegen nicht empfohlen.   Thema: Mehrere Treffer in einer SERP von einer Domain Zeit: 12:50 Frage: Viele Webmaster wollen mit ihren Produkten und Dienstleistungen ganz vorne stehen. Ist es möglich, dass eine Website mit Keywords im Domainnamen etc. mehrere Plätze auf Seite 1 belegt? Antwort: Theoretisch ist das möglich. Dieser Fall tritt gehäuft auf, wenn man nach Marken sucht. In diesem Fall macht es häufig Sinn, Seiten aus dem Internetauftritt des Markeninhabers oder -verwenders zu zeigen. Es gibt keine Grenze, wieviele Seiten einer Domain in einer SERP erscheinen.   Thema: PageSpeed Zeit: 14:05 Frage: Ich betreibe ein WordPress-Themenportal mit angehängtem Branchenverzeichnis. Ich habe neulich das Verzeichnis-Plugin gegen eine umfangreichere Lösung ausgetauscht und verhältnismäßig viele Adressen hinzugefügt. Danach habe ich das neue Verzeichnis indexieren lassen. Welchen Einfluss hat die Ladezeit auf die Platzierungen? Antwort: Bei der Berücksichtigung der Ladezeit wird in erster Linie unterschieden zwischen Webseiten, die eine schnellere bis normale Geschwindigkeit aufweisen sowie Webseiten, die sehr langsam geladen werden. Wenn es sich um eine einigermaßen moderne Website handelt und sich die Ladezeit um 1-2 Sekunden verlängert, fällt das nicht besonders ins Gewicht. Falls die Seiten jedoch sehr, sehr lange zum Laden benötigen, sollte man das ändern – denn das kann sich nachteilig auf die Platzierungen auswirken.   Thema: Ranking-Einbruch Zeit: 16:46 Frage: Wir bemerken gerade große Ranking-Einbrüche bei unserer Travel-Seite. Alle Seiten beziehen sich auf dasselbe Thema, aber auf unterschiedliche Reiseziele in unterschiedlichen Sprachen. Antwort: Ohne Beispiele ist es schwierig, eine mögliche Ursache auszumachen. Häufig werden Reiseseiten maschinell übersetzt, so dass deren Qualität gegenüber dem Besucher als eher gering einzustufen ist. Wenn dies der Fall ist, sollte man die Inhalte händisch übersetzen und darauf achten, dass sie dem Besucher einen wirklichen Mehrwert bieten.   Thema: Webspam Zeit: 18:20 Frage: Gibt es eine Möglichkeit, jemanden bei Euch zu melden, der spammy Markups verwendet? Antwort: Ja. In der Google Search Console gibt es ein Meldeformular für Spam. Falls die Angelegenheit und die Zusammenhänge komplexer sind, können diese Fälle auch direkt an John Müller gemeldet werden.   Thema: Abstrafung / Penalty Zeit: 19:20 Frage: Ein Kunde von uns hat mit einem bestimmten Begriff bei hohem Suchvolumen immer gut gerankt. Vor einem Jahr war das Ranking für diesen Begriff komplett verschwunden, inzwischen ist es wieder vorhanden, aber sehr weit hinten. Jetzt rankt eine andere Website sehr gut, die aber gar nicht so gut optimiert ist. Früher wurde für unseren Kunden Linkbuilding betrieben und vor rund einem Jahr haben wir einige dieser Links disavowed, leider hat sich das Ranking bis heute nicht wieder erholt. Liegt hier noch eine Abstrafung vor? Antwort: Wenn eine Abstrafung vorliegt, bezeichnet man diese als „manuelle Maßnahme“. Ob eine solche vorliegt, kann in der Google Search Console eingesehen werden. Wenn keine manuelle Maßnahme angezeigt wird, liegt in der Regel auch keine Abstrafung vor. Bei der Entwertung von Links („Disavow“) werden die genannten Links von Google nicht mehr berücksichtigt. Wenn einige davon für das ehemals gute Ranking verantwortlich waren, könnte dies den Platzierungsverlust erklären. Möglicherweise macht es Sinn, die Disavow-Liste nochmals durchzugehen und die linkgebenden Seiten neu zu bewerten.   Thema: Staging-Website Zeit: 23:12 Frage: Welche Technologien empfehlen sich, um eine Staging-Website gangbar zu machen, ohne dass sie im Google-Index erscheint? Antwort: Es gibt verschiedene Wege und Ansätze. Eine Möglichkeit ist die Sperrung über die Robots.txt-Datei, ein anderer die Setzung des Meta-Robots-Tags auf „Noindex“, ein IP-Block ist eine Möglichkeit oder ein .htaccess-Verzeichnisschutz. Aus der Sicht von Google ist ein IP-Blocker oder ein .htaccess-Verzeichnisschutz der beste Weg. Hier kann man die neue Website sauber erstellen und später dann freischalten ohne dass man Gefahr läuft, versehentlich auch die Noindex-Angaben oder die Robots.txt des Entwicklungsservers mit livezuschalten.   Thema: XML-Sitemaps Zeit: 27:45 Frage: Wie haben einen sehr großen Online-Shop mit mehr als 2,5 Mio. Produkten. Die Produkt-URLs sind in unseren XML-Sitemaps eingetragen. Macht das Sinn oder sollen wir auf das normale Crawling setzen? Wir haben nämlich festgestellt, dass Google einige XML-Sitemaps nicht einmal monatlich abruft. Die Sitemaps sind sehr groß. Würde es Sinn machen, nur die Seitenstruktur darin zu hinterlegen? Antwort: Google crawlt nicht alle Seiten mit derselben Frequenz. Insbesondere wenn eine Website noch relativ neu ist, wägt Google erstmal ab, wie wichtig und relevant diese Website für den Nutzer voraussichtlich ist. Da macht es auch keinen großen Unterschied, wieviele Seiten der Internetauftritt umfasst. Zu den XML-Sitemaps: nachdem diese aktualisiert wurden, sollte man sie über die Google Search Console manuell an Google melden, wenn es schnell gehen soll. Eine Reduzierung der Sitemap-Größe macht an dieser Stelle weniger Sinn. Neue und wichtige Produkte sollten in der Website-Hierarchie idealerweise weiter oben aufgeführt werden, so werden sie von Google früher bemerkt – oder man verlinkt sie für eine Weile von der Startseite aus.   Thema: Search Console Zeit: 32:28 Frage: In der neuen Version der Search Console werden uns viele URLs angezeigt mit dem Hinweis „Indexiert, aber nur wenige Zugriffe“. Was bedeutet das? Antwort: Im Zuge der Überarbeitung der Search Console hat man bei Google das Hauptaugenmerk darauf gelegt, dem Webmaster zu zeigen, welche URLs für die Suche wirklich relevant und welche weniger relevant sind. Wenn der Webmaster die Search Console nutzt, soll ihm so gezeigt werden, dass er diese URLs gedanklich „hinten anstellen“ kann, also dass sie für die Suche derzeit nicht sonderlich erheblich sind.   Thema: Social Media Zeit: 33:00 Frage: Sollte man ein „Nofollow“ auf Social-Share-Buttons setzen? Antwort: Das kann man tun, muss es aber nicht. Das ändert in der Regel wenig, da viele dieser Buttons beispielsweise auf das Unterverzeichnis des verwendeten Social-Plugins verweisen, das meist ohnehin über die Robots.txt-Datei für Crawler gesperrt ist.   Thema: Duplicate Content Zeit: 33:44 Frage: Angenommen, ein Shop-Betreiber kopiert eine Produktbeschreibung von der Herstellerseite. Wie wird dies von Google bewertet? Antwort: Wenn jemand nach der allgemeinen Produktbeschreibung sucht, fasst Google alle Seiten zusammen, auf denen diese Beschreibung vorkommt und zeigt dem Nutzer dann eine dieser Seiten in den Suchtreffern an. Welche dieser Seiten letztendlich angezeigt wird, hängt von deren Stärke und von lokalen Faktoren ab. Wenn die Produktbeschreibungen auf den eigenen Seiten auch nur leicht angepasst werden, fallen diese nicht mehr mit den anderen Seiten zusammen und die eigene Website hat eine höhere Wahrscheinlichkeit, in den Suchtreffern angezeigt zu werden.   Thema: hreflang Zeit: 35:58 Frage: In einem Projekt haben wir unter zwei unterschiedlichen Domains Sprachvarianten für Spanisch in Argentinien und eine für Spanisch in Spanien. Deshalb verwenden wir den hreflang-Tag. Laut Google wurden bisher keine hreflang-Tags erkannt. Besteht jetzt die Gefahr einer Abstrafung wegen Duplicate Content? Antwort: Wegen Duplicate Content werden normalerweise keine Abstrafungen erteilt – außer, wenn eine Website z. B. gezielt aus anderen Webseiten zusammenkopiert wurde, ohne dass sie dem Benutzer einen Mehrwert bietet. In dem angefragten Fall ist das nicht nachteilhaft, es kann aber passieren, dass in einem Land die Domain in den Treffern gezeigt wird, die eigentlich für das andere Land gedacht ist. Es sollte nochmal geprüft werden, ob der hreflang-Tag wirklich sauber gesetzt wurde. Wenn der Einbau von hreflang noch nicht lange zurückliegt, kann es eine Weile dauern, bis Google die betroffenen Internetauftritte vollständig indexiert hat.   Thema: Webspam Zeit: 38:32 Frage: Wie und wo kann man geklonte Websites an Google melden, damit diese aus dem Google-Index entfernt werden? Bei einem unserer Projekte wurde selbst der Google Analytics-Code kopiert, so dass nun verfälschte Daten im Konto erfasst werden. Antwort: Über die Search Console kann dies als Webspam gemeldet werden. Wenn die gesamte Website kopiert wurde, könnte man einen Rechtsanwalt hinzuziehen und/ oder schauen, ob man mit DMCA-Maßnahmen etwas dagegen unternehmen kann. DMCA-Maßnahmen beziehen sich allerdings immer nur auf eine einzelne URL und nicht auf die gesamte Domain. So muss man unter Umständen alle URLs der Domain nennen.   Thema: Mobile First Index Zeit: 39:55 Frage: Zum kommenden mobilen Google-Index: Wie ähnlich dürfen sich die Inhalte sein, wenn zwei Varianten einer Website bestehen (Desktop und Mobil)? Welche Abweichungen sind nicht ok? Wie sieht es mit anderen Inhalten aus? Antwort: Google erwartet, dass die mobile Website äquivalent zur Desktop-Version der Website ist, also dass sich auf beiden Websites dieselben Inhalte befinden. Wenn manche Texte etwas anders oder kürzer sind oder hier und da ein Bild fehlt, das als eher nebensächlich einzustufen ist, spielt das keine Rolle. Allerdings sollte man bedenken, dass diese fehlenden Inhalte dann auch bei der Indexierung nicht berücksichtigt werden. Genauere Informationen hierzu werden zu gegebener Zeit von Google bekanntgegeben.   Thema: Mobile First Index Zeit: 42:38 Frage: Zum kommenden mobile Google-Index: Was kann man tun, wenn nicht alle Seiten für mobile Geräte optimiert sind? Wie sieht es mit internen Links aus? Antwort: Wenn eine Website oder einzelne Seiten daraus nicht für mobile Geräte optimiert sind, greift Google auf die Desktop-Variante zurück. Interne Links sollten innerhalb der jeweiligen Website-Version verlinken, das heißt bei der Desktop-Version innerhalb dieser und bei der mobilen Version innerhalb dieser. Bei einer responsiven Website existiert nur eine Version der Website, weshalb diese Frage hier unerheblich ist.   Thema: hreflang und zwei Websites Zeit: 43:40 Frage: Wie verhält es sich mit dem hreflang-Tag, wenn eine Website für den Desktop und eine mobile Version vorhanden sind? Antwort: Bei Google wurde dieses Thema intensiv intern diskutiert. Am Ende fiel die Entscheidung so aus, dass die hreflang-Tags der mobilen Version auf die mobile Website zeigen sollen und die hreflang-Tags der Desktopversion auf die Desktopversion. Genauere Informationen hierzu werden später noch von Google bekanntgegeben. Die beste Lösung ist eine Umstellung auf responsive Design.   Thema: Caching Zeit: 45:40 Frage: Kann unsere Caching-Angabe beim Crawling durch den Googlebot ignoriert werden oder durch eigene Bewertungskriterien überstimmt werden? Antwort: Ja. Der Googlebot ist kein Webbrowser, sondern legt seine eigene Caching-Frequenz fest. In der Regel wird das Caching beim Googlebot etwas länger aufrecht erhalten. Wenn sich Seiteninhalte verändern, kann ein angehängter Tag an der URL Abhilfe schaffen (z. B. ?version=123), Google interpretiert diesen Verweis dann als neu und indexiert die dahinterliegende Seite dann auch neu.   Thema: Native Advertisements Zeit: 47:02 Frage: Laut den Google-Richtlinien sollen Links, die innerhalb von Native Advertisements gesetzt werden (z. B. „Paid Posts“), auf „Nofollow“ gesetzt werden. Droht eine Abstrafung, wenn dies nicht der Fall ist? Antwort: Ja, das kann passieren. Wenn es sich um eine Vielzahl von Links handelt, ist die Gefahr einer Abstrafung selbstverständlich größer, als bei Einzelfällen.   Thema: hreflang Zeit: 48:22 Frage: Bei uns in Österreich rankt seit einigen Tagen immer die .de-Version einer unserer Seiten, obwohl hreflang korrekt gesetzt ist. Liegt seitens Google hier gerade ein Problem vor? Antwort: Nein. Manchmal kann es passieren, dass Google bei identischen Seiten trotz hreflang-Tag die Version für ein anderes Land ausspielt, auch wenn sich dies nicht auf das Ranking auswirkt. Wer sichergehen möchte, individualisiert die Inhalte bei jeder Landesversion ein wenig.