Google Webmaster Hangout Transkript, 29.06.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 30. Juni 2017

Thema: Ranking

Zeit: 00:50 Frage: Für unsere Seite news.de - Wetter im Juni 2017: Tornado-Gefahr! Starkregen und Gewitter am Siebenschläfer haben wir einen heftigen Absturz der Rankings seit Mitte April 2017 und haben den Fehler noch immer nicht finden können. Mittlerweile haben wir bei blockierender Werbung extrem aufgeräumt. Wie lange sollte es dauern, bis solche Maßnahmen greifen? Auch haben wir beobachtet, dass häufiger falsche Bilder aus den Artikeln in den diversen News-Ergebnissen landen. Kannst Du uns noch generelle Hinweise geben, wo wir ansetzen können. Sind unsere Bilder im MarkUp falsch ausgezeichnet und Artikel deswegen selten für News-Verticals qualifiziert? Antwort: Bei den Bildern müsst ihr schauen, dass sie am richtigen Ort sind und gut verstanden werden können. Ansonsten müsst ihr mal im Google News Forum nachfragen. Zum allgemeinen Absturz kann ich nicht viel sagen. Wir machen immer wieder Updates und versuchen damit, relevantere Seiten nach vorne zu bringen. Im Hinblick auf blockierende Werbung muss ich aber sagen, dass bei euch direkt ein Interstitial aufpoppt. Das ist vor allem Werbung und vielleicht finden Nutzer das nicht so gut.  

Thema: Interne Verlinkung

Zeit: 03:45 Frage: Wir haben Bedenken, wenn wir ein Product Carousel Slider auf der Homepage mit sehr vielen (fast tausend Links von Kunden die dafür bezahlen) Produkten implementieren, dass die Linkkraft vor allem auf die Produktseiten weitergegeben wird und die gesamte Website geschwächt wird. Was würden sie empfehlen? Sollen wir für Google Crawler die Links nicht sichtbar machen oder rel="nofollow" für alle Carousel Links verwenden? Antwort: Schwer zu sagen. Wenn man mit so einem großen Menü arbeitet, dann sind das alles Links und wir nutzen sie auch für den Kontext der Seiten. Es wird auch pageRank und so weitergegeben, und das ist ja auch ok wenn das breit gefächert ist. Es ist aber schwer für uns, wenn auf einmal alle Unterseiten miteinander verbunden sind. Denn dann wissen wir nicht mehr, wie wir das Crawlen und die Benutzerleitung priorisieren sollen. Macht sowas also nicht direkt mit tausenden Links, sondern fangt langsam an und nutzt schrittweise A/B Tests, um mal zu schauen, was für Nutzer und die Suche besser funktioniert.  

Thema: Pagespeed

Zeit: 06:26 Frage: Sollte man das "Pagespeed Insights" oder ""Testmysite.google.com" Tool nutzen, um die Geschwindigkeit/Optimierungsgrad zu messen. Antwort: Man kann beide benutzen Test my Site nutzt wohl auch die Insights API. Die sind dann aber anders verpackt, weil die Zielgruppen unterschiedlich sind. Es gibt aber auch andere Pagespeed Tools und für Entwickler lohnt es sich, die alle mal auszuprobieren. Denn alle Tools schauen sich ja unterschiedliche Dinge an. Ein Tool hilft euch dann vielleicht für den Server, das andere für das JavaScript und so weiter. Für die Suche nutzen wir aber keines dieser Tools, wir haben da unsere eigenen Tools für das Ranking. Nutzt solche Tools daher vor allem für die Usability.  

Thema: Backlinks

Zeit: 09:10 Frage: Bei einer Restaurantbewertungsseite wird eine Art Widget mit den Restaurantbewertungen erstellt so dass die Restaurants diese Widgets mit deren Noten auf den eigenen Webseiten einbinden können. Diese Widgets werden aber mit einen Link auf die Restaurantbewertungsseite versehen so dass die User dort den vollständigen Bericht über das jeweilige Restaurant lesen können. Ich vermute dass solche Links unbedingt nofollow sein müssten oder? Antwort: Ich würde Links in Widgets immer auf Nofollow stellen, da ist man auf der sicheren Seite. Bei euch gibt es eine Verbindung der Seiten durch die Funktionalität, da würde es vielleicht auch mit Follow gehen. Aber wer Widgets im großen Stil nutzt sollte eigentlich immer Nofollow einsetzen.  

Thema: URL-Struktur

Zeit: 10:22 Frage: Laut https://support.google.com/webmasters/answer/1663744?hl=de sollen bei der Auszeichnung mit rel prev / next auch Parameter mitgegeben werden, die den Seiteninhalt nicht verändern. Zitat: Wenn eine Komponentenseite innerhalb einer Reihe Parameter enthält, die den Inhalt der Seite nicht verändern, zum Beispiel Sitzungs-IDs, dann sollten die Werte rel="prev" und rel="next" dieselben Parameter enthalten. Dies unterstützt unseren Verknüpfungsprozess bei der Zuordnung der entsprechenden Werte rel="prev" und rel="next". Zum Beispiel sollte die Seite "http://www.ihremusterdomain.de/article?story=abc&page=2&sessionid=123" Folgendes enthalten: - Kannst du erläutern, warum ihr das so möchtet? - Ist diese Empfehlung weiterhin noch up to date? Das führt dazu, dass wir URLs generieren, die irrelevant für die Indexierung sind (sie werden per Canonical sowieso auf die Variante ohne diese Parameter verweisen). Ist das nicht eher negativ für’s Crawl-Budget? Wir würden es generell bevorzugen, in Meta Angaben nur URLs zu erstellen, die tatsächlich indexiert werden sollen. Also konkret: Die Canonical URL. Kann das zu Problemen führen? Wir nutzen rel / prev u.a. konkret bei der Auszeichnung unserer paginierten Produkt-Kategorien, z.B. aboutyou.de - Frauen Kleidung online kaufen bei ABOUT YOU Antwort: Ich würde empfehlen, ohne Session IDs in der URL zu arbeiten. Das macht das Crawling sehr viel schwieriger, da wir bei jedem Aufrufen andere URLs sehen. Und auch interne Links wie Mobile oder Hreflang bekommen dann vielleicht auch eine Session ID und das ist nicht gut. Wenn ihr es nutzen müsst, dann verlinkt zwischen dem prev und next immer zum Canonical.  

Thema: Noindex

Zeit: 13:47 Frage: Ich hätte eine Frage zu Agenturmeldungen bei Nachrichtenwebseiten. Von Google wird empfohlen, diese auf Noindex zu setzen. Allerdings ranken diese oftmals gut und generieren organischen Traffic. Kann eine Seite als ganzes wegen indexierten Agenturmeldungen abgestraft werden? Antwort: Ich denke, dass ist an und für sich euch überlassen. Ich weiß nicht, wo diese Empfehlung herkommt. Das Problem ist eher, dass eure Meldungen auf vielen Seiten veröffentlicht werden, und die konkurrieren dann miteinander. Wenn das für euch ok ist, dann macht das so. Da würde ich aber nicht sagen, dass es da manuelle Abstrafungen gibt. Agenturmeldungen sind ja etwas ganz normales.  

Thema: Schema.org

Zeit: 15:41 Frage: Was ist die Empfehlung bei Schema Auszeichnung für sameAs: Sollen hier nur Social Media Kanäle rein oder können auch weitere Websites oder Portaleinträge wie etwa auf Booking.com hinterlegt werden? Antwort: Das könnt ihr machen, wir nutzen es aber glaube ich aktuell nur für die Social Media Profiles. Da gibt es intern momentan auch viele Gespräche, wie wir das noch besser nutzen können.  

Thema: Robots.txt

Zeit: 17:27 Frage: Wenn ich in einem Unterverzeichnis einer Domain ein independent CMS System habe, muss dann die robots.txt für dieses CMS trotzdem im Root der Domain sitzen? Antwort: Ja, wir lesen sie nur im Root vom Hostname. Das kann auch eine Subdomain sein, aber dort suchen wir sie. In Unterverzeichnissen suchen wir nicht.  

Thema: Links

Zeit: 18:08 Frage: 1. Wir haben auf einem Projekt alle Unterseiten am Seitenende mit 5-7 internen Links versehen (Weiterführende Infos, verwandte Themen, etc. als Mehrwert für den User). Wie wirkt sich das auf den Index aus, da die Linkstruktur projektweit nun natürlich eine ganz andere ist? 2.  Traditionell haben wir alle externen Links auf nofollow. Ich würde das gern ändern und alle auf follow setzen, da wir ausschließlich primäre Quellen verlinken. Schadet oder nutzt das eher, Thema Link-Juice? Antwort: 1. Das kann eigentlich ganz normal sein. Sowas sehen wir auf fast jeder Seite. Das kann auch das Crawling einfacher machen. 2. Das ist vollkommen euch überlassen. Wenn das natürliche Links sind, ist das total ok. Wenn es aber bezahlte Links sind oder sie aus nutzergenerierten Inhalten stammen, dann würde ich sie auf Nofollow lassen.  

Thema: Cloaking

Zeit: 20:52 Frage: Wir überlegen, ob wir in unserem internationalen Shop die Lieferregion automatisch über GeoIP einstellen lassen sollen. Dann würden sich -- je nachdem, in welchem Land sich der Besucher befindet - die Preise und Versandkosten der Produkte ändern, um dem Besucher hier Arbeit abzunehmen. Ist das eine gute Idee, oder eher nicht? Könnte hier dann ein Cloakingproblem entstehen für den Googlebot? Falls eher schlecht, welche Alternativen kommen denn hier infrage? Im Moment muss die Lieferregion auf der Seite jeweils manuell vom Besucher eingestellt werden. Wenn er das vergisst, sieht er bis zum Checkout u.U. die falschen Versandkosten, was natürlich keine gute Nutzererfahrung ist. Antwort: Für uns ist da schwierig, dass wir meistens aus den USA crawlen und dann nur diese Inhalte sehen. Wenn das für euch ok ist, macht das. Wenn sich da aber viele Dinge ändern, dann sehen wir nur die US Dinge und zeigen sie dann auch im Snippet und Title - und das könnte eure Nutzer verwirren. Ihr solltet eher oben ein Banner zeigen, das Nutzer je nach ihrem Aufenthaltsort auf die passende Version weiterleitet. So kann Googlebot alles crawlen und indexieren und die Nutzer haben es auch einfach.  

Thema: Search Console

Zeit: 23:06 Frage: Die Google Search Console zeigt, dass wir mit unserem Markennahmen und der zugehörigen Homepage im Schnitt auf Rang 2.2 liegen. Da wir eine relativ starke Marke sind, würden wir gern wissen, wer da mit uns in Konkurrenz steht - vielleicht ja wir selbst? Antwort: Ja, könnte sein. Da gibt es einen Hilfeartikel, der das Ranking in Search Console erklärt. Vielleicht gibt es auch ein Featured Snippet oder ein lokales Ergebnis, das dann oben steht. Man kann auch mit den Filtern in der Suchanalyse genauer schauen, wo das genau herkommt (mobile/Desktop, Land, etc).  

Thema: Content

Zeit: 25:06 Frage: Was hältst du von snackable content in der nachfolgenden Form? Wenn bspw. jemand die Kaloriendaten zu Bananen sucht, muss ich ihm ja keine Liste mit allen Obstsorten bieten, sondern könnte einfach eine Unterseite mit den Kaloriendaten zu Bananen liefern. Damit bekommt der User genau das, was er sucht. Allerdings wäre die Seite dann auch ziemlich leer und damit eher schlecht von Google interpretierbar mit wenig Chancen zu ranken. Oder? Auf der anderen Seite wäre es im o.g. Fall natürlich auch keine gute Nutzererfahrung, wenn ich einen 1000 Wörter Text über die Kalorien in Bananen schreibe. Was macht denn hier am meisten Sinn? Antwort: Aus meiner Sicht ist das euch überlassen. Wenn ihr wenige Infos habt, kann es sein, dass Nutzer noch woanders suchen. Wenn ihr aber Keyword Stuffing macht und SEO Texte schreibt, dann hilft euch das auch nicht unbedingt. Vielleicht könnt ihr euch mehrere Elemente zusammennehmen - in eurem Fall andere Aspekte von Bananen oder mehrere Obstsorten. Bietet also eine relevante Seite, die für sich stehen kann und dem Nutzer einen Mehrwert bietet. Es gibt aber keine künstlichen Werte wie "mindestens 1000 Wörter". Da können auch A/B Tests helfen.  

Thema: Ranking

Zeit: 27:30 Frage: Vor einigen Monaten hatten wir die Problematik angesprochen, dass kleine Webseiten und Nischenportale in den Schlagzeilen der organischen Suche fast nicht mehr berücksichtigt werden und nur noch große Portale - oft mit veralteten oder doppelten Meldungen - zum Zuge kommen. Wie Du damals mitgeteilt hast, wurde die Problematik an das Team weitergegeben und: seit Anfang des Jahres war es dann etwas besser. Wir haben uns gefreut, dass wir nach gut zwei Jahren zu relevanten Keywords mit unserer Seite lotto-news.de - Lotto-News.de: Aktuelle Nachrichten und Lottozahlen wieder in den Schlagzeilen gelistet wurden. Doch seit Ende Mai ist wieder alles beim Alten. Egal was wir schreiben, wie schnell bzw. aktuell oder einzigartig unsere Meldungen zum Thema sind, unsere News werden zu den Top-Keywords nicht gelistet. Laut Sistrix Sichtbarkeitsindex hat es Ende Mai ein Update bei Google gegeben, unsere Seite ist demnach deutlich abgestraft worden - und keiner weiß warum. Bei Google News steht die Seite nach wie vor gut da. In den WMT gibt es keine Fehlermeldungen. Die Seite entspricht den Google Richtlinien, verfügt über "https"-Verschlüsselung, ist "mobile-friendly" und "AMP"-tauglich und werbemäßig werden seit Jahren sowieso nur drei Adsense-Banner auf der Seite angezeigt. Wir wissen, dass wir nur ein kleiner Publisher sind. Dennoch, unsere Meldungen sind stets aktuell, in den meisten Fällen berichten wir als erste Nachrichtenseite mit qualifiziertem Content zum Thema. Könntest Du dir das nochmals anschauen, warum unsere Webseite zu bestimmten Keywords seit drei Wochen in den Schlagzeilen nicht mehr gelistet wird und uns vielleicht einen Hinweis an welcher Schraube wir drehen müssen? Antwort: Schwer zu sagen. Wenn wir die Qualität anschauen, dann geht es oft nicht um die technischen Hintergründe, sondern um alles. Und so stufen wir dann auch neue Informationen ein. Technische Dinge sind oft eher kleinere Rankingfaktoren, nur wegen Https oder AMP steigt ihr also nicht auf einmal mehrere Positionen in den SERPs. Es ist eine Frage der allgemeinen Qualität, die sich nicht 1:1 in Zahlen ausdrücken lässt. Ich leite den Feedback aber mal an das Team weiter.  

Thema: Videos

Zeit: 30:22 Frage: Wir haben (u.a.) unsere Videos mit Microdata nach schema.org strukturiert (VideoObject) und alle notwendigen/required Felder angegeben. Auch für "thumbnailURL" erfüllen wir die Anforderung für Pixelbreite, Pixellänge und Dateiformat. Das Test-Tool für strukturierte Daten zeigt keinerlei Fehler an. Dennoch wird das thumbnail nicht in den SERPs angezeigt. Kann es an der nicht vorhandenen Dateiendung (.jpg) in der URL liegen? Gibt es weitere Besonderheiten, die hier entscheidend sind? playerType? autoPlay? embedUrl vs contentUrl? Antwort: Ja, kann sein. Gerade für Thumbnails und Bilder laufen mehrere Tests, um zu sehen, ob sie geeignet sind. Manchmal erwarten wir da auch gewisse Dateiformate. Und wenn dann die entsprechende Endung fehlt, dann kann das unsere internen Tools verwirren. Probiert das also mal mit der richtigen Endung und reicht das über Search Console in den Index ein. Es muss für uns auch klar sein, dass das Video ein Hauptinhalt der Seite ist und dass wir die einzelnen URLs gut extrahieren können.  

Thema: Seitenstruktur

Zeit: 32:49 Frage: Wir betreiben in einigen europäischen Ländern eine Metasuchmaschine für Jobs und wir hätten 2 Fragen bzgl. Indexierung und dem Crawler. 1) Wir stellten fest, dass einige Urls nicht korrekt zugeordnet werden, obwohl es auch passende Urls für die jeweiligen Suchbegriffe gibt. Zb. Liefert eine Suche nach „büro jobs“ die url „/büro-berlin“ oder auch wenn man nach „büro jobs hamburg“ sucht, kommt „/-bürokauffrau-hamburg“. Sind jetzt nur Beispiele aber es kommt in beliebiger Kombination vor. 2) Wie werden doppelte bzw. dreifache Redirects gehandhabt? Unser Meinung nach, wird nur der 1. Redirect von Google abgearbeitet und korrigiert aufgenommen und erst bei einem weiteren Crawling kommt der 2. Redirect dran, usw. (betrifft sowohl http>https als auch Änderungen im Path). Dies hat zur Folge, dass sich im Index immer noch uralte Links finden, obwohl diese weder von der Seite verlinkt werden und auch nicht in der Sitemap zu finden sind. Bei uns sind somit noch mehrere 100 Tausend alte Links im Index, die wir vor Jahren generiert haben und korrekt umgeleitet werden. Antwort: 1. Im Grunde genommen ist das nicht etwas, wo wir nur auf die URL schauen und uns dann etwas aussuchen. Wir wägen die Seiten insgesamt gegeneinander ab. und wenn mehrere Seiten sehr ähnlich sind, dann suchen sich die Algorithmen vielleicht ein raus. Wenn das dann die Falsche ist, macht die interne Verlinkung sehr sauber oder überlegt euch, ob man das Canonical nutzen oder die Seiten zusammenklappen kann. 2. Wir können bis zu 5 Redirects hintereinander während eines Crawls verfolgen. Das müssen aber normale 301er oder 302er sein. Sind es mehr als fünf, dann machen wir das beim nächsten Crawl und ihr seht da vielleicht eine Verzögerung. Für die URL, die dann in den SERPs gezeigt wird, nehmen wir zum Redirect auch noch Canonicals, die interne Verlinkung und Sitemaps dazu. Wenn wir da also was falsch machen, dann habt ihr widersprüchliche Signale. Wenn man gezielt nach der falschen URL sucht, dann versuchen wir auch, euch diese zu zeigen. Das hat aber nichts mit der eigentlichen Indexierung zu tun.  

Thema: Crawling

Zeit: 37:57 Frage: Als Nachrichten-Portal besitzen wir über die Jahre hinweg sehr viele Artikel, die wir natürlich alle gerne im Index der Suchmaschine lassen wollen, da ja generell auch ältere Artikel zu bestimmten Recherche-Suchanfragen und Themen relevanten Content bieten. Wir machen uns jedoch Gedanken in Hinsicht Crawling-Budget. Wir würden das Budget natürlich gerne auf unsere neuesten Themen und Artikel konzentrieren, da diese sicherlich erstmal mehr Nutzer-Relevanz haben. Allerdings möchten wir natürlich auch zu älteren Artikeln noch gefunden werden. Gibt es eine Möglichkeit für uns das Crawling auf bestimmte Artikel/URLs zu fokussieren ohne ältere Artikel auf NOINDEX zu setzen, damit das Crawling-Budget vorrangig für die aktuellsten Artikel verwendet wird und ältere Artikel dann nur weiter gecrawled werden, wenn noch Budget übrig ist? Mein Gedanke wäre in unserer Sitemap nur noch die aktuellen Artikel aufzuführen und die älteren URLs dem Zufall zu überlassen... Ich schätze jedoch, dass das Crawling-Budget sich nicht vorranging an der Sitemap orientiert, sondern an allen URLs die dem Bot bekannt sind, also auch ältere zuvor schonmal indexierte URLs, womit das dann auch keine Lösung wäre, oder schätze ich das falsch ein? Antwort: An sich können wir fast alle Seiten gut crawlen, das ist also kein Problem. Da machen sich Webmaster meist umsonst Gedanken um das Crawling Budget. Uns hilft aber eine Sitemap mit Änderungsdaten, sodass wir die neuen und geänderten URLs sofort sehen. Die anderen gehen wir dann nur gelegentlich durch. Eine saubere URL-Struktur und interne Verlinkung hilft auch, damit sich die bestehenden URLs nicht bei jedem Crawl verändern. Noindex ist ein Meta-Tag auf den Seiten, wir müssen die Seiten also immer crawlen, um das zu sehen und das würde daher nichts für das Crawling verändern.  

Thema: URL-Struktur

Zeit: 40:13 Frage: Macht es für Google einen Unterschied, ob man Sonderzeichen bzw. Umlaute in URLs verwendet oder diese Zeichen bspw. als "%20" URL-encoded? Wenn ich intern sowohl URLs mit Umlauten als auch URLs mit Umlauten in Encoding-Form nutze, wertet Google das als verschiedene URLs? Sollte ich alle internen Links auf eine der beiden Versionen umstellen? Antwort: Es gibt ja Standard-Encodings und uns ist egal, welche davon ihr nehmt. An sich machen das die CMS auch automatisch. Wir sehen die als äquivalent. Groß- und Kleinschreibung werten wir aber unterschiedlich und  "%20" würde ich in URLs nicht verwenden, da man diese dann manchmal nicht gut mit Copy und Paste weiterverwenden kann. Da das ein Leerschlag ist, gehen die URLs dann oft kaputt. Ein "-" oder ein "_" wäre da aus Nutzersicht besser, auch wenn wir alles erkennen können.  

Thema: Ranking

Zeit: 42:37 Frage: Welche Auswirkungen haben implementierte Dienstleistungen von Google auf das Ranking, Antwort: Oft eigentlich keine. Wir versuchen, in der Websuche neutral zu sein. Es ist für die Suche also zum Beispiel egal, ob ihr Analytics oder AdSense verwendet - oder Programme von anderen Anbietern oder gar keine. Manchmal machen Google-Dienste eure Seiten besser, manchmal aber auch etwas langsamer.  

Thema: Duplicate Content

Zeit: 43:42 Frage: In einem Portal zur Unternehmensnachfolge bieten Firmen Unternehmen zum kauf an. Dabei wird für jedes Unternehmen eine eigene Kampagnenseite erstellt, die Angaben für die verkaufende Gesellschaft wiederholen sich dann. ist das ein Problem? Antwort: Wir crawlen und indexieren das normal. Wer aber in der Suche gezielt nach den doppelten Informationen sucht, werden wir die Seiten vielleicht etwas zusammenklappen. Wir sollten aber alle indexiert haben. Das ist dann aber kein Qualitätsproblem und sorgt auch nicht für ein schlechteres Ranking. Den ganzen Hangout könnt ihr euch hier ansehen: