Deutsches Google Webmaster Hangout Transkript, 10.01.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 11. Januar 2017

Thema: Disavow

Zeit: 00:49 Frage: Es gibt manchmal URLs, die man nicht disavowen kann. Bei mir war das bei russischen URLs so, und das ohne, dass Google einen Grund angibt. Es gibt einfach nur einen Fehler. Könnte das an der Schreibweise liegen? Antwort: Das sollte eigentlich funktionieren. Sobald es bei UTF8 funktioniert, dann sollte es gehen - da kannst du einfach eine entsprechende Datei erstellen. Du könntest auch die Pennycode Version nutzen, mit XP- und dann die normalen Buchstaben. Das macht es etwas einfacher, vor allem, da wir solche Buchstaben ja oft nicht auf unseren Tastaturen haben.  

Thema: Noindex

Zeit: 03:50 Frage: Wie sollte man das Tag eingeben: "noindex" "nofollow" vs. "NOINDEX, NOFOLLOW"? Und wie lange dauert es, bis eine solche Änderung in Kraft tritt? Antwort: Für uns sind beide Schreibweisen ok, beide sind gleich gut und auch gleich schnell. Ihr braucht aber kein "Index" oder "Follow" Tag eingeben, da das eh der Standard ist. Wir ignorieren das dann. Wir schauen uns nur die negativen Tags an.  

Thema: Internationale Websites

Zeit: 05:08 Frage: Wir haben ein digitales Magazin, mit dem wir in 30 Ländern aktiv sind. In jedem wird die jeweilige Third Level Subdomain (country.domain.com) ausgespielt, die lokale Nachrichten in der Landessprache enthält. Wir haben alles auf einem CDN, lassen es aber auch noch durch lokale Proxies laufen, da Google früher eine lokale IP Adresse als Rankingfaktor angegeben hat. Ist das für Nachrichten noch so? Wenn nicht, könnten wir die Proxies entfernen und alles durch CDN bereitstellen? Antwort: Ihr könnt das so machen. Wenn ihr eine generische Toplevel Domain habt, dann könnt ihr das Geotargeting selbst einstellen. Ihr braucht die lokale IP Adresse also nicht. Es gibt viele Artikel, die euch etwas anderes sagen, aber ihr braucht keine lokale IP Adresse. Das geht alles per CDN.  

Thema: Content

Zeit: 06:50 Frage: Sind Relevanz und Qualität verbunden? Wenn ich also die Relevanz eines Inhalts für Nutzer verbessere, verbessert das automatisch die Qualität meiner Website? Antwort: Dazu kann ich jetzt nicht soviel sagen. Denn die Frage geht in die Richtung "Wie rankt Google Ergebnisse?" und darüber reden wir nicht öffentlich. Relevanz ist grundsätzlich aber immer wichtig, aber im Hinblick auf die jeweilige Suchanfrage des Nutzers. Wir entscheiden das also von Fall zu Fall und von Anfrage zu Anfrage. Und je nach Anfrage hat eine Seite vielleicht eine höhere Qualität, während eine andere die höhere Relevanz aufweist. Da kann ich dann aber nicht sagen, wie wir das Ranken würden. Da gibt es total viele Signale, um herauszufinden, was für die entsprechende Suchanfrage wichtiger ist. Das macht die Suche auch so spannend, weil es schwierig ist und sich auch mal ändern kann.  

Thema: URL-Struktur

Zeit: 08:23 Frage: Beeinflussen lokale Begriffe in einer URL das Ranking einer lokalen Website? Helfen also zum Beispiel französische Wörter in der URL, wenn die Seite französische Inhalte hat und in Frankreich ranken soll? Antwort: Nein, meistens hat das keinen Einfluss. Wir schauen uns die URL ein wenig an, um die Inhalte zu verstehen - aber andere Faktoren sind viel viel wichtiger. Ob ihr da nun Parameter, Keywords oder ähnliches drin habt, ist für uns nicht wichtig. Für Nutzer macht das aber oft einen Unterschied, also solltet ihr schauen, was eure Zielgruppe gerne hätte. Wenn diese eine englische URL sehen und nach französischen Inhalten suchen, dann werden sie die Seite vielleicht nicht anklicken.

Thema: Rankingfaktoren

Zeit: 09:54 Frage: Du sagst oft, dass die Algorithmen sich Daten wie Klicks nicht für jede Unterseite anschauen, heißt das dann, dass sie sich das aber seitenweit anschauen? Antwort: Manchmal ja, manchmal nein. Das hängt immer von den jeweiligen Algorithmen ab. Vor allem bei Klicks nutzen wir es vor allem, um die Algorithmen zu verbessern. Es kommt halt auch immer auf das Gesamtbild an, man kann nicht immer nur eine Metrik isoliert betrachten.  

Thema: Rankingfaktoren

Zeit: 12:09 Frage: Wie unterscheidet ihr zwischen einer Website die wirklich populär ist und einer, die gar nicht populär ist, aber in einer speziellen Nische eine wirkliche Autorität darstellt. Antwort: Das passt zu dem, was ich eben gesagt haben. Wir schauen uns viele Faktoren an und spielen es dann im Hinblick auf die Nutzer und deren Suchanfragen aus. Es gibt nicht die eine Antwort, weil es sich immer mal wieder ändert und auch je nach Anfrage unterscheidet.  

Thema: Google Interna 

Zeit: 13:04 Frage: Kannst du uns für das neue Jahr einen neuen SEO Tipp geben? Ist ein Timestamp wichtig? Antwort: Keine Ahnung. Ein Timestamp ist für mich als Nutzer sinnvoll, für die Suche brauchen wir das aber nicht.  

Thema: Seitenstruktur

Zeit: 14:21 Frage: Wir haben Blog Inhalte, die wir aktuell als reverse-proxy in ein Unterverzeichnis unserer Hauptseite packen (www.example.com/blog). Laut SEOs ist das eine Best Practice, aber wir würden den Blog lieber auf einer Subdomain (blog.example.com) haben. So wollen wir Cookie Stealing Attacken vermeiden, falls die Blog Software mal Probleme hat. Antwort: Für uns funktionieren beide Wege gleich gut. Ich glaube nicht, dass es da SEO Vorschriften gibt. Ihr solltet das machen, was auf eurer Seite technisch Sinn macht. Aber in eurem Fall solltet ihr aufpassen, da es ja ein teilweiser Seitenumzug wird. Macht das also lieber zu einer Zeit, wo ihr nicht auf so viel Traffic auf der Suche angewiesen seid. Denn das kann zu vorübergehenden Schwankungen führen. Die Sicherheit eurer Seite sollte auch immer wichtiger sein als irgendwelche möglichen (Mini-) SEO Vorteile.  

Thema: Content

Zeit: 16:55 Frage: Als Affiliate E-Commerce Seite brauchen wir zusätzliche Inhalte, um zu ranken. Wir überlegen daher, Preisvergleiche zwischen uns und der Konkurrenz anzubieten. Würde Google das als zusätzlichen Wert für den Nutzer sehen?Und wie sollen wir es am besten darstellen, um einen Vorteil daraus zu ziehen? Antwort: Für Google hilft es, wenn wir sehen, dass die Seiten einzigartig sind. Werte für den Nutzer bekommt man, indem man das anbietet, was die Nutzer gerne hätten. Vielleicht könnt ihr sie befragen oder auch A/B Tests machen.  

Thema: Interstitials

Zeit: 18:21 Frage: Der Penalty für Interstitials ist heute live gegangen. Wann werden wir die Auswirkungen sehen? Wird es große Rankingänderungen geben? Antwort: Es dauert meistens ein paar Tage, bis das in allen Datencentern angekommen ist. Ich würde also erwarten, dass wir die Auswirkungen in den nächsten Tagen sehen werden. Ich hoffe, dass es nicht zu sehr großen Änderungen kommt. Wir haben auch einige Seiten beobachtet, die ein Interstitial hatten - und die haben das fast alle aufgeräumt.  

Thema: Interne Verlinkung

Zeit: 19:31 Frage: Sollte die Homepage die Seite mit den meisten internen Links sein? Wenn nicht, wie sichtbar sollte sie in den Search Console Reports sein? Antwort: Ich weiß nicht. Ich schaue mir das in Search Console nie an. Denn die interne Verlinkung sollte eigentlich immer ok sein, da die meisten CMS sehr gut zu crawlen sind. Macht euch da also nicht zu viele Gedanken.  

Thema: Redirect

Zeit: 21:57 Frage: Wir haben seit September ein Problem. Viele unserer Markenabfragen bringen eine Seite hervor, die komplett zu unserer neuen Seite mit Https weiterleitet und auch Canonicals hat. Wir können uns nicht erklären, warum das so ist. Das passiert aber nur für die Homepage, bei den Unterseiten geht es. Antwort: Ich glaube, das hast du auch schonmal in den Foren gepostet, oder? Laut dem Team ist das etwas, was unsere Algorithmen so finden. Sie denken, dass die andere Variante die ist, die Nutzer sehen wollen. Das scheint falsch zu sein, aber da könnt ihr momentan nicht viel machen. Ich rede weiterhin mit dem Team, sie versuchen, da etwas zu ändern. Das kann aber dauern und ich empfehle, dass du den Forenthread immer mal wieder hochholst, damit ich das nicht vergesse.  

Thema: Https

Zeit: 25:25 Frage: Würde Https im Hinblick auf Panda helfen? Denn Https hilft ja, um Vertrauen zu schaffen. Antwort: Ich glaube nicht, dass wir das für Panda nutzen würden.  

Thema: Strukturierte Daten

Zeit: 26:18 Frage: Du hast gesagt, dass strukturierte Daten kein Rankingfaktor sind. Aber wie vergleicht Google eine Seite ohne Markup mit einer Seite mit Markup? Denn die Daten helfen euch doch dabei, die Inhalte besser zu verstehen. Sollte es dann nicht auch weitere Rankingvorteile bringen, nicht nur Rich Snippets verursachen? Antwort: Manchmal hilft es uns, das Konzept der Seite im Hinblick auf die Relevanz für die Suchanfrage zu verstehen. Es hilft also indirekt dabei, dass wir die Seite besser einordnen und passend ranken können. Der wichtige und sichtbare Effekt sind aber die Rich Snippets und die Rich Cards.  

Thema: Manuelle Abstrafung

Zeit: 27:28 Frage: Können Unterordner einen Penalty erhalten. Und wenn ja, können die entsprechenden Nachrichten verloren gehen? Wir haben eine Seite mit zwei Unterordnern mit Geotargeting und haben große Abfälle im Traffic festgestellt. Antwort: Ja, Unterverzeichnisse und Subdomains können manuelle Abstrafungen erhalten. Wir versuchen dabei, so granular wie möglich zu sein. Immer geht das aber nicht so weit, dass wir es auf Seitenbasis machen. Aber es geht oft, dass wir das Problem auf ein Verzeichnis eingrenzen können. Das kann z.B. passieren, wenn etwas gehackt wurde. Was die Nachrichten angeht, kann es sein, dass ihr schon eine Abstrafung habt, bevor ihr euch bei Search Console registriert. Dann würde es da vielleicht keine Extra Nachricht geben. Aber ihr könnt das trotzdem immer in Search Console unter Manual Actions nachverfolgen.  

Thema: Redirect

Zeit: 29:33 Frage: Nochmal zu der Frage oben - würde uns vielleicht das Sitemove Tool helfen? Antwort: Das könnt ihr mal versuchen, ich kann aber nicht garantieren, dass das eure Probleme lösen wird.  

Thema: 

Zeit: 31:12 Frage: Letzte Woche hast du gesagt, dass ein Home Punkt im Breadcrumb keinen direkten SEO-Vorteil hat, man es aber machen kann. Aber wenn es für den Nutzer vorteilhaft ist, dann wird es doch auch einen SEO-Vorteil haben, oder? Denn das ist es doch, was ihr mit den Algorithmen belohnen wollt? Ist es also ein Fall von Best Practice anstatt SEO-Vorteil? Antwort: Das wäre etwas, was Nutzer sehen, aber nichts, was Suchmaschinen hilft. Denn wir haben ja andere Home Links auf der Seite. Aber wenn es Nutzern hilft, dann kann das natürlich indirekte Auswirkungen auf die Suche haben. Wenn ihr das einbaut, dürft ihr also keinen Riesensprung in den SERPs erwarten.  

Thema: Redirect

Zeit: 32:44 Frage: Was passiert, wenn man eine Seite umzieht und dabei die alte Sitemap und robots.txt zu den neuen Versionen weiterleitet? Mit wurde gesagt, ich solle diese von der Weiterleitung ausschließen. Stimmt das, und sollten diese dann eine 404 wiedergeben oder etwas ganz anderes? Was würde passieren, wenn ich den kompletten Auto-Redirect belassen würde? Antwort: In unserer Seitenumzug Dokumentation empfehlen wir, keine robots.txt auf der alten Seite zu haben, damit wir allen Weiterleitungen zur neuen Seite folgen können. Das ist aber manchmal einfacher gesagt als getan. Ich weiß nicht, ob ihr im Endeffekt da einen Unterschied sehen würdet, aber  404 auf der alten Seite macht es für uns bei robots.txt einfacher. Bei Sitemaps solltet ihr eine auch für die alten URLs anbieten, und zwar mit dem Änderungsdatum, an dem ihr die ganzen Weiterleitungen eingerichtet habt. Dann können wir das etwas schneller sehen und crawlen. Ihr könnt das entweder auf der alten oder der neuen Domain haben, das ist egal. Wenn wir dann alles gesehen und verarbeitet haben, könnt ihr die Sitemap für die alten URLs auch irgendwann entfernen.  

Thema: 404 & 410

Zeit: 34:51 Frage: Wieso werden URLs in Search Console als Crawlingfehler markiert und wie lange dauert es, bis sie dort nicht mehr erscheinen? Sollten 410er dem Nutzer mit einer gesonderten Seite präsentiert werden, die Links zu anderen Seiten anbieten? Antwort: Die Frage kommt immer wieder. Wir zeigen die jedes Mal als Crawlingfehler, wnen ihr sie crawlen. Wir machen das, damit ihr sehen könnt, falls welche aus Versehen eine 404 zurückgeben. Es ist aber total normal, wenn ihr viele 404er habt und das führt zu keinen Problemen. 404 und 410 sind so ziemlich das Gleiche für uns. Ihr müsst auf den Seiten nichts spezielles machen. Wenn aber Nutzer auf die Seiten gehen, müsst ihr ihnen einen sinnvollen Weg zurück zu euren Inhalten anbieten.  

Thema: Fetch as Google

Zeit: 37:19 Frage: Was ist der beste Weg, um oEmbed Widgets von Drittseiten einzubauen? Wir haben etwas eingebaut, können es aber in Fetch as Google nicht sehen. Antwort: Das sieht nach einem normalen JavaScript Widget aus. Wir müssen das also crawlen können und wir müssen auch die URLs sehen können, die ihr fetched. Das Crawlen muss dort also erlaubt sein. Dann sollte das alles funktionieren. Ihr würdet die Widgets aber nicht im Cached View sehen, da wir da nur das HTML zeigen.  

Thema: Hreflang

Zeit: 39:25 Frage: Unsere Website wurde in 15 Sprachen übersetzt und wir haben Hreflang. In Search Console sehen wir, dass 233 von 40.673 Hreflang Tags fehlerhaft sind. Ich finde die Fehler aber nicht, z.B. fehlt hier angeblich der Rücklink: https://www.thelotter.com/es/online-superenalotto-ganador/ <-> https://www.thelotter.com/it/vincitore-superenalotto-online/ Antwort: Das ist halbwegs normal. Denn wir müssen es von allen Seiten bestätigen. Und wenn wir einige der Seiten noch nicht gecrawlt haben, seit ihr das Hreflang eingebaut habt, dann seht ihr vielleicht solche Warnungen. Vielleicht haben wir da auch eine 404 gefunden. Bei so wenigen Fehlern bei so vielen Seiten sollte das keine Probleme machen. Ich glaube auch, dass man bei so großen Seiten immer ein paar Fehler haben wird.  

Thema: Duplicate Content

Zeit: 41:37 Frage: Sieht Google DC als ein wichtiges negatives Signal bei Amazon Affiliate Seiten mit Millionen von Produktseiten? Unsere Preisvergleiche werden z.B. gar nicht mehr indexiert. Durch Penguin 4.0 haben wir zudem 50% des Traffic verloren. Was wäre das Maximum an DC, das Google tolerieren würde? Antwort: Wir haben da kein Maximum an DC, denn das würde keinen Sinn machen. Wir wollen sicherstellen, dass jede Seite eigene Inhalte hat und nicht nur Feeds aggregiert. Aber wenn wir sehen, dass die Inhalte alle auch schon woanders stehen, dann sagt unser Team oder die Algorithmen vielleicht, dass sich das Crawlen und Indexieren hier nicht lohnt. Es gibt da aber nicht eine Zahl, die eine Grenze darstellt. Wenn ihr wisst, dass eure Seite in die Kategorie von wenigen eigenen Inhalten fällt, dann müsst ihr daran arbeiten - am besten schon, bevor es in der Suche Probleme gibt. Die Seite muss so gut sein, dass eure Nutzer euch gerne weiterempfehlen.  

Thema: Manuelle Abstrafung

Zeit: 44:19 Frage: Wenn sich das Webspam Team das anguckt, wird das dann eine manuelle Abstrafung? Oder können sie auch Seiten im Hintergrund abwerten, ohne dass wir das mitbekommen? Antwort: Nein, das wäre dann eine manuelle Abstrafung, die ihr in Search Console sehen würdet. Es gibt vielleicht ein paar manuelle Dinge, wo wir nichts sagen können, die beziehen sich dann auf rechtliche Dinge oder das Copyright. Das Team würde sich die Seite dann aber immer wieder anschauen, um zu sehen, ob ihr das repariert habt. Das verkompliziert das Ganze. Bei einer Webspam Manual Action sagen wir euch aber immer Bescheid.  

Thema: Indexierung

Zeit: 46:07 Frage: Wie wird der neue mobile first Index die Seitenarchitektur beeinflussen? geht es nur um das Erreichen der Inhalte oder wird es auch genutzt, um einen internen Links Graphen zu bauen? Antwort: Ja, wir versuchen, komplett auf die mobile Version für das Crawlen, Indexieren und Ranken zu wechseln. Für viele Seiten könnte das eine große Änderung werden, wenn ihr z.B. dynamische Inhalte habt. Für responsive Seiten ändert sich aber nichts. Und auch viele der Tools fokussieren sich auf den Desktop, da werden Änderungen wichtig werden. Es gibt dafür auch noch kein Datum, ich glaube nicht, dass das in den nächsten Monaten kommen wird. Wir experimentieren gerade mit einigen Seiten, um zu sehen, wo es Probleme geben könnte. Wir wollen erreichen, dass ihr am Ende so wenig wie möglich umstellen müsst. Wir werden euch auch Best Practices und FAQ anbieten, damit ihr alles sinnvoll vorbereiten könnt. Ihr solltet euch die Desktop Version auch weiterhin anschauen, denn sie wird ja Nutzer generieren. Aber die mobile Version wird immer wichtiger. Und problematisch wird es nur, wenn sich die Inhalte zwischen Desktop und Mobile unterscheiden. Denn wenn die meisten Nutzer die mobile Seite sehen und wie versprechen ihnen Desktop Inhalte, die nicht da sind, dann macht das ja keinen Sinn. Deswegen ist responsives Design optimal, da wir ja in beiden Situationen identische Dinge sehen.   Den ganzen Hangout könnt ihr euch hier ansehen: