Deutsches Google Webmaster Hangout Transkript, 17.05.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 18. Mai 2016

Thema: Crawling

Zeit: 00:52 Frage: Wenn Googlebot unterwegs ist und währenddessen auf Seiten stößt, die wichtiger sind als die, die er eigentlich auf seiner Liste hatte: Würde Googlebot diese dann besuchen, wenn sie wirklich wichtig sind? Antwort: Ja, würde er. Manchmal kommen Sachen unerwartet - zum Beispiel neue Veröffentlichungen - und dann reagieren wir und crawlen sie auch. Wir werden aber nicht immer an die Grenze der Serverkapazität gehen. Denn wir wollen immer sicher stellen, dass die Seite auch für normale Nutzer perfekt läuft, wenn wir gerade crawlen.  

Thema: Weiterleitungen

Zeit: 04:28 Frage: Zwei Teile unserer Seite sind auf zwei verschiedenen CMS. Das wollen wir ändern. Leider geht das nicht direkt. Wir müssen einen Teil erst einmal für sechs Monate in eine Subdomain packen, bevor wir es zurück auf die Hauptseite packen können. Sollen wir dafür 301 oder 302 nutzen? Antwort: Wenn ihr etwas für ein halbes Jahr machen wollt, dann würde ich 301 nutzen, damit wir es etwas schneller übernehmen. Wir werden es zwar in jedem Fall übernehmen, aber so könnte es etwas schneller gehen.  

Thema: Googlebot

Zeit: 05:17 Frage: Ich nutze eine robots.txt mit Noindex, Nofollow Meta Tag. Kann Googlebot trotzdem andere Markups auf der Seite sehen, zum Beispiel Canonical, Hreflang, Mobile Alternate etc? Antwort: Ja, das kann man dann noch sehen. Aber ich weiß nicht, ob das Sinn machen würde. Ein Noindex mit Canonical passt zum Beispiel nicht zusammen. Denn wir sehen, dass zwei Seiten gleich sein sollen, also würde ja auch das Noindex für beide gelten, oder? Seid also bei den Markups so einfach wie möglich, damit nichts falsch interpretiert werden kann.  

Thema: Links

Zeit: 06:40 Frage: Meine E-Commerce Seite nutzt Mega-site Links zu mehr als 300 Kategorien in der Navigation. Die Links wurden mit JavaScript gebaut und erscheinen nicht im Source Code. Die Seiten erscheinen nicht weit oben bei den internen Links in Search Console und ranken schlecht. Soll ich die Links ohne JavaScript nachbauen? Antwort: Ich denke, dass wir beides gleich behandeln würden. Aber ich denke, wir verstehen die Verbindung zwischen den Teilen der Seite nicht. Macht euch also lieber über die Struktur Gedanken. Sobald wir die Seiten gerendered habe, sind die Links auch mit JavaScript ok. Es dauert nur ein kleines bisschen länger als mit statischem HTML.  

Thema: Canonical

Zeit: 09:25 Frage: Gary sagte, man könne ein Canonical auf so ziemlich jede Seite verweisen lassen. Aber ich dachte, dass die beiden Seiten gleich sein müssen - oder zumindest ähnlich? Antwort: Wir haben da kein hartes Limit nach dem Motto "drei von fünf Wörtern müssen gleich sein". Wir schauen uns die Inhalte und die Signale an, um zu merken, ob es Sinn macht oder nicht. Auch wenn viele unterschiedliche URLs ein Canonical auf dieselbe Seite haben, werden wir hellhörig und schauen uns das einmal an. Wenn das passiert, dann sehen wir sie vielleicht als soft 404 und lassen sie fallen.  

Thema: Mobile Usability Tool

Zeit: 12:43 Frage: Bei der neuen Version des Mobile Usability Tools muss ich bei jeder URL ein Captcha ausfüllen. Ich bin eingeloggt, daher macht das echt keinen Sinn. Und wenn ich die Excel Liste herunterladen will, gibt es mir nur die Anzahl der nicht optimierten URLs, aber nicht die URLs selbst. Antwort: Das Captcha ist so gewollt, denn das alte war zu offen. Vielleicht lassen wir das aber mit der Zeit wieder fallen. Es kann sich auch jemand als eingeloggt scripten, deswegen ist das nicht so einfach.  

Thema: Search Console

Zeit: 16:19 Frage: Fungiert die URL Parameter Section in Search Console als Vorgabe oder als Tipp für den Googlebot? Wenn ich dort gewisse Parameter vom Crawling ausschließe, muss ich das trotzdem in robots.txt wiederholen? Antwort: Sie sind mehr ein Hinweis. Für das Indexieren hilft uns die Parameter Section, um herauszufinden, welche Seiten vielleicht zusammengeklappt werden könnten. Robots.txt verbietet uns, diese überhaupt anzugucken. Also gerade bei doppelten Inhalten sollte es nicht blockiert werden, sondern uns durch das Parameter Tool Hinweise gegeben werden.  

Thema: Search Console

Zeit: 17:42 Frage: Was ist der beste Weg, um mit dem "switchcurrency" Parameter in Search Console umzugehen? Es ändert bei uns nur die Währung, die Sprache bleibt aber gleich. Antwort: Das ist aber eine ziemlich deutliche Änderung. Denn je nach dem, wer etwas von wo sucht, kann die Währung sehr wichtig sein. Ich würde das also nicht weglassen oder uns davon blockieren. Das gilt zum Beispiel, wenn wir Preise in den Rich Snippets zeigen - diese können wir dann anpassen.  

Thema: Crawling

Zeit: 19:00 Frage: Wird Google Links crawlen, die nur geladen werden wenn der Nutzer interagiert? Antwort: Nein, wir können so etwas nicht sehen. Googlebot klickt nicht auf Elemente, um zu sehen, was dahinter steht. Wenn in JavaScript zu einer anderen URL navigiert wird, dann könnten wir es vielleicht sehen. Aber das ist dann auch nur ein Nofollow Link und wir werden den Kontext kaum verstehen können. Wenn wir also etwas folgen sollen, dann führt uns dahin. Und wenn es extra lädt, dann sollten es nur Inhalte sein, die ihr nicht im Index braucht.  

Thema: Search Console

Zeit: 20:47 Frage: Meine mobile Seite ist auf einer Subdomain (m.). Muss ich die Sitemaps und demote Sitelinks auch in den mobilen Accounts von Search Console hochladen, obwohl sie schon in den Desktop Accounts zu finden sind? Antwort: In solchen Fällen braucht es ein Canonical von der mobilen zur Dersktopseite. Wenn das richtig gemacht ist und von uns gesehen wird, dann nehmen wir alle Signale von der Desktop Version. Ihr braucht es also nicht, ich würde es aber trotzdem machen: Denn so erhaltet ihr Infos über Crawlingfehler, die es nur auf der mobilen Variante gibt.  

Thema: Links

Zeit: 21:51 Frage: Wie geht Google damit um, wenn der Googlebot auf einer Seite zwei Links findet, die zwar dieselbe URL nutzen, aber einmal Follow und einmal Nofollow sind? Antwort: Ich glaube momentan würden wir den Links folgen und normal PageRank weitergeben. Unser Verhalten in solchen Fällen kann sich aber mit der Zeit ändern. Die Frage ist also eher theoretischer Natur.  

Thema: Mobile Weiterleitungen

Zeit: 23:32 Frage: Wie weit verbreitet ist der Sneaky Mobile Redirects Bug wo man keine Reconsideration Request aufgeben kann? Antwort: Ich weiß es nicht. Ich hoffe, dass das Team es schnell beheben kann. Ich habe auch nicht so viele Leute gesehen, die sich darüber beschwert haben. Daher denke ich, dass es eher ein Nischenproblem ist.  

Thema: Crawling

Zeit: 24:20 Frage: Braucht Google immer noch eine Escaped Fragment Lösung, um Angular JavaScript crawlen zu können? Antwort: Soweit ich weis kann man entweder das #! System nutzen oder auf HTML5 History API Navigation zurückgreifen. Für uns sollte beides in den meisten Fällen funktionieren. Wir empfehlen aber das zweitere und gehen immer mehr von #! weg, weil es auch nicht von Search Console unterstützt wird.  

Thema: Bewertungen

Zeit: 26:24 Frage: Wir haben gerade Seiten in Australien, Kanada und Südafrika gestartet: Dürfen wir die Kundenbewertungen aus UK für alle Seiten nutzen? Antwort: Für uns ist das ok, solange es Bewertungen für eure Dienstleistungen sind. Ich würde sie aber nicht mit einem automatischen Übersetzer übersetzen. Das wären automatisch generierte Inhalte und ein Webspam Problem. Wenn die neue Site in einer anderen Sprache ist, dann übernehmt die Reviews - aber im englischen Original.  

Thema: Hreflang

Zeit: 28:39 Frage: Seit wann ist es möglich, ein solches Hreflang zu benutzen: https://support.google.com/webmasters/answer/2620865?hl=en&ref_topic=2370587. Es scheint zu sagen, dass man nun nur noch eine Sitemap für eine Domain braucht, die dann für alle Sprachen gültig ist. Antwort: Den Artikel müsste ich erstmal noch lesen. Aber grundsätzlich kann eine Sitemap für mehrere Domains gelten - z.B. wenn eine robots.txt directive darin ist. Das ist aber auch schon immer möglich gewesen.  

Thema: Links

Zeit: 31:34 Frage: Ich kann im Content Links von meiner Seite zu einer anderen Seite auf derselben Domain oder zu einer Seite auf einer anderen Domain einbauen. Behandeln die Algorithmen diese unterschiedlich? Antwort: Ich glaube nicht. Das sind einfach normale Links. Soweit ich weiß, behandeln wir beide Arten Links gleich. Bei manchen Seiten ist es eh eine Mischung, da zum Beispiel URL Shortener für alle Links genutzt werden und sie daher für uns gleich aussehen.  

Thema: https 

Zeit: 32:43 Frage: Gäbe es SEO Nachteile, wenn man sowohl http als auch https für alle Unterseiten einer Website funktionierend implementiert hat? Antwort: Ich denke nicht. Wir würden beide Versionen crawlen und indexieren, dann merken wir, dass beide Seiten gleich sind und suchen uns dann eine aus, die wir in den Suchergebnissen zeigen. Das ist so, als gäbe es www und non-www. Wir suchen uns dann einfach ein Canonical aus. Praktisch gesehen kann es aber sein, dass wir dann die falsche Version zeigen. Lasst uns also wissen, welches eure bevorzugte Variante ist.  

Thema: Ranking

Zeit: 35:29 Frage: Stimmt es, dass man alle Inhalte auf einer Seite ändern kann und das nichts am Ranking ändert, wenn man nicht auch neue Links für diese Inhalte bekommt? Antwort: Ihr werdet immer Änderungen im Ranking sehen, wenn ihr den Inhalt ändert. Denn diese beziehen sich immer auch auf die Inhalte, nicht nur auf die Links. Wir brauchen keine Links, um eine Änderung zu triggern.  

Thema: Ranking

Zeit: 36:33 Frage: Stimmt es, dass sich auch die Performance der Unterseiten verbessert, wenn man die Kategorieseite qualitativ verbessert? Antwort: Das macht schon Sinn. Wir sehen, dass sich dieser Teil der Seite verbessert hat - und dann zeigen wir das auch in den SERPs.  

Thema: Keywords

Zeit: 39:36 Frage: Ist es möglich, dass ihr eines Tages die Keywords wieder so nutzbar macht wie früher? Wie z.B. in Google News, wo man nur ein paar Keywords angeben kann. Oder meinst du, dann würden die Spammer wieder das Ruder übernehmen? Antwort: Wie könnten es als Witz für SEOs machen. Aber für das Ranking wird das glaube ich nie wieder genutzt werden. Viele Seiten nutzen sie zwar und wir können da manchmal etwas rausziehen, aber nicht für das Ranking.  

Thema: Updates

Zeit: 40:20 Frage: Momentan schlagen viele Tools aus und sehen Updates. Aber mir fällt da gar nichts auf. Kannst du etwas dazu sagen? Antwort: Viele dieser Tools sehen vielleicht Dinge, die auf unserer Seite nur kleine Updates an den Algorithmen sind. Aber vielleicht samplen sie gewisse Dinge, die dafür sorgen, dass etwas kleines viel größer aussieht, als es eigentlich ist. Es finden immer Änderungen in der Suche statt, momentan etwa 1000 pro Jahr. Und je nach dem, was die Tools sich ansehen, scheinen manche dieser Updates vielleicht größer als die anderen.  

Thema: Ranking

Zeit: 43:58 Frage: Ein SEO hat mir erzählt, dass ihr es sehen könnt, wenn ein Nutzer auf meine Seite geht, auf einen Affiliate Link klickt und dann zu einer anderen Seite weitergeht. Stimmt das, und nutzt ihr diese Daten für das Ranking? Antwort: Erst einmal haben wir nichts gegen Affiliates. Es ist euch überlassen, wie ihr eure Seite monetarisiert - solange wir gute Inhalte sehen. Wenn ihr nur Dinge kopiert, dann ist das Crawlen eurer Seite eine Zeitverschwendung für uns. Als Affiliates müsst ihr auch aus der Masse derer hervorstechen, die das gleiche Angebot haben.  

Thema: UTM Codes

Zeit: 46:14 Frage: Hat es einen negativen Einfluss auf die NAP Konsistenz und damit auf das organische Ranking, wenn man UTM codes für lokale und nationale Verzeichnisse zur Adresse der Website hinzufügt? Antwort: Damit meint ihr denke ich die Analytics Tracking codes? Die können wir meistens sehr gut rausfiltern - wir konzentrieren uns dann auf den normalen Link. Ihr könnt uns auf solche Dinge auch mit Hilfe des URL Paramater Tools in Search Console hinweisen.  

Thema: AJAX

Zeit: 47:03 Frage: Wir haben am Ende vieler Seiten, weit unter dem sichtbaren Bereich, ein Werbepanel. Diese sind AJAX, um Ladezeit zu sparen. Die AJAX Url ist in einer robots.txt, um dem Crawler Zeit zu sparen. Google kann also die Werbepanel nicht sehen. Kann man dies ignorieren, obwohl es eine blockierte Ressource mit mittlerer Wichtigkeit ist? Antwort: Die Schwere bezieht sich auf das Mobile Testing Tool. Wenn ihr es nicht indexiert haben wollt, dann lasst es so. Für Werbung zum Beispiel ist das also ok. Wenn ihr es aber indexiert haben wollt, dann müsst ihr euch darum kümmern. Es gibt natürlich extreme Situationen, wo wir uns solche Dinge auch mal mit dem Webspam Team anschauen (Stichwort: Cloaking) - aber zum großen Teil ist das nur als Info für euch gedacht.  

Thema: Panda

Zeit: 51:27 Frage: Wie sind die Abstände, in denen Panda läuft. Antwort: Keine Ahnung, als Teil des Core Algorithmus läuft es einfach regelmäßig und ohne dass wir etwas tun müssten. Es geht von einer Runde in die nächste.  

Thema: DMCA 

Zeit: 56:11 Frage: Kannst du eben etwas zum DMCA Penalty sagen? Antwort: Dazu kann ich nichts sagen. DMCA ist eine rechtliche Sache, das ist also nicht mein Gebiet.   Den ganzen Hangout könnt ihr euch hier ansehen: