Deutsches Google Webmaster Hangout Transkript, 13.01.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 13. Januar 2017

Thema: Cloaking

Zeit: 00:45 Frage: Eine komische Frage: Ein Freund hat eine Seite, auf der er Zugang zu seinen Inhalten verkauft. Es gibt aber auch kostenlose Artikel. Nach 10 gelesenen Artikeln muss man sich den Zugang kaufen. Wie machen wir das nun mit Google? Antwort: Das ist ja eigentlich das First Click Free Model. Nutzer können also, nachdem sie auf die Seite kommen, die ersten Artikel umsonst lesen und sehen erst danach eine Paywall. Googlebot könnt ihr dann in diesem Fall von der Paywall ausnehmen (per Whitelist) und das ist kein Cloaking. Das darf aber nur in bereichen gemacht werden, die Nutzer auch sehen können.  

Thema: Google Update

Zeit: 04:10 Frage: Wie evaluiert Google, ob ein neuer Algorithmus die Sucherfahrung verbessert? Antwort: Das ist immer schwierig. Paul Haahr hat dazu im letzten Jahr eine Präsentation bei der SMX gegeben. Das Video gibt es bei YouTube, das würde ich zu diesem Thema empfehlen. Wir nutzen viele Faktoren, da es nicht den einen Faktor gibt. Dazu gehören A/B Tests oder auch Quality Raters. Vor einigen Jahren hat man zum beispiel bei Fragen immer Artikel gefunden, die genau für diese Frage geschrieben wurden, aber als Ergebnis schlecht waren und keine guten Antworten gegeben haben. Wir müssen also immer schauen, wie die Nutzer auf lange Sicht reagieren.  

Thema: Google Analytics

Zeit: 07:02 Frage: Wir hören immer wieder das Click Through und Bounce Rate ein wichtiger Faktor sind. Kommen diese dann in so einer Situation ins Spiel, wenn Algorithmen getestet werden? Und sehen die Wettertools sowas? Antwort: Ja schauen uns das für die Algorithmen an. Aber nicht für einzelne Seiten. Die Wettertools sehen Änderungen manchmal. Aber jeder, der sucht, ist in einer Vielzahl von Experimenten. Oft, wenn ich mir die Wettertools ansehe, sind sie auf einem hohen Stand, obwohl wir nichts machen, außer zu testen. Und die Tools geraten dann in diese Tests. Denn wir testen die ganze Zeit, und Websites sollten das genauso machen. Denn nur so kann man besser werden.  

Thema: Internationale Websites

Zeit: 14:33 Frage: Sagen wir ich habe die Website example.com mit meinen Standardinhalten. Dazu habe ich auch example.com/xyz-abc, diese leitet auf example.com weiter. Nutzer, die von dort weitergeleitet werden, sehen aber leicht andere Inhalte, z.B. andere Produkte oder niedrigere Preise. Daher zeigen wir zwei unterschiedliche Inhalte für dieselbe URL. Wie kann ich sichergehen, dass Google nur die Standardseite indexiert? Antwort: Wir indexieren Seiten auf Basis der URL, wir Crawlen nicht mit Refferern oder Cookies. Wir würden die Seite also so sehen, wie ein Erstbenutzer sie sieht. Personalisierungen durch Cookies etc würden wir also nicht sehen. Wenn das ok für euch ist, dann passt alles. Soll der personalisierte Content in den Index, dann müsst ihr schauen, dass einige dieser Sachen auch auf der Homepage stehen. Wir sehen das oft bei Seiten, die Inhalte auf Grundlage der Position des Nutzers anzeigen. Da Googlebot aus den USA crawlt sehen wir dann andere Inhalte oft nicht. In solchen Fällen müssen die wichtigen Inhalte also gesondert an anderen Stellen gezeigt werden.  

Thema: Negative SEO

Zeit: 17:33 Frage: Eine Seite verkauft eckige Äpfel unter square-apples.com. Ein Konkurrenz erstellt eine Website namens square-apples-SUCKS.com und schreibt dort einfach nur in 10 Sätzen, das eckige Äpfel doof sind. Seine Inhalte sind relevant und einzigartig, daher rankt er für "eckige Äpfel kaufen" ganz oben, manchmal sogar über uns. Wir verlieren viele Kunden und Spam Reports helfen nicht. Was kann man tun? Antwort: Wir können da gar nichts machen und es auch nicht entfernen. Wenn es rechtliche Gründe gibt, um die Seite zu deindexieren, dann müsst ihr das mit einem Anwalt klären und an uns weiterreichen. Aber wenn es den Grundlagen entspricht dann ranken wir das. Und wenn es über euch rankt, dann liegt es am normalen Ranking.  

Thema: Ranking

Zeit: 19:12 Frage: Ich habe eine Seite mit mehr als 550.000 Unterseiten in 10 Sprachen mit sinnvollen Inhalten (online Notenblätter). Sie wird zu 95% durch HTML5 Canvas dargestellt. Ich denke, das ist nicht crawlbar? Andere Seiten haben wenig Text aber ranken sehr gut, während wir seit Jahren mit dem Panda kämpfen und 90% unseres Traffic verloren haben. Wir haben keine manuellen Abstrafungen und hart an der Seite gearbeitet. Was kann ich tun? Antwort: Das müsste ich mir mal anschauen. Wir fokussieren uns aber vor allem auf Probleme beim Indexieren. Wie es dann rankt, wenn es erst einmal indexiert ist, ist eher eine Qualitätsfrage. Schaut also, ob ihr für Dinge rankt, die zu euch passen. Vielleicht können wir eure wichtigen Sachen auch nicht richtig crawlen.  

Thema: Ranking

Zeit: 22:55 Frage: Meine Seite bekommt auf einmal extrem viel Traffic von einer Quelle, wird das meinen Rankings schaden? Antwort: Viel Traffic hört sich für mich nicht nach einem Problem an. Da sollte es keine Probleme geben. Vielleicht schaltet ihr ja Werbung oder so. Ghost-Spam ist eine Manipulation des Analytics Scrips, die so tut, als würdet ihr Traffic bekommen, den es nicht gibt. Ihr könnt das kontrollieren, indem ihr die verschiedenen Analytics Quellen anschaut und wenn die Zahlen ungefähr übereinstimmen, dann ist es auch echter Traffic.  

Thema: Internationale Websites

Zeit: 27:22 Frage: 1. Ist die Domainerweiterung wichtig für das internationale Targeten? 2. Kann ich Google für URLS wie /myaccount oder /cart blockieren? Antwort: 1. Ja, gTLDs könnt ihr so nutzen und das in Search Console einstellen. Das gilt auch für die neuen TLDs wie .berlin, die zählen auch als gTLD und brauchen daher Geotargeting. Wenn Nutzer das sehen, dann sehen sie es aber vielleicht als tolle lokale Seite. Für die Suche braucht es aber Targeting. Geotargeting heißt auch nur, dass wir die Seite in dem Land etwas höher zeigen, wenn wir glauben, dass jemand etwas lokales sucht. Sucht jemand etwas globales, dann nutzen wir Geotargeting eher nicht. 2. Das ist per robots.txt völlig ok, wenn diese Dinge nicht indexiert oder gecrawlt werden sollen. Vielleicht indexieren wir die URL trotzdem, aber nicht hoch und ohne Inhalte.  

Thema: SERPs

Zeit: 33:18 Frage: Meine Seite ist eine News Website, die früher in der Top Story Box erschienen ist, aber jetzt nicht mehr. Was kann ich da tun? Antwort: In the News in den SERPs ist komplett algorithmisch und hängt von den Suchanfragen ab. Da kommen dann auch organische Rankings ins Spiel. Da gibt es also viele Signale und ihr könnt nicht eine Sache ändern, um auf einmal zu ranken. Auch Markups oder AMP können relevant werden.  

Thema: Ranking

Zeit: 34:50 Frage: In Indien ranken viele internationale Seiten, obwohl sie für die entsprechenden Themen gar nicht relevant sind. Ist das mit Absicht oder warum werden regionale Kriterien beim Ranking missachtet? Antwort: Wenn es schlechte Rankings sind, dann machen wir das sicher nicht mit Absicht. Schicke mir gerne mal Beispiele, am besten mit generischen Suchanfragen und Screenshots.  

Thema: Ranking

Zeit: 36:05 Frage: Spielt Gender in den Rankings eine Rolle. Wäre es also negativ, zum beispiel Badeanzüge ohne weiblichen Bezug anzubieten? Antwort: Ich glaube nicht, dass das negativ oder DC wäre. Das könnt ihr anbieten, wie ihr wollt.  

Thema: Snippts

Zeit: 37:22 Frage: Das hört sich so ähnlich an wie das: https://drive.google.com/file/d/0BxiXRjhfGTsRbFFkckk0V3RDR1k/view. Was hat es damit auf sich? Denn das ist von der Konkurrenz und hilft zwar dem Nutzer, ist aber unfair. Antwort: Ich glaube, wir nennen das Featured Snippets. Manchmal, wenn wir Dinge wie Listen finden, dann versuchen wir, da etwas darzustellen. Dadurch kommen dann größere Snippets zu Stande. Und da ist auch ein sehr kommerzielles Resultat. Du kannst dem Team deine Gedanken dazu gerne mal mitteilen, sowas hilft uns immer.  

Thema: Manuelle Abstrafungen

Zeit: 46:41 Frage: Eine Seite hat eine Unterseite, die erklärt, wie man dem Unternehmen helfen kann, via Kickstarter z.B. Wäre es ok für Google, wenn man dort auch schreiben würde: "Schreibt über uns, teilt uns, verlinkt uns? Denn man fragt nach Links, aber kontaktiert niemanden aktiv. Antwort: Das sollte kein Problem sein. Da würde es keine Gefahr einer manuellen Abstrafung gegen. Wir sollten auch verstehen, was der Unterschied zwischen diesem Vorgehen und einem Kaufen/Verkaufen von Links ist. Denn ihr zwingt ja niemanden und bezahlt auch nichts dafür.  

Thema: Überschriften

Zeit: 49:49 Frage: Gibt es eine Regel im Hinblick auf den Einfluss von Überschriften? Z.B 50% für H1, 20% für H2? Antwort: Da haben wir keine Zahlen. Nutzt sie so, wie es semantisch Sinn ergibt. Denn wir nutzen sie, um den Kontext zu verstehen.  

Thema: Indexierung

Zeit: 50:34 Frage: Wird der Mobile First Index einen Einfluss auf die Desktop Rankings haben, wenn wir auf Desktop und Mobil unterschiedliche Dinge anbieten? Antwort: Ja, da wir ja die mobile Seite indexieren und diese dann auch für das Desktopranking nutzen. Ich habe dafür aber auch noch keine Daten, es wird nicht mehrere Jahre dauern. Wenn ich raten müsste, würde ich sagen, dass es später in diesem Jahr kommen wird. Da werden wir aber auch noch rechtzeitig Informationen rausschicken. Und wir werden auch versuchen, Seiten zu informieren, wenn es da Probleme geben könnte. Daher wird es auch nicht nächste Woche oder so einfach umgeschaltet.  

Thema: Interne Verlinkung

Zeit: 53:22 Frage: Sieht Google interne Links, die sich in einem neuen Fenster öffnen, als stärker oder schwächer? Antwort: Das macht keinen Unterschied.  

Thema: Internationale Seiten

Zeit: 53:40 Frage: In Sri Lanka wird Sinhala viel gesprochen, aber wenig online geschrieben, die meisten Tastaturen sind QWERTY. Die Nutzer tippen das dann phonetisch ein. Sollte man Inhalte haben, in denen Sinhala phonetisch ausgeschrieben wird? Oder sieht Google das als komischen Spam an? Würde das hreflang hier helfen? Antwort: Ich habe da mal ein paar Leute gefragt und es ist eine schwierige Situation. In Hindi ist es oft ähnlich, wo Nutzer Hindi lesen wollen aber mit dem englischen Keyboard suchen. Manche Seiten schreiben dann die Phonetik in den Title, damit wenigstens diese so findbar sind. Da werden wir auch Dinge ändern, um solche Fälle besser bearbeiten zu können. Bei Hreflang solltet ihr BCP49 als Tag nutzen, um Sinhala Latein (SI-Latin) einzustellen. Da könnt ihr mal experimentieren.  

Thema: Seitenstruktur

Zeit: 56:23 Frage: Eine Uni startet ein neues Programm und baut dafür etwas in seinem Subfolder. Für die meisten ihrer Keywords ranken sie aber gar nicht, nicht mal auf der letzten Seite und das nach vier Monaten. Kann es daran liegen, dass das Design anders ist? Antwort: Das müsste ich mir mal anschauen. Wenn eine Seitenanfrage zeigt, dass wir es indexieren, dann müsstest du mir das mal zuschicken.  

Thema: Duplicate Content

Zeit: 59:25 Frage: Mich interessiert Near Duplicate Content. Was ist da eure interne Definition, jetzt, wo es immer mehr dynamische Seiten gibt, die sich Dinge aus anderen Quellen ziehen (wie Wahlergebnisse oder Umfragen). Kann man also sagen, dass sich eure Definition da geändert hat? Antwort: So ziemlich alles in der Suche ändert sich, denn wir müssen uns dem anpassen, was im Internet passiert. Die Ingenieure ändern bei dem Thema immer wieder große Teile ihrer Vorgehendweisen.  

Thema: Seitenstruktur

Zeit: 1:03:10 Frage: Ein Onepager hat für ein Keyword sehr relevante Inhalte. Gibt es Probleme, weil es nur eine Seite ist? Antwort: Das kann ganz normal gut ranken. Solange es nur ein Thema hat, gibt es da keine Probleme.   Den ganzen Hangout könnt ihr euch hier ansehen: