Google Webmaster Hangout Transkript, 04.05.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 4. Mai 2017

Thema: URL-Struktur

Zeit: 00:50 Frage: Wie ist es möglich, dass eine URL indexiert wird obwohl diese nur als Short-URL (Sharing-Link) zur Weiterleitung auf die "unschöne" Original-URL benutzt wird? Beispiel: www.autoscout24.ch/4459335 Antwort: Wir finden diese URLs irgendwo und indexieren sie dann so. Wir haben mehrere Faktoren, um uns eine URL für die Suche rauszusuchen. Wir sehen dann die lange und die kurze und sehen, dass beide gleiche Inhalte haben. Dann clustern wir das und behandeln sie als eine Seite. Und dann suchen wir uns eine aus, die wir dann anzeigen. Bei Seitenabfragen kann man dann auch gezielt die alternativen URLs ansehen. Manchmal haben wir dann aber auch Signale für unterschiedliche URLs, und dann tauschen wir immer mal aus, welche wir im Endeffekt ausspielen. Solche Faktoren sind z.B. Canonicals, Redirects, interne und externe Links sowie Sitemaps. Für das Ranking ist das aber auch egal, es ändert sich nur die angezeigte URL und nicht die Position. Das ist auf Mobile z.B. auch oft egal, da dort die ganze URL oft gar nicht angezeigt wird - zumindest, wenn beide auf der selben Domain stehen. Wenn wir eine für euch falsche nehmen, dann müsst ihr die oben genannten Signale verbessern.  

Thema: Internationale Websites

Zeit: 06:42 Frage: Warum werden die nicht relevanten Ergebnisse aus Deutschland für die Suchanfrage https://www.google.ch/#q=kleinanzeigen in den Schweizer Suchergebnisse angezeigt? Antwort: Das ist schwer zu sagen. Das liegt wohl daran, dass wir keine sauberen Hreflang Infos oder Geotargeting haben, um die Ländervarianten zu unterscheiden. Wenn das drin ist und es trotzdem nicht geht, dann kann man ein kleines Banner einbauen, dass Nutzer aus anderen Ländern auf ihre jeweilige Länderversion hingewiesen werden. Das Banner darf aber nicht im Weg sein oder ein Interstitial werden. Automatische Weiterleitungen sind hier nicht so sinnvoll, denn manchmal wollen Nutzer vielleicht andere Länderseiten. und Google kann dann z.B. nur die US Seiten sehen.  

Thema: Content

Zeit: 09:00 Frage: Werden Textanzeigen (Werbung) als Content mitberücksichtigt? Antwort: In den meisten Fällen nicht, da sie meistens als blockierte JavaScript Dateien eingebunden werden und wir sie nicht sehen. Wenn sie direkt eingebunden sind, dann muss mit Nofollow gearbeitet werden, damit wir das von normalen Inhalten unterscheiden können.  

Thema: AMP

Zeit: 10:07 Frage: Ich hatte im Rahmen des Inhouse SEO Meetings auf der SMX 2017 eine Frage zu AMP gestellt, die du nicht beantworten konntest, weil ich kein Beispiel zeigen konnte. Im Rahmen der Berichterstattung um die UN Geberkonferenz im Jemen gestern konnte ich nun einen entsprechenden Screenshot machen, der unser Problem zeigt. Seit rund 6 Monaten erzeugen wir zu jedem Artikel der in die News-Sitemap läuft eine AMP. Wir wissen, dass es noch ein paar Warnings im AMP Validator gibt, grundsätzlich werden die AMP jedoch gut Indexiert. Nun zur Frage: Wie kann es sein, dass ein News-Beitrag in den „Schlagzeilen“ zweimal auftaucht, einmal als AMP und einmal als reguläre Seite, und dass dann die AMP schlechter positioniert ist als die reguläre Version der Seite? Der Screen anbei zeigt einen solchen Fall. Die beiden markierten Einträge zeigen auf die gleiche Seite. Antwort: Das habe ich vor Kurzem auch gesehen. Grundsätzlich versuchen wir, die Seiten einzeln zu erkennen. Und wenn wir beide Varianten einzeln finden, dann kann es sein, dass wir im ersten Schritt erst einmal beide Seiten indexieren und sie dann auch in den SERPs zeigen. Aber dann sollten wir irgendwann das Canonical erkennen und dann nur noch eine anzeigen. Das kann aber auch einen Moment dauern, bis alles nochmal gecrawlt wurde.  

Thema: URL-Struktur

Zeit: 13:10 Frage: Ich bin Admin einer Arztseite. Die Domain hat die lateinische Endung *cum (Bsp für solche Wörter: ETYMOLOGICUM, ANATOMICUM). Meine Frage ist vielleicht etwas abstrakt: Aber im angloamerikanischen Raum ist dieser Wortteil "Cum" auch im sexuellen Bereich angesiedelt. Kann es wegen des Domains-Namens eine automatisierte Penalty geben? Bzw. greift dort ein Algorithmus, um Wörter mit Cum abzuwerten? Wir haben alles getan, was in den Webmasterregeln vorgegeben wird: Unique Content, Überschriften, Seitentitel, Textlänge, Metas... Einfach alles. Manuelle Maßnahmen seitens Google sind nicht sichtbar. Wir haben höchsten Wert auf Qualität gelegt. Die SEO-Checks geben uns stets Bestwerte. Sogar deutlich gegenüber der Konkurrenz mit ganz kleinem unoptimierten Content. Trotzdem ist das lokale Ranking auf Platz 20 seit einem Jahr! Kann der Name der URL die Ursache sein? Antwort: Ich kann mir nicht vorstellen, dass so eine Verknüpfung passiert. Denn viele Wörter haben ja in unterschiedlichen Sprachen unterschiedliche Bedeutungen. Wir versuchen, das pro Sprache zu erfassen. Und Domainnamen sind auch nicht so kritisch für uns, da sollte es eigentlich keine Probleme geben. Du kannst mir die URLs aber mal zuschicken, dann kann ich das mal anschauen. Deine Frage klingt aber auch so, als hättest du viele lateinische Wörter als Domains, die alle identische Inhalte haben. Das wären dann Doorway Pages und dann hätten wir das Problem schon gefunden.  

Thema: Ranking

Zeit: 16:42 Frage: Über die Search Console habe ich gesehen, dass für ein Keyword zwei verschiedene URLs ranken. Es gibt ja den Begriff der "Keyword Kannibalisierung", ist das tatsächlich ein Problem? Sollte ich hier irgendwas tun, dass die Seiten nicht für das gleiche Keyword ranken und was könnte das sein? Antwort: Das kann immer mal wieder sein und muss nichts schlimmes sein. Es können ja auch mehrere Unterseiten für ein Keyword relevant sein. Kannibalisierung kommt nur ins Spiel, wenn man aus den mehreren Seiten eine starke Seite für ein Keyword machen.  

Thema: Interne Verlinkung

Zeit: 18:14

Frage: Wir habe auf unserer Seite interne Links um Polymer Elemente, welche selber nur ein Icon darstellen. Diese Links werden in der Search Console nicht erkannt (bzw. nicht als interne Links angezeigt). Alle anderen Links auf der Seite aber schon. Selbst die Integration von hidden Text oder Title attribute im Link hat daran nichts geändert. Gibt es Kriterien wann Google Links nicht akzeptiert/nicht anzeigt? Der Quelltext schaut ungefährt wie folgt aus: <a class="..." href="https://www.volunteerworld.com/sustainable-development-goals/goal-1-no-poverty"> <vowo-paper-material-hover><paper-material><iron-icon>..</iron-icon></paper-material></vowo-paper-material-hover> </a> Das Topic konnte im Forum auch noch nicht richtig beantwortet werden, der Post enthält aber auch entsprechende Bilder des Problems: productforums.google.com - Interne Links werden nicht erkannt, wenn der Inhalt eine Webcomponente ist Antwort: Ich schaue mir den Thread nachher mal an. Zwei Sachen kann ich mir aber vorstellen. Ein häufiger Fehler bei SPA ist, dass die Links per JavaScript eingebaut werden. Das sind dann oft keine Links, sondern Elemente, die wir schwer als Links erkennen können. Bei dir scheint das auf den ersten Blick aber alles ok zu sein. Es kann sein, dass wir da keinen Ankertext haben, mit dem wir das Ganze festhalten können. Deswegen sehen die Algorithmen das vielleicht nicht als richtigen Link. Manchmal dauert das Erkennen auch etwas, vielleicht hast du es vor kurzem eingebaut und Search Console muss das noch analysieren. Du kannst auch eine Test-URL verlinken und dann schauen, ob Googlebot die findet. Dann sollte das ok sein.  

Thema: Seitenstruktur

Zeit: 22:12 Frage: Ich habe eine recht alte Seite, die im Feb. 2009 online ging. Ist kaum mehr eine digitale Visitenkarte und hat keine nennenswerte Inhalte. Rankt aber dennoch für ein oder zwei Keys. Ich überlege nun die Seite per robot.txt aus dem Index nehmen zu lassen. Würde ich dadurch den "Altersvorsprung" (Rankingfaktor) verlieren? Ich plane nämlich die Seite in Zukunft wieder zu reaktivieren. Ist es grundsätzlich korrekt, dass ein sog. Altersvorteil für Domains nur erreicht wird, wenn auch Content online ist, oder reicht schon die bloße Registrierung? Antwort: Gute Frage. Ein Altersvorsprung ist weniger aufgrund des Alters, sondern aufgrund der mit der Zeit gesammelten Signale. In deinem Szenario sollte das bei Weiterleitungen auch weitergegeben werden. Aber vielleicht werden wir die Signale nicht verknüpfen, wenn die neue Seite deutlich anders ist als die alte. Ich würde also nicht 1:1 das alte Ranking erwarten. Vielleicht kannst du ja die aktuelle Seite ausbauen?  

Thema: URL-Struktur

Zeit: 24:44 Frage: Das Domainalter für *.de Domains wird laut Denic nicht bekannt gegeben (eventuell aus Datenschutzgründen.) Über verschiedene Tools kann man sich das Alter von *.com oder *.org Domains anzeigen lassen, für *.de Domains klappt dies in der Regel nicht. Welche Möglichkeiten hat Google, das Domainalter zu bestimmen? Nimmt Google das Alter aus GSC / GA, wenn man dort seine Seite das erste mal an Google übermittelt? Frage 2: Kann Google in GSC eine Art "Massenverarbeitung" implementieren für 404-Links? Beispiel: Man hat seine interne Linkstruktur verändert. Es kommen nun in GSC Massenweise 404-Hinweise. Schön wäre es, wenn man seine eigenen Links Massenweise per CSV zur Deindexierung hochladen könnte, sodass Google mehr auf die Sitemap mit den aktuellen Links schaut? Antwort: 1. Das ist wie eben gesagt für unsere Algorithmen nicht so wichtig. Wir wollen nicht den Jahrgang wissen, sondern die Signale erkennen. Das können dann positive oder negative Signale sein. 2. Ja, einerseits sollte man bei Änderungen der internen Verlinkung auch Weiterleitungen der alten URLs einrichten, damit Nutzer sich weiter zurecht finden und wir die Signale weitergeben können. Denn ohne geht das beides nicht. Das muss dann aber alles auch inhaltlich passend sein. Andererseits sind die Crawlfehler in Search Console nur Infos für euch. Wenn euch die Seiten wichtig sind, könnt ihr das nutzen. Das ist aber kein Rankingfaktor. Wenn die jeweiligen Seiten mit Absicht 404er sind, dann ist das ok und ihr müsst nichts machen.  

Thema: Bewertungen

Zeit: 29:22 Frage: In den Suchergebnissen erscheinen per Site-Abfrage für unsere Webseite (Beispiel.: site:www.website.de) nur bei circa 5 von 100 Ergebnissen die Sterne der Kundenbewertungen. Ist die Ausspielung nur abhängig von Algorithmen? Oder gibt es Hinweise aus technischer Sicht, was wir überprüfen sollten oder wieso gerade nur für diese ausgewählten Snippets die Sterne angezeigt werden? Antwort: Schwer zu sagen, ohne die Seite zu kennen. Da würde ich mal im Hilfeforum posten. Wichtig ist, dass die Markups gemäß unserer Vorgaben eingerichtet wurden und inhaltlich passen. Außerdem müssen sie technisch richtig sein und wir müssen der Seite genug vertrauen. Wenn ihr die Snippets also bei der Siteabfrage seht aber nicht bei normalen Abfragen, dann sind sie technisch richtig, aber wir vertrauen der Seite wahrscheinlich nicht.  

Thema: Search Console

Zeit: 32:32 Frage: Ich stelle in den letzten Wochen über mehrere GSC-Accounts hinweg fest, dass keine Backlink-Daten mehr angezeigt werden. In einigen Accounts stehen zwar inzwischen schon wieder Daten bereit, in anderen wiederum nicht (wie z.B. im folgenden Screenshot) - Auffällig ist auch, dort wo die Daten wieder existieren sind teilweise starke Rückgänge in den Gesamtzahlen der Links zu erkennen. Kannst du etwas zu den Hintergründen sagen? Gab es generelle Probleme oder ein spezielles Update in der GSC? - Dort wo wieder Daten vorhanden sind, sind diese inzwischen wieder komplett? - Ich suche nämlich noch nach einer Erklärung für die jetzt geringeren Gesamtzahlen der Links, ebenfalls in mehreren Accounts zu erkennen. Antwort: Ich weiß da von keinen Problemen. Das sollte eigentlich funktionieren. Da wäre es praktisch, wenn du mir die Domains mal zuschicken könntest. Dann kann ich mal mit dem Team nachschauen, ob alles stimmt. Bei Search Console sind die Daten aber auch nicht vom ersten Tag an sichtbar, sondern das dauert nach dem Hinzufügen oft auch ein paar Tage. Wir wollen auch nur genau die Version anzeigen, wenn also Https indexiert ist und http bei Search Console steht, dann sehen wir die relevanten Daten nicht.  

Thema: CSS

Zeit: 35:55 Frage: Wie schnell müssen Inhalte per CSS Transition eingeblendet werden, um inxediert werden zu können? Wir möchten den Aufbau der Inhalte auf Landingpages animieren. Texte und Bilder sollen sich nacheinander per Fade in oder Slide einblenden. Gibt es das eine zeitliche Grenze für die Indexierung? Antwort: Da gibt es eigentlich keine fixe Zeit. Es hängt davon ab, wie schnell die Seite und die Elemente geladen werden können. Vielleicht haben wir ja auch Teile davon schon gecached. Das ist also oft ganz anders als das, was man dann im Browser sieht. Ihr könnt aber Fetch as Google nutzen. Wenn sie da sichtbar sind, dann sehen wir sie auf jeden Fall für die Indexierung.  

Thema: Fetch as Google

Zeit: 38:28 Frage: Unser Content wurde oft gar nicht in den Bildausschnitt gepackt. ist das ein Problem? Antwort: So lange die Inhalte auf der Seite vorhanden sind, ist das egal. Das ist vielleicht für eure Diagnose schwer, aber wenn sie im HTML vorhanden sind ist alles ok  

Thema: CSS

Zeit: 40:22 Frage: Wir generieren für die Pagespeed Optimierung Critical CSS Regeln und schreiben diese in den Head der Seite. Leider haben wir mit manchen Google Fonts Probleme. Die Google Font CSS Regeln laden Schriften als True Type Font ( ttf ). Beim Internetexplorer kommt dann ein Fehler, dass die Schrift nicht als installable gilt. Antwort: Wenn du mir da Beispiele schicken kannst, reiche ich die an das Team weiter.  

Thema: Überschriften

Zeit: 41:29 Frage: Auf unserer Landingpage hatten wir eine H1 drei Mal in verschiedenen Größen per Display None drin um sie nach der Bildschirmgröße auszuspielen. Ist das ein Problem? Antwort: Wir würden das sehen, aber das ist egal. Man kann auch drei H1 auf einer Siete haben.  

Thema: SERPs

Zeit: 43:06 Frage: Icons in den SERPs. Ist das für Google immer akzeptabel? Antwort: Ich nehme an, du meinst Unicode Symbole. Man kann das durchaus machen, wir blenden aber auch viele aus, wenn wir denken, dass sie nichts bringen. Es gibt aber keine Abstrafungen für Seiten, die das nutzen. Aber es ist immer wichtig, dass jede Seite gute Titles und Descriptions hat, da wir nicht mehr auf DMOZ zugreifen können.   Den ganzen Hangout könnt ihr euch hier ansehen: