Google Webmaster Hangout Transkript, 30.05.2017

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 31. Mai 2017

Thema: Content 

Zeit: 00:35 Frage: Ich habe etwa 100 Unterseiten, die gar nicht mehr aktuell sind. Soll ich die alle auf einmal löschen oder lieber in mehreren Schritten? Antwort: Ganz wie du willst, das macht für uns keinen wirklichen Unterschied. Vielleicht gibt es aber auch Seiten, die thematisch passen und zu denen du eine Weiterleitung einbauen kannst. Ansonsten kannst du sie aber auch einfach löschen, denn 404er sind für uns kein Problem.  

Thema: Manuelle Abstrafungen

Zeit: 01:55 Frage: Einer unserer Kunden hat eine manuelle Abstrafung erhalten. In der automatischen Nachricht gab es vier Möglichkeiten und wir wissen nicht wirklich woran es liegt. Nach einiger Arbeit haben wir gemerkt, dass es um Doorway Pages ging - Städteseiten, die erstellt wurden und von denen wir nicht mal wussten. Doch sie sagten uns, dass dies ihre besten Seiten wären. Wir haben die Seiten jetzt gelöscht und warten, können wir noch etwas tun? Antwort: Das hört sich so an, als wären das Doorway Pages gewesen. Vor allem, wenn die Seiten alle gleich waren und nur die Städtenamen geändert wurden. Wenn ihr das aufgeräumt hat, dann macht ihr wohl alles richtig. Wenn es das nicht war, dann gibt es manchmal auch mehr Infos von dem Team, zum Beispiel durch Beispiel-URLs. Das passiert dann, wenn das Team während der Konversationen merkt, dass ihr nicht spammen wolltet, sondern nur etwas schief gelaufen ist.  

Thema: Robots.txt

Zeit: 05:47 Frage: Wir sind zu Magento gewechselt und das System erstellt automatisch einige URLs. Die haben wir nun per robots.txt blockiert, da sie alle doppelt sind. Search Console beschwert sich nun aber, dass wir wichtige URLs blockieren. Kann das der Grund für unsere Probleme beim Ranking sein? Antwort: Wenn ihr die URL-Struktur komplett ändert, dann gibt es immer Fluktuationen. Vor allem, wenn ihr noch nicht alle Weiterleitungen eingerichtet habt. Das hört sich bei euch aber etwas extremer an, da muss man dann mal mehr analysieren. Was die blockierten Seiten angeht, solltet ihr das Crawlen erlauben und uns per Canonical auf die richtigen Seiten verweisen. Denn ansonsten finden wir Links zu diesen Seiten, können sie aber nicht sehen und nicht ranken.  

Thema: Crawling

Zeit: 10:36 Frage: Habt ihr unterschiedliche Crawlingregeln für unterschiedliche CMS? Weil manche haben ja bestimmte Strukturen, die Google sicher auch versteht? Antwort: Das versuchen wir pro Seite zu machen. Wir schauen uns also nicht die CMS an, denn da kann man serverseitig ja viel ändern. Wir schauen uns die Seiten an und versuchen, dann die Strukturen zu verstehen.  

Thema: Ranking

Zeit: 14:09 Frage: Wir haben eine große Website und verzeichnen seit Ende April einen großen Abfall in den Google Rankings - und das für all unsere internationalen Websites. Wir haben nichts geändert. Aber im Mai 2016 haben wir etwas ähnliches beobachtet, gibt es da einen zeitlichen Zusammenhang - z.B. das Google einen Frühjahrsputz macht? Antwort: Wir haben keinen Frühjahrsputz im Index. Ich habe mir die Seite mal schnell angeschaut und es sieht so aus, als lägen die Probleme an den schlechten nutzergenerierten Inhalten. Schaut euch also mal an, wie man die Qualität insgesamt erhöhen kann.  

Thema: Panda

Zeit: 15:50 Frage: Wir haben lange nichts mehr vom Panda gehört, läuft er immer noch wie bekannt weiter? Beginnt ein Rollout manchmal auch dann, wenn andere Quality Algorithmen starten? Und gibt es eine Verbindung zwischen Panda und anderen Quality Algorithmen, zum Beispiel, dass diese die Bewertungen durch Panda auch nutzen? Antwort: Bei Panda hat sich nichts geändert, das ist alles automatisch. Grundsätzlich versuchen wir, diese Algorithmen so individuell wie möglich zu halten, die haben also alle eigene Datensets. Manchmal werden aber Daten genutzt, damit andere Algos wissen, wie eine Seite zu behandeln ist. Halten wir zum Beispiel eine Seite für qualitativ schlecht, dann wirkt sich das vielleicht auch auf das Crawlen oder Indexieren aus.  

Thema: Hreflang

Zeit: 17:18 Frage: Wie kann ich meine Seite für mehrere Sprachen targeten? Ich habe es mit dem Hreflang probiert, aber das funktioniert nicht. Antwort: Das Hreflang sollte funktionieren, wenn ihr mehrere Sprachen auf der Seite habt. Ansonsten solltet ihr das Geotargeting in Search Console nutzen.  

Thema: Ausgehende Links

Zeit: 18:57 Frage: Können ausgehende Links die Qualität oder das Ranking meiner Seite beschädigen? Die Links sind relevant und hilfreich für den Nutzer. Antwort: Passt auf unnatürlich Links auf. Wenn es bezahlte Links oder Werbelinks sind, dann müssen sie Nofollow sein. Gleiches gilt für nutzergenerierte Links. Ansonsten können wir das Vertrauen in die Seite verlieren.  

Thema: Ranking

Zeit: 20:03 Frage: Was für spezifische Tipps hast du für Webmaster, deren Seiten Ende letzter Woche Rankings eingebüßt haben? Antwort: Millionen von Seiten ändern ihr Ranking immer mal wieder. Da gibt es nichts spezielles zu sagen, denn es gibt immer wieder Fluktuationen.  

Thema: Disavow

Zeit: 21:09 Frage: Viele Seiten, von denen ich Links erhalte, haben viele Backlinks aber keine Rankings. Viele haben scheinbar auch Penalties oder ähnliches. Bekomme ich von diesen Seiten auch PageRank? Ich will das Disavow nutzen, weiß aber nicht, ob sie mir beim Ranken helfen. Was kann ich tun, um gut zu ranken und später keine Probleme mit ihnen zu bekommen. Antwort: Wenn es schlechte Seiten sind, dann helfen sie dir sicher nicht beim Ranken. Wenn du dir also Gedanken wegen der Links machst, dann nutze das Disavow, um sicher zu gehen.  

Thema: Negative SEO

Zeit: 22:14 Frage: Ein Kunde erhält immer wieder Links von blockierten Seiten und Pornoseiten. Wir bekommen unfaire Penalties, da wir es nicht schaffen, alles schnell zu disavowen. Kann sich das jemand von Google mal anschauen? Antwort: Das solltet ihr, mit Details, im Hilfeforum posten, dann können die Leute sich das mal anschauen.  

Thema: Rich Results 

Zeit: 23:55 Frage: Meine Seite hat viele Rich Results in den SERPs, verliert jedoch einige davon. Kann das mit einem Traffic Peak zusammenhängen? Denn an einem Tag hat sich mein Traffic verdoppelt, und seit dem gehen diese Verluste los. Wollt ihr damit regulieren, dass eine Seite nur den Traffic bekommt, den ihr für passend haltet? Antwort: Da gibt es grundsätzlich keine Zusammenhänge, ich kann mir nicht vorstellen, wie das zusammengehören sollte. Und bei Dingen, wo es Korrelationen gibt, würdet ihr das auch nicht am selben Tag sehen, denn sowas braucht immer etwas. Wenn ihr nichts geändert habt, dann halten die Algorithmen eure Seite wohl nicht mehr für so hochwertig. Das hat aber nichts mit dem Traffic an einem Tag zu tun.  

Thema: Interstitials

Zeit: 30:51 Frage: Was waren auf eurer Seite die Auswirkungen des Interstitial Penalties? Und was kann man an Stelle von Interstitials nutzen? Antwort: Das hatte auf einigen Seiten schon einen starken Effekt. Ich würde in solchen Fällen ein kleineres Banner nutzen, neben dem man die eigentlichen Inhalte auch noch sieht.  

Thema: Sitelinks

Zeit: 32:34 Frage: Müssen wir Google das Crawlen und Indexieren unserer internen Suchergebnisseiten gestatten, um die Sitelinks Search Box in den SERPs zu erhalten? Antwort: Nein, das braucht ihr nicht. Wir müssen aber die Box schon zeigen, das Markup kann das nicht extra anstoßen. Und es muss eine valide URL dahinter stehen. Canonicals sind dabei auch egal. Ich würde beim Indexieren von Suchergebnisseiten auch vorsichtitg sein, sonst sind es schnell viel zu viele Seiten im Index.  

Thema: Ausgehende Links

Zeit: 34:58 Frage: Wie viele ausgehende Nofollow-Links können wir auf einer Unterseite einbauen? Antwort: So viele, wie ihr wollt. Aber es muss natürlich Sinn machen und auch von der Usability her passen.  

Thema: Redirects

Zeit: 35:54 Frage: Sind Weiterleitungsketten schlecht für das Ranking? Wenn man z.B. von http zu http + www. zu https weiterleitet, ist das ein Problem? Antwort: Nein, sowas ist kein Problem. Für die Usability sollten solche Ketten aber so kurz wie möglich sein, denn wir können maximal 5 Sprünge pro Crawl verarbeiten. Sowas solltet ihr dann verkürzen. Das hat aber keinen Einfluss auf die weitergegebenen Signale, solange wir alles crawlen können.  

Thema: Strukturierte Daten 

Zeit: 39:55 Frage: Ich sehe im Data Highlighter große Unterschiede zwischen der fetched Seite und der live Seite. Woran kann das liegen? Antwort: Der Data Highlighter zeigt immer die indexierten Inhalte. Wenn sich die Seiten also oft ändern, dann wird da noch die indexierte Version angezeigt. Das ist für uns aber kein Problem. Seid aber vorsichtig, wenn ihr ein komplettes Redesign gemacht habt. Dann könntet ihr das Markup auch direkt auf die Seite packen, das sollte euch das Leben einfacher machen.  

Thema: Sitemaps

Zeit: 44:36 Frage: Sollen wir für Mobile First anfangen, mobile Seiten in die Sitemap aufzunehmen? Antwort: Nein, das müsst ihr nicht machen.  

Thema: 404

Zeit: 45:37 Frage: Wir haben eine große Seite und viele Produkte gehen jeden Monat offline, werden also zu 404ern. Wäre es ein Problem, wenn wir pro Monat etwa 1 Mio. 404er hinzubekommen? Antwort: Das ist für uns ok. Es macht aber das Crawlen etwas schwieriger. Vielleicht könnt ihr das Unavailable after Tag nutzen, wenn ihr schon vorher wisst, dass etwas online geht. Das Removal Tool macht da aber wenig Sinn, da es sich nur auf die Suchergebnisse bezieht. Nutz das nur, wenn ihr schnell was aus dem Index kriegen müsst.   Den ganzen Hangout könnt ihr euch hier ansehen: