Deutsches Google Webmaster Hangout Transkript, 09.08.2016

von Oliver Engelbrecht

Kategorie(n): Google Webmaster Hangouts Datum: 10. August 2016

Thema: Meta Description

Zeit: 00:45 Frage: Meine robots.txt war etwa einen Tag lang falsch, stimmt jetzt aber. Dadurch sind die Meta Descriptions auf Desktop und Mobile kaputtgegangen. Nach der Reparatur stimmen sie auf Desktop wieder, auf Mobile aber nicht. Laut den SERPs werden sie durch die robots.txt blockiert, das stimmt aber nicht. Antwort: Das scheint unser Fehler zu sein. Das Fetch and Render Submit to Index sollte es eigentlich updaten. Ich denke, dass wir einfach die Mobilversion nicht so oft anschauen. Du kannst mir gerne mal die Links schicken, dann schaue ich, was man da verbessern kann.  

Thema: Seitenmigration

Zeit: 04:54 Frage: Spielt Crawl-Scheduling bei großen Seiten eine Rolle? Also wenn sich URLs ändern, crawlt Google trotzdem auf der Grundlage ihrer Historie und hält sich an den alten Schedule? Antwort: Wir können nicht einfach alles auf einmal crawlen. Man kann schon sagen, dass der alte Schedule weiter zählt. Wir versuchen immer, den effizientesten Weg zu Crawlen zu finden. Wir müssen uns also einen Plan machen und versuchen, die "wichtigsten" Sachen häufiger zu crawlen. Oft kann man aber auch alte Inhalte noch für Monate sehen.  

Thema: Weiterleitungen

Zeit: 09:39 Frage: Bei 301 Weiterleitungen sehe ich immer öfter, das auch die alte URL oder Domain im Index bleibt. Das passiert bei Seitenabfragen. Antwort: Wir zeigen euch die URLs, weil wir noch wissen, dass es sie mal gab. Das ist dann eher als Hilfe gedacht. Wir wissen, dass sie weitergeleitet werden, aber zeigen sie trotzdem. Ihr könnt Search Console nutzen, um den Indexierungsstatus zu sehen. Das geht auch mit einer Sitemap.  

Thema: Spam

Zeit: 12:25 Frage: Was sagst du zu XYZ Spam? Es wird ein immer größeres Problem. Kann man eine TLD blockieren - also .xyz - ohne das Ranking zu gefährden. Antwort: In der robots.txt geht das nicht. Du könntest aber die ganze TLD per Disavow blockieren, indem du "Domain: xyz" eingibst. Das müsste glaube ich die ganze TLD blockieren. Ich würde aber davon abraten. Denn es gibt auf der TLD bestimmt auch gute Seiten. Ich denke aber, dass wir solchen Spam eh ignorieren. Früher gab es so etwas z.B. mit .info, das hat sich aber sehr verbessert. Unsere Algorithmen können mit so etwas aber umgehen. Nur weil die Seiten vielleicht indexiert sind, heißt es nicht, dass wir den Seiten und ihren Links irgendwelchen Wert beimessen.  

Thema: Hreflang

Zeit: 18:09 Frage: Eines unserer 5 Hreflang Tags funktioniert nicht und führt zu vielen Crawlfehlern. Was kann man da tun? Antwort: Da würde ich mir keine Gedanken machen. In solchen Fällen wird nur die betroffene Seite aus dem Setup genommen, alle anderen laufen normal weiter. Es macht das Hreflang also nicht kaputt. Und wir versuchen sie zu crawlen, wenn das nicht geht, dann halt nicht. Und die Crawlerrors müsst ihr auch nicht alle beheben, die sind nur ein Hinweis für euch. Wenn ihr denkt, dass die URL funktionieren sollte, dann müsst ihr was tun. Aber wenn sie leer sein soll, dann lasst es einfach so. Das hat auch keinen Einfluss auf das Ranking, wenn die Seiten eh nicht existieren sollen.  

Thema: Search Console

Zeit: 21:41 Frage: Die Sichtbarkeit meiner Website ist deutlich gesunken, nachdem ich das Geotargeting meiner Seite in Search Console geändert habe. Wie lange wird es dauern, bis sich das erholt. Bei einer anderen Seite habe ich die Crawlrate erhöht und nach einer Woche wieder auf den empfohlenen Wert gesenkt - und dann fiel er Traffic. Ist das normal? Antwort: Ich kann nicht sagen, wie schnell sich das wieder erholt. Wenn ihr das Land ändert, dann kann es auch sein, dass ihr im neuen Land einfach weniger sichtbar seid. Die Crawlrate und der Traffic haben nichts miteinander zu tun. Das wäre höchstens der Fall, wenn wir die wichtigen Dinge, wie z.B. Newsbeiträge, nicht crawlen können.  

Thema: Keywords

Zeit: 23:23 Frage: Wie wichtig sind Keywords heute noch für das Ranking? Wenn Google mittlerweile Inhalte und Zusammenhänge so gut verstehen kann, wofür braucht es dann noch Keywords für SEO? Antwort: Das Keywords Meta Tag nutzen wir für das Ranking gar nicht. Ich denke mal, dass du das meintest? Der Title hingegen ist der Titel in den SERPs und die Description wird für das Snippet genutzt. Wenn es um Keywords im Text geht, dann ist es immer noch bis zu einem gewissen Grad so, dass man das Keyword, für das man ranken möchte, auch im Text unterbringen sollte. Ihr müsst aber nicht alle Alternativen nennen. Wenn es ein Wort gibt, nach dem Leute suchen, dann packt es auf die Seite. Dann wissen Suchmaschinen, worum es geht - und Nutzer finden das, wonach sie gesucht haben. Das ist vor allem bei technischen Begriffen wichtig.  

Thema: Spam

Zeit: 26:04 Frage: Warum sind manche Nischen so viel spammiger als andere? Ein Kunde bietet "man and van" Services und die gut rankenden Seiten sind alle EMD mit unnatürlichen Links. Liegt das daran, dass Google nicht versteht, was "man and van" bedeutet? Antwort: Das ist fast eine philosophische Frage. In manchen lukrativen Nischen gibt es halt große Konkurrenz. Viele gehen dann zu weit und nutzen Spam. Woran das bei deinem Beispiel liegt, kann ich nicht sagen. Da müsste ich mir das Suchergebnis mal anschauen. Wir nutzen aber auch mehr als 200 Dinge für das Ranking. Vielleicht ranken sie nicht wegen dem Spam, sondern trotz des Spam (und sie machen andere Dinge einfach sehr gut). Ihr könnt uns aber auch Feedback geben oder einen Spam Report ausfüllen.  

Thema: Links

Zeit: 28:52 Frage: Geben seitenweite Links im Footer PageRank weiter? Sagen wir, ich habe 5 Online-Shops in unterschiedlichen Ländern. Kann ich sie dort verlinken oder sollte ich das lassen? Antwort: Klar kannst du das machen - wenn es nur eine handvoll Seiten sind. Doorway Sites und zu viele Links sollten aber vermieden werden.  

Thema: WWW

Zeit: 31:57 Frage: Seit unserem Launch vor 13 Jahren nutzen wir www. als bevorzugte Domain. Nun will aber die Marketingabteilung auf ohne-www. umsteigen. Werden wir dadurch Rankings oder Sichtbarkeit verlieren? Antwort: Da solltet ihr grundsätzlich keine große Änderung sehen. Ihr müsst das aber trotzdem als Seitenmigration sehen. Canonicals, Redirects und Hreflangs müssen gut aufgebaut werden - und in Search Console sollte auch beides stehen. Und wo ihr schon dabei seid, könnt ihr auch direkt auf Https umstellen - falls ihr das nicht schon getan habt.  

Thema: Noindex

Zeit: 33:13 Frage: In einem Hangout hast du empfohlen, unbeantwortete Forenthreads und ähnliches auf Noindex zu stellen. An anderer Stelle hast du gesagt, dass 100.000 Seiten aus einem Kalenderscript keinen negativen Einfluss haben. Was stimmt davon? Antwort: Dinge wie endlose Kalender können wir sehr gut verstehen. Dann hören wir auf zu crawlen, und es wird zu einer Seite zusammengefasst. Viele schlechte Inhalte sind da schon etwas anderes. Das ist nicht zu vergleichen.  

Thema: Interne Verlinkung

Zeit: 34:16 Frage: Ist es ein Problem, wenn ich 25.000 Seiten habe, und auf jeder Seite ist ein Menüeintrag, der immer auf dieselbe Zielseite verlinkt? Also 25.000 interne Links auf dieselbe Seite. Antwort: Das ist ziemlich normal. Viele Seiten haben ein Menü, das immer auf die gleiche Seite verlinkt. Z.B. zu den AGB, der Startseite oder zum Impressum. Das ist bei Websites normal.  

Thema: Meta Language

Zeit: 35:07 Frage: Wie wichtig ist es, dass Meta Language Tag zu nutzen? Antwort: Wir ignorieren das komplett. Das ist also überhaupt nicht relevant für uns. Aber Screenreader nutzen es manchmal, um die Betonung besser hinzubekommen.  

Thema: Crawling

Zeit: 36:06 Frage: Wie können wir die Crawlhäufigkeit unserer Seite erhöhen? Viele meiner Seiten sind im Index, wurden aber seit Monaten nicht gecrawlt - neue Inhalte und Titles werden daher nicht gesehen. Woran kann das liegen? Antwort: Wir nutzen hier mehrere Faktoren. Wir wollen immer so effizient wie möglich crawlen. Manche Seiten, die sich oft ändern oder die wir wichtig finden, crawlen wir dann häufiger. Andere nicht so oft, vielleicht nur alle paar Monate. Ihr könnt folgendes tun, um uns auf Änderungen hinzuweisen: Eine gute interne Verlinkung von der Hauptseite oder den besseren Seiten. Ansonsten könnt ihr auch eine Sitemap erstellen und dort das Last Modification Datum angeben. Dann gleichen wir das ab und schauen es uns wieder an. Mehr Crawling heißt aber nicht, dass ihr besser ranken werdet. Crawling ist nur die technische Voraussetzung für das Ranking, aber kein Faktor.  

Thema: Content

Zeit: 39:26 Frage: Sollte ich alle Seiten mit schlechten Inhalten löschen? Ich habe viele Local Business und WordPress Tag Seiten - verschlechtern diese das Ranking? Antwort: Wenn ihr schlechte Inhalte habt, dann solltet ihr diese verbessern. Wenn ihr die Inhalte aber gar nicht mehr haben wollt, dann könnt ihr das auch löschen.  

Thema: Backlinks

Zeit: 40:24 Frage: Wie wichtig sind Backlinks für das Ranking? Eine Seite mit vielen spammigen Links zu übernehmen kann anstrengend sein, da das Disavow Tool sehr langsam zu sein scheint. Antwort: Wir nutzen Links für das Crawlen, Indexieren und Ranken. Viele spammige Links erkennen wir und zählen sie nicht. Unnatürliche Links können aber auch negativen Einfluss haben. Und dann sollten sie disavowed werden.  

Thema: Search Console 

Zeit: 41:57 Frage: Wir nutzen Adobe Target, um Marketingnachrichten in Banner auf unserer Seite einzubauen. Adobe hosted diese Inhalte extern und blockiert Suchmaschinen. Unsere nicht-JavaScript Standardinhalte sind im Fetch and Render nicht zu sehen. Stattdessen sehen wir leere Container. Woran liegt das? Antwort: Wenn eure Inhalte im Fetch and Render nicht angezeigt werden, dann könnte das ein Problem sein. Vielleicht ist das JavaScript blockiert. Oder das JavaScript zieht Inhalte aus blockierten Stellen. Das solltet ihr nicht ignorieren. Baut vielleicht eine Testseite und schaut euch das mal genauer an. Wenn wir es beim Rendern nicht sehen können, dann können wir es wahrscheinlich auch nicht indexieren. Ihr könnt auch mal in Google mit "" nach den unsichtbaren Inhalten suchen.  

Thema: A/B Test

Zeit: 44:15 Frage: Wir wollen auch etwas testen. Aber ist es nicht ein Problem für Google, wenn man die Suchmaschine in eine Richtung leitet, viele Nutzer aber in eine andere? Antwort: A/B Tests sind immer schwierig. Wichtig ist dabei, dass Googlebot nicht speziell behandelt wird. Bei A/B Tests kann Googlebot dann in jeder Kategorie landen. Macht dann die Inhalte crawlbar und setzt ein Canonical zur bevorzugten Seite.  

Thema: Canonical

Zeit: 45:31 Frage: Brauche ich ein Canonical, wenn eine 301-Weiterleitung richtig eingebaut wurde? Antwort: Wir nutzen beide Signale, wenn wir uns eine URL aussuchen wollen. Es gibt auch noch Sitemaps und interne Links. Im Bestfall sollten alle Signale auf dieselbe URL verweisen. Es kann also nicht schaden, zum 301 noch ein Canonical hinzuzufügen, um das Ganze stärker zu machen.  

Thema: Google

Zeit: 47:15 Frage: Wie kann ich Google über meine Offpage Aktivitäten auf dem Laufenden halten? Antwort: So etwas gibt es nicht. Ihr braucht da nichts machen. Wir crawlen die Seiten und finden dann heraus, was relevant ist.  

Thema: Internationale Seiten

Zeit: 47:47 Frage: Ist es ok, wenn Hindi Seiten englische Meta Daten haben? Sind zwei Sprachen ein Problem, wenn man in Google News reinkommen möchte? Antwort: Zu Google News kann ich nichts sagen. Die Meta Daten sollten im Bestfall immer in derselben Sprache sein wie die Seite. Wir wollen das in den SERPs zeigen. Und dann wollen Nutzer auch dieselbe Sprache auf der Website vorfinden.  

Thema: Mobil

Zeit: 48:44 Frage: Wir machen eine Seite mit 30.000 Unterseiten mobilfreundlich (responsive multi-screen). Kann es ein Problem werden, wenn wir das Ganze eine Kategorie nach der Anderen machen, anstatt alles auf einmal? Muss die ganze Seite mobiltauglich sein, um besser zu ranken? Antwort: Das könnt ihr machen, wie ihr wollt. Das Mobile Friendly Label bekommt man für jede einzelne Unterseite.  

Thema: Update

Zeit: 49:29 Frage: Am 3 und 4 August ging der Traffic für unsere Hindi Seite deutlich zurück, vor allem für Produktseiten. Seit dem 5. wird es wieder besser. Gab es ein Update oder einen Test? Antwort: Das weiß ich nicht. Wir ändern jedes Jahr hunderte Sachen, Fluktuationen sind also normal. Mir fällt nichts spezielles zu Hindi E-Commerce Seiten am 3. und 4. August ein.  

Thema: Strukturierte Daten

Zeit: 50:21 Frage: Eine Wikipedia Seite existiert seit Monaten nicht mehr. Ihr zeigt sie aber noch für den Brand an. Warum? Und es gibt keinen Feedback Link. Antwort: Keine Ahnung. Das müsste ich mir mal anschauen. Aber da können wir sicher was machen.  

Thema: Search Console

Zeit: 52:15 Frage: Ich sehe viele Crawl Errors in Search Console, aber die Seiten existieren gar nicht mehr. Antwort: Da kannst und musst du nichts machen. Das kannst du einfach ignorieren. Google hat ein gutes Erinnerungsvermögen. Alle paar Monate schauen wir uns solche Seiten an, sehen, dass es nichts mehr gibt, und sagen euch das. Das machen wir, damit wir nichts verpassen. So sind unsere Systeme konzipiert. Mark as Fixed ändert auch nur eure Ansicht, aber nichts auf unserer Seite.  

Den ganzen Hangout könnt ihr euch hier ansehen: