Auch heute stellen wir Euch wieder das übersetzte Transkript des gestrigen Webmaster Hangouts mit John Müller bereit. Viel Spaß beim Lesen!
App-Indexierung
30:40
Frage:
Beim Deep Linking für meine App sind 3000 „URI unsupported“ Fehler aufgetaucht. Ich habe einen Kommentar von dir gelesen, dass es eine Weile dauern kann, bis dieser Status vollständig verschwindet. Wird meine App indexiert, wenn ich diese Fehler ignoriere oder nicht?
Antwort:
Diese Fehler bei der App Indexierung bedeuten im Grunde, dass innerhalb der Website bzw. der Sitemap App-URLs bereitgestellt wurden, die auf die App deuten – aber diese App URLs funktionieren nicht. Geschieht dies, werden die Links und damit die betroffenen App-Seiten nicht indexiert bis Google feststellt, dass diese Links tatsächlich funktionieren. Das Crawlen von App-Seiten dauert länger als das Crawlen von Websites. Wie lange die Indexierung dauert, hängt letztendlich vom Umfang der Website und der App ab.
52:19
Frage:
Wir haben vor Kurzem mit dem App-Linking begonnen, da wir seit einiger Zeit eine Android-App bereitstellen. Seit wir dies machen, werden uns all unsere Deep-Links als Content-Mismatch angezeigt. Wir kriegen auch weitere Errors.
Geographisch sind wir auf Deutschland, Österreich und die Schweiz beschränkt. Kann es sein, dass diese Probleme bestehen, weil Google versucht für Regionen außerhalb dieser Regionen zu indexieren? Wenn ja, wie können wir diese Probleme lösen?
Antwort:
Bei der App-Indexierung besteht aktuell das Problem, dass die
Fetch as Google-Funktion noch sehr beschränkt ist. Google kann App-Pages noch nicht willkürlich crawlen. Das Content-Mismatch-Problem besteht, weil Google möchte, dass beim App-Deep-Linking der Content auf der Page der Website identisch ist mit dem Inhalt der App-Page. Da gibt es einige problematische Aspekte, da einige Apps tolle Inhalte haben, die aber auf der Website nicht funktionieren würden. In diesem Fall gibt es unter Umständen signifikant unterschiedliche Inhalte auf der Website und der App. Das könnte für diese Content-Mismatch-Fehler sorgen.
Wenn die Fehler aus eurer Sicht unberechtigt entstehen, könnt ihr die gerne an das Google-Team senden, welches sich das Ganze dann genau anschaut.
Ein häufig auftauchendes Problem ist, wenn eine Zwischenseite, z. B. eine Loginseite oder Ähnliches, auftaucht. Das ruft auch Content-Mismatch-Fehler hervor.
Ich würde empfehlen, die Probleme im Webmaster-Zentrale Hilfeforum einzustellen!
Crawler
09:48
Frage:
Werden die Algorithmen seitenweit eingesetzt oder ist es möglich, sie auch auf dem Page-Level zu nutzen?
Antwort:
Wir versuchen, so genau wie möglich zu sein. Wenn es geht, dann auf dem Page-Level, aber viele der etwas weiterreichenden Qualitätsalgorithmen sind mehr auf dem Seiten- oder Subdomain Level. Es ist da schwer, sich auf individuelle Pages zu konzentrieren.
Crawling und Indexierung
42:13
Frage:
Rendering und Crawling: Was sieht der Googlebot, wenn er die Website crawlt? Wie unterscheidet sich dieses Crawlen von
cache: text version? Ist es nur sichtbarer Content, der in der Text Version (cache) sehen oder Source Code der Website (inklusive JS, CSS Content).
Antwort:
Die Cache Version basiert auf der HTML Version, die wir erfassen. Wenn eine Website also z. B. auf Javascript basiert, dann sieht man oft, dass die Cache Version im Grunde einfach nur das JavaScript Framework (HTML) ist, die eigentlichen Inhalte werden nicht erfasst.
42:56
Frage:
Wie lange dauert es, bis Google eine E-Commerce-Page oder einen Blogpost nach der Veröffentlichung indexiert? Macht die
Fetch as Google-Funktion oder der
Data Highlighter es einfacher, diese Seite indexiert zu bekommen?
Antwort:
Wenn die
Fetch as Google-Funktion genutzt wird, und die Inhalte hier für die Indexierung eingereicht werden, versucht Google diese Hinweise zu beachten. Um welchen Inhalt es sich handelt, ist egal. Normalerweise versuchen wir, neue Inhalte innerhalb eines Tages zu erfassen. Wenn Google mit Hilfe einer Sitemap oder einen Feed auf neue Inhalte hingewiesen wird, kann das noch schneller gehen. Man muss
Fetch as Google also nicht benutzen, um auf neue Inhalte hinzuweisen.
Der
Data Highlighter hat mit der Indexierung nichts zu tun.
Core Quality Update / Phantom Update
41:11
Frage:
Im Zusammenhang mit dem Core Quality Algorithmus Update (aka Phantom Update): Wird der Algorithmus mit Real Time Daten gefüttert oder wird er manuell gestartet?
Antwort:
Die meisten unser Algorithmen versuchen, Daten in Echtzeit zu verarbeiten. Wenn größere Änderungen am Algorithmus selbst vorgenommen werden, dann müssen diese natürlich manuell angeschoben werden. Es ist also im Grunde eine Kombination aus beidem.
Disavow Tool
43:42
Frage:
Welches Disavow Tool würdest du empfehlen?
Antwort:
Keine Ahnung, ich nutze einen Text Editor auf meinem iPhone. Ich weiß, dass es einige Tools gibt, die es einfacher machen, diese Daten zu bearbeiten und Webmaster zu kontaktieren.
Fehlermeldungen
14:00
Frage:
Wir haben immer wieder 500er Fehler und Google schickt uns Reports dazu mit einem Zeitstempel, der aber nur den Tag angibt. Ich bräuchte aber die Formate hh:mm:ss und tt:mm:jj um das Logfile richtig untersuchen zu können. Ist das möglich?
Antwort:
In Search Console zeigen wir nur das Datum, ich glaube also das ist nicht möglich. Aber du kannst es mal Hilfeforum posten dann schaue ich, ob ich etwas Spezifischeres finden kann. Vielleicht kannst du auch etwas in der Sitemap finden.
Google Local
00:50
Frage:
Ein Arzt rankt bei Google Local mit seinem privaten Profil, nicht mit dem seiner Praxis, das viele Bewertungen hat. Was kann man tun?
Antwort:
Schicke mir die URLs mit Screenshots und ich werde das weiterleiten. Es dauert jedoch immer seine Zeit, also erwarte nicht sofort zu viel.
Google Search Console - Keywords
15:20
Frage:
Wir haben jetzt das neue Analytics, aber es zeigt nur 999 Keywords an. Da ich monatliche Reports für alle Keywords erstellen muss, möchte ich wissen, wie lange der Button „Zurück zu alten Search Queries“ aktiv bleiben wird.
Antwort:
Wir wollen das irgendwann abschalten, ich weiß aber nicht wann genau. Ich denke in einigen Monaten. Wir werden bald immerhin von 999 auf 1000 Keywords hochgehen, aber wir planen nicht, alle Keywords anzuzeigen. Vielleicht solltest du dich in die API eintragen.
http vs. https
39:17
Frage:
Wie sorge ich dafür, dass
https:// besser rankt als
http://? Ich habe verschiedene Links in der Search Console hinterlegt, kann aber keine Präferenz festlegen?
Antwort:
Es sollten Weiterleitungen eingerichtet werden (http -> https).
Json.ld
27:35
Frage:
Json.ld kann dynamisch implementiert werden. Ist dieses System in irgendeiner Form limitiert oder werden alle Seiten interpretiert?
Antwort:
Du kannst es mit JavaScript implementieren, um es auf der Seite dynamisch zu machen. Dafür müssen wir die Seiten aber mit JavaScript rendern, um es zu sehen. Oft wird JavaScript auch blockiert. In diesen Fällen können wir es nicht crawlen. Ihr könnt das in Search Console sehen.
Lokales Ranking
36:54
Frage:
Was funktioniert besser für das lokale Ranking? Vier verschieden Websites für jede Filiale meiner Firma oder eine Website mit jeweils einer Page für jede Filiale? Aktuell haben wir vier Domains?
Antwort:
Sobald man mehr als eine Handvoll Filialen hat und für jede Filiale eine Website aufmacht, geht das schnell in Richtung Doorwaypage, wo im Grunde jeweils die gleichen Inhalte zu finden sind und nur die Städte ersetzt werden. Da sollte man aufpassen!
Wenn es jedoch auf der anderen Seite jedoch vier völlig unterschiedliche Filialen mit sehr unterschiedlicher Kundschaft gibt (Beispiel: Hotels in verschiedenen Städten), dann kann das Sinn machen. Aus der Sicht von Google gibt es da keine Variante, die bevorzugt wird. Persönlich würde ich eher verschiedene Pages auf einer Website zu gestalten, hauptsächlich, weil es viel einfacher ist, diese zu verwalten.
Manual Action
24:11
Frage:
Beachtet Google die Größe einer Seite, wenn es um die Bearbeitung von Manual Actions geht? Sowohl Thumbtack als auch RapGenius haben sich sehr schnell erholt, während kleine Seiten oft Monate brauchen.
Antwort:
Wir beachten nicht, wie groß die Seiten sind oder wem sie gehören – oder wer in sie investiert hat. Manchmal schaut sich das Webspam Team Seiten an und sieht, dass ein toller Job beim Aufräumen gemacht wurde. Dann wird die Manual Action schnell aufgehoben. Es ist also einfach wichtig, was ihr zur Reconsideration Request einreicht. Wenn dieser Request nicht gut ist, und nicht zeigt, was ihr getan habt, dann dauert es halt länger. Aber wenn ihr der Meinung seid, einen guten Request eingereicht zu haben, und es dauert trotzdem mehrere Wochen, dann müsst ihr uns einfach ansprechen.
Markups
19:25
Frage:
Sind das Breadcrumb Markup und das Schema Markup Rankingfaktoren für Desktop oder Mobil und empfiehlt Google, sie zu nutzen?
Antwort:
Wir empfehlen definitiv, diese Dinge zu nutzen, da sie uns zusätzliche Infos über eure Seiten geben und uns helfen, sie gut in den Suchergebnissen anzuzeigen. Und wenn die URL dadurch besser aussieht, kriegt ihr vielleicht etwas mehr Traffic. Es ist aber kein Rankingfaktor.
Mobilefriendliness
08:49
Frage:
Warum ranken nicht-mobile Websites immer noch oben in den SERPs?
Antwort:
Das mobile-friendly Update gibt mobil-optimierten Websites einen kleinen Boost in den mobilen (!) Suchergebnissen. Das bedeutet nicht, dass alles andere aus der mobilen Suche verschwindet.
Nofollow
20:20
Frage:
Wenn ein Link nofollow ist, sieht der Algorithmus dies als „nicht folgen“ oder als „ich vertraue diesem Link nicht“? Wenn wir Werbebanner kaufen, sollten die Links nofollow sein, um die Google Webmaster Richtlinien nicht zu verletzen?
Antwort:
Nofollow sagt uns einfach, dass wir durch diesen Link keinen Pagerank weitergeben. Es ist aber keine Blockierung des Links. Werbung sollte immer nofollow sein.
Onlineshop
38:38
Frage:
Muss ein E-Commerce Produkt eine 300 Wörter lange Produktbeschreibung vorweisen können, damit Google es als interessant für die Nutzer empfindet?
Antwort:
Nein. Google zählt nicht die Worte, es ist aber wichtig, dass ausreichend Informationen für den Nutzer bereitgestellt werden.
Pages ohne Inhalte
46:42
Frage:
Wir haben zahlreiche Kategorien auf unserer Website. Einige stehen mit Städten in Bezug. Das Problem ist, dass in einigen dieser Kategorien / Städte keine Ergebnisse hinterlegt sind. Was sollten wir mit diesen leeren Listings machen? Sollte ein Canonical zur Hauptkategorie gesetzt werden? Oder sollten sie mit
noindex,
nofollow markiert werden?
Antwort:
Im Grunde handelt es sich um leere Ergebnisseiten – diese würde ich mit
noindex oder vielleicht sogar
404 markieren, um dafür zu sorgen, dass diese Pages aus den Google SERPs verschwinden.
Robots.txt
12:00
Frage:
Was wäre der richtige Weg, um https://m.domain.com/#home in robots.txt zu testen?
Antwort:
Wir unterstützen die Fragmente wie Hashtags in der robots.txt nicht, wir kümmern uns immer nur um den Path oder die Query String Parameter. Wenn du dann das Hashtag nutzt, gehen wir davon aus, dass darauf Kommentare folgen, und ignorieren es. Wenn du das crawlen für so einen Path blockieren willst, geht das nicht in der robots.txt. Dann müsstest du die ganze URL blockieren oder das Hashing Setup nutzen.
Safe Search
32:46
Frage:
Wie sorge ich dafür, dass meine Website in den
Safe Search Suchergebnissen erscheint? Unser Blog, die Veranstaltungsseite und die FAQ erscheinen dort alle, die Homepage hingegen nicht. Es befinden sich keine Inhalte für Erwachsene auf der Page und wir haben versucht die Homepage via
https://support.google.com/webmasters/contact/safe_search einzureichen.
Antwort:
Um diese Frage beantworten zu können, muss mir die URL vorliegen. Ich würde empfehlen, diese Art von Problemen im
Webmaster-Zentrale Hilfeforum zu posten. Damit andere Leute da einen Blick drauf werfen können. Manchmal werden Pages als jugendfrei deklariert, während Google Inhalte darauf als nicht-jugendfrei erkennt.
Seitenzusammenschlüsse
04:00
Frage:
Wir haben zwei Webseiten, die wir gerne verbessern und vermischen würden. Bisher haben wir nicht viel Content, vor allem bei der zweiten Seite. Was empfiehlst du? Und ist es ein Problem, wenn wir auf derselben Seite auf einmal total andere Inhalte haben?
Antwort:
Ich bin immer dafür, Inhalte auf einer wirklich starken Webseite zu sammeln. Sollte das möglich sein, ist das super. Sprecht ihr verschiedene Märkte an, dann mag es nicht gehen, aber es hört sich so an, als würden eure Seiten dieselbe Zielgruppe ansprechen. Also kombiniert es zu einer starken Seite, das wird kurzfristig vielleicht schwierig, wird euch langfristig aber helfen. Redirecten von der anderen Seite hilft dabei. Es ist auch kein Problem, wenn ihr die Inhalte stark verändert, das ist eine normale Entwicklung.
07:36
Frage:
Daran anknüpfend, könnte es Sinn machen, beide Seiten zu behalten, wenn eine Nutzer im eigenen Land ansprechen soll, während die andere (als .com Domain) internationale Nutzer anspricht?
Antwort:
Theoretisch ist das sicher möglich. Wenn man Leute im Land ansprechen will, macht eine Länderdomain mehr Sinn, während .com Menschen anspricht, die in das Land reisen wollen.
16:15
Frage:
Macht es nach einem Firmenzusammenschluss in derselben Nische Sinn, beide Kundenseiten separat zu belassen, obwohl sie dieselben Dienstleistungen anbieten? Sollte Seite A eine 301 zu Seite B aufweisen oder ist es ok beide Seiten in dieselbe iprange zu packen und beide weiter zu updaten?
Antwort:
Wenn es für euch Sin macht, die einzelnen Seiten zu behalten, dann macht das. Manchmal ist es nur einfacher, wenn man nur eine Seite updaten muss – dies kann die Seite auch in der Suche etwas stärker machen. Das ist vor allem wichtig, wenn man viele Seiten hat. Sind es nur zwei, könnt ihr generell machen, was ihr wollt.
Sitelinks
18:35
Frage:
Werden Webmaster bald einen Einfluss darauf haben, welche Sitelinks in den Suchergebnissen angezeigt werden?
Antwort:
Ihr habt ein wenig Einfluss, aber im Endeffekt nur für eine Degradierung der Sitelinks. Wenn es welche gibt, die ihr nicht wollt, könnt ihr uns das in Search Console mitteilen. Aber nur weil ihr etwas degradiert, heißt das nicht, dass es gar nicht angezeigt wird – es hängt immer von der Suchanfrage ab. Ihr könnt uns bislang auch keine Sitelinks geben, die wir dann anzeigen.
Umzug einer Website
39:49
Frage:
Kann eine Website praktisch die gesamte (organische) Sichtbarkeit über Nacht verlieren, wenn eine neue Website aufgesetzt wird, die sich nur darin von der aktuellen Website unterscheidet, dass es sich um die non-www Version handelt. Oder würde Google nicht so schnell handeln?
Antwort:
Das hört sich nicht so an, als ob das zusammenhängen würde. Ein Websiteumzug bedeutet nicht, dass eine Website komplett aus den Suchergebnissen verschwindet.
45:35
Frage:
Eine Website hat die URL auf non-www umgestellt, aber vergessen die 301-Weiterleitungen von der www-Version zur non-www-Version weiterzuleiten. Dadurch hat sie eine Menge Link Equity verloren. Macht es Sinn, dass die Seite aus diesem Grunde sehr stark in der Sichtbarkeit gesunken ist?
Antwort:
Nein. Google versucht die Algorithmen so zu gestalten, dass sie einen Websiteumzug identifizieren können, auch wenn der Webmaster vergisst, die entsprechenden Weiterleitungen einzurichten. Eine Website würde aus diesem Grund daher nicht vollständig aus den Suchergebnissen rausfallen. Google versucht zu erkennen, welche Version der Website vermutlich angezeigt werden soll. Wird eine Weiterleitung eingerichtet, ist dies für Google schneller erkennbar.
Update
11:00
Frage:
Gibt es ein Update? Es gibt viele Rankingänderungen und das Seowetter ist sehr hoch?
Antwort:
Ich weiß dazu nichts Spezielles, das wird noch auf euch zukommen. Wenn ihr Änderungen seht, dann sind es meist normale Änderungen, die wir immer wieder machen. Manche Leute sehen Sachen, andere nicht, daher ist es sicher nur etwas Kleines. Im Moment gibt es nichts Spezielles, was wir mit euch teilen können. Wenn der Panda kommt, was in den nächsten Wochen der Fall sein sollte, dann werden wir etwas für euch haben.
Thin Content
34:40
Frage:
Wie gehe ich mit dünnem Content mit wenig oder keinem zusätzlichen Wert um? Wir haben ein Website-Setup, bei welchem zwei identische Websites auf zwei Domains zu finden sind. Grund ist, dass ein Land die originale Domain blockiert, die neue Domain hingegen wird nicht blockiert.
Antwort:
Nur weil es den gleichen Content auf einer zweiten Domain gibt, würden wir die Inhalte nicht als
Thin Content deklarieren. Manchmal gibt es eben (technische) Gründe wie Geo-Targeting, warum die gleichen Inhalte auf zwei Domains zu finden sind.
Wenn jedoch eine manuelle Abstrafung für eine der Domains vorliegt, dann deutet das darauf hin, dass die Inhalte an sich schlecht sind.
Tracking
21:36
Frage:
Wie kann man die neuen Google Weblight Views tracken? The transkodierte Version einer Seite zeigt immer dasselbe Server Log. Kann man sie aufsplitten und sind sie alle User oder ein Mix aus Bots und Usern?
Antwort:
Wir sollten bereits (oder sehr bald) Analytics dafür unterstützen, damit könnt ihr die normalen Views tracken. Ohne Analytics sieht man es nicht in den Server Logs. Du kannst mal eine Mail an das Support Team schicken und ihnen Neurungen vorschlagen.
Video Rich Snippets
17:25
Frage:
Zwei Seiten verlieren Traffic, da einige unserer besten Artikel Video Rich Snippets erhalten. Kann Google sich das mal angucken, und wie schnell? Kannst du ein Hilfeticket erstellen, das ich nachverfolgen kann?
Antwort:
Grundsätzlich musst du das im Hilfeforum posten. Gern kannst du mir einen Link schicken, dann kann ich schauen ob es etwas gibt, was du selbst tun kannst.
Webspam
02:40
Frage:
Wir sehen Seiten, die Taktiken in Untergrundforen und Social Media Verlinkungen nutzen sehr gut ranken. Wie kann man auf der Whitehat-Ebene gegen solche nutzergenerierten Taktiken ankommen?
Antwort:
Das sollte eigentlich keinen Einfluss auf die Suche haben. Es scheint, als würden sie eh gut ranken und machen das nur um etwas zu tun zu haben. Ich würde mir das aber gerne mit dem Webspam Team angucken, also wenn du mir einen Link schicken könntest, wäre ich dir sehr dankbar.
Diskussionen zum Hangout bei
AYOM.
Quelle:
https://youtu.be/VHy4MHhL8dI?t=27m35s