Google Search Console

von Michael Schöttler

Kategorie(n): FAQ der Webmaster Hangouts Datum: 18. November 2016
 

Kernaussagen:

  1. Wer wissen möchte, was in der Suchanalyse wie gezählt wird, sollte sich den entsprechenden Artikel im Hilfecenter anschauen.
  2. Im Hinblick auf das Integrieren der Sprachsuche in die Datensätze gibt es bislang noch keinen Zeitplan.
  3. Die angezeigten Backlinks sind eine Auswahl. Google zeigt die an, die das System für wichtig erachtet - und das in absteigender Reihenfolge.

24.08.2017, 10:26

Frage: Laut Search Console sind ein paar Dinge wie Scripts gesperrt – und dann gibt es den Hinwreis, dass Google die Seite nicht so sehen kann wie der Benutzer. Ein Kunde möchte das allerdings nicht freigeben, da er meint, dass Google das ja nicht braucht. Was soll ich da entgegnen? Antwort: Dinge wie Tracking Pixel oder Werbung aus Iframes brauchen wir nicht. Wenn darüber aber Inhalte eingebunden werden, dann müssen wie die Crawlen können, sonst können wir das nicht indexieren. Wir sehen oft, dass Karten mit Filialen nicht freigegeben sind, und dann sehen wir die ganzen Inhalte und Links nicht.

22.08.2017, 45:35

Frage: Was ist der Plan im Hinblick auf die Daten aus der Search Console? Wird es immer 7 Tage zurückhängen? Antwort: Nein, das soll wieder aufholen.

22.08.2017, 40:56

Frage: Ich habe meine Seite mit einer Single Page App ersetzt. Die durchschnittliche Download Zeit in Search Console ist nun auf 2000 ms angestiegen, ist das ein Problem? Antwort: Das bezieht sich auf den Download des HTML beim Crawlen. Das ist für eine normale Website wahrscheinlich zu langsam, denn das ist ja die Zeit, die es braucht, bevor überhaupt die Inhalte für den Nutzer geladen werden. Das solltet ihr verbessern, ein paar 100 ms sollten das Ziel sein. Für SEO macht das keinen Unterschied, aber wenn das Laden so lange dauert, dann werden wir vielleicht das Crawlen runterschrauben.

22.08.2017, 06:53

Frage: Am 14. und 15. August gab es Datenprobleme, hatte das mit den hängenden Daten zu tun? Antwort: Das hatte glaube ich nichts miteinander zu tun. Da war einfach etwas kaputt und wir haben das jetzt glaube ich gefixt.

11.08.2017, 49:29

Frage: Der Uncommon Downloads Fehler kommt immer häufiger, was kann man da machen? Antwort: Dieser Fehler kommt bei seltenen Downloads oder solchen mit einzigartigen generierten Nummern, bei denen wir nicht wissen, was dahinter steckt. Du kannst entweder dafür sorgen, dass die Files keine einzigartigen Tags mehr generieren – oder in Search Console einen Scan beantragen. Dann kennen wir das File und der Fehler kommt nicht mehr. Das Auftreten des Fehlers ist also kein Zeichen, dass auf jeden Fall etwas nicht stimmt. Vielmehr heißt es, dass wir die Hintergründe des Files nicht kennen.

11.08.2017, 23:37

Frage: Was sind URL-Fehler und wie können wir sie automatisch beheben? Antwort: Du meinst wahrscheinlich Crawlingfehler in Search Console. Schau dir da einfach mal den Artikel im Hilfecenter an.

11.08.2017, 16:19

Frage: Hat es einen negativen Einfluss auf die Rankings, wenn man Search Console und Analytics nicht einbaut? Antwort: Nein. Analytics nutzen wir soweit ich weiß eh gar nicht für die SERPs. Es gibt auch andere Tools, die euch gute Informationen geben. Sucht euch das aus, was für euch am besten funktioniert.

11.08.2017, 06:22

Frage: Wenn wir unsere Zahlen für Branded und non-branded queries zusammenzählen, dann kommen wir irgendwie nie auf die Zahl, die eigentlich rauskommen müsste. Antwort: Wir filtern in der Suchanalyse auch immer mal queries raus, die total selten sind. Auf der Per Page Basis kannst du die genaue Zahl sehen.

10.08.2017, 25:17

Frage: Gibt es aktuell Probleme in der Search Console? Die strukturierten Daten wurden dort schon länger nicht mehr aktualisiert und es erscheinen bei uns auch laufend Fehler (bei den strukturierten Daten) welche im Livetest aber nicht angezeigt werden. Antwort: Mir ist da eigentlich nichts bekannt.

10.08.2017, 11:44

Frage: Wir bekommen in der GSC Fehler angezeigt die wir nicht nachvollziehen können. Bei den Soft 404 werden URL’s angezeigt die weder im Index sind noch auf unserer Seite oder Sitemap. Sie wurden vor ca. 2 Monaten gelöscht bzw. teilweise umgeleitet. Der Reiter “Nicht gefunden” zeigt uns URLs die ein Sonderzeichen (z. B. Ø, °) in sich haben. Diese werden seit ca. 2 Wochen in der sitemap.xml und im Canonical Tag mit Unicode ersetzt. Wir wissen das es einen Moment dauern kann bis Google das merkt. Allerdings markieren wir die Fehler immer wieder als gelöst und sie erscheinen stets erneut. Antwort: Da hängen vielleicht zwei Sachen zusammen. Wir versuchen URLs immer wieder neu, auch wenn die schon länger nicht mehr vorhanden sind. Wir wollen einfach sicher gehen, dass wir nichts neues verpassen. Es ist also total normal, einige 404er zu haben. Bei soft 404ern bekommen wir vielleicht erstmal einen 200er Code zurück und merken erst dann, dass sie Fehlerseiten sind. Es kann aber auch sein, dass sie einen Noindex haben. Möglich ist auch, dass ihr viel gelöscht habt und es weitergeleitet habt (z.B. zur Homepage), wir das aber als soft 404 sehen da die Inhalte ja nicht ähnlich sind. 404er sind für uns aber auch kein Problem und sorgen nicht dafür, dass wir eine Seite schlechter finden. Die “gelöst” Markierung ist auch nur für euch, nicht für unsere Systeme. Das wollen wir aber auch demächst ändern.

02.08.2017, 42:04

Frage: Wird die neue Search Console nur ein anderes Design haben oder werden sich auch die Daten ändern. Antwort: Ich denke mal, ein bisschen von beidem. Ich will jetzt nichts zu früh ankündigen, aber ich weiß, dass sich das Team auch leicht andere Daten und Datenmenge angeguckt hat.

02.08.2017, 35:10

Frage: Wie oft werden die HTML Verbesserungen in Search Console geupdated? Antwort: Das hängt mit der Häufigkeit des Crawlings zusammen. Wenn wir etwas crawlen und die Änderung sehen, dann wird das dort auch übernommen. Diese Dinge sind auch keine verbindliche Checkliste, sondern mehr Ideen, was ihr alles machen könnt. Ihr müsst das nicht zwingend auf Null bringen.

29.06.2017,  23:06

Frage: Die Google Search Console zeigt, dass wir mit unserem Markennahmen und der zugehörigen Homepage im Schnitt auf Rang 2.2 liegen. Da wir eine relativ starke Marke sind, würden wir gern wissen, wer da mit uns in Konkurrenz steht – vielleicht ja wir selbst? Antwort: Ja, könnte sein. Da gibt es einen Hilfeartikel, der das Ranking in Search Console erklärt. Vielleicht gibt es auch ein Featured Snippet oder ein lokales Ergebnis, das dann oben steht. Man kann auch mit den Filtern in der Suchanalyse genauer schauen, wo das genau herkommt (mobile/Desktop, Land, etc).

16.06.2017, 36:33

Frage: Wir haben für eine Desktop Seite eine identische mobile Seite. Warum gibt uns Search Console die Option, für die Desktop Seite mobile Endgeräte zu filtern? Antwort: Schwer zu sagen, vielleicht war sie dort mal sichtbar, weil etwas in eurem Seitenaufbau nicht ganz stimmte?

16.06.2017, 36:13

Frage: Kann man IP Level Impressionen und Klicks in Search Console herausfiltern? Antwort: Nein, das ist nicht möglich. Das könnt ihr in Analytics machen.

16.06.2017, 33:12

Frage: Was für Dinge werden im Date Range Filter in Search Console herausgefiltert? Antwort: Da filtern wir Dinge raus, die so selten sind, das es nicht sinnvoll ist, sie zu zeigen. Außerdem kann es da datenschutzrechtliche Dinge geben.

16.06.2017, 23:45

Frage: Die Suchanalyse und das eigentliche Ranking unterscheiden sich, wenn ich Suchen durchführe. Antwort: Die Sachen in der Suchanalyse sehen anders aus als eure Ergebnisse, da es ja auch viel mit der Personalisierung zu tun hat. Die Suchanalyse hat die Daten aus wirklichen Suchen, ihr seht also das, was wirklich echten Nutzern ausgespielt wurde, und nicht nur das theoretische Ranking.

12.06.2017, 40:38

Frage: Wie oft wird der Indexierungsstatus geupdated? Unser Status bleibt in allen Varianten bei Null. Antwort: Das wird glaube ich zwei oder drei Mal pro Woche upgedated. Es bezieht sich aber nur auf genau die Version, die ihr verifiziert habt. Ihr könnt das per Sitemap in Search Console oder per Infoabfrage testen. Wenn die Seite ganz neu ist, dann kann das immer auch ein wenig dauern, bis die Daten wirklich reinkommen.

12.06.2017, 19:45

Frage: Was ist der beste Weg, um Thumbnails in Search Console nach einem Relauch auf den aktuellen Stand zu bringen. Antwort: Ich glaube nicht, dass es da einen Weg gibt, um Änderungen anzustoßen. Das wird immer für eine Weile gecached und dann mit der Zeit geupdated. Das hat aber auch keinen Einfluss auf das, was in der Suche sichtbar ist – sondern bezieht sich nur auf eure UI.

12.06.2017, 16:21

Frage: Sehen wir in der Suchanalyse API nur Seiten, die mindestens sieben Klicks haben? Gibt es noch andere Kriterien? Antwort: Es hängt nicht wirklich an den Klicks, aber es kann je nach Suchanfrage Filter geben die bei sehr einzigartigen Anfragen genutzt werden.

12.06.2017, 13:30

Frage: 1. Warum muss man in Search Console alle Variationen eintragen? 2. Wir nutzen keine Subdomain mehr, kann ich die entsprechenden Properties löschen? Antwort: 1. Die Idee dahinter ist, dass wir euch informieren können, wenn auf einer anderen Version etwas kaputt ist. Wenn zum Beispiel die http Version nicht mehr weiterleitet, können wir euch das mitteilen und ihr könnt es fixen. 2. Ja, die kannst du löschen.

02.06.2017, 42:59

Frage: Seit März sehen wir einen stetigen Anstieg in 500er Fehlern. Das sind meistens alte Links, aber die Zahlen steigen weiter an. Woran kann das liegen und was sollten wir tun? Antwort: Die sehen wir direkt von eurem Server, die jeweilige URL verursacht da also Probleme. Wenn die URL nicht indexiert werden soll, dann ist das egal. Aber wenn wir so einen Anstieg sehen, dann denken wir vielleicht, dass das an uns liegt. Dann werden wir vielleicht weniger crawlen, um die Last für euren Server runterzuschrauben. Am besten wäre immer, wenn solche alten URLs 404er oder 410er wiedergeben, dann passiert sowas nicht.

02.06.2017, 41:03

Frage: Wir nutzen SERPs.com, um unsere Rankings zu tracken, denn Search Console bietet diese Daten nicht. Ist das ok? Antwort: Viele Tools scrapen unsere Suchergebnisse und verstoßen damit sowohl gegen unsere Nutzungsbedingungen als auch gegen unsere robots.txt. Das würde ich dann nicht empfehlen. Wenn es unsere Suchergebnisse scraped, dann macht das nicht. Das verursacht bei uns große Lasten auf dem Server. Und wenn jemand nach dem Keyword sucht, dann seht ihr das in der Suchanalyse. Aber wenn niemand danach sucht, dann müsst ihr es auch nicht tracken, oder? Das macht dann also zusätzlich zu den Verstößen auch noch wenig Sinn.

02.06.2017, 33:40

Frage: Warum dauert es so lange, bis Error Reports geupdated werden? Antwort: Gute Frage, wir können nicht immer die ganze Seite auf einmal crawlen. Deswegen geht das Schritt für Schritt, wir sehen also nicht alle Fehler auf einmal.

01.06.2017, 38:36

Frage: In Webmaster-Tools/Crawling-Fehler kriegen wir immer bei Smartphone/Blockiert die URLs aufgeführt die Query String beinhalten, das Smartphones mit Query String nicht umgehen können ist mir bewusst, ich haben auch die robots.txt die URL’s aufgenommen, aber ohne Erfolg, die Crawling-Fehler tauchen immer wieder neu auf, ist es ein Problem für Google? Wie können wir diese Crawling-Fehler vermeiden? Die Seiten auf Noindex und nofollow kann ich nicht setzten da diese ohne Query String für uns wichtig sind und weiterhin indexiert werden sollen. Antwort: Grundsätzlich können Smartphones normal damit umgehen, das sollte kein Problem sein. Smartphones haben mittlerweile sehr moderne Browser. Wahrscheinlich sehen wir da keine Crawlingfehler, sondern die Smartphone Variante ist per robots.txt blockiert. Dann wissen wir nicht, ob die Seite wirklich mobil optimiert ist und ranken sie bei mobilen Suchen vielleicht nicht so hoch. Noch problematischer wird das natürlich beim mobile First Index. Zeigt am besten mit rel=alternate auf die mobile und mit rel=canonical auf die Desktop Version, ohne eine davon zu blockieren. Dann sollte alles gehen.

01.06.2017, 16:54

Frage: Was passiert, wenn ich die Ownership einer Website zu einem neuen Account transferiere und den bisherigen Account lösche? (lediglich das html Snippet es vorherigen Accounts wurde ins Root hochgeladen) Antwort: Das ist für uns total unproblematisch. Da werden dann alle Infos weitergegeben, außer vielleicht Sitemaps und Property Sets.

01.06.2017, 15:07

Frage: Was passiert, wenn ich eine Website bei 2 verschiedenen Google Search Console Accouts validiert habe und z.B. die Website dort unterschiedlich konfiguriere? Überschreibt die letzte Änderung die vorherigen Settings des ersten Accounts? Antwort: Das sollte immer synchronisiert werden, das sollte also kaum gehen. Außer bei persönlichen Dingen, die sich auf das Konto beziehen, wie Property Sets oder Sitemaps.

16.05.2017, 43:10

Frage: Werden wir in Search Console jemals Daten dazu bekommen, wie oft Google die ganze Domain zu rendern versucht? Antwort: Eher nicht, denn wir versuchen, jede Unterseite zu rendern. Solche Daten würden daher keinen Sinn machen. Ich kann mir aber vorstellen, dass es weitere Toolszum Thema Rendern in Search Console geben wird. Ihr könnt davon ausgehen, dass wir jede URL, die wir anfragen, auch rendern. Und das Crawling hat auch Infos vom letzten Rendern im Hintergrund – wir wollen nicht jedes Mal alles fetchen, sondern cachen Dinge wenn es geht.

04.05.2017, 32:32

Frage: Ich stelle in den letzten Wochen über mehrere GSC-Accounts hinweg fest, dass keine Backlink-Daten mehr angezeigt werden. In einigen Accounts stehen zwar inzwischen schon wieder Daten bereit, in anderen wiederum nicht (wie z.B. im folgenden Screenshot) – Auffällig ist auch, dort wo die Daten wieder existieren sind teilweise starke Rückgänge in den Gesamtzahlen der Links zu erkennen. Kannst du etwas zu den Hintergründen sagen? Gab es generelle Probleme oder ein spezielles Update in der GSC? – Dort wo wieder Daten vorhanden sind, sind diese inzwischen wieder komplett? – Ich suche nämlich noch nach einer Erklärung für die jetzt geringeren Gesamtzahlen der Links, ebenfalls in mehreren Accounts zu erkennen. Antwort: Ich weiß da von keinen Problemen. Das sollte eigentlich funktionieren. Da wäre es praktisch, wenn du mir die Domains mal zuschicken könntest. Dann kann ich mal mit dem Team nachschauen, ob alles stimmt. Bei Search Console sind die Daten aber auch nicht vom ersten Tag an sichtbar, sondern das dauert nach dem Hinzufügen oft auch ein paar Tage. Wir wollen auch nur genau die Version anzeigen, wenn also Https indexiert ist und http bei Search Console steht, dann sehen wir die relevanten Daten nicht.

02.05.2017, 27:05

Frage: Ich habe in Search Console über 2000 Seiten, die Crawl Errors für kaputte Links anzeigen. Meine Seite ist fast 20 Jahre alt und hat viele alte Artikel mit schlechten internen Links. Soll ich die alle beheben oder kann ich das ignorieren? Antwort: Wenn die Links noch live sind und du Seiten verlinkst, die nicht mehr existieren, dann ist das mehr ein Problem für die Usability. Schau am besten in Analytics, welche dieser Seiten noch benutzt werden und wo Nutzer in Sackgassen geraten. Wenn das aber nur Crawlfehler sind, die kein Nutzer jemals sieht, dann ist das nicht so wichtig.

06.04.2017, 48:31

Frage: In der Search Console haben wir aktuell 3 Property-Einträge: 1. alte URL (http://www.domain.de (wird nicht mehr verwendet) 2. https://www.domain.de 3. https://mobile.domain.de Wir haben vor rund 5 Monaten von Property 1 auf 2 migriert. Wann können wir Property 1 löschen? Sollten wir vorher Daten sichern? Welche Daten werden gelöscht? Hat das Löschen von Property 1 Auswirkungen auf Property 2 und 3? Aktuell muss ich für Auswertungen immer seperat mir die Infos von Property 2 und 3 anschauen. Gibt es eine Möglichkeit die Daten “zusammen zu margen”? Damit ich die Auswertungen nicht doppelt machen muss… Antwort: Löschen könnt ihr sie, das hat keinen Einfluss auf die Suche. Wenn dort keine relevanten Daten mehr sind, dann ist das ok. Man kann aber auch ein Property-Set erstellen, dann wird für die Suchanalyse alles kombiniert.

04.04.2017, 18:24

Frage: In Search Console werden ja alle Links angezeigt. Wäre es nicht sinnvoller, nur die Follow Links anzuzeigen? Antwort: Wir finden, dass alle Links euch Traffic bringen könnten, daher wollen wir auch alle anzeigen. Das Team hat bisher nicht den Plan, da eine Filtermöglichkeit einzustellen. Wir haben sie schon oft gefragt, sie wollen das aber nicht. Das Team möchte verhindern, das Leute sich zu sehr auf diese Unterscheidung zwischen den Links konzentrieren.

10.03.2017, 37:52

Frage: Ich habe in Search Console www. und non-www. verifiziert und will mit jetzt eine aussuchen. Dann werde ich immer gebeten, beide zu verifizieren. Aber das habe ich ja schon gemacht. Wie kann ich das umgehen? Antwort: Das hört sich nach einem komischen Fehler an. Vielleicht habt ihr eine mit https und eine http? Ansonsten ist das Setting auch nur eine Bestätigung aller anderen Faktoren, die wir schon für das Canonical sehen. Dazu gehören interne und externe Links, URLs in der Sitemap und auch interne Links. Wenn ihr uns da also schon auf das richtige hinweist, dann ist das Preferred Domain Setting nicht mehr so wichtig. Du kannst mir das Beispiel aber gerne mal zuschicken, dann schaue ich mir das mit dem Team an.

10.03.2017, 20:00

Frage: Ist es geplant, in Search Console auch die Seiten auszulisten, die als qualitätsarm angesehen werden? Antwort: Das ist eine interessante Idee, ich glaube aber nicht, dass es solche Pläne bei uns gibt. Ich weiß auch nicht, ob wir das überhaupt könnten – auch wenn ich zustimme, dass ihr da manchmal mehr Infos gebrauchen könntet. Ich leite die Idee auch mal an das Team weiter.

24.02.2017, 41:49

Frage: Warum erhalte ich in Search Console die Nachricht, dass Googlebot viele URLs findet die nicht ohne Genehmigung angesehen werden dürfen? Antwort: Das bedeutet, dass wir beim Crawlen eine Login Seite erhalten haben oder sie nicht erreichen durften. Damit fallen sie aus dem Index. Wenn sie nicht in den Index sollen, ist das ok. Wenn sie aber in den Index sollen, musst du das angehen, z.B. mit Fetch as Google. Wenn das nur manchmal passiert und dann wiederkommt, musst du vielleicht mal mit dem Hoster sprechen. Vielleicht werden wir dann ausgesperrt, weil wir zu vielen Crawlen. Und da kannst du uns dann in Search Console drauf hinweisen.

21.02.2017, 18:32

Frage: Wir haben eine Android App, die im Store in mehreren Sprachen zur Verfügung steht. Das wird aber ein Problem, wenn man sie zu Search Console hinzufügen möchte. Denn Google erkennt alle Sprachen als eine App und gibt und daher nur Daten für alle zusammengenommen. Kann man das irgendwie ändern? Antwort: Nein, das geht aktuell leider nicht. Wenn es eine App ist, dann ist es nur ein Eintrag in Search Console. Bei Websites kann man das aufsplitten, bei Apps noch nicht.

27.01.2017, 50:33

Frage: Ich versuche, gute Reports herauszuziehen. Aber bei manchen Seiten und Anfragen sind die Ergebnisse komisch. Sie hat dann z.B. die Durchschnittsposition 365. Filtert ihr da Dinge raus? Antwort: Wir filtern Dinge raus, wo wir sehen, dass die Anfragen nicht von Nutzern kommen. Es hört sich aber komisch an, dass Leute so weit nach unten schauen. Es ist aber auch der Durchschnitt, also sehen manche es vielleicht oben und andere unten. Vielleicht geht es auch um die Bildersuche, da ist es einfacher, sehr weit runterzuscrollen. Du kannst auch nicht sehen, wo Leute klicken. Du siehst die Position und wie viele Leute für die Position klicken.

26.01.2017, 38:05

Frage: Wir hatten ein Fall bzgl. der Anlage von Properties in der GSC. Ich habe einen Kunden mit einer festen IP für seinen Webhost. Auf dem Webhost liegen 3 TLDs und eine GEO Abfrage filtert die User und leitet diesen weiter auf die richtige TLDs. Wenn ich für jedes Land eine Property anlege: xy.de xy.at xy.ch dann haben alle drei Properties die selben Daten. In Google Analytics sind Filter vorhanden, mit denen wir länderspezifische Daten sichern. Die Frage ist: Wie lege ich diesen Fall in der GSC an? Alle drei haben TLDs haben die selbe IP. Antwort: Aus unserer Sicht ist die IP Adresse irrelevant. Bei generischen TLD kann man die Länder in Search Console angeben. Sind es aber Länder TLDs, dann geht das ja eh nicht.

27.12.2016, 44:00

Frage: Wann wird Search Console geupdated, um mit den ganzen Änderungen in der Suche Schritt zu halten? Klicks und Impressionen im Knowledge Graph wären z.B. hilfreich, ebenso die Direct Answers Box. Antwort: Dazu gibt es einen tollen Artikel im Hilfecenter. Da seht ihr, was wie zählt. Wir versuchen, in der Suchanalyse das alles zu zählen.

20.12.2016, 50:14

Frage: Kannst du ein Tool für automatische Backups empfehlen? Antwort: Mihai hat ein gutes Tool. Ansonsten weiß ich das nicht. Ich habe da meine eigenen Python Scripts, aber es gibt auch gute andere Tools, die Search Console da gut verbinden. Es gibt nichts, dass wir bei Google offiziell empfehlen. Viele nutzen vielleicht unsere API, aber da kennen wir ja auch nicht alle Tools, die es gibt.

20.12.2016, 46:23

Frage: Die Links sind auch eine akkurate Repräsentation und es kann dauern, bis Seiten, die weg sind, auch überall verschwinden? Die Links, die dort stehen, werden von Google aktuell noch erkannt? Antwort: Das stimmt so.

20.12.2016, 43:09

Frage: Aus welchem Grund zeigt uns Google überhaupt diese Links? Und warum stehen die unter “Ranking”? Denn wenn ihr Nofollow Links zeigt, dann folgt ihr denen ja trotzdem irgendwie? Antwort: Wenn ihr z.B. die Links aufräumen wollt, dann ist das hilfreich. Normalerweise ist es eher eine Info, um zu sehen, wie sich die Seite mit der Zeit entwickelt. Aber wir denken, dass diese als Quellen für euren Traffic interessant sind – nicht so sehr, um sie auf dieser Grundlage zu optimieren. Deswegen zeigen wir ja auch die Links, von denen wir denken, dass sie für euch relevant sind.

20.12.2016, 41:09

Frage: Was kann ich unter den Backlinks bei Search Console finden? Finde ich da aller oder nur einen Teil? Antwort: Wir haben da keine strikten Richtlinien. Grundsätzlich sehr ihr dort Beispiele. Bei kleinen Seiten sind es vielleicht (fast) alle, bei großen Seiten sind es die relevantesten. Es zeigt dabei auch Nofollow Links und auch Links, die im Disavow Tool stehen.

20.12.2016, 39:53

Frage: Ich habe eine Https www. Domain und all die anderen Varianten werden hierhin weitergeleitet. Wenn sie weitergeleitet sind, gibt es da aber keine Daten oder? Antwort: Grundsätzlich zeigen wir das Canonical. Nur da musst du dann auch nach Fehlern suchen.

20.12.2016, 37:19

Frage: Könnte Google eine Crawlstatistik hinzufügen, die zeigt, wie viele Seiten Googlebot auf natürliche Weise gecrawlt hat – anstelle der, die zeigt, wie viele man in der Sitemap hat und wie viele indexiert sind? Wir wollen sicher gehen, dass alle Seiten einfach zu erreichen sind und der Crawler nirgendwo blockiert wird. Antwort: Ich glaube nicht, dass wir dazu eine Statistik bieten könnten. Wir sammeln URLs auf mehreren verschiede