Noindex

von Michael Schöttler

Kategorie(n): FAQ der Webmaster Hangouts Datum: 18. November 2016
 

Kernaussagen:

  1. Will man eine Unterseite aus inhaltlichen oder technischen Gründen nicht in den Google SERPs sehen, kann man diese auf Noindex stellen und sie zählt nicht mehr.
  2. Inhaltliche Dinge wie unbeantwortete Forethreads sollten auf Noindex stehen. Technische Dinge wie endlose Kalender kann Google selbst verstehen und weglassen.
  3. Auf Seiten, die bereits weitergeleitet wurden, braucht es kein Noindex. Google würde es wahrscheinlich eh nicht sehen.

25.08.2017, 58:37

Frage: Wir wollen unsere interne Suche auf Noindex stellen. Wir bekommen aber externe Links auf die Suchergebnisseiten, ist das ein Problem? Antwort: Wenn sie bei robots.txt geblockt wird, dann können wir die Links noch sehen uns sie auch ohne Crawlen in den SERPs zeigen. Das ist nicht ideal, aber vielleicht ein Weg, um damit umzugehen. Aber ihr solltet mal schauen, welche dieser Links überhaupt relevant sind – und diese dann zu einer Kategorie oder so weiterleiten.

25.08.2017, 47:25

Frage: Sollte man Produktseiten, die keine starken Informationen zum Produkt enthalten, auf Noindex stellen? Antwort: Das könnt ihr machen, wie ihr wollt.

25.08.2017, 42:42

Frage: Wir haben einen Shop mit Kategorieseiten. Die werden am Ende etwas dynamisch, da immer mal wieder Produkte aus dem Katalog fallen oder neue hinzukommen. Manchmal ist Seite 10 dann leer, manchmal hat sie Produkte. Sollte man da Noindex nutzen oder nicht? Antwort: Das ist wahrscheinlich egal. Wenn es in der Pagination so weit hinten ist, geben wir dem wahrscheinlich eh kein großes Gewicht. Dann crawlen wir es nur immer mal wieder, um das zu prüfen. Auch wenn das jetzt die zweite Seite wäre, würde das keinen großen Unterschied machen. Denn entweder sehen wir es als 404 – oder irgendwann als soft 404.

24.08.2017, 48:24

Frage: Angenommen es befinden sich einige hunderte oder tausende URLs im Google Index, die aber intern nicht mehr verlinkt sind, also über den Bot nicht mehr gecrawlt werden können. Wie bekomme ich die schnellstmöglich aus dem Index, ohne es manuell über die Search Console machen zu müssen? Antwort: In der Regel crawlen wir jede URL im Index immer mal wieder. Auch 404er oder andere Fehler. Das kann aber ein paar Monate dauern. Ansonsten kann man sie mit einem Änderungsdatum in eine Sitemap aufnehmen.

11.08.2017, 04:53

Frage: Ich habe zwei Seiten, die eine Seite hat ein Noindex und verweist mit einem Canonical auf die andere. Wird dabei auch das Noindex weitergegeben? Antwort: Das ist schwierig. Wir haben schon vor langem diskutiert, was wir da machen sollen. Denn Noindex sagt ja “nimm die Seite aus dem Index” und das Canonical sagt “diese Seiten sind gleich”. Da ist schon Potential gegeben, um unsere Algorithmen zu verwirren. In der Praxis versuchen wir da aber, das Canonical einfach zu ignorieren.

02.08.2017, 14:41

Frage: Ich habe in der robots.txt ein Noindex für mehrere Unterseiten hinzugefügt, aber viele der Seiten sind noch im Index, obwohl der Googlebot schon da war. Was kann ich da tun? Antwort: Googlebot crawlt ja pro URL, nicht die ganze Seite auf einmal. Deswegen haben wir das Noindex schon auf manchen Seiten gesehen, bei anderen aber noch nicht. Das kann dann noch ein paar Wochen oder auch Monate dauern. Sobald wir das sehen, werden wir sie aber aus dem Index nehmen. Du kannst zum Beispiel eine Sitemap einreichen, um das zu beschleunigen. Wenn es schnell gehen muss, kannst du in Search Console einen vorübergehenden Site Removal beantragen, dann verschwindet aber die ganze Seite aus den Suchergebnissen (und bleibt im Index). Wenn ein Noindex versehentlich war, könnt ihr ihn auch entfernen und das sollte dann wiederkommen. Uns ist das letztens mit der Login-Seite von Search Console passiert, sowas kann es also immer mal geben.

02.08.2017, 11:57

Frage: Google entscheidet, dass eine meiner Unterseiten von niederer Qualität ist und schickt keinen Traffic mehr dorthin. Hat diese Seite dann einen schlechten Einfluss auf die allgemeine Qualität meiner Seite? Sollte ich sie also auf Noindex stellen? Antwort: Wir schauen uns die allgemeine Qualität an. Und die fußt natürlich auf der Qualität der einzelnen Unterseiten. Wenn du die Seiten dann loswirst – oder noch besser: sie verbesserst – dann wird sich das natürlich auch widerspiegeln.

02.08.2017, 07:27

Frage: Wir wurden vom Fred Update getroffen. ich habe seitdem 75% der Seiten deindexiert, da sie schlecht performt haben. Das hat aber bisher nichts gebracht. Was kann ich noch tun? Antwort: Unsere algorithmischen Updates sollen die Qualität der SERPs verbessern. Du musst dir vielleicht mal die Seite im Ganzen anschauen, um sie insgesamt verbessern zu können. Fred ist auch nur der externe Name für viele Dinge, die bei uns über einen gewissen Zeitraum passiert sind. Und wenn ihr viele drastische Dinge verbessert habt, dann gab es wohl auch viele Probleme. Das kann dann dauern, bis sich das in den SERPs widerspiegelt.

29.06.2017, 13:47

Frage: Ich hätte eine Frage zu Agenturmeldungen bei Nachrichtenwebseiten. Von Google wird empfohlen, diese auf Noindex zu setzen. Allerdings ranken diese oftmals gut und generieren organischen Traffic. Kann eine Seite als ganzes wegen indexierten Agenturmeldungen abgestraft werden? Antwort: Ich denke, dass ist an und für sich euch überlassen. Ich weiß nicht, wo diese Empfehlung herkommt. Das Problem ist eher, dass eure Meldungen auf vielen Seiten veröffentlicht werden, und die konkurrieren dann miteinander. Wenn das für euch ok ist, dann macht das so. Da würde ich aber nicht sagen, dass es da manuelle Abstrafungen gibt. Agenturmeldungen sind ja etwas ganz normales.

27.06.2017, 10:13

Frage: Macht es Sinn, alle Nachrichtenbeiträge und so auf Noindex zu stellen? Antwort: Das kommt auf euch an. Schaut einfach immer, was ihr in der Suche zeigen wollt – und was vielleicht nicht mehr der Zeit entspricht.

06.04.2017, 47:00

Frage: Ich habe eine Website auf der viele URLs durch die Robots.txt gesperrt sind (login-Bereich). Diese URLs waren teilweise durch interne Links für den Crawler erreichbar. Ich habe nun die Links, die auf die geblockten Seiten geführt haben, entfernt. Leider sind durch diese Links dennoch einige der Seiten in den Google Index geraten, jeweils mit dem Hinweis, dass die Seite durch die Robots.txt gesperrt ist. Werden diese Seiten nun wieder aus dem Index verschwinden, nachdem ich die internen Links auf sie entfernt habe oder ruft der Crawler diese URLs nun direkt auf? In diesem Fall müsste ich ja die Robots.txt deaktivieren und auf den entsprechenden URLs das noindex-Tag platzieren. Was ist das optimale Vorgehe? Antwort: Wie viele der Seiten erscheinen denn in den normalen Suchergebnissen? Sind das nur ein paar, die man ausschließlich per Seitenabfrage sieht, dann kann man das ignorieren. Ihr könnt die Impressions in Search Console sehen. Wollt ihr sie dann loswerden, müsstet ihr die Sperre in robots.txt entfernen und ein Noindex einbauen. Dann können wir die Seiten sehen, das Noindex verarbeiten und sie dadurch aus dem Index schmeißen.

06.04.2017, 25:22

Frage: Wir haben aktuell mehrere Tausend Seiten die wir aus dem Google Index entfernen möchten. Die Seiten haben entweder ein NOINDEX oder wurden gelöscht (404), sind aber noch größtenteils im Google Index. Über die Search Console lassen sich diese ja direkt entfernen, aber fließen diese Seiten dann auch nicht mehr in den Google Algorithmus ein oder werden sie nur in der Ergebnisliste “ausgeblendet”? Crawlt google diese Seiten vor dem Entfernen? Da die Seiten nirgends verlinkt sind und auch in keiner Sitemap braucht Google leider sehr lange um die Seiten selbst aus dem Index zu entfernen. Wie können wir das Bereinigen unserer indexierten Seiten am besten beschleunigen? Kann ich z.B. alle Seiten der Domain per Search Console entfernen und dann gezielt die gewünschten Seiten per “Abruf wie durch Google” wieder indexieren lassen? Oder greift dann weiterhin die Entfernung/das Ausblenden der Seiten die ich davor eingerichtet hatte und es wird nichts indexiert? Antwort: Wenn es ein kritisches Problem ist und die Inhalte sofort weg müssen, dann kann man das URL Entfernungstool nutzen und das vielleicht auf Verzeichnisebene rausnehmen. Das entfernt die Inhalte aber nicht aus dem Index, sondern unterdrückt sie nur so, dass sie nicht angezeigt werden. Für die Nachhaltigkeit sollte man dann eine Sitemap nutzen, da wir die Seiten erst wieder crawlen müssen, bevor sie aus dem Index fallen. Da kann man dann ein Änderungsdatum für die URLs eingeben und wir crawlen das dann etwas schneller. Aber an sich werden wir sie eh irgendwann crawlen, den Noindex sehen und die Seiten fallen lassen – auch ohne, dass ihr etwas tut.  

04.04.2017, 47:35

Frage: Was ist besser, um Seiten auf Noindex zu stellen? Noindex, Nofollow zurückgeben oder lieber Noindex im x-robots Tag im Header? Antwort: Beides geht.

04.04.2017, 34:33

Frage: Kann es ein Problem sein, wenn man zu viele Seiten auf Noindex hat? Antwort: Nein. Außer natürlich, wenn diese Seiten eigentlich ranken sollen.

07.03.2017, 40:52

Frage: Wie lange braucht Google, um Seiten mit Noindex aus dem Index zu entfernen? Antwort: Normalerweise passiert das direkt nach dem nächsten Crawlen. Manchmal crawlen wir Seiten aber auch und es dauert etwas, bis wir das verarbeiten. Dann ist das eine technische Sache auf unserer Seite. Wenn das für euch schneller gehen muss, dann könnt ihr zusätzlich das Removal Tool in Search Console nutzen. Dann sollte das innerhalb eines Tages passieren.

24.02.2017, 17:45

Frage: Was hältst du von Noindex auf Sub Pages? Antwort: Das kann man machen. Aber Links auf diese Seiten gehen dann praktisch ins Nichts.

23.02.2017, 32:54

Frage: Wir haben Anfang November ca. 200k Thin-Content Produktseiten auf “noindex” gesetzt. Bis heute kommt bei ca. 30% der URLs noch Organic-Traffic an. Gibt es eine Möglichkeit die Deindexierung bei solch einer Größenordnung zu beschleunigen, da wir weitere TLDs haben bei denen wir den Thin-Content deindexieren möchten. Antwort: Ich würde raten, dass wir hier mit dem Crawling nicht ganz nachkommen. Dass wir zwar viel Crawlen, aber die alle noch nicht wieder gesehen haben. Bei 200.000 Seiten sollten wir das aber eigentlich ziemlich schnell hinkriegen. Es kann sein, dass wir viel Duplicate Content finden, wodurch wir deutlich mehr als diese 200.000 Seiten crawlen müssen. Schaut mal in die Logs, weil vielleicht gibt es auch noch Parameter oder so. Wahrscheinlich fanden wir die Seiten auch vorher schon nicht so wichtig, deswegen werden sie selten gecrawlt. Hier hilft eine Sitemap mit dem Änderungsdatum, an dem der Noindex eingebaut wurde. Dann sollten wir das relativ schnell sehen.

10.01.2017, 03:50

Frage: Wie sollte man das Tag eingeben: “noindex” “nofollow” vs. “NOINDEX, NOFOLLOW”? Und wie lange dauert es, bis eine solche Änderung in Kraft tritt? Antwort: Für uns sind beide Schreibweisen ok, beide sind gleich gut und auch gleich schnell. Ihr braucht aber kein “Index” oder “Follow” Tag eingeben, da das eh der Standard ist. Wir ignorieren das dann. Wir schauen uns nur die negativen Tags an.

27.12.2016, 1:02:29

Frage: Wir wollen viele Seiten auf Noindex stellen, etwa 500.000, die keinen Traffic erhalten. Wir wollen jeden Tag 10.000 Seiten auf Noindex stellen und das per Sitemap weiterreichen. Oder können wir alles auf einmal machen? Antwort: Beides geht. Aber am Anfang solltet ihr erstmal testen, um zu sehen, was passiert. Wenn ihr seht, dass alles klappt, könnt ihr die restlichen aber auf einmal machen.

02.12.2016, 47:12

Frage: Wir verkaufen Tickets für Veranstaltungen, was können wir tun, damit diese Seiten nach der Veranstaltung nicht mehr im Index auftauchen? Antwort: Das ist schwierig, da wir uns das Datum in diesem Zusammenhang nicht anschauen. Ihr könnt aber nach dem Datum ein Noindex nutzen oder das robots Meta Tag unavailable after nutzten. Dann werden wir sie nach dem Datum nicht mehr nutzen.

29.11.2016, 17:36

Frage: Ich habe Inhalte auf meiner Seite auf Noindex gestellt, aber andere Leuten verlinken diese weiterhin. Helfen mir diese Links im Ranking, obwohl sie auf eine Seite mit Noindex verweisen – oder sollte ich die Inhalte wieder in den Index lassen? Antwort: Auch bei Noindex geben wir den PageRank weiter, wenn ihr von der deindexierten Seite auf andere interne Seiten weiterleitet – z.B. eure Navigation oder die Kategorien. Aber überlegt euch mal: Ihr mögt die Inhalte nicht, aber viele andere verlinken es. Entweder solltet ihr so etwas vielleicht freigeben oder es, wenn ihr es nicht mögt, ganz löschen.

11.11.2016, 22:44

Frage: Wir binden Produktbeschreibungen anderer Anbieter auf unserer Seite ein. Da wir aber nicht mit diesen, sondern nur unseren eigenen Inhalten ranken wollen, wir sie dem Kunden aber zeigen müssen, laden wir diese mit AJAX nach. Der HTTP Header der Antwort enthält x-Robots Noindex und die Inhalte sind im Cache der Seiten auch schon nicht mehr zu finden. Leider findet man die Inhalte aber noch, wenn man Textausschnitte sucht. Sollten wir die AJAX URLs sicherheitshalber per robots.txt sperren? Oder kann das sperren von AJAX URLs bzw. Inhalten per robots.txt das Ranking negativ beeinflussen, auch wenn man mit den entsprechenden Inhalten ohnehin nicht ranken will? Antwort: Der Header funktioniert nur für die indexierte Seite. Wenn Dinge eingebunden werden, wird das nicht verwendet. Das bringt bei euch also eher nichts. Hier könnte man die AJAX URLs per robots.txt blockieren. Nutzer können dann alles sehen, Google aber nicht. Wenn das generische Produktbeschreibungen sind, dann werdet ihr dafür aber sicher eh nicht gut ranken, daher hat das dann einen geringeren Einfluss. Da könnt ihr euch die ganze Arbeit sparen. Aber vielleicht habt ihr ja auch gute Gründe für ein Noindex.

01.11.2016, 17:32

Frage: Ich möchte zwei Seiten auf Noindex stellen, die zwar viel generellen Traffic von Google erhalten, aber nicht explizit gesucht werden. Nutzer dieser Seiten werden dann keine loyalen Nutzer. Sie ranken aber gut, würde ein Noindex also mein allgemeines Ranking verschlechtern? Antwort: Das ist eher eine Marketingfrage. Ihr bekommt Traffic, wollt ihn aber nicht. Ihr könnt sie behalten, löschen oder vielleicht auch so verbessern, dass sie den Nutzern besser gefallen – und damit auch Conversions beitragen. Ein Noindex hier wird euch aber nicht schaden.

01.11.2016, 06:26

Frage: Wir haben viele Filter und Unterkategorien. Wenn Seiten weniger als 15 Produkte anzeigen, stehen sie auf Noindex. Findest du das passend oder sollten sie indexiert werden? Sollte es so bleiben, wie können wir dann das Crawling optimieren, da Googlebot diese Seiten fast täglich anfragt. Und wenn eine Firma kurzzeitig keine Produkte hat, müssen wir dann wirklich auf 404 stellen oder können wir sie auch kurzfristig per 302 zu fast identischen Produkten weiterleiten? Antwort: Ihr könnt dünne Kategorien auf Noindex stellen. Googlebot wird sie crawlen, das ist kein Problem für uns. Wir haben meist genug Kapazitäten dafür. Wenn ihr das aber vorher wisst, dann könnt ihr die Links zu diesen Seiten direkt auf Nofollow stellen. Wenn das Crawlen zu Problemen führt, dann könnt ihr sie in der robots.txt blockieren. Aber macht das nur, wenn es wirklich problematisch ist. Denn wir können dann das Noindex nicht sehen und indexieren sie vielleicht ohne Inhalte. Wenn die Produkte wirklich so gleich sind, dann kann man bestimmt weiterleiten. Das hilft dann dem Nutzer. Und 302 wird bei ihnen nicht gecached, wenn ihr also wieder Inhalte habt, landen sie auf der Ausgangsseite.

07.10.2016, 32:57

Frage: Unsere Artikel können auch gefunden werden, wenn man alle Artikel eines bestimmten Monats aufruft. Sollte diese Übersicht Noindex oder Nofollow sein? Antwort: Normalerweise würde ich da keine Ressourcen für verschwenden. Wenn es für den Index keinen Sinn macht, macht es Noindex. Aber ich glaube nicht, dass so etwas eure Rankings beeinflusst. Nofollow solltet ihr aber nicht machen, da es für uns Sinn macht, diese Links zu sehen.

07.10.2016, 24:39

Frage: Ich habe eine Seite mit tollen eingehenden Links, die viel Traffic aus der Suche erhält. Ich möchte sie aber auf Noindex stellen, da sie meinen Qualitätsansprüchen nicht genügt. Verkleinert das den positiven Einfluss der Links auf meine Domain? Antwort: Das hört sich nach einer komischen Situation an, wenn Leute es verlinken aber du es nicht gut genug findest. Versuche lieber, es zu verbessern um mit den Links zu arbeiten. Ist die Seite lange Noindex und sieht für uns wie 404 aus, dann werden wir die Signale mit der Zeit fallen lassen. Vielleicht könnt ihr sie ja mit einer anderen Seite ersetzen und das weiterleiten.

07.10.2016, 21:06

Frage: Wir haben eine Suche auf unserer Seite, die aktuell auf Noindex, Follow eingestellt ist. Ist das ok oder sollten wir das ändern? Antwort: Suchseiten sind hilfreich für uns, da wir so eure Produkte finden können. Vor allem, wenn die Suchseiten Kategorieseiten sind. Noindex macht Sinn, wenn sie uns keine guten Informationen geben würden oder sie in den SERPs nicht passen würden. Ihr könnt auch die ganze Suche in robots.txt blockieren – wenn der Crawler trotz Noindex auf die Seiten geht. Nofollow macht Sinn, wenn dort nur Navigationslinks oder so sind.

23.09.2016, 03:55

Frage: Gibt es einen besseren Weg als Noindex, Nofollow, um Suchergebnisseiten auszuzeichnen? Können wir sie auch zu sinnvollen Seiten weiterleiten? Antwort: Das geht, aber viele solche Seiten sind einfach nicht sinnvoll in den SERPs. Nutzt nur sinnvolle Seiten, die vielleicht auch Signale einsammeln. Da muss man sehr vorsichtig sein, nur auf Qualität und Nützlichkeit zu achten.

09.09.2016, 34:18

Frage: Wir haben ein neues Design und das Theme war auf Noindex und der Webmaster hat es nicht gesehen. Dann sind wir aus den SERPs rausgeflogen, da wurde mir dann in den Foren geholfen. Jetzt sind wir wieder da. Und ich habe Angst, dass die falsche Seite indexiert wird, also die alte statt der neuen. Antwort: Ich würde die am besten laufende Version aussuchen und die als Canonical aussuchen. Zudem auch mit 301 weiterleiten. Für normale Änderungen an der Seite würde ich auch nicht Remove from Index benutzen. Denn das nimmt es nur aus den SERPs, das alte bleibt aber unter Umständen im Index. Nutzt lieber eine Weiterleitung, da werden dann auch Nutzer, die die alte URL aufrufen, weitergeleitet. Wenn in Fetch as Google keine Weiterleitung gezeigt wird, dann funktioniert sie auch nicht.

25.08.2016, 55:27

Frage: Sollte man dpa News auf Noindex setzen? Oder eher nicht, weil so viele Seiten da dasselbe bieten. Antwort: Das wäre denke ich nicht problematisch. Ihr braucht aber eigene Inhalte, da solche News bei euch sicher nicht gut ranken würden.

09.08.2016, 33:13

Frage: In einem Hangout hast du empfohlen, unbeantwortete Forenthreads und ähnliches auf Noindex zu stellen. An anderer Stelle hast du gesagt, dass 100.000 Seiten aus einem Kalenderscript keinen negativen Einfluss haben. Was stimmt davon? Antwort: Dinge wie endlose Kalender können wir sehr gut verstehen. Dann hören wir auf zu crawlen, und es wird zu einer Seite zusammengefasst. Viele schlechte Inhalte sind da schon etwas anderes. Das ist nicht zu vergleichen.

08.07.2016, 30:45

Frage: Du hast gesagt, dass Canonical und Noindex auf einer Seite die Suchmaschine verwirren könnte, wodurch vielleicht beide Seiten aus dem Index fliegen. Könnte das von Externen für negative SEO Angriffe genutzt werden? Antwort: Meistens verstehen wir das ganz gut. Es ist aber trotzdem ein verwirrendes Signal. Externe Leute sollten da also keine Probleme verursachen können.

01.07.2016, 10:57

Frage: Wir haben letztes Jahr die URL-Struktur geändert und dabei viele alte Seiten auf Noindex gesetzt. Ich habe aber grad gesehen, dass viele der Seiten auch eine Weiterleitung zu den neuen Seiten haben. Ist das ein Problem? Antwort: Das ist schwer zu sagen. Grundsätzlich sehen wir das Noindex nicht, wenn die Seite weitergeleitet ist. Es sollte also eigentlich alles funktionieren, da wir nur die Weiterleitung sehen.

30.06.2016, 08:34

Frage: Warum werden Seiten trotz meta tag <meta name=”robots” content=”noindex, follow”> bei Google indexiert? Normalerweise durchstöbert der Spider diese Seite nicht. Antwort: Ich denke, da kommen mehrere Dinge zusammen. Haben wir eine Seite mit Noindex gecrawlt, dann zeigen wir sie nicht. Es passiert aber oft, dass die Seiten auch per robots.txt blockiert werden. Dann können wir sie nicht crawlen und das Noindex nicht sehen. Es kann auch eine Seite sein, die wir nur alle paar Monate crawlen – dann kann es etwas dauern. In solchen Fällen könnt ihr eine Sitemap einreichen, um das schneller zu machen. Noindex heißt auch nicht, das wir nicht crawlen – wir durchstöbern sie schon manchmal, um sicherzugehen, dass das Tag noch da ist. Wollt ihr kein Crawling, dann nutzt die robots.txt.

14.06.2016, 32:53

Frage: Macht es einen Unterschied beim Ranking, wenn wir bei Paginierten Seiten alle außer der ersten auf Noindex stellen? Antwort: Wir werden dann nur die erste Seite indexieren. Wenn sich alle wichtigen Inhalte dort befinden, dann könnt ihr das machen. Andernfalls solltet ihr alle Seiten indexieren lassen. Es kann auch verwirrend werden, wenn wir ein Canonical sehen und für die Seiten gleichzeitig unterschiedliche Vorgaben erhalten. In eurem Fall würden wir die Seiten unter Noindex aber denke ich einfach fallen lassen.

05.04.2016, 39:38

Frage: Werden URLs mit Noindex seltener gecrawlt als indexierbare URLs? Antwort: Ja, grundsätzlich versuchen wir, das so zu handhaben. Das ähnelt unserem Verhalten bei 404-Seiten. Wir schauen sie immer mal wieder an, versuchen aber, die Intervalle größer zu halten.

05.04.2016, 04:30

Frage: Wie ist es möglich, dass eine Seite mit Noindex rankt? Gerade für eine mobile Version. Antwort: Wenn eine Seite einen Noindex hat, dann zeigen wir sie normalerweise nicht in den Suchergebnissen. Wenn also einzelne Unterseiten ranken sollen, muss technisch alles stimmen. Ihr müsst also sichergehen, dass alles vernünftig vom Desktop weitergeleitet wird etc.

24.03.2016, 29:19

Frage: Macht es Sinn, JSON-LD Markup auf einer Seite zu nutzen, die auf Noindex steht? Antwort: Für uns macht das keinen Sinn. Die Seite ist nicht im Index, also können wir mit dem Markup nichts anfangen. Aber vielleicht habt ihr ja andere Gründe, um das Markup zu nutzen.

11.03.2016, 08:04

Frage: Was sind aus der Sicht von Google die fünf größten SEO-Fehler? Antwort: Leute packen oft aus Versehen ein Noindex auf ihre Seite – und das passiert bei großen und kleinen Seiten. Es gibt auch viele technische Details, die man immer anders machen kann. Aber bei wirklichen Fehlern ist Noindex der wichtigste. Auch das Blockieren in der robots.txt passiert immer wieder.

10.03.2016, 38:55

Frage: Wir haben einige Seiten/Folder im Index, die wir entfernen möchten (DC und fehlende Übersetzungen). Ist es ok, wenn ich den ganzen Ordner in Search Console ausschließen lasse und anschließend die Seiten auf noindex/nofollow setze und in robots.txt ausschließe? Antwort: Das sind verschiedene Maßnahmen, die man treffen kann. Wenn ihr es in Search Console ausschließt, dann bleibt es in unserem internen Index, wird aber nicht mehr in den SERPs angezeigt. Das kann sehr schnell gehen. Das Noindex kann etwas dauern, da wir neu crawlen müssen, bevor die Seiten aus dem Index fliegen. Bei robots.txt können wir nicht mehr crawlen. D.h. im schlechtesten Fall, dass die URL im Index bleibt, aber die Inhalte nicht mehr gezeigt werden können. Dann wissen wir nicht, dass die Seiten nicht mehr existieren. Ich empfehle das Noindex, das ist die natürliche Art.

25.02.2016,