404 & 410

von Michael Schöttler

Kategorie(n): FAQ der Webmaster Hangouts Datum: 18. November 2016
 

Kernaussagen:

  1. 404er werden immer mal wieder gecrawlt. So stellt Google sicher, dass sie auf diesen Seiten nichts verpassen.
  2. 404er sind eine normale technische Einstellung und verursachen keine Rankingprobleme.
  3. Die entsprechenden Listen in Search Console muss man also nicht unbedingt abarbeiten. Sie werden auch dann nach jedem Crawl wiederkommen, wenn man sie als bearbeitet markiert.

16.06.2017, 11:25

Frage: Ich habe viele 404er, was muss ich da machen? Antwort: Das ist ok, da muss du nichts extra machen.

30.05.2017, 45:37

Frage: Wir haben eine große Seite und viele Produkte gehen jeden Monat offline, werden also zu 404ern. Wäre es ein Problem, wenn wir pro Monat etwa 1 Mio. 404er hinzubekommen? Antwort: Das ist für uns ok. Es macht aber das Crawlen etwas schwieriger. Vielleicht könnt ihr das Unavailable after Tag nutzen, wenn ihr schon vorher wisst, dass etwas online geht. Das Removal Tool macht da aber wenig Sinn, da es sich nur auf die Suchergebnisse bezieht. Nutz das nur, wenn ihr schnell was aus dem Index kriegen müsst.

07.04.2017, 19:49

Frage: Ich habe viele Seiten per 410 gelöscht und das URL Removal Tool genutzt. Ich würde die Seiten aber gerne aus dem Index kriegen, da ich glaube, dass sie zu Problemen mit dünnen Inhalten beitragen. Antwort: Ein paar Seiten zu löschen würde erst einmal nicht im Hinblick auf dünne Inhalte helfen. Lasst es, wie es ist, denn wir sehen die 410 und damit werden sie mit der Zeit eh aus dem Index fallen. Ansonsten solltet ihr euch die ganze Seite nochmal anschauen, um die Qualität wirklich anzuheben.

06.04.2017, 37:38

Frage: Wenn ich einen Blick in die Google Search Console in den Bereich “Crawling Fehler – Nicht gefunden” werfe, stolpere ich immer wieder über folgende Frage: Wieso crawlt der Googlebot nicht einfach die Seiten der eingereichten Sitemap?Wieso kommt der Bot immer wieder auf Seiten, die schon lange nicht mehr existieren (seit dem Relaunch der Seite im Jahr 2015 nicht mehr) und für die berechtigterweise ein 404 eingerichtet ist? Schaue ich mir das “Erkannt-Datum” ein, werden immer wieder nicht mehr vorhandenen Seiten gecrawlt. Antwort: Wir verwenden die Sitemap zum einen, um das Crawling zu erweitern. Wir crawlen also normal und nehmen die Infos aus der Sitemap dann noch dazu. Wir sehen einfach, dass viele Sitemaps nicht mehr aktuell sind und wir möchten die Websites für so etwas nicht bestrafen. Bei 404ern erinnern wir uns einfach daran, dass sie mal existiert haben, und wollen sicher gehen, dass wir nichts verpassen. Es ist auch vollkommen ok, wenn dann dort ein 404 kommt. Ihr könnt auch sehr viele 404er haben, das ist ganz normal.

04.04.2017, 15:31

Frage: Wir haben immer indexierte Profilseiten für unsere Nutzer erstellt und haben mittlerweile hunderttausende davon. Diese haben aber meistens kaum bis gar keine Inhalte. Können wir sie per 410 entfernen, um dünne Inhalte zu vermeiden, oder wären so viele 410er ein Problem? Antwort: Ihr könnt die runternehmen, mit 404 oder 410. Ihr könnt sie aber auch per Noindex aus dem Index nehmen, wenn sie für eure Seite noch sinnvoll sind. Wirklich gute Profilseiten könnten auch weiter im Index bleiben.

24.03.2017, 57:19

Frage: Search Console zeigt uns Soft 404s für unsere http Version, aber die Https Seite ist das Canonicalund alles wird dorthin weitergeleitet. Unsere Seite wird nun langsam deindexiert, woran kann das liegen? Antwort: Das hört sich so an, als wären die Redirects falsch, z.B. alle zur Homepage. Dann sehen wir das als soft 404.

10.03.2017, 1:10:17

Frage: Ich habe viele 404er und habe sie bearbeitet. Trotzdem sind noch viele da, was kann ich da tun? Antwort: Wir müssen erstmal alles Crawlen, bis wir die Zahlen in Search Console anpassen können. Das kann Monate dauern, bis wir alles gesehen haben. 404er sind aber auch kein Problem, sondern ein normaler Teil des Internets. Wenn ihr zum Beispiel einen endlosen Kalender offline nehmt, dann habt ihr theoretisch auf einmal Millionen an 404ern, die sind aber total egal. Wir versuchen auch, die wichtigeren 404err in Search Console besser hervorzuheben. Aktuell zeigen wir Prioritäten, wenn die URL in einer Sitemap war, externe Links hat oder ähnliches. Wenn also die obersten 404er schon egal sind, dann kommt darunter auch nichts relevantes mehr. Wir kriegen die Frage aber immer wieder, deswegen wollen wir das noch deutlicher machen. Wenn wir crawlen, konzentrieren wir uns auch erstmal auf wichtige URLs, viele 404er richten da also eigentlich auch keinen Schaden an.

09.03.2017, 04:58

Frage: Handhabt der Googlebot 404- und 410-Seiten unterschiedlich (wenn auch nur minimal)? Wenn ja, was sind die Unterschiede? Oder sind diese aus Sicht von Google komplett identisch? Antwort: Ja, leicht unterschiedlich. Bei 410 sehen wir besser, dass die Seite permanent weg ist. Dann verschwindet sie ein kleines bisschen schneller aus dem Index. Aber praktisch gibt es da eigentlich keine Unterschiede, nach dem nächsten Crawlen sind sie ja eh weg. Es gibt also keinen Grund, um da Dinge im Nachhinein zu ändern.

07.03.2017, 50:16

Frage: Wenn man dünne Inhalte loswerden will: Sind 301 Weiterleitungen oder 404er besser? Und was macht man, wenn man sie nicht loswerden kann? Antwort: Das ist egal. Wenn ihr viele Seiten zu einer Seite weiterleitet, dann sehen wir das vielleicht eh als Soft 404. An sich gibt es aber keine Probleme, wenn man viele 301er hat. Den Nutzer kann es aber verwirren, wenn er etwas sehen will und dann woanders landet. Wenn man sie nicht loswerden kann, würde ich Noindex nutzen, da könnt ihr auch beliebig viele von haben.

21.02.2017, 17:17

Frage: Bringt eine gute und informative 404 Seite Rankingvorteile? Antwort: Wenn wir einen 404 Code sehen dann ignorieren wir alles auf der Seite für die Suche. Für Nutzer machen hilfreiche Inhalte aber Sinn.

10.02.2017, 18:10

Frage: Wie wichtig sind informative Inhalte auf 404 Seiten? Antwort: Wir schauen uns die Inhalte auf 404er Seiten nicht an. Ihr müsst da für uns also keine Inhalte einbauen. Die Seiten müssen für eure Nutzer Sinn ergeben.

09.02.2017, 54:07

Frage: Seit kurzer Zeit geben wir bei verkauften Artikeldetailseiten anstelle eines 200er mit Hinweis auf das verkaufte Produkt, einen 410er Status-Code aus. Da dies rückwirkend für alle Artikeldetailsseiten gemacht wurde, führt das dazu, dass in der Search-Console Meldungen über einen enormen Anstieg der 404-Seiten aufschlagen. Inklusive der 410er sind es nun über 240.000. Ist das ein Problem? Antwort: Aus unserer Sicht ist das kein Problem. 404 und 410 Fehler sind ein normaler Teils des Internets, die gibt es zu Hauf.

09.02.2017, 36:33

Frage: Hat es eine negative Auswirkung auf das Ranking, wenn ich die Newsletter-Abbestellung auf 404 umleite? Antwort: Für die Websuche ist das egal, aber für Nutzer ist das sicher nicht optimal.

27.01.2017, 58:19

Frage: Ist es ok, 404er nach ein paar Sekunden weiterzuleiten? Antwort: Ja das kann man machen. Wir sehen die 404, dann schauen wir uns das nicht weiter an.

12.01.2017, 31:54

Frage: Ich würde vorab gerne schon mal eine Frage zur der Anzeige von 404ern in der Search Console platzieren. Und zwar werden uns dort 404 Seiten als “neu erkannt” ausgewiesen, die laut der SC auf unseren Seiten auch noch verlinkt sind, was aber nicht der Fall ist. Woher stammen die Daten unter “verlinkt über”, wenn ich mir die 404 Seite genauer anschaue in der SC? Ich kann das im Rahmen unserer 404 Betrachtung leider nicht nachvollziehen. Zudem fragen wir uns, wann eine Seite generell als 404 Seite in der Search Console auftaucht, denn verlinkt sind diese Seiten i.d.R. nirgendwo, so dass diese Seiten tatsächlich aufgerufen werden könnten durch einen User. Antwort: In der Regel finden wir diese URLs irgendwann mal und behalten sie langfristig in unserem System. Daher crawlen wir sie immer mal wieder, für den Fall, dass sie wieder für den Index Sinn machen würden. Wir finden sie also nicht neu, sondern schauen sie uns einfach neu an. In der Liste stehen sie dann nach Priorität geordnet (interne Links? in einer Sitemap?). Wenn also schon die obersten URLs nicht wichtig sind, dann wird es weiter unten nicht besser. Das ist für uns auch vollkommen ok und 404er sind ein Zeichen für eine gut aufgebaute Website. Ihr habt dadurch keine Nachteile.

12.01.2017, 13:29

Frage: Wie lange dauert es, bis gelöschte URLs aus dem Index verschwinden, wenn Google Bot beim Aufruf der URL 410 als Status erhält? Tage, Wochen oder Monate. Antwort: Ja, Tage, Wochen oder Monate in der Reihenfolge. Wir müssen die Seiten erst einmal Crawlen, um zu sehen, dass sich der Status da nun verändert hat. Wir crawlen aber nicht alle Seiten mit der gleichen Frequenz. So kann es sein, dass manche Seiten schnell verarbeitet werden, während es bei anderen länger dauert, bis sie aus dem Index entfernt worden sind. Wenn es nur eine Handvoll Seiten sind, dann könnt ihr auch das URL Entfernungstool in Search Console nutzen. Da werden sie dann nach ein paar Stunden in der Suche ausgeblendet. Und dann passiert der Ablauf mit neu Crawlen und entfernen.

12.01.2017, 07:18

Frage: Vielleicht noch ein Beispiel für die 404-Thematik der Search Console: Es werden Seiten als 404 ausgewiesen, die wir bewusst “offline” stellen, da es z. B. Produkte sind, die wir nicht mehr im Programm haben. Das komische ist als Seiten, über die das Produkt angeblich noch verlinkt ist, werden die Produktergebnislisten angezeigt, aus diesen verschwindet das Produkt jedoch natürlich, wenn wir es offline stellen. Antwort: 404 ist der richtige Weg, um Seiten aus dem Index zu bekommen. Wir konzentrieren uns dann mehr auf den Rest der Website. Es ist also total normal, dass eine Seite viele 404er hat. Wir zeigen sie euch nur, um sicherzugehen, dass die 404er auch alle so gewollt sind. 404er bringen einer Seite auch keine Nachteile.

10.01.2017, 34:51

Frage: Wieso werden URLs in Search Console als Crawlingfehler markiert und wie lange dauert es, bis sie dort nicht mehr erscheinen? Sollten 410er dem Nutzer mit einer gesonderten Seite präsentiert werden, die Links zu anderen Seiten anbieten? Antwort: Die Frage kommt immer wieder. Wir zeigen die jedes Mal als Crawlingfehler, wnen ihr sie crawlen. Wir machen das, damit ihr sehen könnt, falls welche aus Versehen eine 404 zurückgeben. Es ist aber total normal, wenn ihr viele 404er habt und das führt zu keinen Problemen. 404 und 410 sind so ziemlich das Gleiche für uns. Ihr müsst auf den Seiten nichts spezielles machen. Wenn aber Nutzer auf die Seiten gehen, müsst ihr ihnen einen sinnvollen Weg zurück zu euren Inhalten anbieten.

27.12.2016, 37:58

Frage: Ein Bekannter trackt alle 404 Fehler. Er kreiert dann leere Seiten mit 404 als Text, um die Linkpower zu behalten. Die Seiten gibt es dann also technisch gesehen noch. ist das ok? Antwort: Das bringt keine Vorteile. Denn ihr bietet ja keine guten Inhalte. Wir würden das dann als Soft-404 sehen und entsprechend als 404 behandeln. Ein Problem dabei ist auch, dass wir es häufiger crawlen werden, als eine Seite, die wirklich 404 zurückgibt. Und das ist ja dann eine Verschwendung. Die Links bringen dann auch nichts mehr.

06.12.2016, 38:58

Frage: Wie kann man Teile einer Website am besten löschen? Weiterleitungen zur Homepage, um 404er zu vermeiden? Antwort: Wenn es die Inhalte nicht mehr gibt, dann nehmt 404er. Da braucht ihr keine speziellen Taktiken nutzen. Bei dringenden Fällen könnt ihr auch das Removal Tool nutzen, da werden dann alle Varianten einer URL schnell entfernt.

01.12.2016, 18:32

Frage: Wie lange bzw. werden 404 URLs überhaupt gecrawlt wenn diese nicht mehr auf der Seite bzw Sitemap verlinkt sind? Antwort: Wir haben ein langes Gedächtnis und schauen sie uns immer wieder an. Auch, wenn die Seite schon lange weg ist, werden wir sie uns vielleicht trotzdem nochmal anschauen. Das ist auch ok und führt zu keinen Problemen.

29.11.2016, 1:01:08

Frage: Erhöhen sich die Abstände zwischen jedem Crawl, wenn Google eine 410 sieht? Antwort: Nein, es gibt nur: “Wir schauen es uns öfter an” und “wir schauen es uns seltener an”.

18.10.2016, 22:38

Frage: Google hat letzten Monat unsere Seite gecrawlt und 18.000 404er gefunden. Die Seiten gibt es aber schon ewig nicht mehr. Haben wir ein Problem? Antwort: Vor einem Monat hat Googlebot viele alte Seiten gecrawlt, von denen wir eigentlich wissen sollten, dass sie 404 sind. Dadurch gab es viele 404 Fehler, die verursachen aber keine Probleme im Hinblick auf die Suche. Wenn wir eine 404 sehen, crawlen wir auch nur seltener, hören aber nicht ganz auf. Wir werden uns das trotzdem immer mal wieder anschauen.

23.09.2016, 17:30

Frage: Eine Website wurde für Duplicate Content / Doorway Pages abgestraft und in den letzten Jahren aufgeräumt und umgestaltet. Search Console findet aber zahllose 404er, die wohl von einer alten Sitemap verlinkt sind (die es aber nicht gibt). Antwort: Das ist kein Problem. Manchmal sehen wir extrem viele 404er, die schauen wir uns immer mal wieder an – aber das ist kein Problem für euch. Vor Kurzem hatten wir ein Problem, wo wir total viele davon gecrawlt haben. Das ist aber kein Problem. Wenn ihr eine Abstrafung für Links habt, dann disavowed alles, was ihr nicht gut findet. Bei Problemen mit Inhalten solltet ihr versuchen, eine Ressource zu werden – anstatt eines Werbeplakates.

23.09.2016, 14:03

Frage: Wir nutzen Adobe Omniture und es kreiert einen nicht korrekten onclick=javascript Link in einem Link, der einen “_1” Parameter ans Ende jeder URL packt, die dadurch zu einer 404 werden. Man kann den Code der Software leider nicht bearbeiten. Wird Google der richtigen URL folgen oder der falschen mit dem Parameter? Antwort: Ich bin mir nicht ganz sicher, wie das funktioniert. Aber wenn wir beide sehen, dann nutzen wir die, die funktioniert. Das wird aber zu vielen 404ern in Search Console führen, wodurch ihr das schwerer managen könnt.

09.09.2016, 26:34

Frage: Wir haben eine Immobilienwebsite. Wenn etwas verkauft ist, gibt es ein 404. Soll ich dort eine Nachricht einfügen, die auf andere Angebote verweist? Antwort: Wir schauen uns 404 nicht für die Suche an. Aber für den Nutzer macht es Sinn, wenn ihm die 404 einen weiteren Weg weist. Weiterleitungen würde ich nicht machen. Denn wenn ihr zur Homepage weiterleitet, dann ist das keine passende Weiterleitung und wir sehen es trotzdem als 404.

09.09.2016, 19:22

Frage: Wie ernst sollten wir 404-Benachrichtrigungen in Search Console nehmen? Antwort: Es ist kein Problem, wenn Search Console viele 404er anzeigt. Das führt nicht zu schlechterem Ranking. Wenn eine Seite nicht existiert, dann gebt uns eine 404 zurück. Das ich technisch richtig. Wir zeigen es in Search Console nur für den Fall, dass es eine versehentliche 404 ist. Dann könnt ihr das da sehen und beheben. Sind die 404 gewollt, dann lasst sie so. Standardmäßig seht ihr die 404er auch nach Priorität geordnet (da sie mal in einer Sitemap waren oder Links haben). Uns ist es auch ziemlich egal, ob es 404 oder 410 sind. Wenn unsere Systeme Zeit haben, dann schauen sie sich auch ganz alte URLs an, die schon seit Jahren weg sind. Einfach um sicher zu gehen, dass sie immer noch weg sind.

09.09.2016, 01:26

Frage: Ich habe einen Shop mit Produktkategorien und einer XML Sitemap. Manche Kategorien sind leer und Google zeigt sie als Soft 404. Welchen Code sollte meine Seite zurückgeben? Antwort: Das gibt es oft. Es gibt also keine oder nur vorübergehende Inhalte. 404 ist da am besten, vielleicht mit Noindex Meta Tag.

08.09.2016, 45:40

Frage: News-Website: Artikel werden jeweils auf einer Unterseite dargestellt. Alle 1-2 Wochen alten Artikel werden stets gelöscht, sodass 404 Fehler entstehen. Wie kritisch wird das von der Google-Suche bewertet, wenn z.B. 50% der Seiten 404 zurückgeben? Antwort: Wenn das für euch so richtig ist, dann ist das für uns ok. Wenn aber Links auf diese Seiten bestehen, dann gehen die verloren. Vielleicht können die Artikel mit Weiterleitung in einem Archiv landen? Sind sie gar nicht mehr relevant, dann ist 404 aber eine gute technische Lösung, auch für viele Seiten.

06.09.2016, 06:45

Frage: Sollten wir bei soft 404 die URLs aus der Sitemap rausnehmen und sie wieder hinzufügen, wenn wir ein Ergebnis haben? Ist es normal, URLs alle paar Tage zu entfernen oder hinzuzufügen? Antwort: Grundsätzlich würde ich soft 404 nicht in die Sitemap packen. Denn dort sollten Seiten stehen, die ihr im Index haben wollt. Wenn das also eine leere Seite bzw. eine Fehlerseite ist, dann sollte die nicht in der xml-Sitemap sein. Die Sitemap verbessert unser Crawlen, ersetzt sie aber nicht. Nur weil ihr eine URL aus der Sitemap nehmt, heißt das nicht, dass wir sie nicht mehr crawlen. Wenn ihr Inhalte auf eine URL packt, dann würde ich diese mit dem Änderungsdatum in die Sitemap packen.

26.08.2016, 04:47

Frage: Wie können wir es schaffen, dass irrelevante 404 Fehler nicht mehr in Search Console auftauchen? Antwort: Sie werden weiterhin da sein. Google hat ein gutes Gedächtnis und deswegen kommen sie immer wieder. Da müsst ihr aber nichts machen. Wir sehen das nicht als Problem, es ist einfach ein technischer Hinweis. Wir prüfen URLs nur, um sicher zu gehen, dass wir nichts verpassen.

12.08.2016, 26:17

Frage: Search Console zeigt 404er, die es auf der Seite gar nicht gibt. Wie findet Google diese überhaupt? Wir bekommen auch Meldungen von www.exampe.com/apple-app-site-association/. Antwort: Das sind eher zwei Fragen. Wir finden URLs an vielen Stellen im Web. Manchmal im JavaScript, in Textfiles, in User Generated Content und so weiter. Und wenn wir sie finden und interessant finden, dann crawlen wir sie, um zu schauen, was es dort gibt. Wenn ihr solche 404er findet, dann ist das ein Zeichen, dass wir lieber mehr Inhalte von euch finden würden. Die App Sache ist nur ein Test von uns, um herauszufinden, ob es eine App gibt. Das testen wir, wie wir auch die robots.txt testen.

12.08.2016, 00:37

Frage: Ich habe mich durch die 404er in Search Console gearbeitet, auf einer großen E-Commerce Seite. Lohnt sich das? Antwort: Dinge aufräumen ist immer gut, aber ihr werdet keinen großen Sprung in den Rankings sehen.

26.07.2016, 08:08

Frage: Ich habe vor einiger Zeit ein paar Seiten fälschlicherweise als 404 und 410 gekennzeichnet. Wenn ich diese zurück auf 200 setze und sie dann per 301 auf Seiten mit Inhalten weiterleite, wird Google dann den PageRank zu den neuen Seiten weitergeben? Antwort: Ja, wenn Seiten wiederkommen, dann sehen wir sie wieder als normale Seiten an.

08.07.2016, 50:23

Frage:  Was passiert mit Links, wenn ich die Zielseiten auf 404 stelle? Antwort: Dann lassen wir sie fallen.

08.07.2016, 09:45

Frage: Ich habe seit einem Jahr etwa 4000 404 und 410 Meldungen. Versteht Google die Seiten nicht – und werden sich meine Rankings verbessern, wenn diese weg sind? Antwort: 404 Seiten sind kein Problem. Wir sehen eine Seite deshalb nicht als schlechter an. Sie sind ein technisches Werkzeug, mit dem ihr uns anzeigt, dass eine Seite nicht mehr existiert. Google hat aber ein gutes Gedächtnis und wird diese Seiten immer mal wieder crawlen und sie euch dann wieder anzeigen. Das tun wir für den Fall, dass die Seiten nicht 404 sein sollten. Wenn das aber gewollt ist, dann könnt ihr das einfach so lassen.

01.07.2016, 32:01

Frage: Ich arbeite an einer dynamischen Website, auf der Inhalte heute existieren und später ablaufen. Es gibt Inhalte, dann werden sie zu 404er und später erhalten sie neue Inhalte. Wir können sie nicht weiterleiten. Wie sollen wir damit umgehen? Antwort: Das ist eine schwierige Situation. Wir sehen keine konsistente Geschichte und können die Seiten daher schlecht einordnen. Ihr solltet das also im Bestfall nicht mit 404ern machen. Es geht zwar auch so, aber allgemein wären andere Wege für uns einfacher. Setzt auch immer eine Sitemap ein, damit wir sehen, wenn etwas passiert ist.

30.06.2016, 24:32

Frage: In der Search Console wird zwischen Soft 404 und normalen 404 Fehlern unterschieden. Spielt diese Differenzierung auch aus Ranking-Sicht eine Rolle bzw. wie sollte man mit Soft 404 Fehlern umgehen? Antwort: Für das Ranking sind sie in etwa gleich. Wir sehen, dass etwas nicht mehr existiert und nehmen es aus dem Ranking. Bei Soft 404 müssen wir aber etwas genauer hinschauen. Manchmal sind diese auch technische Fehler. Für uns sind die Unterschiede mehr für das Crawling relevant. Bei 404 sehen wir, dass die Seite nicht mehr existiert und crawlen sie nur noch sehr sehr selten, bei Soft 404 kommen wir noch häufiger vorbei, um das hin und wieder zu prüfen.

16.06.2016, 11:26

Frage: Eine Website ist relauncht. Ursprüngliche Pages existieren nicht mehr und geben einen 410-Code aus. Kann ich für diese temporär eine gesonderte 410-Sitemap einsetzen, damit sich die Bots auf Wesentliche bzw. neue Pages konzentrieren? Antwort: Ja das ist möglich. Mit einer Sitemap können Nutzer angeben, wann sich URLs geändert haben. Wurden die URLs so geändert, dass sie einen Fehlercode zurückgeben, können die Sitemaps auch eingesetzt werden. Bei einem Relaunch würde ich überlegen, die alte Seite nicht einfach aus- und die neue Seite einfach anzuschalten. Ich würde einen Redirect einrichten. Somit wird das Risiko minimiert, dass die neue Seite in den ersten Monaten bis zur kompletten Einrichtung nicht zu stark in den Suchergebnissen sinkt. Sind Redirects von der alten zur neuen Webseite eingerichtet, sinkt der Pagerank zumeist wesentlich weniger.

02.06.2016, 14:56

Frage: Wir haben in der SC viele 404 Fehler von Seiten, die so nie existierten. Stimmt da was beim Crawling nicht? Ich kann ja nicht alles mögliche mit einer 301 etc. weiterleiten. Antwort: Wenn die Seiten nie existiert haben, dann macht da einfach gar nichts. Wir zeigen alle 404er an, die wir finden – die Reihenfolge ist aber grob prioritisiert. Wenn die oben schon keinen Sinn machen, dann könnt ihr den Rest der Liste wohl getrost ignorieren.

08.04.2016, 32:27

Frage: Muss der Bot die 404er sehen können? Brauchen sie also Index, Follow oder Noindex, Follow? Antwort: Wenn eine Seite ein 404 zurückgibt, dann schauen wir uns nichts auf dieser Seite an. Wir lassen sie dann einfach fallen, ihr müsst da also nichts weiter einstellen. Aber stellt sicher, dass der Server wirklich ein 404 zurückgibt.

08.04.2016, 31:23

Frage: Ist es ok, wenn man viele 404er erstellt – vielleicht von 70% aller bestehenden Seiten? Antwort: Viele 404er sind immer ok. Wir sehen das als technische Methode, ihr könnt also viele machen. Wenn ihr wollt, dass schlechte Inhalte verschwinden, dann ist das eine Option.

08.04.2016, 00:38

Frage: Wir haben eine große Website, bei der Millionen von Einträgen jeden Monat auslaufen. Wie sollen wir hier vorgehen? Sie per 301 an die Überkategorie weiterleiten, 404 nutzen oder zu einem ähnlichen Beitrag weiterleiten? Antwort: Normalerweise würde ich 404er zurückgeben, damit diese mit der Zeit verschwinden. Ihr könnt auch das “unavailable after” r