Worauf ist bei einem Relaunch zu achten?

von Jochen Moschko

Kategorie(n): Ratgeber Datum: 16. Oktober 2018
Irgendwann ist jede Website technisch und optisch in die Jahre gekommen und dann ist es Zeit für einen Relaunch, also eine Neuerstellung der Website. Meistens findet die Erstellung der neuen Internetpräsenz parallel zum Betrieb der bisherigen statt. Nach ihrer Fertigstellung wird die alte Website dann nahtlos durch die neue ersetzt. In diesem Beitrag erfahrt Ihr, worauf Ihr bei einem Relaunch achten solltet.

Entwicklungsumgebung für Suchmaschinen sperren

Eine neue Website wird meistens in einer separaten Umgebung erstellt. Das kann ein Unterordner auf der Live-Domain, eine Subdomain oder ein separater Webspace unter einer vollkommen anderen Domain sein. Ein häufiger Fehler besteht darin, dass vom Webdesigner vergessen wird, diese separate Umgebung für Suchmaschinen zu sperren. Manche Webbrowser oder Toolbars leiten, je nach den festgelegten Einstellungen, die besuchten Seiten an den Hersteller weiter und nicht selten schaut danach ein Suchmaschinencrawler auf den neuen Seiten vorbei. Wenn dem Webdesigner das passiert, ist die neue Website schon nach kurzer Zeit für jedermann zu finden. Das ist oft noch gar nicht so schlimm. Die eigentliche Problematik liegt darin, dass sich die neue Website jetzt mit der noch aktuellen Version konkurriert. Stichwort: Duplicate Content. Auch wenn Platzierungsabstürze aufgrund dessen inzwischen selten geworden sind, „klaut“ die sich in der Entwicklung befindliche Website der Live-Version Besucher und Suchmaschinen werden möglicherweise verwirrt, welche der Websites denn nun die relevantere sein soll. Aus diesem Grund ist es sehr wichtig, die Entwicklungsumgebung von Anfang an für Suchmaschinen zu sperren. Es gibt mehrere Methoden, mit denen man das bewerkstelligen kann. Beispielsweise:
  • Über die Robots.txt-Datei
  • Über den Meta-Robots-Tag innerhalb der jeweiligen Seiten
  • Über einen Verzeichnisschutz mit Passwort
In der Praxis hat sich die Lösung über einen Verzeichnisschutz mit Passwort bewährt. Dieser schützt die neue Website nicht nur vor Suchmaschinen, sondern auch vor den Blicken neugieriger Besucher. Außerdem ist bei dieser Lösung die Gefahr gering, bei der Liveschaltung der neuen Website zu vergessen, die Sperre wieder zu entfernen.

Oft liegt der Teufel im Detail

Meistens werden Inhalte von der alten Website auf die neue übernommen. Das macht oft auch Sinn, denn warum sollte man etwas komplett neu machen, was sich bewährt hat? Wenn man bestehende Inhalte übernimmt, sollte man jedoch auf Vollständigkeit achten und das schließt die Meta-Tags sowie den Seitentitel und die Meta-Description ein. Es ist aus SEO- und Usability-Sicht vergeudetes Potenzial, diese Angaben nicht zu nutzen. Auch ist es nicht gerade aussagekräftig geschweige denn ansprechend, wenn beispielsweise versehentlich immer die Angaben von der Startseite verwendet werden, auch für Unterseiten, und man in den Suchergebnissen bei Google & Co. als Seitentitel und -beschreibung bei jeder Unterseite „Herzlich Willkommen“ liest. Nachdem wir von sichtbaren Elementen gesprochen haben, sollen auch nicht sichtbare Elemente Erwähnung finden: Denkt auch daran, wichtige Informationen – beispielsweise Eure Firmenanschrift oder Produktinfos – mit strukturierten Daten auszuzeichnen. Und achtet darauf, dass Meta-Tags wie „Canonical“ oder „hreflang“ korrekt eingebaut werden. Wenn sie fehlerhaft angewendet werden, kann das Indexierungsprobleme hervorrufen.

301-Weiterleitungen setzen

Wenn die neue Website online gestellt wird, ist es wichtig, Besucher und Suchmaschinen „an die Hand“ zu nehmen. Insbesondere wenn sich die Seitenstruktur und/ oder URLs geändert hat bzw. haben. Stellt Euch vor, Ihr seid am Flughafen und einiges hat sich geändert. Es wurde umgebaut und der Check-In ist jetzt woanders. Normalerweise findet Ihr dann eine Ausschilderung vor, aber was macht Ihr, wenn diese fehlt? Richtig. Ihr seid aufgeschmissen und werdet nervös, weil Ihr zusätzlich unter Zeitdruck steht. Wenn eine neue Website online geht, ist es ganz wichtig, 301-Weiterleitungen von alten URLs zu neuen URLs einzurichten (Der HTTP-Code 301 steht für „Moved permanently“). Hat ein Besucher eine der ursprünglichen URLs noch als Lesezeichen in seinem Webbrowser, gelangt er dadurch automatisch auf die neue Zielseite. Auch die eigenen SEO-Maßnahmen profitieren davon, weil dem Suchmaschinencrawler durch die Weiterleitung mitgeteilt wird, welche Seite sich jetzt unter welcher Adresse befindet. Tut Euch deshalb einen Gefallen und stellt die Zuordnungen der alten zu der jeweils neuen URL aller (wichtigen) Seiten bereits vor der Onlinestellung der neuen Website zusammen. Wenn die neue Website online geht, müsst Ihr daraus nur noch die Weiterleitungsregeln (z. B. für die .htaccess-Datei) erstellen und dann ist der Fall erledigt. Beziehungsweise fast: Wichtig ist, dass Ihr nach dem Relaunch – zumindest stichprobenartig – überprüft, ob die Weiterleitungen auch korrekt funktionieren. Herausfinden, ob auch HTTP-Code 301 zurückgegeben wird, könnt Ihr beispielsweise über https://httpstatus.io/.

Nach dem Relaunch Robots-Einstellungen testen

Ein häufiger Fehler besteht darin, wie oben erwähnt, dass vergessen wird, die Entwicklungsumgebung für Suchmaschinen zu sperren. Mindestens genauso häufig wird in der Praxis vergessen, diese Sperre nach der Liveschaltung der neuen Website wieder zu entfernen. Die Folge: Die Website wird aus dem Index der meisten Suchmaschinen entfernt. Oft wird das nur durch Zufall entdeckt. Aus diesem Grund habe ich oben empfohlen, einen Verzeichnisschutz mit Passwort einzurichten, denn dieser fällt auf. Also ganz, ganz wichtig: Prüft nach der Liveschaltung, dass die neue Website auch für Suchmaschinen zugänglich ist. Prüft auch mithilfe der Google Search Console stichprobenartig, ob die neuen Seiten problemlos gerendert werden können.

Tools der Suchmaschinenanbieter nutzen

Grundsätzlich, aber gerade in Zeiten eines Relaunches, macht es Sinn, die Tools der großen Suchmaschinenanbieter zu nutzen. Und damit meine ich in diesem Fall die Google Search Console und die Bing Webmaster Tools. Wer die eigene Website bei beiden Tools einträgt, wird benachrichtigt, sobald ein Umstand festgestellt wird, der für die Auffindbarkeit der eigenen Website in der jeweiligen Suchmaschine nachteilig werden kann.