Eine XML-Sitemap stellt bei Indexierungsproblemen eine gute Unterstützung dar. In diesem Beitrag erklären wir Euch, worum es geht und wann Ihr eine XML-Sitemap einsetzen solltet.
„XML“ steht für „Extensible Markup Language“. Dabei handelt es sich, wie bei HTML, um eine Auszeichnungssprache. Während HTML quasi ausschließlich für Webseiten und andere Hypertext-Dokumente verwendet wird, gibt es für den Einsatz von XML keine Begrenzung.
Warum ist eine XML-Sitemap wichtig?
XML bildet die Grundlage für sogenannte „XML-Sitemaps“. Den Begriff „Sitemap“ dürfte jeder von Euch kennen. Es handelt sich dabei um eine gut strukturierte Übersicht aller Kategorien oder Seiten eines Internetauftritts, in welcher der Besucher die gesuchte Zielseite schnell finden kann.
Bei einer XML-Sitemap ist das ähnlich, mit dem Unterschied, dass sie sich statt an Besucher ausschließlich an Suchmaschinencrawler (Googlebot, Bingbot etc.) richtet und im Idealfall alle URLs enthält, deren Indexierung durch Suchmaschinen vom Websitebetreiber gewünscht sind.
Jetzt wird sich mancher von Euch fragen: „Wozu brauche ich eine XML-Sitemap, wenn Suchmaschinencrawler sowieso alle Seiten meines Auftritts crawlen?“
Die Antwort auf diese Frage ist differenziert zu beantworten: Eine XML-Sitemap ist keine Voraussetzung, um in Suchmaschinen gefunden zu werden. Bei besonders großen oder tief verschachtelten Internetauftritten kann es aber durchaus passieren, dass die jeweiligen Suchmaschinencrawler eben nicht alle Unterseiten entdecken. Die nicht entdeckten Unterseiten sind dann über die Suchmaschinen nicht auffindbar.
Wenn es sich dabei um Seiten handelt, deren Contenterstellung sehr aufwändig war, ist das schmerzhaft. Ebenso, wenn es sich um Produktseiten handelt und das beworbene Produkt deshalb nicht in der Suche zu finden ist.
In diesen Fällen ist der Einsatz einer XML-Sitemap zu empfehlen.
Wie erstelle ich eine XML-Sitemap?
Zur Erstellung von XML-Sitemaps gibt es im Internet verschiedene Tools, sowohl kostenlos als auch kostenpflichtig. Kostenlos bis zu 500 Unterseiten ist der Generator von https://www.xml-sitemaps.com/.
Es gibt aber auch Software-Tools, wie den „Screaming Frog“ für Windows, mit dem Ihr XML-Sitemaps erstellen könnt.
Diese Tools generieren die entsprechende Datei für Euch, die Ihr dann nur noch auf Euren Webserver hochladen müsst. Bevor Ihr das tut, empfiehlt es sich, den Inhalt der XML-Sitemap mit einem Editor (z. B. dem Windows-Standard-Editor „notepad.exe“) zu öffnen und ihn kurz zu überfliegen. So erkennt man schnell, ob die Anzahl der aufgeführten URLs in etwa der tatsächlichen URLs Eurer Website entspricht.
Ist die Anzahl der URLs in der XML-Sitemap deutlich geringer als die tatsächliche Anzahl, solltet Ihr prüfen, ob die nicht erfassten Seiten möglicherweise auf „noindex“ gestellt oder über Eure robots.txt-Datei für Crawler gesperrt werden.
Auch technisch unsaubere Verlinkungen oder Serverprobleme können dafür sorgen, dass nicht alle Eurer Unterseiten erkannt werden können.
Wie baue ich eine XML-Sitemap ein?
Das ist ganz einfach: Meldet Euch per FTP/SFTP an Eurem Webserver an. Sucht in der Verzeichnisstruktur das Hauptverzeichnis Eurer Website. Ihr könnt es daran erkennen, dass dort oft die „robots.txt“-Datei liegt.
Stellt sicher, dass es sich um das richtige Verzeichnis handelt, indem Ihr beispielsweise die robots.txt in Eurem Webbrowser aufruft (z. B. www.example.com/robots.txt), die Datei dann kurzzeitig auf dem Webserver umbenennt und die Datei dann in Eurem Webbrowser aktualisiert. Ist sie dann verschwunden sieht es danach aus, als ob Ihr Euch im richtigen Verzeichnis befindet.
Ersetzt im hier genannten Beispiel die Domain „www.example.com“ durch Eure eigene Domain. Benennt die umbenannte „robots.txt“-Datei am Ende wieder entsprechend zurück um.
Ladet nun in diesen Ordner Eure „sitemap.xml“-Datei hoch. Ruft Sie im Webbrowser auf (www.example.com/sitemap.xml). Wenn Ihr dort die eben von Euch erstellte Datei wiedererkennt, habt Ihr es richtig gemacht.
Zum Abschluss solltet Ihr noch sicherstellen, dass Eure XML-Sitemap auch in Eurer robots.txt-Datei erwähnt wird. So macht Ihr es Suchmaschinencrawlern einfacher, sie zu finden.
So ähnlich könnte die Anweisung in Eurer robots.txt-Datei aussehen:
User-agent: * Sitemap: https://www.example.com/sitemap.xml
Gut zu wissen
Es gibt auch sogenannte Index-XML-Sitemaps. Einige Content-Management-Systeme erstellen sie automatisch. Dabei handelt es sich um eine Haupt-XML-Sitemap, die Verweise auf mehrere XML-Untersitemaps enthält. Ob Ihr Eure URLs in eine große Datei packt oder in mehrere kleine und diese dann mithilfe einer Index-XML-Sitemap verbindet, ist unerheblich.
Bild: Mohd Azrin /Adobe Stock