Analysiere XML-Sitemap und robots.txt deiner Website auf Fehler und Optimierungspotenzial
✨ Noch 2 von 2 kostenlosen Checks heute • Registrieren für unbegrenzte Checks
Prüft URL-Anzahl, lastmod-Daten, Größe und findet Probleme in deiner XML-Sitemap
Analysiert Crawler-Regeln, blockierte Pfade und Sitemap-Referenzen
Erhalte priorisierte Tipps zur Verbesserung der Crawlbarkeit deiner Website
Eine XML-Sitemap ist wie ein Inhaltsverzeichnis für Suchmaschinen. Sie listet alle wichtigen URLs deiner Website auf und hilft Crawlern, neue oder aktualisierte Inhalte schneller zu finden.
Die robots.txt Datei steuert, welche Bereiche deiner Website von Suchmaschinen gecrawlt werden dürfen. Eine korrekte Konfiguration verhindert die Indexierung unwichtiger Seiten.
Verlinke deine Sitemap in der robots.txt, halte beide Dateien aktuell und blockiere keine wichtigen Ressourcen wie CSS oder JavaScript.