robots.txt und sitemap Generator

Mit dem Formular auf dieser Seite können Sie schnell und einfach passende Inhalte für robots.txt und sitemap.xml generieren.

Beide Dateien sind für Suchmaschinen wichtig, um die Inhalte Ihrer Webseite möglichst vollständig und korrekt darstellen zu können.

Die robots.txt gibt dabei an, welche Dateien, Dateitypen und/oder Verzeichnisse die Suchmaschinen berücksichtigen sollen – oder besser gesagt: Welche Inhalte Ihrer Webseite ausgeschlossen werden sollen.

Die sitemap.xml wiederum ist eine Auflistung aller Unterseiten Ihrer Webseite. Im Unterschied zur robots.txt werden hier quasi nur Links zu den betreffenden Seiten hinterlegt. In der robots.txt kann man dagegen z.B. auch so etwas wie bestimmte Bilddateien, Javascripts und CSS-Dateien und sogar ganze Unterordner ein- bzw. ausschließen.

Geben Sie zur Benutzung hier lediglich die gewünschte „Starturl“ Ihrer Webseite ein und klicken Sie auf „checken /:/>“.  Als Beispiel: Für eproi.eu würde passende Starturl https://eproi.eu lauten. In der folgenden Übersicht können Sie alle Dateien einzeln oder über die Hilfsfunktionen unter der Dateiauflistung auch mehreres gleichzeitig auswählen. Anschließend laden Sie die Dateien einfach herunter und speichern diese auf Ihrem Server/Webspace direkt unter dem Hauptordner. Dies ist wichtig, damit Suchmaschinen wie google die Dateien finden und analysieren können.

Sie möchten zusätzlich auch gleich einen Einblick in die (interne) Verlinkungsstruktur Ihrer Webseite erhalten? Probieren Sie unsere SEO-Tools kostenfrei aus!

Weitere Analysemöglichkeiten und Verbesserungsvorschläge für Ihre gesamte Webseite erhalten Sie über einen Account bei eproi.eu. Die Registrierung ist einfach und kostenlos.