Skip to main content

Robots.txt-Generator Erstellen Sie eine ordnungsgemäß formatierte robots.txt-Datei, um den Zugriff von Suchmaschinen-Crawlern zu kontrollieren.

Robots.txt-Generator illustration
🔍

Robots.txt-Generator

Erstellen Sie eine ordnungsgemäß formatierte robots.txt-Datei, um den Zugriff von Suchmaschinen-Crawlern zu kontrollieren.

1

Benutzeragenten auswählen

Wählen Sie die Suchmaschinen-Crawler aus, für die Sie Regeln erstellen möchten (alle Bots, Googlebot, Bingbot usw.).

2

Zulassen/Verbieten-Regeln festlegen

Legen Sie fest, welche URL-Pfade Crawler zugreifen können und dürfen und welche nicht.

3

Sitemap hinzufügen und kopieren

Fügen Sie Ihre Sitemap-URL hinzu und kopieren Sie den generierten robots.txt-Inhalt.

Loading tool...

What Is Robots.txt-Generator?

Der Robots.txt-Generator hilft Ihnen dabei, eine ordnungsgemäß formatierte robots.txt-Datei zu erstellen, die Suchmaschinen-Crawlern mitteilt, welche Teile Ihrer Website sie zugreifen können und dürfen. Die robots.txt-Datei befindet sich im Wurzelverzeichnis Ihres Domains (example.com/robots.txt) und ist die erste Datei, die Crawler überprüfen, bevor sie Ihre Website indizieren. Eine falsch konfigurierte robots.txt-Datei kann wichtige Seiten von Suchmaschinen blockieren oder den Crawling-Haushalt für unbedeutende Ressourcen verschwenden. Dieses Tool generiert standardkonforme Direktiven wie User-agent, Disallow, Allow, Sitemap und Crawl-delay, um sicherzustellen, dass Ihre Datei der Robots Exclusion Protocol-Spezifikation entspricht.

Why Use Robots.txt-Generator?

  • Generieren Sie gültige robots.txt-Syntax ohne das Protokollspezifikationen auswendig zu lernen
  • Vordefinierte Vorlagen für gängige Konfigurationen (WordPress, E-Commerce usw.)
  • Unterstützung für mehrere User-Agent-Blöcke mit unterschiedlichen Regeln
  • Sitemap-Deklaration, um Crawlern das Auffinden Ihrer XML-Sitemap zu erleichtern
  • Vorschau und Validierung vor der Bereitstellung auf Ihrem Server

Common Use Cases

Neue Website-Veröffentlichung

Erstellen Sie eine robots.txt von Grund auf, die den Zugriff von Crawlern ordnungsgemäß kontrolliert.

Crawl-Budget-Management

Blockieren Sie Crawler daran, Ressourcen für Admin-Seiten, Suchergebnisse und Parameter-URLs zu verschwenden.

Schutz von Staging-Sites

Verhindern Sie, dass Suchmaschinen Ihre Staging- oder Entwicklungsumgebungen indexieren.

WordPress-SEO

Erstellen Sie optimierte robots.txt für WordPress-Seiten, die wp-admin, Feeds und Tag-Seiten blockieren.

Technical Guide

Die robots.txt-Datei folgt dem Robots Exclusion Protocol (REP). Sie muss im Wurzelverzeichnis Ihres Domains unter /robots.txt platziert werden. Jeder Block beginnt mit einer User-agent-Direktive, die angibt, welcher Crawler die Regeln anwendet (* bedeutet alle). Disallow blockiert einen Pfad, Allow erlaubt explizit den Zugriff (nützlich als Ausnahme innerhalb eines umfassenderen Disallow). Die Regeln basieren auf Pfadpräfixen - Disallow: /admin blockiert /admin, /admin/users, /admin/settings usw. Die Sitemap-Direktive kann an beliebiger Stelle in der Datei erscheinen und teilt allen Crawlern mit, wo sie Ihre XML-Sitemap finden können. Wichtige Hinweise: robots.txt ist eine Anfrage und keine Durchsetzung - bösartige Bots können sie ignorieren. Wenn eine URL in der robots.txt-Datei blockiert ist, aber von externen Seiten verlinkt wird, kann Google die URL dennoch indizieren (ohne deren Inhalt). Um das Indizieren vollständig zu verhindern, verwenden Sie stattdessen den noindex-Meta-Tag oder den X-Robots-Tag-HTTP-Header.

Tips & Best Practices

  • 1
    Blockieren Sie niemals CSS-, JavaScript- oder Bilddateien - Suchmaschinen benötigen sie, um Ihre Seiten korrekt darzustellen
  • 2
    Verwenden Sie robots.txt für die Crawl-Effizienz, nicht für die Sicherheit - es ist öffentlich lesbar
  • 3
    Fügen Sie immer Ihre Sitemap-URL in robots.txt hinzu, damit Crawler diese entdecken können
  • 4
    Testen Sie Ihre robots.txt mit dem Google Search Console-Tester
  • 5
    Denken Sie daran: Disallow verhindert nicht das Indexieren, wenn externe Links auf die blockierte URL verweisen

Related Tools

Frequently Asked Questions

Q Wo muss ich die robots.txt-Datei platzieren?
Sie muss im Wurzelverzeichnis Ihrer Domain liegen: https://example.com/robots.txt. Subdomains benötigen ihre eigene robots.txt.
Q Blockiert robots.txt das Indexieren?
Nicht vollständig. Es verhindert das Crawlen, aber wenn externe Sites auf eine blockierte URL verweisen, kann Google diese dennoch indexieren (und zeigt einen "Keine Informationen zu dieser Seite verfügbar"-Snipp an). Verwenden Sie stattdessen die noindex-Meta-Tags für eine vollständige Verhinderung.
Q Kann ich unterschiedliche Regeln für verschiedene Crawler haben?
Ja. Erstellen Sie separate User-agent-Blöcke für jeden Crawler (Googlebot, Bingbot usw.) mit spezifischen Regeln für jeden.
Q Was macht Crawl-delay?
Crawl-delay teilt Crawlnern mit, N Sekunden zwischen den Anfragen zu warten. Google ignoriert diese Direktive - verwenden Sie stattdessen die Search Console, um die Googlebot-Crawl-Rate festzulegen. Bing und andere respektieren sie.
Q Sollte ich /wp-admin in WordPress blockieren?
Ja, blockieren Sie /wp-admin/, aber erlauben Sie /wp-admin/admin-ajax.php (benötigt für viele WordPress-Funktionen). Berücksichtigen Sie auch das Blockieren von /wp-includes/ und Feed-URLs.

About This Tool

Robots.txt-Generator is a free online tool by FreeToolkit.ai. All processing happens directly in your browser — your data never leaves your device. No registration or installation required.