robots.txt Generator

Vollständiger robots.txt Generator mit AI-Bot Kontrolle

AI-Bots Kontrolle
GPTBot (ChatGPT)
OpenAI's Crawler für ChatGPT Training
ClaudeBot (Claude)
Anthropic's Crawler für Claude Training
PerplexityBot (Perplexity)
Perplexity's Search Crawler
Google-Extended (Gemini)
Google's AI Training Crawler
Googlebot (Standard)
Google's Standard-Crawler für Suche
Bingbot
Microsoft Bing Crawler
Blockierte Pfade (Disallow)
Erlaubte Pfade (Allow)
Erweiterte Einstellungen
Optional: Verzögerung zwischen Requests
Bevorzugte Domain (für Yandex)

Mehr als ein Formular — volle Kontrolle über Crawler und AI-Bots

Die meisten robots.txt Generatoren bieten nur ein einfaches Textfeld oder ein starres Template. Das Ergebnis ist oft eine unvollständige Datei die wichtige Crawler-Regeln vergisst oder AI-Bots unkontrolliert Zugriff auf Inhalte lässt die nicht für das Training verwendet werden sollen.

Dieser Generator deckt alle relevanten Direktiven ab — von Standard-Suchmaschinen bis zu den neuesten AI-Crawlern — und erzeugt eine sofort einsatzbereite robots.txt ohne manuelle Nacharbeit.

Was der Generator abdeckt:

  • AI-Bot Kontrolle — GPTBot (ChatGPT), ClaudeBot (Claude), PerplexityBot und Google-Extended (Gemini) sind einzeln per Toggle aktivierbar oder blockierbar. Blockierte Bots erhalten automatisch einen Disallow: / Eintrag.
  • Disallow & Allow Pfade — Beliebig viele Pfade können blockiert oder explizit freigegeben werden. Typische Beispiele wie /admin/ oder /private/ sind vorausgefüllt.
  • Crawl-Delay — Optionale Verzögerung zwischen Crawler-Requests. Sinnvoll für Websites mit begrenzter Serverkapazität oder um aggressives Crawlen zu reduzieren.
  • Sitemap-Deklaration — Eine oder mehrere Sitemap-URLs können direkt eingetragen werden. Google und Bing lesen diese Information automatisch beim Crawlen der robots.txt.
  • Standard- & Suchmaschinen-Crawler — Googlebot und Bingbot sind ebenfalls einzeln steuerbar — für Spezialfälle wie temporäre Deindexierung oder Relaunch-Szenarien.
  • Host-Direktive — Optionale Angabe der bevorzugten Domain für Yandex und andere Suchmaschinen die diese Direktive unterstützen.

Das Ergebnis ist eine saubere, kommentierte robots.txt — bereit zum direkten Download oder zum Kopieren in den Server. Kostenlos, ohne Account, sofort nutzbar.

Häufige Fragen zum robots.txt Generator

Was ist eine robots.txt und wozu brauche ich sie? +

Eine robots.txt ist eine Textdatei im Stammverzeichnis einer Website (erreichbar unter domain.de/robots.txt). Sie teilt Suchmaschinen-Crawlern mit, welche Bereiche gecrawlt werden dürfen und welche nicht. Ohne robots.txt haben alle Crawler vollen Zugriff auf die gesamte Website.

Was unterscheidet diesen Generator von anderen? +

Dieser Generator bietet vollständige Kontrolle über AI-Bots wie GPTBot, ClaudeBot, PerplexityBot und Google-Extended — auf Knopfdruck einzeln aktivierbar oder blockierbar. Zusätzlich können Disallow- und Allow-Pfade, Crawl-Delay und Sitemap-URLs konfiguriert werden.

Können AI-Bots wie ChatGPT blockiert werden? +

Ja. Über die Toggle-Schalter können GPTBot (ChatGPT), ClaudeBot (Claude), PerplexityBot und Google-Extended (Gemini) gezielt blockiert werden. Wichtig: AI-Bots respektieren die robots.txt freiwillig — eine rechtliche Absicherung ersetzt sie nicht.

Wie reiche ich die generierte robots.txt ein? +

Die generierte robots.txt muss in das Root-Verzeichnis der Website hochgeladen werden — erreichbar unter https://domain.de/robots.txt. Google liest diese Datei automatisch beim nächsten Crawl. Eine manuelle Einreichung ist nicht notwendig.

Was ist der Crawl-Delay und wann sollte ich ihn setzen? +

Der Crawl-delay gibt an wie viele Sekunden ein Crawler zwischen zwei Requests warten soll. Sinnvoll bei Websites mit begrenzten Serverressourcen. Wichtig: Googlebot ignoriert diese Direktive — für Google wird das Crawl-Budget in der Google Search Console gesteuert.

Verwandte Tools

robots.txt Validator
robots.txt auf Fehler prüfen
Sitemap Generator
XML-Sitemap automatisch erstellen
Schema.org Generator
Strukturierte Daten als JSON-LD erstellen

Weiterführende Guides

robots.txt für AI-Crawler
Der komplette Schritt-für-Schritt Guide
AI-Crawler Vergleich
ChatGPT vs. Perplexity vs. Claude vs. Grok