Robots.txt Generator

Erstellen Sie Ihre robots.txt-Datei visuell – wählen Sie User-Agents aus, fügen Sie Allow/Disallow-Regeln hinzu, legen Sie Sitemap und Crawl-Delay fest und kopieren oder laden Sie sie herunter.

설정
User-Agent
규칙 추가
Sitemap URL
규칙 0
미리보기
복사됨!
# robots.txt가 여기에 표시됩니다
🔮 Entdecke deinen K-pop Schicksals-Charakter 🎨 도툰 — 웹툰·일러스트 플랫폼

Was ist ein Robots.txt Generator?

Eine robots.txt-Datei teilt Suchmaschinen-Crawlern mit, auf welche Seiten oder Bereiche Ihrer Website sie zugreifen dürfen oder nicht. Mit diesem Generator können Sie eine korrekt formatierte robots.txt-Datei über eine visuelle Oberfläche erstellen – keine manuelle Bearbeitung erforderlich. Wählen Sie User-Agents wie Googlebot, Bingbot oder GPTBot aus, fügen Sie Allow/Disallow-Regeln für bestimmte Pfade hinzu, fügen Sie Ihre Sitemap-URL hinzu und legen Sie optional ein Crawl-Delay fest. Die Datei wird sofort in Ihrem Browser mit einer Live-Vorschau generiert.

Wie Sie den Robots.txt Generator verwenden

  1. Wählen Sie einen User-Agent aus – Wählen Sie aus gängigen Bots (Googlebot, Bingbot, GPTBot usw.) oder geben Sie einen benutzerdefinierten Namen ein
  2. Fügen Sie Regeln hinzu – Legen Sie den Regeltyp (Allow oder Disallow) fest, geben Sie den Pfad ein (z. B. /admin/) und klicken Sie auf Hinzufügen
  3. Sitemap festlegen – Geben Sie Ihre Sitemap-URL ein (z. B. https://example.com/sitemap.xml)
  4. Crawl-Delay aktivieren – Legen Sie optional eine Verzögerung in Sekunden zwischen Crawler-Anfragen fest
  5. Vorschau & Export – Sehen Sie die generierte Datei in Echtzeit und kopieren oder laden Sie sie dann herunter

Warum Sie diesen Robots.txt Generator verwenden sollten

  • Keine Syntaxfehler – Der visuelle Builder gewährleistet jedes Mal eine korrekte Formatierung
  • Alle wichtigen Bots – Vorinstalliert mit Googlebot, Bingbot, GPTBot, ClaudeBot und mehr
  • KI-Bot-Blockierung – Blockieren Sie ganz einfach KI-Crawler wie GPTBot und ChatGPT-User
  • Live-Vorschau – Sehen Sie Änderungen sofort, wenn Sie Regeln hinzufügen oder entfernen
  • One-Click-Export – In die Zwischenablage kopieren oder als gebrauchsfertige robots.txt-Datei herunterladen
  • Datenschutz zuerst – Alles läuft in Ihrem Browser. Es werden keine Daten an einen Server gesendet

FreeToolbox vs. andere Robots.txt Generatoren

FunktionFreeToolboxSEOptimerRyte
100 % browserbasiertJaNein (Server)Nein (Server)
KI-Bot-VoreinstellungenJa (GPTBot, ClaudeBot)NeinNein
Benutzerdefinierter User-AgentJaBegrenztJa
Live-VorschauJaJaJa
Datei herunterladenJaJaJa
Kein Konto erforderlichJaJaRegistrierung erforderlich

Häufige Fragen

Was ist eine robots.txt-Datei?

Eine robots.txt-Datei ist eine einfache Textdatei, die im Stammverzeichnis Ihrer Website platziert wird (z. B. example.com/robots.txt) und Web-Crawlern mitteilt, auf welche URLs sie zugreifen dürfen oder nicht. Sie folgt dem Robots Exclusion Protocol Standard.

Wie blockiere ich KI-Crawler wie GPTBot?

Wählen Sie GPTBot (oder ChatGPT-User, ClaudeBot) aus dem User-Agent-Dropdown-Menü aus, fügen Sie eine Disallow-Regel für '/' hinzu, und die generierte robots.txt-Datei weist diese Bots an, keine Seite auf Ihrer Website zu crawlen.

Wo lade ich die robots.txt-Datei hoch?

Laden Sie die robots.txt-Datei in das Stammverzeichnis Ihrer Website hoch, sodass sie unter https://yourdomain.com/robots.txt zugänglich ist. Die meisten Webhosts ermöglichen dies über FTP, cPanel File Manager oder Ihre CMS-Einstellungen.

Garantiert robots.txt, dass Seiten nicht indexiert werden?

Nein. Robots.txt ist eine Direktive, kein Durchsetzungsmechanismus. Wohlverhaltens-Crawler respektieren sie, aber bösartige Bots ignorieren sie möglicherweise. Verwenden Sie für eine garantierte De-Indexierung das Noindex-Meta-Tag oder den X-Robots-Tag-HTTP-Header.

Was bewirkt Crawl-Delay?

Crawl-Delay weist einen Crawler an, eine bestimmte Anzahl von Sekunden zwischen den Anfragen zu warten. Dies kann die Serverlast durch aggressive Crawler reduzieren. Beachten Sie, dass Googlebot Crawl-Delay ignoriert – verwenden Sie die Google Search Console, um die Crawling-Rate für Google festzulegen.