Robots.txt 生成器

可视化构建您的 robots.txt — 选择 user-agent,添加 Allow/Disallow 规则,设置 Sitemap 和 Crawl-delay,然后复制或下载。

설정
User-Agent
규칙 추가
Sitemap URL
규칙 0
미리보기
복사됨!
# robots.txt가 여기에 표시됩니다
🔮 发现你的K-pop命运角色 🎨 도툰 — 웹툰·일러스트 플랫폼

什么是 Robots.txt 生成器?

robots.txt 文件告诉搜索引擎爬虫可以或不可以访问您网站的哪些页面或部分。此生成器允许您通过可视化界面构建格式正确的 robots.txt 文件,无需手动编辑。选择诸如 Googlebot、Bingbot 或 GPTBot 之类的 user-agent,为特定路径添加 Allow/Disallow 规则,包括您的 Sitemap URL,并设置可选的 Crawl-delay。该文件会在您的浏览器中立即生成,并提供实时预览。

如何使用 Robots.txt 生成器

  1. 选择 User-Agent — 从常用机器人(Googlebot、Bingbot、GPTBot 等)中选择或输入自定义名称
  2. 添加规则 — 设置规则类型(Allow 或 Disallow),输入路径(例如,/admin/),然后单击“添加”
  3. 设置 Sitemap — 输入您的站点地图 URL(例如,https://example.com/sitemap.xml)
  4. 启用 Crawl-delay — (可选)设置爬虫程序请求之间以秒为单位的延迟
  5. 预览 & 导出 — 实时查看生成的文件,然后复制或下载它

为什么要使用此 Robots.txt 生成器?

  • 没有语法错误 — 可视化构建器可确保每次格式正确
  • 所有主要机器人 — 预加载了 Googlebot、Bingbot、GPTBot、ClaudeBot 等
  • AI 机器人阻止 — 轻松阻止 AI 爬虫程序,如 GPTBot 和 ChatGPT-User
  • 实时预览 — 在添加或删除规则时立即查看更改
  • 一键导出 — 复制到剪贴板或下载为可直接使用的 robots.txt 文件
  • 隐私至上 — 一切都在您的浏览器中运行。 没有数据发送到任何服务器

FreeToolbox 与其他 Robots.txt 生成器的比较

功能FreeToolboxSEOptimerRyte
基于浏览器否(服务器)否(服务器)
AI 机器人预设是(GPTBot、ClaudeBot)
自定义 user-agent有限
实时预览
下载文件
无需帐户需要注册

常见问题

什么是 robots.txt 文件?

robots.txt 文件是一个纯文本文件,位于您网站的根目录(例如,example.com/robots.txt),它告诉网络爬虫允许或不允许访问哪些 URL。 它遵循 Robots Exclusion Protocol 标准。

如何阻止像 GPTBot 这样的 AI 爬虫?

从 User-Agent 下拉列表中选择 GPTBot(或 ChatGPT-User、ClaudeBot),为“/”添加 Disallow 规则,生成的 robots.txt 将指示这些机器人不要抓取您网站上的任何页面。

我在哪里上传 robots.txt 文件?

将 robots.txt 文件上传到您网站的根目录,以便可以通过 https://yourdomain.com/robots.txt 访问它。 大多数 Web 主机都允许通过 FTP、cPanel 文件管理器或您的 CMS 设置进行此操作。

robots.txt 是否保证页面不会被索引?

否。 Robots.txt 是一种指令,而不是强制机制。 行为良好的爬虫会尊重它,但恶意机器人可能会忽略它。 为了保证取消索引,请使用 noindex meta 标记或 X-Robots-Tag HTTP 标头。

Crawl-delay 有什么作用?

Crawl-delay 告诉爬虫在请求之间等待指定的秒数。 这可以减少来自攻击性爬虫的服务器负载。 请注意,Googlebot 会忽略 Crawl-delay — 使用 Google Search Console 设置 Google 的抓取速率。