Gerador de Robots.txt

Crie seu robots.txt visualmente — selecione user-agents, adicione regras Allow/Disallow, defina Sitemap e Crawl-delay, depois copie ou baixe.

설정
User-Agent
규칙 추가
Sitemap URL
규칙 0
미리보기
복사됨!
# robots.txt가 여기에 표시됩니다
🔮 Descubra seu personagem do destino K-pop 🎨 도툰 — 웹툰·일러스트 플랫폼

O Que É um Gerador de Robots.txt?

Um arquivo robots.txt informa aos rastreadores de mecanismos de busca quais páginas ou seções do seu site eles podem ou não acessar. Este gerador permite que você construa um arquivo robots.txt formatado corretamente através de uma interface visual — sem necessidade de edição manual. Selecione user-agents como Googlebot, Bingbot ou GPTBot, adicione regras Allow/Disallow para caminhos específicos, inclua a URL do seu Sitemap e defina um Crawl-delay opcional. O arquivo é gerado instantaneamente no seu navegador com uma visualização ao vivo.

Como Usar o Gerador de Robots.txt

  1. Selecione um User-Agent — Escolha entre bots comuns (Googlebot, Bingbot, GPTBot, etc.) ou insira um nome personalizado
  2. Adicione Regras — Defina o tipo de regra (Allow ou Disallow), insira o caminho (por exemplo, /admin/) e clique em Adicionar
  3. Defina o Sitemap — Insira a URL do seu sitemap (por exemplo, https://example.com/sitemap.xml)
  4. Habilite o Crawl-delay — Opcionalmente, defina um atraso em segundos entre as solicitações do rastreador
  5. Visualize e Exporte — Veja o arquivo gerado em tempo real, depois copie ou baixe-o

Por Que Usar Este Gerador de Robots.txt?

  • Sem Erros de Sintaxe — O construtor visual garante a formatação correta sempre
  • Todos os Principais Bots — Pré-carregado com Googlebot, Bingbot, GPTBot, ClaudeBot e mais
  • Bloqueio de Bots de IA — Bloqueie facilmente rastreadores de IA como GPTBot e ChatGPT-User
  • Visualização ao Vivo — Veja as alterações instantaneamente ao adicionar ou remover regras
  • Exportação com Um Clique — Copie para a área de transferência ou baixe como um arquivo robots.txt pronto para uso
  • Privacidade em Primeiro Lugar — Tudo é executado no seu navegador. Nenhum dado é enviado para qualquer servidor

FreeToolbox vs Outros Geradores de Robots.txt

FuncionalidadeFreeToolboxSEOptimerRyte
Baseado no NavegadorSimNão (servidor)Não (servidor)
Predefinições de bot de IASim (GPTBot, ClaudeBot)NãoNão
User-agent personalizadoSimLimitadoSim
Visualização ao vivoSimSimSim
Download do arquivoSimSimSim
Nenhuma conta necessáriaSimSimRequer inscrição

Perguntas frequentes

O que é um arquivo robots.txt?

Um arquivo robots.txt é um arquivo de texto simples colocado na raiz do seu site (por exemplo, example.com/robots.txt) que informa aos rastreadores da web quais URLs eles têm permissão ou não para acessar. Ele segue o padrão do Protocolo de Exclusão de Robots.

Como eu bloqueio rastreadores de IA como o GPTBot?

Selecione GPTBot (ou ChatGPT-User, ClaudeBot) no menu suspenso User-Agent, adicione uma regra Disallow para '/', e o robots.txt gerado instruirá esses bots a não rastrearem nenhuma página do seu site.

Onde eu envio o arquivo robots.txt?

Envie o arquivo robots.txt para o diretório raiz do seu site para que ele esteja acessível em https://seusite.com/robots.txt. A maioria dos hosts da web permite isso via FTP, Gerenciador de Arquivos do cPanel ou nas configurações do seu CMS.

O robots.txt garante que as páginas não serão indexadas?

Não. O Robots.txt é uma diretiva, não um mecanismo de aplicação. Rastreadores bem-comportados o respeitam, mas bots maliciosos podem ignorá-lo. Para garantir a desindexação, use a meta tag noindex ou o cabeçalho HTTP X-Robots-Tag.

O que o Crawl-delay faz?

Crawl-delay diz a um rastreador para esperar um número especificado de segundos entre as solicitações. Isso pode reduzir a carga do servidor de rastreadores agressivos. Observe que o Googlebot ignora o Crawl-delay — use o Google Search Console para definir a taxa de rastreamento para o Google.