Robots.txt 생성기

robots.txt를 시각적으로 구성하세요. User-agent를 선택하고, 허용/금지 규칙을 추가하고, Sitemap 및 Crawl-delay를 설정한 다음 복사하거나 다운로드하세요.

설정
User-Agent
규칙 추가
Sitemap URL
규칙 0
미리보기
복사됨!
# robots.txt가 여기에 표시됩니다
🔮 나의 사주 캐릭터를 확인해보세요 🎨 도툰 — 웹툰·일러스트 플랫폼

Robots.txt 생성기란 무엇인가요?

robots.txt 파일은 검색 엔진 크롤러에게 웹사이트의 어떤 페이지 또는 섹션에 접근할 수 있는지 여부를 알려주는 파일입니다. 이 생성기를 사용하면 시각적 인터페이스를 통해 올바른 형식의 robots.txt 파일을 만들 수 있습니다. 수동 편집이 필요 없습니다. Googlebot, Bingbot 또는 GPTBot과 같은 User-agent를 선택하고 특정 경로에 대한 허용/금지 규칙을 추가하고 Sitemap URL을 포함하고 선택적으로 Crawl-delay를 설정하세요. 파일은 라이브 미리보기와 함께 브라우저에서 즉시 생성됩니다.

Robots.txt 생성기 사용 방법

  1. User-Agent 선택 — 일반적인 봇(Googlebot, Bingbot, GPTBot 등) 중에서 선택하거나 사용자 지정 이름을 입력하세요.
  2. 규칙 추가 — 규칙 유형(허용 또는 금지)을 설정하고 경로(예: /admin/)를 입력하고 추가를 클릭하세요.
  3. Sitemap 설정 — Sitemap URL(예: https://example.com/sitemap.xml)을 입력하세요.
  4. Crawl-delay 활성화 — 선택적으로 크롤러 요청 간의 지연 시간을 초 단위로 설정하세요.
  5. 미리보기 & 내보내기 — 생성된 파일을 실시간으로 확인한 다음 복사하거나 다운로드하세요.

이 Robots.txt 생성기를 사용하는 이유

  • 구문 오류 없음 — 시각적 빌더는 매번 올바른 형식을 보장합니다.
  • 모든 주요 봇 — Googlebot, Bingbot, GPTBot, ClaudeBot 등이 미리 로드되어 있습니다.
  • AI 봇 차단 — GPTBot 및 ChatGPT-User와 같은 AI 크롤러를 쉽게 차단하세요.
  • 실시간 미리보기 — 규칙을 추가하거나 제거할 때 변경 사항을 즉시 확인하세요.
  • 원클릭 내보내기 — 클립보드에 복사하거나 바로 사용할 수 있는 robots.txt 파일로 다운로드하세요.
  • 개인 정보 우선 — 모든 것이 브라우저에서 실행됩니다. 데이터는 서버로 전송되지 않습니다.

FreeToolbox vs 다른 Robots.txt 생성기

기능FreeToolboxSEOptimerRyte
브라우저 기반아니요 (서버)아니요 (서버)
AI 봇 프리셋예 (GPTBot, ClaudeBot)아니요아니요
사용자 지정 user-agent제한됨
실시간 미리보기
파일 다운로드
계정 불필요가입 필요

자주 묻는 질문

robots.txt 파일이란 무엇인가요?

robots.txt 파일은 웹사이트 루트(예: example.com/robots.txt)에 위치한 일반 텍스트 파일로, 웹 크롤러에게 접근이 허용되거나 허용되지 않는 URL을 알려줍니다. 이는 Robots Exclusion Protocol 표준을 따릅니다.

GPTBot과 같은 AI 크롤러를 어떻게 차단하나요?

User-Agent 드롭다운에서 GPTBot(또는 ChatGPT-User, ClaudeBot)을 선택하고 '/'에 대한 Disallow 규칙을 추가하면 생성된 robots.txt는 해당 봇에게 사이트의 어떤 페이지도 크롤링하지 않도록 지시합니다.

robots.txt 파일을 어디에 업로드해야 하나요?

robots.txt 파일을 웹사이트의 루트 디렉토리에 업로드하여 https://yourdomain.com/robots.txt에서 접근할 수 있도록 합니다. 대부분의 웹 호스트는 FTP, cPanel 파일 관리자 또는 CMS 설정을 통해 이를 허용합니다.

robots.txt가 페이지가 인덱싱되지 않도록 보장하나요?

아니요. robots.txt는 지시 사항일 뿐 시행 메커니즘이 아닙니다. 정상적인 크롤러는 이를 존중하지만 악성 봇은 무시할 수 있습니다. 인덱싱 해제를 보장하려면 noindex 메타 태그 또는 X-Robots-Tag HTTP 헤더를 사용하세요.

Crawl-delay는 무엇을 하나요?

Crawl-delay는 크롤러에게 요청 사이에 지정된 시간(초)을 기다리도록 지시합니다. 이는 공격적인 크롤러로 인한 서버 부하를 줄일 수 있습니다. Googlebot은 Crawl-delay를 무시합니다. Google 크롤링 속도를 설정하려면 Google Search Console을 사용하세요.