Generador de robots.txt gratuito - Configura reglas SEO
Crea un robots.txt limpio para tu sitio
Funciones principales
Editor visual para reglas Allow y Disallow.
Agrega Sitemap y crawl-delay con un formulario.
Vista previa instantánea con opciones de copiar o descargar.
Cómo utilizar el generador
Define los caminos que quieres bloquear o permitir (uno por línea).
Configura un retraso de rastreo y un Sitemap si lo necesitas.
Pulsa "Generar" para obtener el archivo y luego cópialo o descárgalo.
Buenas prácticas
Mantén reglas simples y evita bloquear contenido relevante.
Usa Disallow para rutas de administración, no para datos sensibles.
Coloca siempre el archivo en https://tu-dominio.com/robots.txt.
Define si los rastreadores podrán acceder al sitio completo. Las reglas específicas se manejan en las listas Allow/Disallow.
Indica a los bots qué rutas no deben rastrear. Déjalo vacío para permitir todo.
Úsalo para permitir rutas concretas que podrían quedar bloqueadas por reglas generales.
Configura políticas específicas para los buscadores principales: Predeterminado = sigue las reglas globales, Bloquear = impide todo acceso, Permitir = permite todo.
Bot
User-agent
Política
Google Web
Googlebot
Google Image
Googlebot-Image
Google News
Googlebot-News
Bing Web
Bingbot
Bing Preview
BingPreview
Baidu
Baiduspider
Yandex
YandexBot
DuckDuckGo
DuckDuckBot
Sogou
Sogou web spider
360 Search
360Spider
No todos los motores soportan esta directiva, pero ayuda a reducir carga en el servidor.
Incluye una URL completa de sitemap para que los bots encuentren tu contenido.