Agente de usuario
Identifica a qué rastreador se aplica un grupo de reglas.
Comprenda cómo funciona el archivo robots.txt, qué puede y qué no puede hacer y por qué es importante para los motores de búsqueda y los rastreadores de IA.
No es necesario registrarse. Se ejecuta directamente en su navegador.
Identifica a qué rastreador se aplica un grupo de reglas.
Especifique rutas que los robots pueden rastrear o no.
Sugerencia de ritmo opcional sobre la frecuencia con la que los bots deben solicitar páginas.
robots.txt es un archivo de texto público que se encuentra en la raíz de su dominio, como https://example.com/robots.txt. Indica a los rastreadores qué rutas pueden solicitar y cuáles deben evitar. No protege los datos privados, pero actúa como una primera puerta para que los rastreadores descubran su sitio.
Identifica a qué rastreador se aplica un grupo de reglas.
Especifique rutas que los robots pueden rastrear o no.
Sugerencia de ritmo opcional sobre la frecuencia con la que los bots deben solicitar páginas.
Dirige a los rastreadores a uno o más mapas de sitio XML para un descubrimiento más rápido.
Sí. Una regla amplia de No permitir puede impedir el rastreo. Las pruebas ayudan a prevenir bloqueos accidentales.
No. robots.txt controla el rastreo, mientras que noindex (meta robots) controla si una página está indexada.
Muchos rastreadores de IA respetan el archivo robots.txt como política de acceso público, por lo que es un buen lugar para definir preferencias.
Utilice el probador gratuito Robots.txt para buscar, analizar y revisar las reglas de rastreo de su dominio.
Pruebe robots.txt con Robots.txt Tester