Page cover

Introducción 01

El archivo robots.txt

El archivo robots.txt se utiliza para indicar a las arañas web cómo rastrear un sitio web.

Para evitar que la información confidencial esté indexada y se pueda buscar, los webmasters suelen utilizar este archivo para indicar a las arañas que eviten páginas específicas. Esto se hace usando la palabra clave Disallow.

Como atacante, siempre es una buena idea comprobar el contenido de la propiedad robots.txt y visite todas las páginas que están "no permitidas", con el fin de encontrar información confidencial.

circle-info
circle-check

Last updated