Introducción 01
El archivo robots.txt
El archivo robots.txt se utiliza para indicar a las arañas web cómo rastrear un sitio web.
Para evitar que la información confidencial esté indexada y se pueda buscar, los webmasters suelen utilizar este archivo para indicar a las arañas que eviten páginas específicas. Esto se hace usando la palabra clave Disallow.
Como atacante, siempre es una buena idea comprobar el contenido de la propiedad robots.txt y visite todas las páginas que están "no permitidas", con el fin de encontrar información confidencial.
La instancia http://ptl-fbe1b591b6a5-c2e7d69cc8b5.libcurl.me se está ejecutando...



Para marcar este ejercicio como completado, debe enviar la clave que obtendrá al terminar este ejercicio:
c3e3314b-b383-452e-990b-829777e06b36
Puede acceder a este ejercicio mediante la siguiente URL: http://ptl-4a103272-0191e3f1.libcurl.so/. También puede usar la versión TLS si experimenta tiempos de espera agotados debido al filtrado de red: https://ptl-4a103272-0191e3f1.libcurl.so/.
Last updated
