En este punto lo que nos ayuda bastante es el crawler, ya que con el es posible validar y corroborar accesos o directorios que no deberian de estar disponibles para un usuario sin privilegios, o bien simplemente nos dan acceso a información sensible, como es el caso de la anterior debilidad en la cual era posible identificar el fichero LOG, en este punto cedemos el trabajo duro a la herramienta para que posterior a ello realizar la validación de forma manual o desde la misma herramienta con la opción de render.
Manipulación de parametros
La manipulación de parametros actualmente se ve en muchas aplicaciones, ya sea por las malas practicas o bien por un simple error de desarrollo, porque no vemos un ejemplo de una url que en el mejor de los casos se accederia con otro perfil el valor a ir jugando seria el ultimo user=1 si cambiamos por el 2 se logra acceder.
http://137.0.0.1/system/panel.php?user=1
Acceso irrestricto por el mapa del Sitio
Esta segunda técnica por decirlo así, es gracias al acceso irrestricto de funcionalidades previo reconocimiento del crawler, el cual basta acceder a un fichero por ejemplo el de administración index.php y se logra acceder por la falta de control de acceso que tiene el desarrollador con la aplicación.
Aqui se puede lanzar el discover como el crawler recordarles que discover llega a tardar un poco mas, ya que realiza las peticiones por fuerza bruta para ir realizando el reconocimiento de directorios y ficheros.
Otra posible forma de identificar es usando el intruder en base a un listado de directorios comunes, esto se vio en las entradas anteriores.
Como saben se encuentra en proceso el ebook con las entradas en el cual se realizara la implementación de un entorno vulnerable para realizar la prueba cada uno de los puntos.
Regards,
Snifer