WEB漏洞——robots.txt泄漏敏感信息

漏洞描述 搜索引擎能够经过robots文件能够获知哪些页面能够爬取,哪些页面不能够爬取。Robots协议是网站国际互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户我的信息和隐私不被侵犯,若是robots.txt文件编辑的太过详细,反而会泄露网站的敏感目录或者文件,好比网站后台路径,从而得知其使用的系统类型,从而有针对性地进行利用。html 漏洞测试 检测形式多样,工具爬虫扫描获得敏
相关文章
相关标签/搜索