网站robots.txt探测工具Parsero工具
robots.txt文件是网站根目录下的一个文本文件。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当搜索引擎访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt。若是存在,搜索引擎就会按照该文件中的内容来肯定访问的范围;若是该文件不存在,则会够访问网站上全部没有被口令保护的全部页面。网站
网站为了防止搜索引擎访问一些重要的页面,会把其所在的目录放入robots.txt文件中。因此,探测该文件,也能够获取网站的重要信息。Kali Linux提供一个小工具Parsero,能够探测指定网站的robots.txt文件,并确认实际可访问性。搜索引擎
PS:该工具须要用户使用apt-get命令手动安装。索引