什么是 Acunetix 目标知识库

随着Acunetix 的最新更新,咱们引入了一个称为目标知识库的新功能。每次扫描目标时,Acunetix 都会收集并存储有关它的信息。此信息包括构成站点结构的路径、表单的位置及其输入、Web 应用程序使用的参数、使用的任何 API 以及检测到的漏洞。服务器

随着时间的推移变得更好
目标知识库背后的想法是可以在后续扫描中尽量多地重用这些信息,以加强 Acunetix 爬虫的能力。您能够将爬行者视为进入迷宫的冒险家,须要检查全部可用路径以可靠地找到走出迷宫的路。就像冒险者若是有更新的迷宫地图会更有效率地完成他的任务同样,当爬虫可使用目标知识库时,它在构建站点结构方面会变得更加完全。网络

有了目标知识库,扫描器不须要每次从零开始扫描。相反,它经过使用知识库中的 URL 列表得到了先机。这相似于为扫描程序提供一个导入文件,其中包含一个 URL 列表,用于在爬虫开始工做以前填充站点结构。函数

不留痕迹
在测试目标时,Acunetix 经过提交各类有效载荷数据值来探测它,这些数据值的格式旨在识别漏洞。Web 应用程序响应 Acunetix 发出的请求的方式可能会影响每次扫描的完全性。某些扫描可能会暴露某些 URL,而其余扫描可能不会,具体取决于具体状况。测试

有了目标知识库,每次后续扫描都超出了爬虫在该扫描期间发现的范围——它使用在先前扫描同一目标期间积累的路径和位置。这可确保您可使用常规爬网功能扫描没法预测或一致访问的 URL。.net

此外,随着开发人员添加新功能、更改现有功能和删除功能,许多目标会随着时间的推移而发展。这意味着,例如,已删除的功能可能没法再经过目标内的任何连接或网页访问,但仍可能做为孤立的 URL 留在网络服务器上。因为目标知识库,Acunetix甚至能够扫描这些孤立的函数。设计

可靠的漏洞验证和自愈
Acunetix 还存储有关先前扫描目标期间识别的全部漏洞的信息,并在该目标的后续扫描中使用此信息。这意味着当你想从新检查漏洞是否仍然存在时,爬虫不须要再次识别它们,由于扫描器知道它们可能存在。开发

另外一个不错的特性是目标知识库是自我修复的。若是您更改了站点结构的一部分而且某些 URL 再也不存在,则爬网程序将首先尝试访问全部先前存储的 URL,而后从知识库中删除过期的 URL。这意味着,即便您从新设计了 Web 应用程序而且您知道以前的站点结构因为此次从新设计而再也不有效,后续的扫描也会自动清理和更正知识库数据。get

目标知识库配置
若是出于某种缘由,您但愿在不使用目标知识库的状况下临时运行一次或屡次扫描,您能够更改目标的设置并禁用您启动的任何新扫描的知识库。而后,您能够再次启用它以扫描目标的常规版本。效率

您还能够永久删除知识库的内容并开始为目标积累新数据。为此,只需展开“目标设置”页面的“高级”部分,而后单击“知识库”面板中的“删除知识库”按钮。表单