awvs全称Acunetix Web Vulnerability Scanner,主要用于扫描web应用程序上的安全问题,如SQL注入,XSS,目录遍历,文件包含,参数篡改,认证攻击,命令注入等,是一款网络漏洞扫描工具。这里的教程分为新旧两版,两种版本各有优点。
旧版:移动的工具包
新版:方便快捷web
1.下面的图是其主界面
2.新建栏,从上倒下依次是新建扫描,新建爬行,新建服务扫描,新建报告(基本英文),file栏,从上到下依次是新建,导入之前的扫描,保存扫描记录(我是否是有点啰嗦)
3.配置,点开configuration是一些配置,应用配置,扫描配置等等(挺齐全的)scanning profiles中的是一些扫描模块脚本,用来判断漏洞
4.扫描向导(新建scan会弹出),第一个框是扫描的地址,第二个框大意是以前若是爬过的话能够把爬行记录导入
5.扫描配置,第一个框是漏洞类型,通常默认所有,第二个框是扫描设置,通常也是默认,固然,也能够本身定义,点击scan settings后面的那个按钮进行设置,第三个框是爬虫,能够自主选择扫描哪些文件,也能够扫描多个连接(用txt导入)正则表达式
6.扫描设置(感兴趣的能够看看,不感兴趣的直接跳过看这一部份内容)shell
1.安全等级和漏洞危险级数
2.下一栏是目标信息,如可否响应,web服务器版本,操做系统等等
3.扫描时间,发出请求,响应时间
4.扫出的结果,web方面的漏洞
5.咱们点进去看看,能够看到具体内容,看描述:此安全(https)页包含一个正在发布到不安全(http)页的表单。他们可能认为本身的数据是加密的,而事实上它不是。像失效连接这种东西就可能有用。site struction是扫描到的目录。
6.点击页面中report生成报告,点击红色部分导出
安全
第一项:在扫描介绍的时候开启http sniffer是为了让用户手动浏览,防止爬虫没有爬到,当扫描快结束的时候会将没有爬到的弹出来
第二项:只爬行网站首页的连接(全部)
第三项:不抓上级目录
第四项:抓子目录
第五项:即便未链接也获取目录索引
第六项:处理robots.txt和sitemap.xml
第七项:忽略大小写
第八项:优先爬取这类文件
第九项:防止无限递归目录,如admin/admin/admin…
第10项:只请求连接的文件
第11项:忽略相应的文件格式
第12项:防止自定义404
第13项:有无www视为一个
第14项:启用输入限制探索法
第15项:禁止已知应用的路径操做
第16项:优化已知应用服务器
右击打开,获得请求头,请求数据,结构分析之类的东西(能够修改)
可进行加密解密,选择协议,请求方式等等
cookie
扫描单个或范围内的ip,也能够获得请求头请求数据
网络
输入的是根域名,没有 www的那种,同时能够选择DNS和时间,会扫描到相似xxxx.acunetix.com的域名
svg
从上到下分别是认证地址,表单和http,错误关键字,用户名和密码的字典
他会自动检测输入框,而后分别与用户名和密码对应,设置关键字,start就好了。工具
跟brupsuite功能相似,抓包改包,设置好代理后就能够了
这里能够设置各类陷阱,相似于改包
设置陷阱后他会自动弹出,全部东西都是能够修改的测试
这个功能跟brupsuite爆破功能相似。
抓包后复制粘贴到这个栏目,而后能够设置fuzzer过滤器,如规则的描述,规则的类型等等(有些webshell有跳转,响应码是302)
插入测试点,添加变量类型,如数字类型,字符类型,文件类型等等,载入字典就选文件类型。
在这里能够载入字典,txt格式
新版的AWVS没有了许多工具,可是速度快了不少,最方便的就是在网页上,不会的英文能够直接翻译
1.点击Targets,add Target进行添加网址,能够批量导入
2.能够填入帐号密码,方便经过验证(也能够像旧版同样产生一个记录文件),同时能够加入不扫描的站点(如注销)
3.爬虫的相应设置
4.能够设置扫描速度,漏洞的危险程度,添加描述,设置连续扫描等等
5.点击scan,根据你想要的进行设置
6.新版的比旧版的简单不少,由于有翻译的存在,这个栏目能够查看漏洞,筛选漏洞,生成报告,查看漏洞详情
7.设置扫描策略,都选就行
只能说各有各的长处了