网络嗅探与协议分析python
网络嗅探web
网络嗅探(sniff)是一种黑客经常使用的窃听技术,利用计算机的网络接口截获目的地为其余计算机的数据报文,以监听数据流中所包含的用户帐户密码或私密通讯等。实现网络嗅探的工具称为网络嗅探器(Sniffer),嗅探器捕获的数据报文是通过封包处理以后的二进制数据,所以一般会结合网络协议分析技术来解析嗅探到的网络数据。
网络嗅探软件:libpcap抓包开发库、tcpdump以及wireshark嗅探器软件。算法
网络协议分析sql
网络协议分析是指对网络上传输的二进制数据包进行解析,以恢复出各层网络协议信息以及传输内容的技术方法。
网络协议分析工具Wiresharkapache
WireShark基本功能:
(1)抓包(Capture):Capture Filter, BPF过滤器。
(2)分析(Analyze):自动协议解码,支持数百种协议,显示各层包头和内容字段。灵活选择协议对网络流进行解码。
(3)统计(Statistics):协议分类(Protocol Hierarchy)、会话列表(Conversations)、会话终端(EndPoints)、I/O Graph, 随时间统计的流量曲线、会话重组(Follow TCP/UDP Stream)和会话图(Flow Graph)。api
在Kali上以telnet方式登陆BBS进行嗅探与协议分析安全
一、kali下openvas使用
Linux虚拟机为靶机进行演示
Linux虚拟机IP地址
服务器
用Kali尝试ping Linux,结果能ping通:
网络
一、访问本地https://localhost:9392/登陆OpenVAS的WEB管理界面:框架
二、要完成一个基本的扫描过程,首先要建立扫描目标Target,做为要扫描的目标
三、建立扫描任务Task
四、开始任务start
五、查看扫描状态细节
六、查看扫描结果,包含漏洞详细信息,也可导出PDF文件
七、导出扫描结果报告文件
八、快速扫描可以使用Quick Start
二、Kali漏洞分析之扫描工具
除了综合漏洞扫描器OpenVAS,Kali下还有其余一些漏洞分析扫描工具,包括WEB漏洞扫描器Golismero与Nikto,以及系统信息扫描收集工具Lynis与unix-privesc-check。
一、WEB扫描工具Golismero,是一款开源的Web扫描器,自带一些安全测试工具,还可导入一些扫描工具的结果,如OpenVAS,Wfuzz,SQLmap,DNS recon等,并自动分析。它采用插件式的框架结构,有纯python编写,可运行在Windows,Linux,BSD,OS X等系统上,几乎没有系统依赖性。提供了一系列的接口,用户能够定义本身的插件。
根据插件的功能,可分为四类:ImportPlugin(导入插件,用来加载其余安全工具的扫描结果)、TestingPlugin(测试插件,测试或者渗透入侵的插件)、ReportPlugin(报表插件,对测试结果生成报表)、UIPlugin(界面插件,泳衣和用户交互显示当前系统的运行状况)。在编写自定义插件时,注意选择好相应的插件类型。
查看插件列表命令golismero plugins
扫描虚拟机 golismero scan http://192.168.8。114/
此工具备缺点:扫描过程当中的信息比较杂乱,可能调用了多个进程执行这个命令,对扫描报告的生成不是很好。
二、漏洞扫描器Nikto.pl
Nikto是一款开源的(GPL)网页服务器扫描器,能够对网页服务器进行全面的多种扫描。
扫描参数如:简单扫描:目标基本WEB基本配置信息,服务器,PHP解析器等版本信息。
扫描虚拟机nikto -h 192.168.8.114
对多个端口进行扫描命令 nikto -h 192.168.8.114 -p 80,88,443
三、Lynis系统信息收集整理工具
对Linux操做系统详细配置等信息进行枚举收集,生成易懂的报告文件。测试者可根据报告文件信息找到漏洞利用的exp
通常使用中避免交互lynis --check-all -Q
自动枚举一些信息,默认枚举当前系统的信息。
unix-privesc-check与Lynis相似,也是信息收集工具
使用命令./unix-privesc-check > log.txt
例如unix-privesc-check standard
三、漏洞分析之WEB爬行
针对web网站的扫描,每每须要对网站路径&页面&帐户进行枚举,这涉及到WEB安全中的爬行工具。
对网站路径和页面进行枚举扫描,须要字典的帮助。Kali内置字典存放的位置:/文件系统/usr/share/wordlists
一、Apache-users用户枚举脚本(具体状况下枚举用到,不是全部网站都这样使用)
apache-users -h 222.28.136.37 -l /usr/share/wordlists/dirbuster/apache-user-enum-2.0.txt -p 80 -s 0 -e 403 -t 10 /* 判断是否存在这个目录,但会致使一些误判 */
二、CutyCapt:网站截图工具
cutycapt --url=http://www.baidu.com/ --out=baidu.png
三、DIRB:强大的目录扫描工具,有多重扫描功能:
dirb http://192.168.8.114/
四、Dirbuster:Kali下的图形化目录扫描器,拥有直观的扫描结果
dirbuster
输入目标的网站地址http://192.168.8.114/
,设置要扫描的字典
点start运行,能够看到扫描信息、扫描结果、以树形式列出的扫描结果(很直观)、错误信息。
五、Vega:Kali下的WVS(相似Windows下的AWVS),使用简单易懂
六、WebSlayer 由WFuzz发展出来的WEB爆破工具
四、Kali漏洞分析之WEB漏洞扫描(一)
一、Cadaver 是一个用来浏览和修改WebDAV共享的Unix命令行程序,它能够以压缩方式上传和下载文件,也会检验属性、拷贝、移动、锁定和解锁文件。
二、DAVTest 测试支持WebDAV的服务器上传文件等。davtest -url http://192.168.8.114/dav/
建立了一些目录,上传了一些文件
三、Deblaze 针对FLASH远程调用等的枚举
四、Fimap是远程和本地文件包含的扫描器 文件包含漏洞利用工具
五、Grabber是一个WEB应用漏洞扫描器,能够指定扫描漏洞类型结合爬虫对网站进行安全扫描。
扫描漏洞,若是须要爬虫,加上-spider
;要爬多深,接个数字;爬虫爬到的url须要作哪些漏洞的检测,后面能够接好比-sql
,后面再接url
与目标地址。
grabber --spider 2 --sql --url http://192.168.8.114/
五、Kali漏洞分析之WEB漏洞扫描(二)
一、Joomla Scanner,相似于Wpscan的扫描器,针对特定CMS(Joomla)的漏洞扫描工具。
二、Skipfish,是Google出品的一款自动化的网络安全扫描工具,它经过HTTP协议处理且占用较低的CPU资源,所以运行速度比较快,能够每秒钟处理2000个请求。扫描方式:
skipfish -o /tmp/1.report http://url/ /* -o是output即生成文件,后面跟生成的目录*/
例:skipfish -o ~/report123 http://baidu.com/
扫描百度,在home目录下生成报告
生成报告文件
三、Uniscan WVS,简单易用的web漏洞扫描器
能够查看扫描结果
四、W3AF,是一个web应用程序攻击和检查框架,该项目已超过130个插件,其中包括检查网站爬虫,SQL注入(SQL Injection),跨站(XSS),本地文件包含(LFI),远程文件包含(RFI)。该项目的目的是要创建一个框架,以寻找和开发web应用安全漏洞。
五、wapiti,工做方式与nikto相似,也采用黑盒的方式主动对被测web应用进行扫描,寻找其中潜在的安全缺陷,与nikto提供测试用例库不一样,它实现了内置的匹配算法。
六、webshag集成调用框架,调用Nmap,UScan,信息收集,爬虫等功能,使扫描过程更容易。
七、websploit 是一个开源项目,主要用于远程扫描和分析系统漏洞。使用它能够很容易和快速发现系统中存在的问题,并用于深刻分析。
在Openvas的使用过程当中,显示打不开服务。
觉得是服务没有开启,因此去开启服务,服务开启不成功。
接下来用openvas-setup
命令进行修复,修复成功。
但是关机重启Kali后又出现一样的问题,只得再修复一遍。
修复结束后就可使用openvas了。
虽然问题的到解决,可是缘由不明!!
学习网络攻防技术实践教材,动手操做教材以及视频里的内容,并有深刻
上周目标完成状况
认真学习了nmap工具。
本周学习计划
学习教材第四章,视频学习11到15,并进行相应的实践操做。
学习教材第四章,视频学习了5个,并进行了相应的实践操做。