爬虫基础 - 抓包

1.什么是抓包html

2.如何抓包chrome

 

 

1.什么是抓包后端

抓包:经过必定手段(软件)抓取网络上的数据包浏览器

百度百科解释:抓包(packet capture)就是将网络传输发送与接收的数据包进行截获、重发、编辑、转存等操做,也用来检查网络安全。抓包也常常被用来进行数据截取等安全

 

为何要抓包:网络

了解网络中传输的数据,熟悉整个请求响应过程工具

 

 

2.如何抓包学习

抓包能够直接使用软件进行网站

 

(1)关于抓包:加密

TCP抓包:
  主要用于外挂: 1.解包工具(用汇编写,把加密数据解密)  2. 抓包工具(抓取数据)  --》 吃鸡的一些简单外挂可能也是这样作出来的(抓包解包而后改数据)
HTTP抓包:

  • 先后端交互过程
  • 学习的做用
  • 模拟网络状况

 

(2)专业抓包软件:

专业抓包软件有不少,我使用的是fiddler,用别的也能够

注:chrome及其余浏览器的网络工具也能够抓包,可是不够专业,专业的人作专业的事,仍是建议尽可能去使用专业工具

 

(3)fiddler基本使用

安装了fiddler以后就能够开始直接使用了

界面以下:

在咱们以及打开的浏览器中随机访问一个页面,而后在fiddler中以下:

为了去掉乱码咱们要选上这个:

点上以后原始数据以下:

注意fiddler没法直接去抓取https协议的网站时,必需要进行相应设置:点击tools中的第一个选项而后选择https,设置以下而后点击肯定而后重启便可:

 

(4)关于http协议和https协议

  • http协议 client server 没有加密
  • https协议 证书 非对称加密 抓包(https)->信任一个证书

详细了解:http://www.javashuo.com/article/p-hfzocvbr-y.html

相关文章
相关标签/搜索