6.python探测Web服务质量方法之pycurl模块

 

 

才开始学习的时候有点忽略了这个模块,以为既然Python3提供了requests库,为何画蛇添足学习这个模块。后来才发现pycurl在探测Web服务器的时候的强大。html

pycurl是一个用c语言写的libcurl Python实现,支持的操做协议有FTP,HTTP,HTTPS,TELNET等,能够理解成linux下curl命令功能的python封装。经过调用pycurl提供的方法,实现探测Web服务质量的状况,好比响应的HTTP状态码,请求延时,HTTP头信息,下载速度等,利用这些信息能够定位服务响应卡顿缓慢的具体环节。python

安装使用命令:pip install pycurl,若是下载失败参考我上一篇总结的安装方法。linux

模块经常使用方法的说明:https://curl.haxx.se/libcurl/c/libcurl-tutorial.html缓存

pycurl.Curl()类实现建立一个libcurl包的Curl句柄对象,无参数。更多介绍libcurl包的介绍见:服务器

下面介绍Curl对象几个经常使用的方法:运维

  • close()方法,对应libcurl包中的curl_easy_cleanup方法,无参数,实现关闭,回收Curl对象。
  • perform()方法,对应libcurl包中的curl_easy_perform方法,无参数,实现Curl对象请求的提交。
  • setopt(option,value)方法,对应libcurl包中curl_easy_setopt方法,参数option是经过libcurl的常量来指定的,参数value的值会依赖option,能够是一个字符串,整型,长整型,文件对象,列表,函数等。下面列举经常使用的常量列表:
c = pycurl.Curl()   #建立一个curl对象 

c.setopt(pycurl.CONNECTTIMEOUT, 5) #链接的等待时间,设置为0则不等待

c.setopt(pycurl.TIMEOUT, 5) #请求超时时间

c.setopt(pycurl.NOPROGRESS, 0) #是否屏蔽下载进度条,非0则屏蔽

c.setopt(pycurl.MAXREDIRS, 5) #指定HTTP重定向的最大数

c.setopt(pycurl.FORBID_REUSE, 1) #完成交互后强制断开链接,不重用

c.setopt(pycurl.FRESH_CONNECT,1) #强制获取新的链接,即替代缓存中的链接

c.setopt(pycurl.DNS_CACHE_TIMEOUT,60) #设置保存DNS信息的时间,默认为120秒

c.setopt(pycurl.URL,"http://www.baidu.com") #指定请求的URL

c.setopt(pycurl.USERAGENT,"Mozilla/5.2 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50324)") #配置请求HTTP头的User-Agent

c.setopt(pycurl.HEADERFUNCTION, getheader) #将返回的HTTP HEADER定向到回调函数getheader

c.setopt(pycurl.WRITEFUNCTION, getbody) #将返回的内容定向到回调函数getbody

c.setopt(pycurl.WRITEHEADER, fileobj) #将返回的HTTP HEADER定向到fileobj文件对象

c.setopt(pycurl.WRITEDATA, fileobj) #将返回的HTML内容定向到fileobj文件对象
  • getinfo(option)方法,对应libcurl包中的curl_easy_getinfo方法,参数option是经过libcurl的常量来指定的。下面列举经常使用的经常使用列表:
 
 
c = pycurl.Curl()            #建立一个curl对象 
c.getinfo(pycurl.HTTP_CODE) #返回的HTTP状态码 

c.getinfo(pycurl.TOTAL_TIME) #传输结束所消耗的总时间

c.getinfo(pycurl.NAMELOOKUP_TIME) #DNS解析所消耗的时间


c.getinfo(pycurl.CONNECT_TIME) #创建链接所消耗的时间


c.getinfo(pycurl.PRETRANSFER_TIME) #从创建链接到准备传输所消耗的时间


c.getinfo(pycurl.STARTTRANSFER_TIME) #从创建链接到传输开始消耗的时间


c.getinfo(pycurl.REDIRECT_TIME) #重定向所消耗的时间


c.getinfo(pycurl.SIZE_UPLOAD) #上传数据包大小


c.getinfo(pycurl.SIZE_DOWNLOAD) #下载数据包大小


c.getinfo(pycurl.SPEED_DOWNLOAD) #平均下载速度


c.getinfo(pycurl.SPEED_UPLOAD) #平均上传速度


c.getinfo(pycurl.HEADER_SIZE) #HTTP头部大小

实践:实现探测Web服务质量curl

HTTP服务是最流行的互联网应用之一,服务质量的好坏关系到用户体验以及网站的运营服务水平,最经常使用的有两个标准,函数

一为服务的可用性,好比是否处于正常提供服务状态,而不是出现404页面未找到或500页面错误等;学习

二为服务的响应速度,好比静态类文件下载时间都控制在毫秒级,动态CGI为秒级。网站

本示例使用pycurl的setopt与getinfo方法实现HTTP服务质量的探测,获取监控URL返回的HTTP状态码,HTTP状态码采用pycurl.HTTP_CODE常量获得,以及从HTTP请求到完成下载期间各环节的响应时间,经过pycurl.NAMELOOKUP_TIME,pycurl.CONNECT_TIME,pycurl.PRETRANSFER_TIME,pycurl.R等常量来实现。另外经过pycurl.WRITEHEADER,pycurl.WRITEDATA常量获得目标URL的HTTP响应头部及页面内容。

import os,sys import time import pycurl URL = "www.baidu.com" #探测的目标URL c = pycurl.Curl() #建立一个Curl对象 c.setopt(pycurl.URL,URL) #定义请求的URL常量 c.setopt(pycurl.CONNECTTIMEOUT,5) #定义请求链接的等待时间 c.setopt(pycurl.TIMEOUT,5) #定义请求超时时间 c.setopt(pycurl.NOPROGRESS,1) #屏蔽下载进度条 c.setopt(pycurl.MAXREDIRS,1) #指定HTTP重定向的最大数为1 c.setopt(pycurl.FORBID_REUSE,1) #完成交互后强制断开链接,不重用 c.setopt(pycurl.DNS_CACHE_TIMEOUT,30) #设置保存DNS信息的时间为30秒 #建立一个文件对象,以“wb”方式打开,用来存储返回的http头部及页面的内容 indexfile = open(os.path.dirname(os.path.realpath(__file__))+"/content.txt","wb") c.setopt(pycurl.WRITEHEADER,indexfile) #将返回的HTTP HEADER定向到indexfile文件 c.setopt(pycurl.WRITEDATA,indexfile) #将返回的HTML内容定向到indexfile文件 try: c.perform() except: print("链接错误") indexfile.close() c.close() sys.exit() NAMELOOKUP_TIME = c.getinfo(c.NAMELOOKUP_TIME) #DNS解析所消耗的时间 CONNECT_TIME = c.getinfo(c.CONNECT_TIME) #创建链接所消耗的时间 PRETRANSFER_TIME = c.getinfo(c.PRETRANSFER_TIME) #从创建链接到准备传输所消耗的时间 STARTTRANSFER_TIME = c.getinfo(c.STARTTRANSFER_TIME) #从创建链接到传输开始消耗的时间 TOTAL_TIME = c.getinfo(c.TOTAL_TIME) #传输结束所消耗的总时间 HTTP_CODE = c.getinfo(c.HTTP_CODE) #返回HTTP状态码 SIZE_DOWNLOAD = c.getinfo(c.SIZE_DOWNLOAD) #下载数据包的大小 HEADER_SIZE = c.getinfo(c.HEADER_SIZE) #HTTP头部大小 SPEED_DOWNLOAD = c.getinfo(c.SPEED_DOWNLOAD) #平均下载速度 #打印输出相关数据 print("HTTP状态码:%s" % HTTP_CODE) print("DNS解析时间:%2f" % NAMELOOKUP_TIME) print("创建链接时间:%2f" % CONNECT_TIME) print("准备传输时间:%2f" % PRETRANSFER_TIME) print("传输开始时间:%2f" % STARTTRANSFER_TIME) print("传输结束总时间:%2f" % TOTAL_TIME) print("下载数据包大小:%d bytes/s" % SIZE_DOWNLOAD) print("HTTP头部大小:%d bytes/s" % HEADER_SIZE) print("平均下载速度:%d bytes/s" % SPEED_DOWNLOAD) #关闭文件及Curl对象 indexfile.close() c.close()

代码来自<<Python 自动化运维>>这本书。

代码执行结果:

查看获取的HTTP文件头部及页面内容文件content.txt

相关文章
相关标签/搜索