你们好哈,上一节咱们研究了一下爬虫的异常处理问题,那么接下来咱们一块儿来看一下Cookie的使用。php
为何要使用Cookie呢?html
Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(一般通过加密)正则表达式
好比说有些网站须要登陆后才能访问某个页面,在登陆以前,你想抓取某个页面内容是不容许的。那么咱们能够利用Urllib2库保存咱们登陆的Cookie,而后再抓取其余页面就达到目的了。cookie
在此以前呢,咱们必须先介绍一个opener的概念。session
当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。在前面,咱们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,能够理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。post
若是咱们须要用到Cookie,只用这个opener是不能达到目的的,因此咱们须要建立更通常的opener来实现对Cookie的设置。网站
cookielib模块的主要做用是提供可存储cookie的对象,以便于与urllib2模块配合使用来访问Internet资源。 Cookielib模块很是强大,咱们能够利用本模块的CookieJar类的对象来捕获cookie并在后续链接请求时从新发送,好比能够实现模拟登陆 功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。ui
它们的关系:CookieJar —-派生—->FileCookieJar —-派生—–>MozillaCookieJar和LWPCookieJar加密
首先,咱们先利用CookieJar对象实现获取cookie的功能,存储到变量中,先来感觉一下url
Python
1 2 3 4 5 6 7 8 9 10 11 12 13 |
import urllib2 import cookielib #声明一个CookieJar对象实例来保存cookie cookie = cookielib.CookieJar() #利用urllib2库的HTTPCookieProcessor对象来建立cookie处理器 handler=urllib2.HTTPCookieProcessor(cookie) #经过handler来构建opener opener = urllib2.build_opener(handler) #此处的open方法同urllib2的urlopen方法,也能够传入request response = opener.open('http://www.zimaruanjian.com') for item in cookie: print 'Name = '+item.name print 'Value = '+item.value |
咱们使用以上方法将cookie保存到变量中,而后打印出了cookie中的值,运行结果以下
Python
1 2 3 4 5 6 7 8 9 10 |
Name = BAIDUID Value = B07B663B645729F11F659C02AAE65B4C:FG=1 Name = BAIDUPSID Value = B07B663B645729F11F659C02AAE65B4C Name = H_PS_PSSID Value = 12527_11076_1438_10633 Name = BDSVRTM Value = 0 Name = BD_HOME Value = 0 |
在上面的方法中,咱们将cookie保存到了cookie这个变量中,若是咱们想将cookie保存到文件中该怎么作呢?这时,咱们就要用到
FileCookieJar这个对象了,在这里咱们使用它的子类MozillaCookieJar来实现Cookie的保存
Python
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
import cookielib import urllib2
#设置保存cookie的文件,同级目录下的cookie.txt filename = 'cookie.txt' #声明一个MozillaCookieJar对象实例来保存cookie,以后写入文件 cookie = cookielib.MozillaCookieJar(filename) #利用urllib2库的HTTPCookieProcessor对象来建立cookie处理器 handler = urllib2.HTTPCookieProcessor(cookie) #经过handler来构建opener opener = urllib2.build_opener(handler) #建立一个请求,原理同urllib2的urlopen response = opener.open("http://www.zhimaruanjian.com") #保存cookie到文件 cookie.save(ignore_discard=True, ignore_expires=True) |
关于最后save方法的两个参数在此说明一下:
官方解释以下:
ignore_discard: save even cookies set to be discarded.
ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists
因而可知,ignore_discard的意思是即便cookies将被丢弃也将它保存下来,ignore_expires的意思是若是在该文件中 cookies已经存在,则覆盖原文件写入,在这里,咱们将这两个所有设置为True。运行以后,cookies将被保存到cookie.txt文件中, 咱们查看一下内容,附图以下
那么咱们已经作到把Cookie保存到文件中了,若是之后想使用,能够利用下面的方法来读取cookie并访问网站,感觉一下
Python
1 2 3 4 5 6 7 8 9 10 11 12 13 |
import cookielib import urllib2
#建立MozillaCookieJar实例对象 cookie = cookielib.MozillaCookieJar() #从文件中读取cookie内容到变量 cookie.load('cookie.txt', ignore_discard=True, ignore_expires=True) #建立请求的request req = urllib2.Request("http://www.zhimaruanjian.com") #利用urllib2的build_opener方法建立一个opener opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie)) response = opener.open(req) print response.read() |
设想,若是咱们的 cookie.txt 文件中保存的是某我的登陆百度的cookie,那么咱们提取出这个cookie文件内容,就能够用以上方法模拟这我的的帐号登陆百度。
下面咱们以咱们学校的教育系统为例,利用cookie实现模拟登陆,并将cookie信息保存到文本文件中,来感觉一下cookie大法吧!
注意:密码我改了啊,别偷偷登陆本宫的选课系统 o(╯□╰)o
Python
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 |
import urllib import urllib2 import cookielib
filename = 'cookie.txt' #声明一个MozillaCookieJar对象实例来保存cookie,以后写入文件 cookie = cookielib.MozillaCookieJar(filename) opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie)) postdata = urllib.urlencode({ 'stuid':'201200131012', 'pwd':'23342321' }) #登陆教务系统的URL loginUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login' #模拟登陆,并把cookie保存到变量 result = opener.open(loginUrl,postdata) #保存cookie到cookie.txt中 cookie.save(ignore_discard=True, ignore_expires=True) #利用cookie请求访问另外一个网址,此网址是成绩查询网址 gradeUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre' #请求访问成绩查询网址 result = opener.open(gradeUrl) print result.read() |
以上程序的原理以下
建立一个带有cookie的opener,在访问登陆的URL时,将登陆后的cookie保存下来,而后利用这个cookie来访问其余网址。
如登陆以后才能查看的成绩查询呀,本学期课表呀等等网址,模拟登陆就这么实现啦,是否是很酷炫?
好,小伙伴们要加油哦!咱们如今能够顺利获取网站信息了,接下来就是把网站里面有效内容提取出来,下一节咱们去会会正则表达式!