你们好哈,上一节咱们研究了一下爬虫的异常处理问题,那么接下来咱们一块儿来看一下Cookie的使用。html
为何要使用Cookie呢?git
Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(一般通过加密)github
好比说有些网站须要登陆后才能访问某个页面,在登陆以前,你想抓取某个页面内容是不容许的。那么咱们能够利用Urllib2库保存咱们登陆的Cookie,而后再抓取其余页面就达到目的了。正则表达式
在此以前呢,咱们必须先介绍一个opener的概念。cookie
当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。在前面,咱们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,能够理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。session
若是咱们须要用到Cookie,只用这个opener是不能达到目的的,因此咱们须要建立更通常的opener来实现对Cookie的设置。app
cookielib模块的主要做用是提供可存储cookie的对象,以便于与urllib2模块配合使用来访问Internet资源。Cookielib模块很是强大,咱们能够利用本模块的CookieJar类的对象来捕获cookie并在后续链接请求时从新发送,好比能够实现模拟登陆功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。post
它们的关系:CookieJar —-派生—->FileCookieJar —-派生—–>MozillaCookieJar和LWPCookieJar网站
首先,咱们先利用CookieJar对象实现获取cookie的功能,存储到变量中,先来感觉一下ui
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import urllib2
import cookielib
#声明一个CookieJar对象实例来保存cookie
cookie = cookielib.CookieJar()
#利用urllib2库的HTTPCookieProcessor对象来建立cookie处理器
handler=urllib2.HTTPCookieProcessor(cookie)
#经过handler来构建opener
opener = urllib2.build_opener(handler)
#此处的open方法同urllib2的urlopen方法,也能够传入request
response = opener.open('http://www.baidu.com')
for item in cookie:
print 'Name = '+item.name
print 'Value = '+item.value
|
咱们使用以上方法将cookie保存到变量中,而后打印出了cookie中的值,运行结果以下
1
2
3
4
5
6
7
8
9
10
|
Name = BAIDUID
Value = B07B663B645729F11F659C02AAE65B4C:FG=1
Name = BAIDUPSID
Value = B07B663B645729F11F659C02AAE65B4C
Name = H_PS_PSSID
Value = 12527_11076_1438_10633
Name = BDSVRTM
Value = 0
Name = BD_HOME
Value = 0
|
在上面的方法中,咱们将cookie保存到了cookie这个变量中,若是咱们想将cookie保存到文件中该怎么作呢?这时,咱们就要用到
FileCookieJar这个对象了,在这里咱们使用它的子类MozillaCookieJar来实现Cookie的保存
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import cookielib
import urllib2
#设置保存cookie的文件,同级目录下的cookie.txt
filename = 'cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,以后写入文件
cookie = cookielib.MozillaCookieJar(filename)
#利用urllib2库的HTTPCookieProcessor对象来建立cookie处理器
handler = urllib2.HTTPCookieProcessor(cookie)
#经过handler来构建opener
opener = urllib2.build_opener(handler)
#建立一个请求,原理同urllib2的urlopen
response = opener.open("http://www.baidu.com")
#保存cookie到文件
cookie.save(ignore_discard=True, ignore_expires=True)
|
关于最后save方法的两个参数在此说明一下:
官方解释以下:
ignore_discard: save even cookies set to be discarded.
ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists
因而可知,ignore_discard的意思是即便cookies将被丢弃也将它保存下来,ignore_expires的意思是若是在该文件中cookies已经存在,则覆盖原文件写入,在这里,咱们将这两个所有设置为True。运行以后,cookies将被保存到cookie.txt文件中,咱们查看一下内容,附图以下
那么咱们已经作到把Cookie保存到文件中了,若是之后想使用,能够利用下面的方法来读取cookie并访问网站,感觉一下
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import cookielib
import urllib2
#建立MozillaCookieJar实例对象
cookie = cookielib.MozillaCookieJar()
#从文件中读取cookie内容到变量
cookie.load('cookie.txt', ignore_discard=True, ignore_expires=True)
#建立请求的request
req = urllib2.Request("http://www.baidu.com")
#利用urllib2的build_opener方法建立一个opener
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response = opener.open(req)
print response.read()
|
设想,若是咱们的 cookie.txt 文件中保存的是某我的登陆百度的cookie,那么咱们提取出这个cookie文件内容,就能够用以上方法模拟这我的的帐号登陆百度。
下面咱们以咱们学校的教育系统为例,利用cookie实现模拟登陆,并将cookie信息保存到文本文件中,来感觉一下cookie大法吧!
注意:密码我改了啊,别偷偷登陆本宫的选课系统 o(╯□╰)o
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
import urllib
import urllib2
import cookielib
filename = 'cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,以后写入文件
cookie = cookielib.MozillaCookieJar(filename)
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
postdata = urllib.urlencode({
'stuid':'201200131012',
'pwd':'23342321'
})
#登陆教务系统的URL
loginUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login'
#模拟登陆,并把cookie保存到变量
result = opener.open(loginUrl,postdata)
#保存cookie到cookie.txt中
cookie.save(ignore_discard=True, ignore_expires=True)
#利用cookie请求访问另外一个网址,此网址是成绩查询网址
gradeUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre'
#请求访问成绩查询网址
result = opener.open(gradeUrl)
print result.read()
|
以上程序的原理以下
建立一个带有cookie的opener,在访问登陆的URL时,将登陆后的cookie保存下来,而后利用这个cookie来访问其余网址。
如登陆以后才能查看的成绩查询呀,本学期课表呀等等网址,模拟登陆就这么实现啦,是否是很酷炫?
好,小伙伴们要加油哦!咱们如今能够顺利获取网站信息了,接下来就是把网站里面有效内容提取出来,下一节咱们去会会正则表达式!
转载:静觅 » Python爬虫入门六之Cookie的使用