处理cookie是很繁琐的一件事情,稍微有一点处理不对的话,就不能访问网站,最好的办法就是能操做浏览器cookie,这样是最真实的,在Python中有一个第三方库:html
browsercookie就是来解决这件事情的。python
因为http协议的无状态性,登陆验证都是经过传递cookies来实现的。经过浏览器登陆一次,登陆信息的cookie是就会被浏览器保存下来。下次再打开该网站时,浏览器自动带上保存的cookies,只有cookies还未过时,对于网站来讲你就仍是登陆状态的。sql
browsercookie模块就是这样一个从浏览器提取保存的cookies的工具。它是一个颇有用的爬虫工具,经过加载你浏览器的cookies到一个cookiejar对象里面,让你轻松下载须要登陆的网页内容。chrome
安装shell
pip install browsercookie
在Windows系统中,内置的sqlite模块在加载FireFox数据库时会抛出错误。须要更新sqlite的版本:数据库
pip install pysqlite
使用方法浏览器
下面是从网页提取标题的例子:ruby
>>> import re >>> get_title = lambda html: re.findall('<title>(.*?)</title>', html, flags=re.DOTALL)[0].strip()
下面是未登陆情况下下载获得的标题:bash
>>> import urllib2 >>> url = 'https://bitbucket.org/' >>> public_html = urllib2.urlopen(url).read() >>> get_title(public_html) 'Git and Mercurial code management for teams'
接下来使用browsercookie从登陆过Bitbucket的FireFox里面获取cookie再下载:cookie
>>> import browsercookie >>> cj = browsercookie.firefox() >>> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) >>> login_html = opener.open(url).read() >>> get_title(login_html) 'richardpenman / home — Bitbucket'
上面是Python2的代码,再试试 Python3:
>>> import urllib.request >>> public_html = urllib.request.urlopen(url).read() >>> opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
你能够看到你的用户名出如今title里面了,说明browsercookie模块成功从FireFox加载了cookies。
下面是使用requests的例子,此次咱们从Chrome里面加载cookies,固然你须要事先用Chrome登陆Bitbucket:
>>> import requests >>> cj = browsercookie.chrome() >>> r = requests.get(url, cookies=cj) >>> get_title(r.content) 'richardpenman / home — Bitbucket'
若是你不知道或不关心那个浏览器有你须要的cookies,你能够这样操做:
>>> cj = browsercookie.load() >>> r = requests.get(url, cookies=cj) >>> get_title(r.content) 'richardpenman / home — Bitbucket'
支持
不少用Python的人可能都写过网络爬虫,自动化获取网络数据确实是一件使人愉悦的事情,而Python很好的帮助咱们达到这种愉悦。然而,爬虫常常要碰到各类登陆、验证的阻挠,让人灰心丧气(网站:每天碰到各类各样的爬虫抓咱们网站,也很让人灰心丧气~)。爬虫和反爬虫就是一个猫和老鼠的游戏,道高一尺魔高一丈,二者反复纠缠。
因为http协议的无状态性,登陆验证都是经过传递cookies来实现的。经过浏览器登陆一次,登陆信息的cookie是就会被浏览器保存下来。下次再打开该网站时,浏览器自动带上保存的cookies,只有cookies还未过时,对于网站来讲你就仍是登陆状态的。
browsercookie模块就是这样一个从浏览器提取保存的cookies的工具。它是一个颇有用的爬虫工具,经过加载你浏览器的cookies到一个cookiejar对象里面,让你轻松下载须要登陆的网页内容。
pip install browsercookie
在Windows系统中,内置的sqlite模块在加载FireFox数据库时会抛出错误。须要更新sqlite的版本:pip install pysqlite
下面是从网页提取标题的例子:
>>> import re
>>> get_title = lambda html: re.findall('<title>(.*?)</title>', html, flags=re.DOTALL)[0].strip()
下面是未登陆情况下下载获得的标题:
>>> import urllib2
>>> url = 'https://bitbucket.org/'
>>> public_html = urllib2.urlopen(url).read()
>>> get_title(public_html)
'Git and Mercurial code management for teams'
接下来使用browsercookie从登陆过Bitbucket的FireFox里面获取cookie再下载:
>>> import browsercookie
>>> cj = browsercookie.firefox()
>>> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
>>> login_html = opener.open(url).read()
>>> get_title(login_html)
'richardpenman / home — Bitbucket'
上面是Python2的代码,再试试 Python3:
>>> import urllib.request
>>> public_html = urllib.request.urlopen(url).read()
>>> opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
你能够看到你的用户名出如今title里面了,说明browsercookie模块成功从FireFox加载了cookies。
下面是使用requests的例子,此次咱们从Chrome里面加载cookies,固然你须要事先用Chrome登陆Bitbucket:
>>> import requests
>>> cj = browsercookie.chrome()
>>> r = requests.get(url, cookies=cj)
>>> get_title(r.content)
'richardpenman / home — Bitbucket'
若是你不知道或不关心那个浏览器有你须要的cookies,你能够这样操做:
>>> cj = browsercookie.load()
>>> r = requests.get(url, cookies=cj)
>>> get_title(r.content)
'richardpenman / home — Bitbucket'
来自 https://www.yuanrenxue.com/crawler/get-login-cookies-browsercookie.html 的学习笔记