Python3网络爬虫实战---2二、使用Urllib:解析连接

上一篇文章: Python3网络爬虫实战---2一、使用Urllib:处理异常
下一篇文章: Python3网络爬虫实战---2三、使用Urllib:分析Robots协议

Urllib 库里还提供了 parse 这个模块,它定义了处理 URL 的标准接口,例如实现 URL 各部分的抽取,合并以及连接转换。它支持以下协议的 URL 处理:file、ftp、gopher、hdl、http、https、imap、mailto、 mms、news、nntp、prospero、rsync、rtsp、rtspu、sftp、shttp、 sip、sips、snews、svn、svn+ssh、telnet、wais,本节咱们介绍一下该模块中经常使用的方法来感觉一下它的便捷之处。php

1. urlparse()

urlparse() 方法能够实现 URL 的识别和分段,咱们先用一个实例来感觉一下:html

from urllib.parse import urlparse

result = urlparse('http://www.baidu.com/index.html;user?id=5#comment')
print(type(result), result)

在这里咱们利用了 urlparse() 方法进行了一个 URL 的解析,首先输出了解析结果的类型,而后将结果也输出出来。segmentfault

运行结果:网络

<class 'urllib.parse.ParseResult'>
ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5', fragment='comment')

观察能够看到,返回结果是一个 ParseResult 类型的对象,它包含了六个部分,分别是 scheme、netloc、path、params、query、fragment。数据结构

观察一下实例的URL:ssh

http://www.baidu.com/index.html;user?id=5#comment

urlparse() 方法将其拆分红了六部分,大致观察能够发现,解析时有特定的分隔符,好比 :// 前面的就是 scheme,表明协议,第一个 / 前面即是 netloc,即域名,分号 ; 前面是 params,表明参数。svn

因此能够得出一个标准的连接格式以下:函数

scheme://netloc/path;parameters?query#fragment

一个标准的 URL 都会符合这个规则,利用 urlparse() 方法咱们能够将它解析拆分开来。ui

除了这种最基本的解析方式,urlopen() 方法还有其余配置吗?接下来看一下它的 API 用法:编码

urllib.parse.urlparse(urlstring, scheme='', allow_fragments=True)

能够看到它有三个参数:

  • urlstring,是必填项,即待解析的 URL。
  • scheme,是默认的协议(好比http、https等),假如这个连接没有带协议信息,会将这个做为默认的协议。

咱们用一个实例感觉一下:

from urllib.parse import urlparse

result = urlparse('www.baidu.com/index.html;user?id=5#comment', scheme='https')
print(result)

运行结果:

ParseResult(scheme='https', netloc='', path='www.baidu.com/index.html', params='user', query='id=5', fragment='comment')

能够发现,咱们提供的 URL 没有包含最前面的 scheme 信息,可是经过指定默认的 scheme 参数,返回的结果是 https。

假设咱们带上了 scheme 呢?

result = urlparse('http://www.baidu.com/index.html;user?id=5#comment', scheme='https')

结果以下:

ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5', fragment='comment')

可见 scheme 参数只有在 URL 中不包含 scheme 信息时才会生效,若是 URL 中有 scheme 信息,那就返回解析出的 scheme。

  • allow_fragments,便是否忽略 fragment,若是它被设置为 False,fragment 部分就会被忽略,它会被解析为 path、parameters 或者 query 的一部分,fragment 部分为空。

下面咱们用一个实例感觉一下:

from urllib.parse import urlparse

result = urlparse('http://www.baidu.com/index.html;user?id=5#comment', allow_fragments=False)
print(result)

运行结果:

ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5#comment', fragment='')

假设 URL 中不包含 parameters 和 query 呢?

再来一个实例看下:

from urllib.parse import urlparse

result = urlparse('http://www.baidu.com/index.html#comment', allow_fragments=False)
print(result)

运行结果:

ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html#comment', params='', query='', fragment='')

能够发现当 URL 中不包含 params 和 query 时, fragment 便会被解析为 path 的一部分。

返回结果 ParseResult 其实是一个元组,咱们能够用索引顺序来获取,也能够用属性名称获取,实例以下:

from urllib.parse import urlparse

result = urlparse('http://www.baidu.com/index.html#comment', allow_fragments=False)
print(result.scheme, result[0], result.netloc, result[1], sep='\n')

在这里咱们分别用索引和属性名获取了 scheme 和 netloc,运行结果以下:

http
http
www.baidu.com
www.baidu.com

能够发现两者结果是一致的,两种方法均可以成功获取。

2. urlunparse()

有了 urlparse() 那相应地就有了它的对立方法 urlunparse()。

它接受的参数是一个可迭代对象,可是它的长度必须是 6,不然会抛出参数数量不足或者过多的问题。

先用一个实例感觉一下:

from urllib.parse import urlunparse

data = ['http', 'www.baidu.com', 'index.html', 'user', 'a=6', 'comment']
print(urlunparse(data))

参数 data 用了列表类型,固然你也能够用其余的类型如元组或者特定的数据结构。

运行结果以下:

http://www.baidu.com/index.html;user?a=6#comment

这样咱们就成功实现了 URL 的构造。

3. urlsplit()

这个和 urlparse() 方法很是类似,只不过它不会单独解析 parameters 这一部分,只返回五个结果。上面例子中的 parameters 会合并到 path中,用一个实例感觉一下:

from urllib.parse import urlsplit

result = urlsplit('http://www.baidu.com/index.html;user?id=5#comment')
print(result)

运行结果:

SplitResult(scheme='http', netloc='www.baidu.com', path='/index.html;user', query='id=5', fragment='comment')

能够发现返回结果是 SplitResult,其实也是一个元组类型,能够用属性获取值也能够用索引来获取,实例以下:

from urllib.parse import urlsplit

result = urlsplit('http://www.baidu.com/index.html;user?id=5#comment')
print(result.scheme, result[0])

运行结果:

http http

4. urlunsplit()

与 urlunparse() 相似,也是将连接的各个部分组合成完整连接的方法,传入的也是一个可迭代对象,例如列表、元组等等,惟一的区别是,长度必须为 5。

用一个实例来感觉一下:

from urllib.parse import urlunsplit

data = ['http', 'www.baidu.com', 'index.html', 'a=6', 'comment']
print(urlunsplit(data))

运行结果:

http://www.baidu.com/index.html?a=6#comment

一样能够完成连接的拼接生成。

5. urljoin()

有了 urlunparse() 和 urlunsplit() 方法,咱们能够完成连接的合并,不过前提必需要有特定长度的对象,连接的每一部分都要清晰分开。

生成连接还有另外一个方法,利用 urljoin() 方法咱们能够提供一个 base_url(基础连接),新的连接做为第二个参数,方法会分析 base_url 的 scheme、netloc、path 这三个内容对新连接缺失的部分进行补充,做为结果返回。

咱们用几个实例来感觉一下:

from urllib.parse import urljoin

print(urljoin('http://www.baidu.com', 'FAQ.html'))
print(urljoin('http://www.baidu.com', 'https://cuiqingcai.com/FAQ.html'))
print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html'))
print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html?question=2'))
print(urljoin('http://www.baidu.com?wd=abc', 'https://cuiqingcai.com/index.php'))
print(urljoin('http://www.baidu.com', '?category=2#comment'))
print(urljoin('www.baidu.com', '?category=2#comment'))
print(urljoin('www.baidu.com#comment', '?category=2'))

运行结果:

http://www.baidu.com/FAQ.html
https://cuiqingcai.com/FAQ.html
https://cuiqingcai.com/FAQ.html
https://cuiqingcai.com/FAQ.html?question=2
https://cuiqingcai.com/index.php
http://www.baidu.com?category=2#comment
www.baidu.com?category=2#comment
www.baidu.com?category=2

能够发现,base_url 提供了三项内容,scheme、netloc、path,若是这三项在新的连接里面不存在,那么就予以补充,若是新的连接存在,那么就使用新的连接的部分。base_url 中的 parameters、query、fragments 是不起做用的。

经过如上的函数,咱们能够轻松地实现连接的解析,拼合与生成。

6. urlencode()

咱们再介绍一个经常使用的 urlencode() 方法,它在构造 GET 请求参数的时候很是有用,咱们用实例感觉一下:

from urllib.parse import urlencode

params = {
    'name': 'germey',
    'age': 22
}
base_url = 'http://www.baidu.com?'
url = base_url + urlencode(params)
print(url)

咱们首先声明了一个字典,将参数表示出来,而后调用 urlencode() 方法将其序列化为 URL 标准 GET 请求参数。

运行结果:

http://www.baidu.com?name=germey&age=22

能够看到参数就成功由字典类型转化为 GET 请求参数了。

这个方法很是经常使用,有时为了更加方便地构造参数,咱们会事先用字典来表示,要转化为 URL 的参数时只须要调用该方法便可。

7. parse_qs()

有了序列化必然就有反序列化,若是咱们有一串 GET 请求参数,咱们利用 parse_qs() 方法就能够将它转回字典,咱们用一个实例感觉一下:

from urllib.parse import parse_qs

query = 'name=germey&age=22'
print(parse_qs(query))

运行结果:

{'name': ['germey'], 'age': ['22']}

能够看到这样就成功转回为字典类型了。

8. parse_qsl()

另外还有一个 parse_qsl() 方法能够将参数转化为元组组成的列表,实例以下:

from urllib.parse import parse_qsl

query = 'name=germey&age=22'
print(parse_qsl(query))

运行结果:

[('name', 'germey'), ('age', '22')]

能够看到运行结果是一个列表,列表的每个元素都是一个元组,元组的第一个内容是参数名,第二个内容是参数值。

9. quote()

quote() 方法能够将内容转化为 URL 编码的格式,有时候 URL 中带有中文参数的时候可能致使乱码的问题,因此咱们能够用这个方法将中文字符转化为 URL 编码,实例以下:

from urllib.parse import quote

keyword = '壁纸'
url = 'https://www.baidu.com/s?wd=' + quote(keyword)
print(url

在这里咱们声明了一个中文的搜索文字,而后用 quote() 方法对其进行 URL 编码,最后获得的结果以下:

https://www.baidu.com/s?wd=%E...

这样咱们就能够成功实现URL编码的转换。

10. unquote()

有了 quote() 方法固然还有 unquote() 方法,它能够进行 URL 解码,实例以下:

from urllib.parse import unquote

url = 'https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8'
print(unquote(url))

这是上面获得的 URL 编码后的结果,咱们在这里利用 unquote() 方法进行还原,结果以下:

https://www.baidu.com/s?wd=壁纸

能够看到利用 unquote() 方法能够方便地实现解码。

11. 结语

本节介绍了 parse 模块的一些经常使用 URL 处理方法,有了这些方法咱们能够方便地实现 URL 的解析和构造,建议熟练掌握。

上一篇文章: Python3网络爬虫实战---2一、使用Urllib:处理异常
下一篇文章: Python3网络爬虫实战---2三、使用Urllib:分析Robots协议
相关文章
相关标签/搜索