XPath,全称XML Path Language,即XML路径语言,它是一门在XML文档中查找信息的语言。它最初是用来搜寻XML文档的,可是它一样适用于HTML文档的搜索。html
因此在作爬虫时,咱们彻底可使用XPath来作相应的信息抽取。本节中,咱们就来介绍XPath的基本用法。node
XPath的选择功能十分强大,它提供了很是简洁明了的路径选择表达式。另外,它还提供了超过100个内建函数,用于字符串、数值、时间的匹配以及节点、序列的处理等。几乎全部咱们想要定位的节点,均可以用XPath来选择。python
XPath于1999年11月16日成为W3C标准,它被设计为供XSLT、XPointer以及其余XML解析软件使用,更多的文档能够访问其官方网站:https://www.w3.org/TR/xpath/。git
表4-1列举了XPath的几个经常使用规则。github
表4-1 XPath经常使用规则网络
表达式app |
描述函数 |
---|---|
|
选取此节点的全部子节点ui |
|
从当前节点选取直接子节点 |
|
从当前节点选取子孙节点 |
|
选取当前节点 |
|
选取当前节点的父节点 |
|
选取属性 |
这里列出了XPath的经常使用匹配规则,示例以下:
1
|
//title[@lang='eng']
|
这就是一个XPath规则,它表明选择全部名称为title
,同时属性lang
的值为eng
的节点。
后面会经过Python的lxml库,利用XPath进行HTML的解析。
使用以前,首先要确保安装好lxml库,若没有安装,能够参考第1章的安装过程。
如今经过实例来感觉一下使用XPath来对网页进行解析的过程,相关代码以下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
from lxml import etree
text = '''
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</ul>
</div>
'''
html = etree.HTML(text)
result = etree.tostring(html)
print(result.decode('utf-8'))
|
这里首先导入lxml库的etree模块,而后声明了一段HTML文本,调用HTML类进行初始化,这样就成功构造了一个XPath解析对象。这里须要注意的是,HTML文本中的最后一个li
节点是没有闭合的,可是etree模块能够自动修正HTML文本。
这里咱们调用tostring()
方法便可输出修正后的HTML代码,可是结果是bytes
类型。这里利用decode()
方法将其转成str
类型,结果以下:
1
2
3
4
5
6
7
8
9
10
|
<html><body><div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li></ul>
</div>
</body></html>
|
能够看到,通过处理以后,li
节点标签被补全,而且还自动添加了body
、html
节点。
另外,也能够直接读取文本文件进行解析,示例以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = etree.tostring(html)
print(result.decode('utf-8'))
|
其中test.html的内容就是上面例子中的HTML代码,内容以下:
1
2
3
4
5
6
7
8
9
|
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</ul>
</div>
|
此次的输出结果略有不一样,多了一个DOCTYPE
的声明,不过对解析无任何影响,结果以下:
1
2
3
4
5
6
7
8
9
10
|
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">
<html><body><div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li></ul>
</div></body></html>
|
咱们通常会用//开头的XPath规则来选取全部符合要求的节点。这里之前面的HTML文本为例,若是要选取全部节点,能够这样实现:
1
2
3
4
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//*')
print(result)
|
运行结果以下:
1
|
[<Element html at 0x10510d9c8>, <Element body at 0x10510da08>, <Element div at 0x10510da48>, <Element ul at 0x10510da88>, <Element li at 0x10510dac8>, <Element a at 0x10510db48>, <Element li at 0x10510db88>, <Element a at 0x10510dbc8>, <Element li at 0x10510dc08>, <Element a at 0x10510db08>, <Element li at 0x10510dc48>, <Element a at 0x10510dc88>, <Element li at 0x10510dcc8>, <Element a at 0x10510dd08>]
|
这里使用*表明匹配全部节点,也就是整个HTML文本中的全部节点都会被获取。能够看到,返回形式是一个列表,每一个元素是Element
类型,其后跟了节点的名称,如html
、body
、div
、ul
、li
、a
等,全部节点都包含在列表中了。
固然,此处匹配也能够指定节点名称。若是想获取全部li
节点,示例以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li')
print(result)
print(result[0])
|
这里要选取全部li
节点,可使用//
,而后直接加上节点名称便可,调用时直接使用xpath()
方法便可。
运行结果:
1
2
|
[<Element li at 0x105849208>, <Element li at 0x105849248>, <Element li at 0x105849288>, <Element li at 0x1058492c8>, <Element li at 0x105849308>]
<Element li at 0x105849208>
|
这里能够看到提取结果是一个列表形式,其中每一个元素都是一个 Element
对象。若是要取出其中一个对象,能够直接用中括号加索引,如[0]
。
咱们经过/
或//
便可查找元素的子节点或子孙节点。假如如今想选择li
节点的全部直接a
子节点,能够这样实现:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li/a')
print(result)
|
这里经过追加/a
即选择了全部li
节点的全部直接a
子节点。由于//li
用于选中全部li
节点,/a
用于选中li
节点的全部直接子节点a
,两者组合在一块儿即获取全部li
节点的全部直接a
子节点。
运行结果以下:
1
|
[<Element a at 0x106ee8688>, <Element a at 0x106ee86c8>, <Element a at 0x106ee8708>, <Element a at 0x106ee8748>, <Element a at 0x106ee8788>]
|
此处的/
用于选取直接子节点,若是要获取全部子孙节点,就可使用//
。例如,要获取ul
节点下的全部子孙a
节点,能够这样实现:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//ul//a')
print(result)
|
运行结果是相同的。
可是若是这里用//ul/a
,就没法获取任何结果了。由于/
用于获取直接子节点,而在ul
节点下没有直接的a
子节点,只有li
节点,因此没法获取任何匹配结果,代码以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//ul/a')
print(result)
|
运行结果以下:
1
|
[]
|
所以,这里咱们要注意/
和//
的区别,其中/
用于获取直接子节点,//
用于获取子孙节点。
咱们知道经过连续的/
或//
能够查找子节点或子孙节点,那么假如咱们知道了子节点,怎样来查找父节点呢?这能够用..
来实现。
好比,如今首先选中href
属性为link4.html
的a
节点,而后再获取其父节点,而后再获取其class
属性,相关代码以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/../@class')
print(result)
|
运行结果以下:
1
|
['item-1']
|
检查一下结果发现,这正是咱们获取的目标li
节点的class
。
同时,咱们也能够经过parent::
来获取父节点,代码以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/parent::*/@class')
print(result)
|
在选取的时候,咱们还能够用@
符号进行属性过滤。好比,这里若是要选取class
为item-1
的li
节点,能够这样实现:
1
2
3
4
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]')
print(result)
|
这里咱们经过加入[@class="item-0"]
,限制了节点的class
属性为item-0
,而HTML文本中符合条件的li
节点有两个,因此结果应该返回两个匹配到的元素。结果以下:
1
|
[<Element li at 0x10a399288>, <Element li at 0x10a3992c8>]
|
可见,匹配结果正是两个,至因而不是那正确的两个,后面再验证。
咱们用XPath中的text()
方法获取节点中的文本,接下来尝试获取前面li
节点中的文本,相关代码以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]/text()')
print(result)
|
运行结果以下:
1
|
['\n ']
|
奇怪的是,咱们并无获取到任何文本,只获取到了一个换行符,这是为何呢?由于XPath中text()
前面是/
,而此处/
的含义是选取直接子节点,很明显li
的直接子节点都是a
节点,文本都是在a
节点内部的,因此这里匹配到的结果就是被修正的li
节点内部的换行符,由于自动修正的li
节点的尾标签换行了。
即选中的是这两个节点:
1
2
3
|
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li>
|
其中一个节点由于自动修正,li
节点的尾标签添加的时候换行了,因此提取文本获得的惟一结果就是li
节点的尾标签和a
节点的尾标签之间的换行符。
所以,若是想获取li
节点内部的文本,就有两种方式,一种是先选取a
节点再获取文本,另外一种就是使用//
。接下来,咱们来看下两者的区别。
首先,选取到a
节点再获取文本,代码以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]/a/text()')
print(result)
|
运行结果以下:
1
|
['first item', 'fifth item']
|
能够看到,这里的返回值是两个,内容都是属性为item-0
的li
节点的文本,这也印证了前面属性匹配的结果是正确的。
这里咱们是逐层选取的,先选取了li
节点,又利用/
选取了其直接子节点a
,而后再选取其文本,获得的结果刚好是符合咱们预期的两个结果。
再来看下用另外一种方式(即便用//
)选取的结果,代码以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]//text()')
print(result)
|
运行结果以下:
1
|
['first item', 'fifth item', '\n ']
|
不出所料,这里的返回结果是3个。可想而知,这里是选取全部子孙节点的文本,其中前两个就是li
的子节点a
节点内部的文本,另一个就是最后一个li
节点内部的文本,即换行符。
因此说,若是要想获取子孙节点内部的全部文本,能够直接用//
加text()
的方式,这样能够保证获取到最全面的文本信息,可是可能会夹杂一些换行符等特殊字符。若是想获取某些特定子孙节点下的全部文本,能够先选取到特定的子孙节点,而后再调用text()
方法获取其内部文本,这样能够保证获取的结果是整洁的。
咱们知道用text()
能够获取节点内部文本,那么节点属性该怎样获取呢?其实仍是用@
符号就能够。例如,咱们想获取全部li
节点下全部a
节点的href
属性,代码以下:
1
2
3
4
5
|
from lxml import etree
html = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li/a/@href')
print(result)
|
这里咱们经过@href
便可获取节点的href
属性。注意,此处和属性匹配的方法不一样,属性匹配是中括号加属性名和值来限定某个属性,如[@href="link1.html"]
,而此处的@href
指的是获取节点的某个属性,两者须要作好区分。
运行结果以下:
1
|
['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html']
|
能够看到,咱们成功获取了全部li
节点下a
节点的href
属性,它们以列表形式返回。
有时候,某些节点的某个属性可能有多个值,例如:
1
2
3
4
5
6
7
|
from lxml import etree
text = '''
<li class="li li-first"><a href="link.html">first item</a></li>
'''
html = etree.HTML(text)
result = html.xpath('//li[@class="li"]/a/text()')
print(result)
|
这里HTML文本中li
节点的class
属性有两个值li
和li-first
,此时若是还想用以前的属性匹配获取,就没法匹配了,此时的运行结果以下:
1
|
[]
|
这时就须要用contains()
函数了,代码能够改写以下:
1
2
3
4
5
6
7
|
from lxml import etree
text = '''
<li class="li li-first"><a href="link.html">first item</a></li>
'''
html = etree.HTML(text)
result = html.xpath('//li[contains(@class, "li")]/a/text()')
print(result)
|
这样经过contains()
方法,第一个参数传入属性名称,第二个参数传入属性值,只要此属性包含所传入的属性值,就能够完成匹配了。
此时运行结果以下:
1
|
['first item']
|
此种方式在某个节点的某个属性有多个值时常常用到,如某个节点的class
属性一般有多个。
另外,咱们可能还遇到一种状况,那就是根据多个属性肯定一个节点,这时就须要同时匹配多个属性。此时可使用运算符and
来链接,示例以下:
1
2
3
4
5
6
7
|
from lxml import etree
text = '''
<li class="li li-first" name="item"><a href="link.html">first item</a></li>
'''
html = etree.HTML(text)
result = html.xpath('//li[contains(@class, "li") and @name="item"]/a/text()')
print(result)
|
这里的li
节点又增长了一个属性name
。要肯定这个节点,须要同时根据class
和name
属性来选择,一个条件是class
属性里面包含li
字符串,另外一个条件是name
属性为item
字符串,两者须要同时知足,须要用and
操做符相连,相连以后置于中括号内进行条件筛选。运行结果以下:
1
|
['first item']
|
这里的and
实际上是XPath中的运算符。另外,还有不少运算符,如or
、mod
等,在此总结为表4-2。
表4-2 运算符及其介绍
运算符 |
描述 |
实例 |
返回值 |
---|---|---|---|
|
或 |
|
若是 |
|
与 |
|
若是 |
|
计算除法的余数 |
|
1 |
|
计算两个节点集 |
|
返回全部拥有 |
|
加法 |
|
10 |
|
减法 |
|
2 |
|
乘法 |
|
24 |
|
除法 |
|
2 |
|
等于 |
|
若是 |
|
不等于 |
|
若是 |
|
小于 |
|
若是 |
|
小于或等于 |
|
若是 |
|
大于 |
|
若是 |
|
大于或等于 |
|
若是 |
此表参考来源:http://www.w3school.com.cn/xpath/xpath_operators.asp。
有时候,咱们在选择的时候某些属性可能同时匹配了多个节点,可是只想要其中的某个节点,如第二个节点或者最后一个节点,这时该怎么办呢?
这时能够利用中括号传入索引的方法获取特定次序的节点,示例以下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
from lxml import etree
text = '''
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</ul>
</div>
'''
html = etree.HTML(text)
result = html.xpath('//li[1]/a/text()')
print(result)
result = html.xpath('//li[last()]/a/text()')
print(result)
result = html.xpath('//li[position()<3]/a/text()')
print(result)
result = html.xpath('//li[last()-2]/a/text()')
print(result)
|
第一次选择时,咱们选取了第一个li
节点,中括号中传入数字1便可。注意,这里和代码中不一样,序号是以1开头的,不是以0开头。
第二次选择时,咱们选取了最后一个li
节点,中括号中传入last()
便可,返回的即是最后一个li
节点。
第三次选择时,咱们选取了位置小于3的li
节点,也就是位置序号为1和2的节点,获得的结果就是前两个li
节点。
第四次选择时,咱们选取了倒数第三个li
节点,中括号中传入last()-2
便可。由于last()
是最后一个,因此last()-2
就是倒数第三个。
运行结果以下:
1
2
3
4
|
['first item']
['fifth item']
['first item', 'second item']
['third item']
|
这里咱们使用了last()
、position()
等函数。在XPath中,提供了100多个函数,包括存取、数值、字符串、逻辑、节点、序列等处理功能,它们的具体做用能够参考:http://www.w3school.com.cn/xpath/xpath_functions.asp。
XPath提供了不少节点轴选择方法,包括获取子元素、兄弟元素、父元素、祖先元素等,示例以下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
from lxml import etree
text = '''
<div>
<ul>
<li class="item-0"><a href="link1.html"><span>first item</span></a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</ul>
</div>
'''
html = etree.HTML(text)
result = html.xpath('//li[1]/ancestor::*')
print(result)
result = html.xpath('//li[1]/ancestor::div')
print(result)
result = html.xpath('//li[1]/attribute::*')
print(result)
result = html.xpath('//li[1]/child::a[@href="link1.html"]')
print(result)
result = html.xpath('//li[1]/descendant::span')
print(result)
result = html.xpath('//li[1]/following::*[2]')
print(result)
result = html.xpath('//li[1]/following-sibling::*')<code class="lang-python">
<span class="kwd">print</span><span class="pun">(</span><span class="pln">result</span><span class="pun">)</span>
|
运行结果以下:
1
2
3
4
5
6
7
|
[<Element html at 0x107941808>, <Element body at 0x1079418c8>, <Element div at 0x107941908>, <Element ul at 0x107941948>]
[<Element div at 0x107941908>]
['item-0']
[<Element a at 0x1079418c8>]
[<Element span at 0x107941948>]
[<Element a at 0x1079418c8>]
[<Element li at 0x107941948>, <Element li at 0x107941988>, <Element li at 0x1079419c8>, <Element li at 0x107941a08>]
|
第一次选择时,咱们调用了ancestor
轴,能够获取全部祖先节点。其后须要跟两个冒号,而后是节点的选择器,这里咱们直接使用*,表示匹配全部节点,所以返回结果是第一个li
节点的全部祖先节点,包括html
、body
、div
和ul
。
第二次选择时,咱们又加了限定条件,此次在冒号后面加了div
,这样获得的结果就只有div
这个祖先节点了。
第三次选择时,咱们调用了attribute
轴,能够获取全部属性值,其后跟的选择器仍是*,这表明获取节点的全部属性,返回值就是li
节点的全部属性值。
第四次选择时,咱们调用了child
轴,能够获取全部直接子节点。这里咱们又加了限定条件,选取href
属性为link1.html
的a
节点。
第五次选择时,咱们调用了descendant
轴,能够获取全部子孙节点。这里咱们又加了限定条件获取span
节点,因此返回的结果只包含span
节点而不包含a
节点。
第六次选择时,咱们调用了following
轴,能够获取当前节点以后的全部节点。这里咱们虽然使用的是*匹配,但又加了索引选择,因此只获取了第二个后续节点。
第七次选择时,咱们调用了following-sibling
轴,能够获取当前节点以后的全部同级节点。这里咱们使用*匹配,因此获取了全部后续同级节点。
以上是XPath轴的简单用法,更多轴的用法能够参考:http://www.w3school.com.cn/xpath/xpath_axes.asp。
到如今为止,咱们基本上把可能用到的XPath选择器介绍完了。XPath功能很是强大,内置函数很是多,熟练使用以后,能够大大提高HTML信息的提取效率。
若是想查询更多XPath的用法,能够查看:http://www.w3school.com.cn/xpath/index.asp。
若是想查询更多Python lxml库的用法,能够查看http://lxml.de/。
转载请注明:静觅 » [Python3网络爬虫开发实战] 4.1-使用XPath