第三方库lxml是第一款表现出高性能特征的python xml库,天生支持Xpath1.0、XSLT1.0、定制元素类,甚至python风格的数据绑定接口。lxml是经过Cpython实现的,构建在两个C库上(libxml2和libxslt),为执行解析、序列化、转换等核心任务提供了主要动力,是爬虫处理网页数据的一件利器。
lxml对xml和html都有很好的支持,分别使用 lxml.etree 和 lxml.html 两个模块。html
# 经过pip直接下载安装 pip install lxml # 经过git克隆源码进行下载安装 git clone https://github.com/lxml/lxml.git lxml
lxml.html&lxml.etree这两个模块是最经常使用的HTML文档和XML文档解析模块。
HTML(HyperText Markup Language)超文本标记语言。
XML(Extensible Markup Language)可扩展标记语言。node
lxmlpython
Xpath使用路径表达式在XML文档中选取节点。节点是经过沿着路径或者step来选取的。经常使用的路径表达式以下:git
表达式 | 描述 |
---|---|
nodename | 选取此节点的全部子节点 |
/ | 从根节点选取 |
// | 从匹配选择的当前节点选择文档的节点,而不考虑它们的位置 |
. | 选取当前节点 |
.. | 选取当前节点的父节点 |
@ | 选取属性 |
下面为一些路径表达式及表达式结果:github
路径表达式 | 结果 |
---|---|
bookstore | 选取 bookstore 元素的全部子节点 |
/bookstore | 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终表明到某元素的绝对路径! |
bookstore/book | 选取属于 bookstore 的子元素的全部 book 元素 |
//book | 选取全部 book 子元素,而无论它们在文档中的位置。 |
bookstore//book | 选择属于 bookstore 元素的后代的全部 book 元素,而无论它们位于 bookstore 之下的什么位置。 |
//@lang | 选取名为 lang 的全部属性。 |
谓语用来查找某个特定的节点或者包含某个指定的值的节点。谓语被嵌在方括号中。
下面为一些带有谓语的路径表达式,及表达式结果:chrome
路径表达式 | 结果 |
---|---|
/bookstore/book[1] | 选取属于 bookstore 子元素的第一个 book 元素。 |
/bookstore/book[last()] | 选取属于 bookstore 子元素的最后一个 book 元素。 |
/bookstore/book[last()-1] | 选取属于 bookstore 子元素的倒数第二个 book 元素。 |
/bookstore/book[position()<3] | 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。 |
//title[@lang] | 选取全部拥有名为 lang 的属性的 title 元素。 |
//title[@lang=’eng’] | 选取全部 title 元素,且这些元素拥有值为 eng 的 lang 属性。 |
/bookstore/book[price>35.00] | 选取 bookstore 元素的全部 book 元素,且其中的 price 元素的值须大于 35.00。 |
/bookstore/book[price>35.00]/title | 选取 bookstore 元素中的 book 元素的全部 title 元素,且其中的 price 元素的值须大于 35.00。 |
XPath通配符可用来选取未知的XML元素。浏览器
通配符 | 描述 |
---|---|
* | 匹配任何元素节点 |
@* | 匹配任何属性节点 |
node() | 匹配任何类型的节点 |
下面为一些带有通配符的路径表达式,及表达式结果:网络
路径表达式 | 结果 |
---|---|
/bookstore/* | 选取 bookstore 元素的全部子元素。 |
//* | 选取文档中的全部元素。 |
//title[@*] | 选取文档中的全部元素。 |
经过在路径表达式中使用“|”运算符,您能够选取若干个路径。
下面为一些带有"|"运算符的路径表达式,及表达式结果:scrapy
路径表达式 | 结果 |
---|---|
//book/title | //book/price |
//title | //price |
/bookstore/book/title | //price |
下面列出了可用再XPath表达式中运算符:函数
运算符 | 描述 | 实例 | 返回值 |
---|---|---|---|
计算两个节点集 | //book | ||
+ | 加法 | 6 + 4 | 10 |
– | 减法 | 6 – 4 | 2 |
* | 乘法 | 6 * 4 | 24 |
div | 除法 | 8 div 4 | 2 |
= | 等于 | price=9.80 | 若是 price 是 9.80,则返回 true。若是 price 是 9.90,则返回 false。 |
!= | 不等于 | price!=9.80 | 若是 price 是 9.90,则返回 true。若是 price 是 9.80,则返回 false。 |
< | 小于 | price<9.80 | 若是 price 是 9.00,则返回 true。若是 price 是 9.90,则返回 false。 |
<= | 小于或等于 | price<=9.80 | 若是 price 是 9.00,则返回 true。若是 price 是 9.90,则返回 false。 |
> | 大于 | price>9.80 | 若是 price 是 9.90,则返回 true。若是 price 是 9.80,则返回 false。 |
>= | 大于或等于 | price>=9.80 | 若是 price 是 9.90,则返回 true。若是 price 是 9.70,则返回 false。 |
or | 或 | price=9.80 or price=9.70 | 若是 price 是 9.80,则返回 true。若是 price 是 9.50,则返回 false。 |
and | 与 | price>9.00 and price<9.90 | 若是 price 是 9.80,则返回 true。若是 price 是 8.50,则返回 false。 |
mod | 计算除法的余数 | 5 mod 2 | 1 |
etree=etree.parse('本地文件路径') etree.xpath('xpath表达式')
etree=etree.HTML('网络请求到的页面数据') etree.xpath('xpath表达式')
属性定位: #找到class属性值为song的div标签 //div[@class="song"] 层级&索引定位: #找到class属性值为tang的div的直系子标签ul下的第二个子标签li下的直系子标签a //div[@class="tang"]/ul/li[2]/a 逻辑运算: #找到href属性值为空且class属性值为du的a标签 //a[@href="" and @class="du"] 模糊匹配: //div[contains(@class, "ng")] //div[starts-with(@class, "ta")] 取文本: # /表示获取某个标签下的文本内容 # //表示获取某个标签下的文本内容和全部子标签下的文本内容 //div[@class="song"]/p[1]/text() //div[@class="tang"]//text() 取属性: //div[@class="tang"]//li[2]/a/@href
建立本地html文件来测试Xpath数据解析。
<html lang="en"> <head> <meta charset="UTF-8" /> <title>测试bs4</title> </head> <body> <div> <p>百里守约</p> </div> <div class="song"> <p>李清照</p> <p>王安石</p> <p>苏轼</p> <p>柳宗元</p> <a href="http://www.song.com/" title="赵匡胤" target="_self"> <span>this is span</span> 宋朝是最强大的王朝,不是军队的强大,而是经济很强大,国民都颇有钱</a> <a href="" class="du">总为浮云能蔽日,长安不见令人愁</a> <img src="http://www.baidu.com/meinv.jpg" alt="" /> </div> <div class="tang"> <ul> <li><a href="http://www.baidu.com" title="qing">清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村</a></li> <li><a href="http://www.163.com" title="qin">秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山</a></li> <li><a href="http://www.126.com" alt="qi">岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君</a></li> <li><a href="http://www.sina.com" class="du">杜甫</a></li> <li><a href="http://www.dudu.com" class="du">杜牧</a></li> <li><b>杜小月</b></li> <li><i>度蜜月</i></li> <li><a href="http://www.haha.com" id="feng">凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘</a></li> </ul> </div> </body> </html>
from lxml import etree # 建立etree对象进行制定数据解析 tree = etree.parse('./test.html') # 解析本地文件 # 属性定位:根据指定的属性定位到指定的节点标签 # tree.xpath('//div[@class="song"]') """ [<Element div at 0x10dbead88>] """ # 层级&索引定位 # tree.xpath('//div[@class="tang"]/ul/li[2]/a') # 定位到第二个li中的a标签 """ [<Element a at 0x10e30ab48>] """ # 逻辑定位 //a:整个源码下的a标签 # [@href="" and @class="du"] href为空,class属性为du # tree.xpath('//a[@href="" and @class="du"]') """ [<Element a at 0x10e2a8e88>] """ # 模糊匹配 # tree.xpath('//div[contains(@class, "ng")]') # tree.xpath('//div[starts-with(@class, "ta")]') """ [<Element div at 0x10dbea548>, <Element div at 0x10e392348>] [<Element div at 0x10dabd688>] """ # 取文本 # /text()获取当前标签中直系存储的文本数据 # tree.xpath('//div[@class="song"]/p[1]/text()') # song的div下的第一个p子标签 # 输出:['李清照'] # //text()获取tang这个div标签下全部子标签中存储的文本数据 # tree.xpath('//div[@class="tang"]//text()') """ ['\n\t\t', '\n\t\t\t', '清明时节雨纷纷,路上行人欲断魂,借问酒家何处有,牧童遥指杏花村', '\n\t\t\t', '秦时明月汉时关,万里长征人未还,但使龙城飞将在,不教胡马度阴山', '\n\t\t\t', '岐王宅里寻常见,崔九堂前几度闻,正是江南好风景,落花时节又逢君', '\n\t\t\t', '杜甫', '\n\t\t\t', '杜牧', '\n\t\t\t', '杜小月', '\n\t\t\t', '度蜜月', '\n\t\t\t', '凤凰台上凤凰游,凤去台空江自流,吴宫花草埋幽径,晋代衣冠成古丘', '\n\t\t', '\n\t'] """ # 取属性 tree.xpath('//div[@class="tang"]//li[2]/a/@href') # 指定a标签对应的href的值 """ ['http://www.163.com'] """
xpath插件的做用:能够直接将xpath表达式做用于浏览器的网页当中。
(1)更多工具-》扩展程序-》开启右上角开发者模式
(2)将xpath插件拖动到谷歌浏览器拓展程序(更多工具)中,安装成功
开启和关闭xpath插件的快捷键:Ctrl-Shift-X (or Control-Shift-X on OS X), or click the XPath Helper button in the toolbar, to open the XPath Helper console。
以糗事百科为例使用插件:
右边方框输出的是xpath表达式输出的结果,这里输出的是div对应的数据值。
使用完再次点击Control-Shift-X来关闭xpath插件。将来在程序中设计好xpath表达式以后,必定要用xpath插件作一下表达式的验证。
需求:使用xpath对段子网中的段子内容和标题进行解析,持久化存储。
段子网地址
可用以下xpath表达式获取全部的li标签,段子内容和标题都被包含在li标签中。
import requests from lxml import etree # 1.指定url url = 'https://ishuo.cn/joke' # 2.发起请求 headers = { 'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36' } response = requests.get(url=url, headers=headers) # 3.获取页面内容 page_text = response.text # 4.数据解析 tree = etree.HTML(page_text) # 获取全部的li标签(已经通过了xpath插件验证) li_list = tree.xpath('//div[@id="list"]/ul/li') # print(li_list) ''' [<Element li at 0x10e32c248>, <Element li at 0x10e30ae88>,...,<Element li at 0x10ef5bfc8>] # 注意:Element类型的对象能够继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析 ''' fp = open('./duanzi.txt', 'w', encoding='utf-8') # 一次打开屡次写入 for li in li_list: content = li.xpath('./div[@class="content"]/text()')[0] # 调用text()函数取得段子内容 title = li.xpath('./div[@class="info"]/a/text()')[0] # 得到a标签文本内容 # 5.持久化 fp.write(title + ":" + content + "\n\n") # 段子换行分隔 print("一条数据写入成功")
<li class="list_li xh-highlight"> <div class="content">有位很是漂亮的女同事,有天起晚了没有时间化妆便急忙冲到公司。结果那天她被记旷工了……吃惊]</div> <div class="info"> <span class="right tags">...</span> <a href="/subject/5898">这个笑话好内涵,你懂了没?</a> 04月29日0个评论 0人喜欢 </div> </li>
Element类型的对象能够继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析。
只要是经过xpath表达式解析出来的标签类型的对象,对象类型必定是element类型。
tree = etree.HTML(page_text) # 获取全部的li标签(已经通过了xpath插件验证) li_list = tree.xpath('//div[@id="list"]/ul/li') # print(li_list) """ [<Element li at 0x10e32c248>, <Element li at 0x10e30ae88>,...,<Element li at 0x10ef5bfc8>] # 注意:Element类型的对象能够继续调用xpath函数,对该对象表示的局部内容进行指定内容的解析 """ for li in li_list: content = li.xpath('./div[@class="content"]/text()')[0] # 调用text()函数取得段子内容 title = li.xpath('./div[@class="info"]/a/text()')[0] # 得到a标签文本内容——标题