下面的一段HTML代码将做为例子被屡次用到.这是 爱丽丝梦游仙境的 的一段内容(之后内容中简称为 爱丽丝 的文档):css
html_doc = """ <html><head><title>The Dormouse's story</title></head> <body> <p class="title"><b>The Dormouse's story</b></p> <p class="story">Once upon a time there were three little sisters; and their names were <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>, <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>; and they lived at the bottom of a well.</p> <p class="story">...</p> """
使用BeautifulSoup解析这段代码,可以获得一个 BeautifulSoup
的对象,并能按照标准的缩进格式的结构输出:html
from bs4 import BeautifulSoup soup = BeautifulSoup(html_doc, 'html.parser') print(soup.prettify()) # <html> # <head> # <title> # The Dormouse's story # </title> # </head> # <body> # <p class="title"> # <b> # The Dormouse's story # </b> # </p> # <p class="story"> # Once upon a time there were three little sisters; and their names were # <a class="sister" href="http://example.com/elsie" id="link1"> # Elsie # </a> # , # <a class="sister" href="http://example.com/lacie" id="link2"> # Lacie # </a> # and # <a class="sister" href="http://example.com/tillie" id="link2"> # Tillie # </a> # ; and they lived at the bottom of a well. # </p> # <p class="story"> # ... # </p> # </body> # </html>
几个简单的浏览结构化数据的方法:html5
soup.title # <title>The Dormouse's story</title> soup.title.name # u'title' soup.title.string # u'The Dormouse's story' soup.title.parent.name # u'head' soup.p # <p class="title"><b>The Dormouse's story</b></p> soup.p['class'] # u'title' soup.a # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a> soup.find_all('a') # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] soup.find(id="link3") # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>
从文档中找到全部<a>标签的连接:python
for link in soup.find_all('a'): print(link.get('href')) # http://example.com/elsie # http://example.com/lacie # http://example.com/tillie
从文档中获取全部文字内容:linux
print(soup.get_text()) # The Dormouse's story # # The Dormouse's story # # Once upon a time there were three little sisters; and their names were # Elsie, # Lacie and # Tillie; # and they lived at the bottom of a well. # # ...
这是你想要的吗?别着急,还有更好用的程序员
若是你用的是新版的Debain或ubuntu,那么能够经过系统的软件包管理来安装:正则表达式
$ apt-get install Python-bs4
express
Beautiful Soup 4 经过PyPi发布,因此若是你没法使用系统包管理安装,那么也能够经过 easy_install
或 pip
来安装.包的名字是 beautifulsoup4
,这个包兼容Python2和Python3.ubuntu
$ easy_install beautifulsoup4
windows
$ pip install beautifulsoup4
(在PyPi中还有一个名字是 BeautifulSoup
的包,但那可能不是你想要的,那是 Beautiful Soup3 的发布版本,由于不少项目还在使用BS3, 因此 BeautifulSoup
包依然有效.可是若是你在编写新项目,那么你应该安装的 beautifulsoup4
)
若是你没有安装 easy_install
或 pip
,那你也能够 下载BS4的源码 ,而后经过setup.py来安装.
$ Python setup.py install
若是上述安装方法都行不通,Beautiful Soup的发布协议容许你将BS4的代码打包在你的项目中,这样无须安装便可使用.
做者在Python2.7和Python3.2的版本下开发Beautiful Soup, 理论上Beautiful Soup应该在全部当前的Python版本中正常工做
Beautiful Soup发布时打包成Python2版本的代码,在Python3环境下安装时,会自动转换成Python3的代码,若是没有一个安装的过程,那么代码就不会被转换.
若是代码抛出了 ImportError
的异常: “No module named HTMLParser”, 这是由于你在Python3版本中执行Python2版本的代码.
若是代码抛出了 ImportError
的异常: “No module named html.parser”, 这是由于你在Python2版本中执行Python3版本的代码.
若是遇到上述2种状况,最好的解决方法是从新安装BeautifulSoup4.
若是在ROOT_TAG_NAME = u’[document]’代码处遇到 SyntaxError
“Invalid syntax”错误,须要将把BS4的Python代码版本从Python2转换到Python3. 能够从新安装BS4:
$ Python3 setup.py install
或在bs4的目录中执行Python代码版本转换脚本
$ 2to3-3.2 -w bs4
Beautiful Soup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,其中一个是 lxml .根据操做系统不一样,能够选择下列方法来安装lxml:
$ apt-get install Python-lxml
$ easy_install lxml
$ pip install lxml
另外一个可供选择的解析器是纯Python实现的 html5lib , html5lib的解析方式与浏览器相同,能够选择下列方法来安装html5lib:
$ apt-get install Python-html5lib
$ easy_install html5lib
$ pip install html5lib
下表列出了主要的解析器,以及它们的优缺点:
解析器 | 使用方法 | 优点 | 劣势 |
---|---|---|---|
Python标准库 | BeautifulSoup(markup, "html.parser") |
|
|
lxml HTML 解析器 | BeautifulSoup(markup, "lxml") |
|
|
lxml XML 解析器 |
|
|
|
html5lib | BeautifulSoup(markup, "html5lib") |
|
|
推荐使用lxml做为解析器,由于效率更高. 在Python2.7.3以前的版本和Python3中3.2.2以前的版本,必须安装lxml或html5lib, 由于那些Python版本的标准库中内置的HTML解析方法不够稳定.
提示: 若是一段HTML或XML文档格式不正确的话,那么在不一样的解析器中返回的结果多是不同的,查看 解析器之间的区别 了解更多细节
将一段文档传入BeautifulSoup 的构造方法,就能获得一个文档的对象, 能够传入一段字符串或一个文件句柄.
from bs4 import BeautifulSoup soup = BeautifulSoup(open("index.html")) soup = BeautifulSoup("<html>data</html>")
首先,文档被转换成Unicode,而且HTML的实例都被转换成Unicode编码
BeautifulSoup("Sacré bleu!")
<html><head></head><body>Sacré bleu!</body></html>
而后,Beautiful Soup选择最合适的解析器来解析这段文档,若是手动指定解析器那么Beautiful Soup会选择指定的解析器来解析文档.(参考 解析成XML ).
Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每一个节点都是Python对象,全部对象能够概括为4种: Tag
, NavigableString
, BeautifulSoup
, Comment
.
Tag
对象与XML或HTML原生文档中的tag相同:
soup = BeautifulSoup('<b class="boldest">Extremely bold</b>') tag = soup.b type(tag) # <class 'bs4.element.Tag'>
Tag有不少方法和属性,在 遍历文档树 和 搜索文档树 中有详细解释.如今介绍一下tag中最重要的属性: name和attributes
每一个tag都有本身的名字,经过 .name
来获取:
tag.name # u'b'
若是改变了tag的name,那将影响全部经过当前Beautiful Soup对象生成的HTML文档:
tag.name = "blockquote" tag # <blockquote class="boldest">Extremely bold</blockquote>
一个tag可能有不少个属性. tag <b class="boldest">
有一个 “class” 的属性,值为 “boldest” . tag的属性的操做方法与字典相同:
tag['class'] # u'boldest'
也能够直接”点”取属性, 好比: .attrs
:
tag.attrs # {u'class': u'boldest'}
tag的属性能够被添加,删除或修改. 再说一次, tag的属性操做方法与字典同样
tag['class'] = 'verybold' tag['id'] = 1 tag # <blockquote class="verybold" id="1">Extremely bold</blockquote> del tag['class'] del tag['id'] tag # <blockquote>Extremely bold</blockquote> tag['class'] # KeyError: 'class' print(tag.get('class')) # None
HTML 4定义了一系列能够包含多个值的属性.在HTML5中移除了一些,却增长更多.最多见的多值的属性是 class (一个tag能够有多个CSS的class). 还有一些属性 rel
, rev
, accept-charset
, headers
, accesskey
. 在Beautiful Soup中多值属性的返回类型是list:
css_soup = BeautifulSoup('<p class="body strikeout"></p>') css_soup.p['class'] # ["body", "strikeout"] css_soup = BeautifulSoup('<p class="body"></p>') css_soup.p['class'] # ["body"]
若是某个属性看起来好像有多个值,但在任何版本的HTML定义中都没有被定义为多值属性,那么Beautiful Soup会将这个属性做为字符串返回
id_soup = BeautifulSoup('<p id="my id"></p>') id_soup.p['id'] # 'my id'
将tag转换成字符串时,多值属性会合并为一个值
rel_soup = BeautifulSoup('<p>Back to the <a rel="index">homepage</a></p>') rel_soup.a['rel'] # ['index'] rel_soup.a['rel'] = ['index', 'contents'] print(rel_soup.p) # <p>Back to the <a rel="index contents">homepage</a></p>
若是转换的文档是XML格式,那么tag中不包含多值属性
xml_soup = BeautifulSoup('<p class="body strikeout"></p>', 'xml') xml_soup.p['class'] # u'body strikeout'
字符串常被包含在tag内.Beautiful Soup用 NavigableString
类来包装tag中的字符串:
tag.string # u'Extremely bold' type(tag.string) # <class 'bs4.element.NavigableString'>
一个 NavigableString
字符串与Python中的Unicode字符串相同,而且还支持包含在 遍历文档树 和 搜索文档树 中的一些特性. 经过 unicode()
方法能够直接将 NavigableString
对象转换成Unicode字符串:
unicode_string = unicode(tag.string) unicode_string # u'Extremely bold' type(unicode_string) # <type 'unicode'>
tag中包含的字符串不能编辑,可是能够被替换成其它的字符串,用 replace_with() 方法:
tag.string.replace_with("No longer bold") tag # <blockquote>No longer bold</blockquote>
NavigableString
对象支持 遍历文档树 和 搜索文档树 中定义的大部分属性, 并不是所有.尤为是,一个字符串不能包含其它内容(tag可以包含字符串或是其它tag),字符串不支持 .contents
或 .string
属性或 find()
方法.
若是想在Beautiful Soup以外使用 NavigableString
对象,须要调用 unicode()
方法,将该对象转换成普通的Unicode字符串,不然就算Beautiful Soup已方法已经执行结束,该对象的输出也会带有对象的引用地址.这样会浪费内存.
BeautifulSoup
对象表示的是一个文档的所有内容.大部分时候,能够把它看成 Tag
对象,它支持 遍历文档树 和 搜索文档树 中描述的大部分的方法.
由于 BeautifulSoup
对象并非真正的HTML或XML的tag,因此它没有name和attribute属性.但有时查看它的 .name
属性是很方便的,因此 BeautifulSoup
对象包含了一个值为 “[document]” 的特殊属性 .name
soup.name # u'[document]'
Tag
, NavigableString
, BeautifulSoup
几乎覆盖了html和xml中的全部内容,可是还有一些特殊对象.容易让人担忧的内容是文档的注释部分:
markup = "<b><!--Hey, buddy. Want to buy a used parser?--></b>" soup = BeautifulSoup(markup) comment = soup.b.string type(comment) # <class 'bs4.element.Comment'>
Comment
对象是一个特殊类型的 NavigableString
对象:
comment
# u'Hey, buddy. Want to buy a used parser'
可是当它出如今HTML文档中时, Comment
对象会使用特殊的格式输出:
print(soup.b.prettify()) # <b> # <!--Hey, buddy. Want to buy a used parser?--> # </b>
Beautiful Soup中定义的其它类型均可能会出如今XML的文档中: CData
, ProcessingInstruction
, Declaration
, Doctype
.与 Comment
对象相似,这些类都是 NavigableString
的子类,只是添加了一些额外的方法的字符串独享.下面是用CDATA来替代注释的例子:
from bs4 import CData cdata = CData("A CDATA block") comment.replace_with(cdata) print(soup.b.prettify()) # <b> # <![CDATA[A CDATA block]]> # </b>
还拿”爱丽丝梦游仙境”的文档来作例子:
html_doc = """ <html><head><title>The Dormouse's story</title></head> <body> <p class="title"><b>The Dormouse's story</b></p> <p class="story">Once upon a time there were three little sisters; and their names were <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>, <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>; and they lived at the bottom of a well.</p> <p class="story">...</p> """ from bs4 import BeautifulSoup soup = BeautifulSoup(html_doc, 'html.parser')
经过这段例子来演示怎样从文档的一段内容找到另外一段内容
一个Tag可能包含多个字符串或其它的Tag,这些都是这个Tag的子节点.Beautiful Soup提供了许多操做和遍历子节点的属性.
注意: Beautiful Soup中字符串节点不支持这些属性,由于字符串没有子节点
操做文档树最简单的方法就是告诉它你想获取的tag的name.若是想获取 <head> 标签,只要用 soup.head
:
soup.head # <head><title>The Dormouse's story</title></head> soup.title # <title>The Dormouse's story</title>
这是个获取tag的小窍门,能够在文档树的tag中屡次调用这个方法.下面的代码能够获取<body>标签中的第一个<b>标签:
soup.body.b # <b>The Dormouse's story</b>
经过点取属性的方式只能得到当前名字的第一个tag:
soup.a # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>
若是想要获得全部的<a>标签,或是经过名字获得比一个tag更多的内容的时候,就须要用到 Searching the tree 中描述的方法,好比: find_all()
soup.find_all('a') # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
tag的 .contents
属性能够将tag的子节点以列表的方式输出:
head_tag = soup.head
head_tag
# <head><title>The Dormouse's story</title></head>
head_tag.contents
[<title>The Dormouse's story</title>]
title_tag = head_tag.contents[0]
title_tag
# <title>The Dormouse's story</title>
title_tag.contents
# [u'The Dormouse's story']
BeautifulSoup
对象自己必定会包含子节点,也就是说<html>标签也是 BeautifulSoup
对象的子节点:
len(soup.contents) # 1 soup.contents[0].name # u'html'
字符串没有 .contents
属性,由于字符串没有子节点:
text = title_tag.contents[0] text.contents # AttributeError: 'NavigableString' object has no attribute 'contents'
经过tag的 .children
生成器,能够对tag的子节点进行循环:
for child in title_tag.children: print(child) # The Dormouse's story
.contents
和 .children
属性仅包含tag的直接子节点.例如,<head>标签只有一个直接子节点<title>
head_tag.contents # [<title>The Dormouse's story</title>]
可是<title>标签也包含一个子节点:字符串 “The Dormouse’s story”,这种状况下字符串 “The Dormouse’s story”也属于<head>标签的子孙节点. .descendants
属性能够对全部tag的子孙节点进行递归循环 [5] :
for child in head_tag.descendants: print(child) # <title>The Dormouse's story</title> # The Dormouse's story
上面的例子中, <head>标签只有一个子节点,可是有2个子孙节点:<head>节点和<head>的子节点, BeautifulSoup
有一个直接子节点(<html>节点),却有不少子孙节点:
len(list(soup.children)) # 1 len(list(soup.descendants)) # 25
若是tag只有一个 NavigableString
类型子节点,那么这个tag可使用 .string
获得子节点:
title_tag.string # u'The Dormouse's story'
若是一个tag仅有一个子节点,那么这个tag也可使用 .string
方法,输出结果与当前惟一子节点的 .string
结果相同:
head_tag.contents # [<title>The Dormouse's story</title>] head_tag.string # u'The Dormouse's story'
若是tag包含了多个子节点,tag就没法肯定 .string
方法应该调用哪一个子节点的内容, .string
的输出结果是 None
:
print(soup.html.string) # None
若是tag中包含多个字符串 [2] ,可使用 .strings
来循环获取:
for string in soup.strings: print(repr(string)) # u"The Dormouse's story" # u'\n\n' # u"The Dormouse's story" # u'\n\n' # u'Once upon a time there were three little sisters; and their names were\n' # u'Elsie' # u',\n' # u'Lacie' # u' and\n' # u'Tillie' # u';\nand they lived at the bottom of a well.' # u'\n\n' # u'...' # u'\n'
输出的字符串中可能包含了不少空格或空行,使用 .stripped_strings
能够去除多余空白内容:
for string in soup.stripped_strings: print(repr(string)) # u"The Dormouse's story" # u"The Dormouse's story" # u'Once upon a time there were three little sisters; and their names were' # u'Elsie' # u',' # u'Lacie' # u'and' # u'Tillie' # u';\nand they lived at the bottom of a well.' # u'...'
所有是空格的行会被忽略掉,段首和段末的空白会被删除
继续分析文档树,每一个tag或字符串都有父节点:被包含在某个tag中
经过 .parent
属性来获取某个元素的父节点.在例子“爱丽丝”的文档中,<head>标签是<title>标签的父节点:
title_tag = soup.title title_tag # <title>The Dormouse's story</title> title_tag.parent # <head><title>The Dormouse's story</title></head>
文档title的字符串也有父节点:<title>标签
title_tag.string.parent # <title>The Dormouse's story</title>
文档的顶层节点好比<html>的父节点是 BeautifulSoup
对象:
html_tag = soup.html type(html_tag.parent) # <class 'bs4.BeautifulSoup'>
BeautifulSoup
对象的 .parent
是None:
print(soup.parent) # None
经过元素的 .parents
属性能够递归获得元素的全部父辈节点,下面的例子使用了 .parents
方法遍历了<a>标签到根节点的全部节点.
link = soup.a link # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a> for parent in link.parents: if parent is None: print(parent) else: print(parent.name) # p # body # html # [document] # None
看一段简单的例子:
sibling_soup = BeautifulSoup("<a><b>text1</b><c>text2</c></b></a>") print(sibling_soup.prettify()) # <html> # <body> # <a> # <b> # text1 # </b> # <c> # text2 # </c> # </a> # </body> # </html>
由于<b>标签和<c>标签是同一层:他们是同一个元素的子节点,因此<b>和<c>能够被称为兄弟节点.一段文档以标准格式输出时,兄弟节点有相同的缩进级别.在代码中也可使用这种关系.
在文档树中,使用 .next_sibling
和 .previous_sibling
属性来查询兄弟节点:
sibling_soup.b.next_sibling # <c>text2</c> sibling_soup.c.previous_sibling # <b>text1</b>
<b>标签有 .next_sibling
属性,可是没有 .previous_sibling
属性,由于<b>标签在同级节点中是第一个.同理,<c>标签有 .previous_sibling
属性,却没有 .next_sibling
属性:
print(sibling_soup.b.previous_sibling) # None print(sibling_soup.c.next_sibling) # None
例子中的字符串“text1”和“text2”不是兄弟节点,由于它们的父节点不一样:
sibling_soup.b.string # u'text1' print(sibling_soup.b.string.next_sibling) # None
实际文档中的tag的 .next_sibling
和 .previous_sibling
属性一般是字符串或空白. 看看“爱丽丝”文档:
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a>
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>
若是觉得第一个<a>标签的 .next_sibling
结果是第二个<a>标签,那就错了,真实结果是第一个<a>标签和第二个<a>标签之间的顿号和换行符:
link = soup.a link # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a> link.next_sibling # u',\n'
第二个<a>标签是顿号的 .next_sibling
属性:
link.next_sibling.next_sibling # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>
经过 .next_siblings
和 .previous_siblings
属性能够对当前节点的兄弟节点迭代输出:
for sibling in soup.a.next_siblings: print(repr(sibling)) # u',\n' # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a> # u' and\n' # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a> # u'; and they lived at the bottom of a well.' # None for sibling in soup.find(id="link3").previous_siblings: print(repr(sibling)) # ' and\n' # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a> # u',\n' # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a> # u'Once upon a time there were three little sisters; and their names were\n' # None
看一下“爱丽丝” 文档:
<html><head><title>The Dormouse's story</title></head>
<p class="title"><b>The Dormouse's story</b></p>
HTML解析器把这段字符串转换成一连串的事件: “打开<html>标签”,”打开一个<head>标签”,”打开一个<title>标签”,”添加一段字符串”,”关闭<title>标签”,”打开<p>标签”,等等.Beautiful Soup提供了重现解析器初始化过程的方法.
.next_element
属性指向解析过程当中下一个被解析的对象(字符串或tag),结果可能与 .next_sibling
相同,但一般是不同的.
这是“爱丽丝”文档中最后一个<a>标签,它的 .next_sibling
结果是一个字符串,由于当前的解析过程 [2] 由于当前的解析过程由于遇到了<a>标签而中断了:
last_a_tag = soup.find("a", id="link3") last_a_tag # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a> last_a_tag.next_sibling # '; and they lived at the bottom of a well.'
但这个<a>标签的 .next_element
属性结果是在<a>标签被解析以后的解析内容,不是<a>标签后的句子部分,应该是字符串”Tillie”:
last_a_tag.next_element # u'Tillie'
这是由于在原始文档中,字符串“Tillie” 在分号前出现,解析器先进入<a>标签,而后是字符串“Tillie”,而后关闭</a>标签,而后是分号和剩余部分.分号与<a>标签在同一层级,可是字符串“Tillie”会被先解析.
.previous_element
属性恰好与 .next_element
相反,它指向当前被解析的对象的前一个解析对象:
last_a_tag.previous_element # u' and\n' last_a_tag.previous_element.next_element # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>
经过 .next_elements
和 .previous_elements
的迭代器就能够向前或向后访问文档的解析内容,就好像文档正在被解析同样:
for element in last_a_tag.next_elements: print(repr(element)) # u'Tillie' # u';\nand they lived at the bottom of a well.' # u'\n\n' # <p class="story">...</p> # u'...' # u'\n' # None
Beautiful Soup定义了不少搜索方法,这里着重介绍2个: find()
和 find_all()
.其它方法的参数和用法相似,请读者触类旁通.
再以“爱丽丝”文档做为例子:
html_doc = """ <html><head><title>The Dormouse's story</title></head> <body> <p class="title"><b>The Dormouse's story</b></p> <p class="story">Once upon a time there were three little sisters; and their names were <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>, <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>; and they lived at the bottom of a well.</p> <p class="story">...</p> """ from bs4 import BeautifulSoup soup = BeautifulSoup(html_doc, 'html.parser')
使用 find_all()
相似的方法能够查找到想要查找的文档内容
介绍 find_all()
方法前,先介绍一下过滤器的类型 [3] ,这些过滤器贯穿整个搜索的API.过滤器能够被用在tag的name中,节点的属性中,字符串中或他们的混合中.
最简单的过滤器是字符串.在搜索方法中传入一个字符串参数,Beautiful Soup会查找与字符串完整匹配的内容,下面的例子用于查找文档中全部的<b>标签:
soup.find_all('b') # [<b>The Dormouse's story</b>]
若是传入字节码参数,Beautiful Soup会看成UTF-8编码,能够传入一段Unicode 编码来避免Beautiful Soup解析编码出错
若是传入正则表达式做为参数,Beautiful Soup会经过正则表达式的 match()
来匹配内容.下面例子中找出全部以b开头的标签,这表示<body>和<b>标签都应该被找到:
import re for tag in soup.find_all(re.compile("^b")): print(tag.name) # body # b
下面代码找出全部名字中包含”t”的标签:
for tag in soup.find_all(re.compile("t")): print(tag.name) # html # title
若是传入列表参数,Beautiful Soup会将与列表中任一元素匹配的内容返回.下面代码找到文档中全部<a>标签和<b>标签:
soup.find_all(["a", "b"]) # [<b>The Dormouse's story</b>, # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
True
能够匹配任何值,下面代码查找到全部的tag,可是不会返回字符串节点
for tag in soup.find_all(True): print(tag.name) # html # head # title # body # p # b # p # a # a # a # p
若是没有合适过滤器,那么还能够定义一个方法,方法只接受一个元素参数 [4] ,若是这个方法返回 True
表示当前元素匹配而且被找到,若是不是则反回 False
下面方法校验了当前元素,若是包含 class
属性却不包含 id
属性,那么将返回 True
:
def has_class_but_no_id(tag): return tag.has_attr('class') and not tag.has_attr('id')
将这个方法做为参数传入 find_all()
方法,将获得全部<p>标签:
soup.find_all(has_class_but_no_id) # [<p class="title"><b>The Dormouse's story</b></p>, # <p class="story">Once upon a time there were...</p>, # <p class="story">...</p>]
返回结果中只有<p>标签没有<a>标签,由于<a>标签还定义了”id”,没有返回<html>和<head>,由于<html>和<head>中没有定义”class”属性.
经过一个方法来过滤一类标签属性的时候, 这个方法的参数是要被过滤的属性的值, 而不是这个标签. 下面的例子是找出 href
属性不符合指定正则的 a
标签.
def not_lacie(href): return href and not re.compile("lacie").search(href) soup.find_all(href=not_lacie) # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
标签过滤方法可使用复杂方法. 下面的例子能够过滤出先后都有文字的标签.
from bs4 import NavigableString def surrounded_by_strings(tag): return (isinstance(tag.next_element, NavigableString) and isinstance(tag.previous_element, NavigableString)) for tag in soup.find_all(surrounded_by_strings): print tag.name # p # a # a # a # p
如今来了解一下搜索方法的细节
find_all( name , attrs , recursive , string , **kwargs )
find_all()
方法搜索当前tag的全部tag子节点,并判断是否符合过滤器的条件.这里有几个例子:
soup.find_all("title") # [<title>The Dormouse's story</title>] soup.find_all("p", "title") # [<p class="title"><b>The Dormouse's story</b></p>] soup.find_all("a") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] soup.find_all(id="link2") # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>] import re soup.find(string=re.compile("sisters")) # u'Once upon a time there were three little sisters; and their names were\n'
有几个方法很类似,还有几个方法是新的,参数中的 string
和 id
是什么含义? 为何 find_all("p", "title")
返回的是CSS Class为”title”的<p>标签? 咱们来仔细看一下 find_all()
的参数
name
参数能够查找全部名字为 name
的tag,字符串对象会被自动忽略掉.
简单的用法以下:
soup.find_all("title") # [<title>The Dormouse's story</title>]
重申: 搜索 name
参数的值可使任一类型的 过滤器 ,字符窜,正则表达式,列表,方法或是 True
.
若是一个指定名字的参数不是搜索内置的参数名,搜索时会把该参数看成指定名字tag的属性来搜索,若是包含一个名字为 id
的参数,Beautiful Soup会搜索每一个tag的”id”属性.
soup.find_all(id='link2') # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
若是传入 href
参数,Beautiful Soup会搜索每一个tag的”href”属性:
soup.find_all(href=re.compile("elsie")) # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>]
搜索指定名字的属性时可使用的参数值包括 字符串 , 正则表达式 , 列表, True .
下面的例子在文档树中查找全部包含 id
属性的tag,不管 id
的值是什么:
soup.find_all(id=True) # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
使用多个指定名字的参数能够同时过滤tag的多个属性:
soup.find_all(href=re.compile("elsie"), id='link1') # [<a class="sister" href="http://example.com/elsie" id="link1">three</a>]
有些tag属性在搜索不能使用,好比HTML5中的 data-* 属性:
data_soup = BeautifulSoup('<div data-foo="value">foo!</div>') data_soup.find_all(data-foo="value") # SyntaxError: keyword can't be an expression
可是能够经过 find_all()
方法的 attrs
参数定义一个字典参数来搜索包含特殊属性的tag:
data_soup.find_all(attrs={"data-foo": "value"}) # [<div data-foo="value">foo!</div>]
按照CSS类名搜索tag的功能很是实用,但标识CSS类名的关键字 class
在Python中是保留字,使用 class
作参数会致使语法错误.从Beautiful Soup的4.1.1版本开始,能够经过 class_
参数搜索有指定CSS类名的tag:
soup.find_all("a", class_="sister") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
class_
参数一样接受不一样类型的 过滤器
,字符串,正则表达式,方法或 True
:
soup.find_all(class_=re.compile("itl")) # [<p class="title"><b>The Dormouse's story</b></p>] def has_six_characters(css_class): return css_class is not None and len(css_class) == 6 soup.find_all(class_=has_six_characters) # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
tag的 class
属性是 多值属性 .按照CSS类名搜索tag时,能够分别搜索tag中的每一个CSS类名:
css_soup = BeautifulSoup('<p class="body strikeout"></p>') css_soup.find_all("p", class_="strikeout") # [<p class="body strikeout"></p>] css_soup.find_all("p", class_="body") # [<p class="body strikeout"></p>]
搜索 class
属性时也能够经过CSS值彻底匹配:
css_soup.find_all("p", class_="body strikeout") # [<p class="body strikeout"></p>]
彻底匹配 class
的值时,若是CSS类名的顺序与实际不符,将搜索不到结果:
soup.find_all("a", attrs={"class": "sister"}) # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
string
参数经过 string
参数能够搜搜文档中的字符串内容.与 name
参数的可选值同样, string
参数接受 字符串 , 正则表达式 , 列表, True . 看例子:
soup.find_all(string="Elsie")
# [u'Elsie']
soup.find_all(string=["Tillie", "Elsie", "Lacie"])
# [u'Elsie', u'Lacie', u'Tillie']
soup.find_all(string=re.compile("Dormouse"))
[u"The Dormouse's story", u"The Dormouse's story"]
def is_the_only_string_within_a_tag(s):
""Return True if this string is the only child of its parent tag.""
return (s == s.parent.string)
soup.find_all(string=is_the_only_string_within_a_tag)
# [u"The Dormouse's story", u"The Dormouse's story", u'Elsie', u'Lacie', u'Tillie', u'...']
虽然 string
参数用于搜索字符串,还能够与其它参数混合使用来过滤tag.Beautiful Soup会找到 .string
方法与 string
参数值相符的tag.下面代码用来搜索内容里面包含“Elsie”的<a>标签:
soup.find_all("a", string="Elsie") # [<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>]
limit
参数find_all()
方法返回所有的搜索结构,若是文档树很大那么搜索会很慢.若是咱们不须要所有结果,可使用 limit
参数限制返回结果的数量.效果与SQL中的limit关键字相似,当搜索到的结果数量达到 limit
的限制时,就中止搜索返回结果.
文档树中有3个tag符合搜索条件,但结果只返回了2个,由于咱们限制了返回数量:
soup.find_all("a", limit=2) # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
recursive
参数调用tag的 find_all()
方法时,Beautiful Soup会检索当前tag的全部子孙节点,若是只想搜索tag的直接子节点,可使用参数 recursive=False
.
一段简单的文档:
<html>
<head>
<title>
The Dormouse's story
</title>
</head>
...
是否使用 recursive
参数的搜索结果:
soup.html.find_all("title") # [<title>The Dormouse's story</title>] soup.html.find_all("title", recursive=False) # []
这是文档片断
<html>
<head>
<title>
The Dormouse's story
</title>
</head>
...
<title>标签在 <html> 标签下, 但并非直接子节点, <head> 标签才是直接子节点. 在容许查询全部后代节点时 Beautiful Soup 可以查找到 <title> 标签. 可是使用了 recursive=False
参数以后,只能查找直接子节点,这样就查不到 <title> 标签了.
Beautiful Soup 提供了多种DOM树搜索方法. 这些方法都使用了相似的参数定义. 好比这些方法: find_all()
: name
, attrs
, text
, limit
. 可是只有 find_all()
和 find()
支持 recursive
参数.
find_all()
同样调用tagfind_all()
几乎是Beautiful Soup中最经常使用的搜索方法,因此咱们定义了它的简写方法. BeautifulSoup
对象和 tag
对象能够被看成一个方法来使用,这个方法的执行结果与调用这个对象的 find_all()
方法相同,下面两行代码是等价的:
soup.find_all("a") soup("a")
这两行代码也是等价的:
soup.title.find_all(string=True) soup.title(string=True)
find( name , attrs , recursive , string , **kwargs )
find_all()
方法将返回文档中符合条件的全部tag,尽管有时候咱们只想获得一个结果.好比文档中只有一个<body>标签,那么使用 find_all()
方法来查找<body>标签就不太合适, 使用 find_all
方法并设置 limit=1
参数不如直接使用 find()
方法.下面两行代码是等价的:
soup.find_all('title', limit=1) # [<title>The Dormouse's story</title>] soup.find('title') # <title>The Dormouse's story</title>
惟一的区别是 find_all()
方法的返回结果是值包含一个元素的列表,而 find()
方法直接返回结果.
find_all()
方法没有找到目标是返回空列表, find()
方法找不到目标时,返回 None
.
print(soup.find("nosuchtag")) # None
soup.head.title
是 tag的名字 方法的简写.这个简写的原理就是屡次调用当前tag的 find()
方法:
soup.head.title # <title>The Dormouse's story</title> soup.find("head").find("title") # <title>The Dormouse's story</title>
find_parents( name , attrs , recursive , string , **kwargs )
find_parent( name , attrs , recursive , string , **kwargs )
咱们已经用了很大篇幅来介绍 find_all()
和 find()
方法,Beautiful Soup中还有10个用于搜索的API.它们中的五个用的是与 find_all()
相同的搜索参数,另外5个与 find()
方法的搜索参数相似.区别仅是它们搜索文档的不一样部分.
记住: find_all()
和 find()
只搜索当前节点的全部子节点,孙子节点等. find_parents()
和 find_parent()
用来搜索当前节点的父辈节点,搜索方法与普通tag的搜索方法相同,搜索文档搜索文档包含的内容. 咱们从一个文档中的一个叶子节点开始:
a_string = soup.find(string="Lacie")
a_string
# u'Lacie'
a_string.find_parents("a")
# [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
a_string.find_parent("p")
# <p class="story">Once upon a time there were three little sisters; and their names were
# <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>,
# <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a> and
# <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>;
# and they lived at the bottom of a well.</p>
a_string.find_parents("p", class="title")
# []
文档中的一个<a>标签是是当前叶子节点的直接父节点,因此能够被找到.还有一个<p>标签,是目标叶子节点的间接父辈节点,因此也能够被找到.包含class值为”title”的<p>标签不是否是目标叶子节点的父辈节点,因此经过 find_parents()
方法搜索不到.
find_parent()
和 find_parents()
方法会让人联想到 .parent 和 .parents 属性.它们之间的联系很是紧密.搜索父辈节点的方法实际上就是对 .parents
属性的迭代搜索.
find_next_siblings( name , attrs , recursive , string , **kwargs )
find_next_sibling( name , attrs , recursive , string , **kwargs )
这2个方法经过 .next_siblings 属性对当tag的全部后面解析 [5] 的兄弟tag节点进行迭代, find_next_siblings()
方法返回全部符合条件的后面的兄弟节点, find_next_sibling()
只返回符合条件的后面的第一个tag节点.
first_link = soup.a first_link # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a> first_link.find_next_siblings("a") # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] first_story_paragraph = soup.find("p", "story") first_story_paragraph.find_next_sibling("p") # <p class="story">...</p>
find_previous_siblings( name , attrs , recursive , string , **kwargs )
find_previous_sibling( name , attrs , recursive , string , **kwargs )
这2个方法经过 .previous_siblings 属性对当前tag的前面解析 [5] 的兄弟tag节点进行迭代, find_previous_siblings()
方法返回全部符合条件的前面的兄弟节点, find_previous_sibling()
方法返回第一个符合条件的前面的兄弟节点:
last_link = soup.find("a", id="link3") last_link # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a> last_link.find_previous_siblings("a") # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>] first_story_paragraph = soup.find("p", "story") first_story_paragraph.find_previous_sibling("p") # <p class="title"><b>The Dormouse's story</b></p>
find_all_next( name , attrs , recursive , string , **kwargs )
find_next( name , attrs , recursive , string , **kwargs )
这2个方法经过 .next_elements 属性对当前tag的以后的 [5] tag和字符串进行迭代, find_all_next()
方法返回全部符合条件的节点, find_next()
方法返回第一个符合条件的节点:
first_link = soup.a first_link # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a> first_link.find_all_next(string=True) # [u'Elsie', u',\n', u'Lacie', u' and\n', u'Tillie', # u';\nand they lived at the bottom of a well.', u'\n\n', u'...', u'\n'] first_link.find_next("p") # <p class="story">...</p>
第一个例子中,字符串 “Elsie”也被显示出来,尽管它被包含在咱们开始查找的<a>标签的里面.第二个例子中,最后一个<p>标签也被显示出来,尽管它与咱们开始查找位置的<a>标签不属于同一部分.例子中,搜索的重点是要匹配过滤器的条件,而且在文档中出现的顺序而不是开始查找的元素的位置.
find_all_previous( name , attrs , recursive , string , **kwargs )
find_previous( name , attrs , recursive , string , **kwargs )
这2个方法经过 .previous_elements 属性对当前节点前面 [5] 的tag和字符串进行迭代, find_all_previous()
方法返回全部符合条件的节点, find_previous()
方法返回第一个符合条件的节点.
first_link = soup.a first_link # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a> first_link.find_all_previous("p") # [<p class="story">Once upon a time there were three little sisters; ...</p>, # <p class="title"><b>The Dormouse's story</b></p>] first_link.find_previous("title") # <title>The Dormouse's story</title>
find_all_previous("p")
返回了文档中的第一段(class=”title”的那段),但还返回了第二段,<p>标签包含了咱们开始查找的<a>标签.不要惊讶,这段代码的功能是查找全部出如今指定<a>标签以前的<p>标签,由于这个<p>标签包含了开始的<a>标签,因此<p>标签必定是在<a>以前出现的.
Beautiful Soup支持大部分的CSS选择器 http://www.w3.org/TR/CSS2/selector.html [6] , 在 Tag
或 BeautifulSoup
对象的 .select()
方法中传入字符串参数, 便可使用CSS选择器的语法找到tag:
soup.select("title") # [<title>The Dormouse's story</title>] soup.select("p:nth-of-type(3)") # [<p class="story">...</p>]
经过tag标签逐层查找:
soup.select("body a") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] soup.select("html head title") # [<title>The Dormouse's story</title>]
找到某个tag标签下的直接子标签 [6] :
soup.select("head > title") # [<title>The Dormouse's story</title>] soup.select("p > a") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] soup.select("p > a:nth-of-type(2)") # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>] soup.select("p > #link1") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>] soup.select("body > a") # []
找到兄弟节点标签:
soup.select("#link1 ~ .sister") # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] soup.select("#link1 + .sister") # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
经过CSS的类名查找:
soup.select(".sister") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] soup.select("[class~=sister]") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
经过tag的id查找:
soup.select("#link1") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>] soup.select("a#link2") # [<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
同时用多种CSS选择器查询元素:
soup.select("#link1,#link2") # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
经过是否存在某个属性来查找:
soup.select('a[href]') # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
经过属性的值来查找:
soup.select('a[href="http://example.com/elsie"]') # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>] soup.select('a[href^="http://example.com/"]') # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] soup.select('a[href$="tillie"]') # [<a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] soup.select('a[href*=".com/el"]') # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>]
经过语言设置来查找:
multilingual_markup = """ <p lang="en">Hello</p> <p lang="en-us">Howdy, y'all</p> <p lang="en-gb">Pip-pip, old fruit</p> <p lang="fr">Bonjour mes amis</p> """ multilingual_soup = BeautifulSoup(multilingual_markup) multilingual_soup.select('p[lang|=en]') # [<p lang="en">Hello</p>, # <p lang="en-us">Howdy, y'all</p>, # <p lang="en-gb">Pip-pip, old fruit</p>]
返回查找到的元素的第一个
soup.select_one(".sister") # <a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>
对于熟悉CSS选择器语法的人来讲这是个很是方便的方法.Beautiful Soup也支持CSS选择器API, 若是你仅仅须要CSS选择器的功能,那么直接使用 lxml
也能够, 并且速度更快,支持更多的CSS选择器语法,但Beautiful Soup整合了CSS选择器的语法和自身方便使用API.
Beautiful Soup的强项是文档树的搜索,但同时也能够方便的修改文档树
在 Attributes 的章节中已经介绍过这个功能,可是再看一遍也无妨. 重命名一个tag,改变属性的值,添加或删除属性:
soup = BeautifulSoup('<b class="boldest">Extremely bold</b>') tag = soup.b tag.name = "blockquote" tag['class'] = 'verybold' tag['id'] = 1 tag # <blockquote class="verybold" id="1">Extremely bold</blockquote> del tag['class'] del tag['id'] tag # <blockquote>Extremely bold</blockquote>
给tag的 .string
属性赋值,就至关于用当前的内容替代了原来的内容:
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) tag = soup.a tag.string = "New link text." tag # <a href="http://example.com/">New link text.</a>
注意: 若是当前的tag包含了其它tag,那么给它的 .string
属性赋值会覆盖掉原有的全部内容包括子tag
Tag.append()
方法想tag中添加内容,就好像Python的列表的 .append()
方法:
soup = BeautifulSoup("<a>Foo</a>") soup.a.append("Bar") soup # <html><head></head><body><a>FooBar</a></body></html> soup.a.contents # [u'Foo', u'Bar']
Tag.insert()
方法与 Tag.append()
方法相似,区别是不会把新元素添加到父节点 .contents
属性的最后,而是把元素插入到指定的位置.与Python列表总的 .insert()
方法的用法下同:
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) tag = soup.a tag.insert(1, "but did not endorse ") tag # <a href="http://example.com/">I linked to but did not endorse <i>example.com</i></a> tag.contents # [u'I linked to ', u'but did not endorse', <i>example.com</i>]
insert_before()
方法在当前tag或文本节点前插入内容:
soup = BeautifulSoup("<b>stop</b>") tag = soup.new_tag("i") tag.string = "Don't" soup.b.string.insert_before(tag) soup.b # <b><i>Don't</i>stop</b>
insert_after()
方法在当前tag或文本节点后插入内容:
soup.b.i.insert_after(soup.new_string(" ever ")) soup.b # <b><i>Don't</i> ever stop</b> soup.b.contents # [<i>Don't</i>, u' ever ', u'stop']
Tag.clear()
方法移除当前tag的内容:
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) tag = soup.a tag.clear() tag # <a href="http://example.com/"></a>
PageElement.extract()
方法将当前tag移除文档树,并做为方法结果返回:
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) a_tag = soup.a i_tag = soup.i.extract() a_tag # <a href="http://example.com/">I linked to</a> i_tag # <i>example.com</i> print(i_tag.parent) None
这个方法实际上产生了2个文档树: 一个是用来解析原始文档的 BeautifulSoup
对象,另外一个是被移除而且返回的tag.被移除并返回的tag能够继续调用 extract
方法:
my_string = i_tag.string.extract() my_string # u'example.com' print(my_string.parent) # None i_tag # <i></i>
Tag.decompose()
方法将当前节点移除文档树并彻底销毁:
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) a_tag = soup.a soup.i.decompose() a_tag # <a href="http://example.com/">I linked to</a>
PageElement.replace_with()
方法移除文档树中的某段内容,并用新tag或文本节点替代它:
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) a_tag = soup.a new_tag = soup.new_tag("b") new_tag.string = "example.net" a_tag.i.replace_with(new_tag) a_tag # <a href="http://example.com/">I linked to <b>example.net</b></a>
replace_with()
方法返回被替代的tag或文本节点,能够用来浏览或添加到文档树其它地方
PageElement.wrap()
方法能够对指定的tag元素进行包装 [8] ,并返回包装后的结果:
soup = BeautifulSoup("<p>I wish I was bold.</p>") soup.p.string.wrap(soup.new_tag("b")) # <b>I wish I was bold.</b> soup.p.wrap(soup.new_tag("div")) # <div><p><b>I wish I was bold.</b></p></div>
该方法在 Beautiful Soup 4.0.5 中添加
Tag.unwrap()
方法与 wrap()
方法相反.将移除tag内的全部tag标签,该方法常被用来进行标记的解包:
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) a_tag = soup.a a_tag.i.unwrap() a_tag # <a href="http://example.com/">I linked to example.com</a>
与 replace_with()
方法相同, unwrap()
方法返回被移除的tag
prettify()
方法将Beautiful Soup的文档树格式化后以Unicode编码输出,每一个XML/HTML标签都独占一行
markup = '<a href="http://example.com/">I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) soup.prettify() # '<html>\n <head>\n </head>\n <body>\n <a href="http://example.com/">\n...' print(soup.prettify()) # <html> # <head> # </head> # <body> # <a href="http://example.com/"> # I linked to # <i> # example.com # </i> # </a> # </body> # </html>
BeautifulSoup
对象和它的tag节点均可以调用 prettify()
方法:
print(soup.a.prettify()) # <a href="http://example.com/"> # I linked to # <i> # example.com # </i> # </a>
若是只想获得结果字符串,不重视格式,那么能够对一个 BeautifulSoup
对象或 Tag
对象使用Python的 unicode()
或 str()
方法:
str(soup) # '<html><head></head><body><a href="http://example.com/">I linked to <i>example.com</i></a></body></html>' unicode(soup.a) # u'<a href="http://example.com/">I linked to <i>example.com</i></a>'
str()
方法返回UTF-8编码的字符串,能够指定 编码 的设置.
还能够调用 encode()
方法得到字节码或调用 decode()
方法得到Unicode.
Beautiful Soup输出是会将HTML中的特殊字符转换成Unicode,好比“&lquot;”:
soup = BeautifulSoup("“Dammit!” he said.") unicode(soup) # u'<html><head></head><body>\u201cDammit!\u201d he said.</body></html>'
若是将文档转换成字符串,Unicode编码会被编码成UTF-8.这样就没法正确显示HTML特殊字符了:
str(soup) # '<html><head></head><body>\xe2\x80\x9cDammit!\xe2\x80\x9d he said.</body></html>'
若是只想获得tag中包含的文本内容,那么能够调用 get_text()
方法,这个方法获取到tag中包含的全部文版内容包括子孙tag中的内容,并将结果做为Unicode字符串返回:
markup = '<a href="http://example.com/">\nI linked to <i>example.com</i>\n</a>' soup = BeautifulSoup(markup) soup.get_text() u'\nI linked to example.com\n' soup.i.get_text() u'example.com'
能够经过参数指定tag的文本内容的分隔符:
# soup.get_text("|")
u'\nI linked to |example.com|\n'
还能够去除得到文本内容的先后空白:
# soup.get_text("|", strip=True)
u'I linked to|example.com'
或者使用 .stripped_strings 生成器,得到文本列表后手动处理列表:
[text for text in soup.stripped_strings] # [u'I linked to', u'example.com']
若是仅是想要解析HTML文档,只要用文档建立 BeautifulSoup
对象就能够了.Beautiful Soup会自动选择一个解析器来解析文档.可是还能够经过参数指定使用那种解析器来解析当前文档.
BeautifulSoup
第一个参数应该是要被解析的文档字符串或是文件句柄,第二个参数用来标识怎样解析文档.若是第二个参数为空,那么Beautiful Soup根据当前系统安装的库自动选择解析器,解析器的优先数序: lxml, html5lib, Python标准库.在下面两种条件下解析器优先顺序会变化:
- 要解析的文档是什么类型: 目前支持, “html”, “xml”, 和 “html5”
- 指定使用哪一种解析器: 目前支持, “lxml”, “html5lib”, 和 “html.parser”
安装解析器 章节介绍了可使用哪一种解析器,以及如何安装.
若是指定的解析器没有安装,Beautiful Soup会自动选择其它方案.目前只有 lxml 解析器支持XML文档的解析,在没有安装lxml库的状况下,建立 beautifulsoup
对象时不管是否指定使用lxml,都没法获得解析后的对象
Beautiful Soup为不一样的解析器提供了相同的接口,但解析器自己时有区别的.同一篇文档被不一样的解析器解析后可能会生成不一样结构的树型文档.区别最大的是HTML解析器和XML解析器,看下面片断被解析成HTML结构:
BeautifulSoup("<a><b /></a>") # <html><head></head><body><a><b></b></a></body></html>
由于空标签<b />不符合HTML标准,因此解析器把它解析成<b></b>
一样的文档使用XML解析以下(解析XML须要安装lxml库).注意,空标签<b />依然被保留,而且文档前添加了XML头,而不是被包含在<html>标签内:
BeautifulSoup("<a><b /></a>", "xml") # <?xml version="1.0" encoding="utf-8"?> # <a><b/></a>
HTML解析器之间也有区别,若是被解析的HTML文档是标准格式,那么解析器之间没有任何差异,只是解析速度不一样,结果都会返回正确的文档树.
可是若是被解析文档不是标准格式,那么不一样的解析器返回结果可能不一样.下面例子中,使用lxml解析错误格式的文档,结果</p>标签被直接忽略掉了:
BeautifulSoup("<a></p>", "lxml") # <html><body><a></a></body></html>
使用html5lib库解析相同文档会获得不一样的结果:
BeautifulSoup("<a></p>", "html5lib") # <html><head></head><body><a><p></p></a></body></html>
html5lib库没有忽略掉</p>标签,而是自动补全了标签,还给文档树添加了<head>标签.
使用pyhton内置库解析结果以下:
BeautifulSoup("<a></p>", "html.parser") # <a></a>
与lxml [7] 库相似的,Python内置库忽略掉了</p>标签,与html5lib库不一样的是标准库没有尝试建立符合标准的文档格式或将文档片断包含在<body>标签内,与lxml不一样的是标准库甚至连<html>标签都没有尝试去添加.
由于文档片断“<a></p>”是错误格式,因此以上解析方式都能算做”正确”,html5lib库使用的是HTML5的部分标准,因此最接近”正确”.不过全部解析器的结构都可以被认为是”正常”的.
不一样的解析器可能影响代码执行结果,若是在分发给别人的代码中使用了 BeautifulSoup
,那么最好注明使用了哪一种解析器,以减小没必要要的麻烦.
任何HTML或XML文档都有本身的编码方式,好比ASCII 或 UTF-8,可是使用Beautiful Soup解析后,文档都被转换成了Unicode:
markup = "<h1>Sacr\xc3\xa9 bleu!</h1>" soup = BeautifulSoup(markup) soup.h1 # <h1>Sacré bleu!</h1> soup.h1.string # u'Sacr\xe9 bleu!'
这不是魔术(但很神奇),Beautiful Soup用了 编码自动检测 子库来识别当前文档编码并转换成Unicode编码. BeautifulSoup
对象的 .original_encoding
属性记录了自动识别编码的结果:
soup.original_encoding 'utf-8'
编码自动检测 功能大部分时候都能猜对编码格式,但有时候也会出错.有时候即便猜想正确,也是在逐个字节的遍历整个文档后才猜对的,这样很慢.若是预先知道文档编码,能够设置编码参数来减小自动检查编码出错的几率而且提升文档解析速度.在建立 BeautifulSoup
对象的时候设置 from_encoding
参数.
下面一段文档用了ISO-8859-8编码方式,这段文档过短,结果Beautiful Soup觉得文档是用ISO-8859-7编码:
markup = b"<h1>\xed\xe5\xec\xf9</h1>"
soup = BeautifulSoup(markup)
soup.h1
<h1>νεμω</h1>
soup.original_encoding
'ISO-8859-7'
经过传入 from_encoding
参数来指定编码方式:
soup = BeautifulSoup(markup, from_encoding="iso-8859-8")
soup.h1
<h1>םולש</h1>
soup.original_encoding
'iso8859-8'
若是仅知道文档采用了Unicode编码, 但不知道具体编码. 能够先本身猜想, 猜想错误(依旧是乱码)时, 能够把错误编码做为 exclude_encodings
参数, 这样文档就不会尝试使用这种编码了解码了. 译者备注: 在没有指定编码的状况下, BS会本身猜想编码, 把不正确的编码排除掉, BS就更容易猜到正确编码.
soup = BeautifulSoup(markup, exclude_encodings=["ISO-8859-7"])
soup.h1
<h1>םולש</h1>
soup.original_encoding
'WINDOWS-1255'
猜想结果是 Windows-1255 编码, 猜想结果可能不够准确, 可是 Windows-1255 编码是 ISO-8859-8 的扩展集, 因此猜想结果已经十分接近了, 而且不影响使用. (exclude_encodings
参数是 4.4.0版本的新功能)
少数状况下(一般是UTF-8编码的文档中包含了其它编码格式的文件),想得到正确的Unicode编码就不得不将文档中少数特殊编码字符替换成特殊Unicode编码,“REPLACEMENT CHARACTER” (U+FFFD, �) [9] . 若是Beautifu Soup猜想文档编码时做了特殊字符的替换,那么Beautiful Soup会把 UnicodeDammit
或 BeautifulSoup
对象的 .contains_replacement_characters
属性标记为 True
.这样就能够知道当前文档进行Unicode编码后丢失了一部分特殊内容字符.若是文档中包含�而 .contains_replacement_characters
属性是 False
,则表示�就是文档中原来的字符,不是转码失败.
经过Beautiful Soup输出文档时,无论输入文档是什么编码方式,输出编码均为UTF-8编码,下面例子输入文档是Latin-1编码:
markup = b''' <html> <head> <meta content="text/html; charset=ISO-Latin-1" http-equiv="Content-type" /> </head> <body> <p>Sacr\xe9 bleu!</p> </body> </html> ''' soup = BeautifulSoup(markup) print(soup.prettify()) # <html> # <head> # <meta content="text/html; charset=utf-8" http-equiv="Content-type" /> # </head> # <body> # <p> # Sacré bleu! # </p> # </body> # </html>
注意,输出文档中的<meta>标签的编码设置已经修改为了与输出编码一致的UTF-8.
若是不想用UTF-8编码输出,能够将编码方式传入 prettify()
方法:
print(soup.prettify("latin-1")) # <html> # <head> # <meta content="text/html; charset=latin-1" http-equiv="Content-type" /> # ...
还能够调用 BeautifulSoup
对象或任意节点的 encode()
方法,就像Python的字符串调用 encode()
方法同样:
soup.p.encode("latin-1") # '<p>Sacr\xe9 bleu!</p>' soup.p.encode("utf-8") # '<p>Sacr\xc3\xa9 bleu!</p>'
若是文档中包含当前编码不支持的字符,那么这些字符将被转换成一系列XML特殊字符引用,下面例子中包含了Unicode编码字符SNOWMAN:
markup = u"<b>\N{SNOWMAN}</b>" snowman_soup = BeautifulSoup(markup) tag = snowman_soup.b
SNOWMAN字符在UTF-8编码中能够正常显示(看上去像是☃),但有些编码不支持SNOWMAN字符,好比ISO-Latin-1或ASCII,那么在这些编码中SNOWMAN字符会被转换成“☃”:
print(tag.encode("utf-8")) # <b>☃</b> print tag.encode("latin-1") # <b>☃</b> print tag.encode("ascii") # <b>☃</b>
译者备注: UnicodeDammit 是BS内置库, 主要用来猜想文档编码.
编码自动检测 功能能够在Beautiful Soup之外使用,检测某段未知编码时,可使用这个方法:
from bs4 import UnicodeDammit dammit = UnicodeDammit("Sacr\xc3\xa9 bleu!") print(dammit.unicode_markup) # Sacré bleu! dammit.original_encoding # 'utf-8'
若是Python中安装了 chardet
或 cchardet
那么编码检测功能的准确率将大大提升. 输入的字符越多,检测结果越精确,若是事先猜想到一些可能编码, 那么能够将猜想的编码做为参数,这样将优先检测这些编码:
dammit = UnicodeDammit("Sacr\xe9 bleu!", ["latin-1", "iso-8859-1"]) print(dammit.unicode_markup) # Sacré bleu! dammit.original_encoding # 'latin-1'
编码自动检测 功能中有2项功能是Beautiful Soup库中用不到的
使用Unicode时,Beautiful Soup还会智能的把引号 [10] 转换成HTML或XML中的特殊字符:
markup = b"<p>I just \x93love\x94 Microsoft Word\x92s smart quotes</p>" UnicodeDammit(markup, ["windows-1252"], smart_quotes_to="html").unicode_markup # u'<p>I just “love” Microsoft Word’s smart quotes</p>' UnicodeDammit(markup, ["windows-1252"], smart_quotes_to="xml").unicode_markup # u'<p>I just “love” Microsoft Word’s smart quotes</p>'
也能够把引号转换为ASCII码:
UnicodeDammit(markup, ["windows-1252"], smart_quotes_to="ascii").unicode_markup # u'<p>I just "love" Microsoft Word\'s smart quotes</p>'
颇有用的功能,可是Beautiful Soup没有使用这种方式.默认状况下,Beautiful Soup把引号转换成Unicode:
UnicodeDammit(markup, ["windows-1252"]).unicode_markup # u'<p>I just \u201clove\u201d Microsoft Word\u2019s smart quotes</p>'
有时文档的大部分都是用UTF-8,但同时还包含了Windows-1252编码的字符,就像微软的智能引号 [10] 同样. 一些包含多个信息的来源网站容易出现这种状况. UnicodeDammit.detwingle()
方法能够把这类文档转换成纯UTF-8编码格式,看个简单的例子:
snowmen = (u"\N{SNOWMAN}" * 3) quote = (u"\N{LEFT DOUBLE QUOTATION MARK}I like snowmen!\N{RIGHT DOUBLE QUOTATION MARK}") doc = snowmen.encode("utf8") + quote.encode("windows_1252")
这段文档很杂乱,snowmen是UTF-8编码,引号是Windows-1252编码,直接输出时不能同时显示snowmen和引号,由于它们编码不一样:
print(doc) # ☃☃☃�I like snowmen!� print(doc.decode("windows-1252")) # ☃☃☃“I like snowmen!”
若是对这段文档用UTF-8解码就会获得 UnicodeDecodeError
异常,若是用Windows-1252解码就回获得一堆乱码. 幸亏, UnicodeDammit.detwingle()
方法会把这段字符串转换成UTF-8编码,容许咱们同时显示出文档中的snowmen和引号:
new_doc = UnicodeDammit.detwingle(doc) print(new_doc.decode("utf8")) # ☃☃☃“I like snowmen!”
UnicodeDammit.detwingle()
方法只能解码包含在UTF-8编码中的Windows-1252编码内容,但这解决了最多见的一类问题.
在建立 BeautifulSoup
或 UnicodeDammit
对象前必定要先对文档调用 UnicodeDammit.detwingle()
确保文档的编码方式正确.若是尝试去解析一段包含Windows-1252编码的UTF-8文档,就会获得一堆乱码,好比: ☃☃☃“I like snowmen!”.
UnicodeDammit.detwingle()
方法在Beautiful Soup 4.1.0版本中新增
两个 NavigableString
或 Tag
对象具备相同的HTML或XML结构时, Beautiful Soup就判断这两个对象相同. 这个例子中, 2个 <b> 标签在 BS 中是相同的, 尽管他们在文档树的不一样位置, 可是具备相同的表象: “<b>pizza</b>”
markup = "<p>I want <b>pizza</b> and more <b>pizza</b>!</p>" soup = BeautifulSoup(markup, 'html.parser') first_b, second_b = soup.find_all('b') print first_b == second_b # True print first_b.previous_element == second_b.previous_element # False
若是想判断两个对象是否严格的指向同一个对象能够经过 is
来判断
print first_b is second_b # False
copy.copy()
方法能够复制任意 Tag
或 NavigableString
对象
import copy p_copy = copy.copy(soup.p) print p_copy # <p>I want <b>pizza</b> and more <b>pizza</b>!</p>
复制后的对象跟与对象是相等的, 但指向不一样的内存地址
print soup.p == p_copy # True print soup.p is p_copy # False
源对象和复制对象的区别是源对象在文档树中, 而复制后的对象是独立的尚未添加到文档树中. 复制后对象的效果跟调用了 extract()
方法相同.
print p_copy.parent # None
这是由于相等的对象不能同时插入相同的位置
若是仅仅由于想要查找文档中的<a>标签而将整片文档进行解析,实在是浪费内存和时间.最快的方法是从一开始就把<a>标签之外的东西都忽略掉. SoupStrainer
类能够定义文档的某段内容,这样搜索文档时就没必要先解析整篇文档,只会解析在 SoupStrainer
中定义过的文档. 建立一个 SoupStrainer
对象并做为 parse_only
参数给 BeautifulSoup
的构造方法便可.
SoupStrainer
类接受与典型搜索方法相同的参数:name , attrs , recursive , string , **kwargs 。下面举例说明三种 SoupStrainer
对象:
from bs4 import SoupStrainer only_a_tags = SoupStrainer("a") only_tags_with_id_link2 = SoupStrainer(id="link2") def is_short_string(string): return len(string) < 10 only_short_strings = SoupStrainer(string=is_short_string)
再拿“爱丽丝”文档来举例,来看看使用三种 SoupStrainer
对象作参数会有什么不一样:
html_doc = """ <html><head><title>The Dormouse's story</title></head> <body> <p class="title"><b>The Dormouse's story</b></p> <p class="story">Once upon a time there were three little sisters; and their names were <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>, <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>; and they lived at the bottom of a well.</p> <p class="story">...</p> """ print(BeautifulSoup(html_doc, "html.parser", parse_only=only_a_tags).prettify()) # <a class="sister" href="http://example.com/elsie" id="link1"> # Elsie # </a> # <a class="sister" href="http://example.com/lacie" id="link2"> # Lacie # </a> # <a class="sister" href="http://example.com/tillie" id="link3"> # Tillie # </a> print(BeautifulSoup(html_doc, "html.parser", parse_only=only_tags_with_id_link2).prettify()) # <a class="sister" href="http://example.com/lacie" id="link2"> # Lacie # </a> print(BeautifulSoup(html_doc, "html.parser", parse_only=only_short_strings).prettify()) # Elsie # , # Lacie # and # Tillie # ... #
还能够将 SoupStrainer
做为参数传入 搜索文档树 中提到的方法.这可能不是个经常使用用法,因此仍是提一下:
soup = BeautifulSoup(html_doc) soup.find_all(only_short_strings) # [u'\n\n', u'\n\n', u'Elsie', u',\n', u'Lacie', u' and\n', u'Tillie', # u'\n\n', u'...', u'\n']
若是想知道Beautiful Soup到底怎样处理一份文档,能够将文档传入 diagnose()
方法(Beautiful Soup 4.2.0中新增),Beautiful Soup会输出一份报告,说明不一样的解析器会怎样处理这段文档,并标出当前的解析过程会使用哪一种解析器:
from bs4.diagnose import diagnose data = open("bad.html").read() diagnose(data) # Diagnostic running on Beautiful Soup 4.2.0 # Python version 2.7.3 (default, Aug 1 2012, 05:16:07) # I noticed that html5lib is not installed. Installing it may help. # Found lxml version 2.3.2.0 # # Trying to parse your data with html.parser # Here's what html.parser did with the document: # ...
diagnose()
方法的输出结果可能帮助你找到问题的缘由,若是不行,还能够把结果复制出来以便寻求他人的帮助
文档解析错误有两种.一种是崩溃,Beautiful Soup尝试解析一段文档结果却抛除了异常,一般是 HTMLParser.HTMLParseError
.还有一种异常状况,是Beautiful Soup解析后的文档树看起来与原来的内容相差不少.
这些错误几乎都不是Beautiful Soup的缘由,这不会是由于Beautiful Soup的代码写的太优秀,而是由于Beautiful Soup没有包含任何文档解析代码.异常产生自被依赖的解析器,若是解析器不能很好的解析出当前的文档,那么最好的办法是换一个解析器.更多细节查看 安装解析器 章节.
最多见的解析错误是 HTMLParser.HTMLParseError: malformed start tag
和 HTMLParser.HTMLParseError: bad end tag
.这都是由Python内置的解析器引发的,解决方法是 安装lxml或html5lib
最多见的异常现象是当前文档找不到指定的Tag,而这个Tag光是用眼睛就足够发现的了. find_all()
方法返回 [] ,而 find()
方法返回 None .这是Python内置解析器的又一个问题: 解析器会跳过那些它不知道的tag.解决方法仍是 安装lxml或html5lib
SyntaxError: Invalid syntax
(异常位置在代码行: ROOT_TAG_NAME = u'[document]'
),由于Python2语法的代码(没有通过迁移)直接在Python3中运行ImportError: No module named HTMLParser
由于在Python3中执行Python2版本的Beautiful SoupImportError: No module named html.parser
由于在Python2中执行Python3版本的Beautiful SoupImportError: No module named BeautifulSoup
由于在没有安装BeautifulSoup3库的Python环境下执行代码,或忘记了BeautifulSoup4的代码须要从 bs4
包中引入ImportError: No module named bs4
由于当前Python环境下尚未安装BeautifulSoup4默认状况下,Beautiful Soup会将当前文档做为HTML格式解析,若是要解析XML文档,要在 BeautifulSoup
构造方法中加入第二个参数 “xml”:
soup = BeautifulSoup(markup, "xml")
固然,还须要 安装lxml
UnicodeEncodeError: 'charmap' codec can't encode character u'\xfoo' in position bar
(或其它类型的 UnicodeEncodeError
)的错误,主要是两方面的错误(都不是Beautiful Soup的缘由),第一种是正在使用的终端(console)没法显示部分Unicode,参考 Python wiki ,第二种是向文件写入时,被写入文件不支持部分Unicode,这时只要用 u.encode("utf8")
方法将编码转换为UTF-8.KeyError: [attr]
由于调用 tag['attr']
方法而引发,由于这个tag没有定义该属性.出错最多的是 KeyError: 'href'
和 KeyError: 'class'
.若是不肯定某个属性是否存在时,用 tag.get('attr')
方法去获取它,跟获取Python字典的key同样AttributeError: 'ResultSet' object has no attribute 'foo'
错误一般是由于把 find_all()
的返回结果看成一个tag或文本节点使用,实际上返回结果是一个列表或 ResultSet
对象的字符串,须要对结果进行循环才能获得每一个节点的 .foo
属性.或者使用 find()
方法仅获取到一个节点AttributeError: 'NoneType' object has no attribute 'foo'
这个错误一般是在调用了 find()
方法后直节点取某个属性 .foo 可是 find()
方法并无找到任何结果,因此它的返回值是 None
.须要找出为何 find()
的返回值是 None
.Beautiful Soup 3是上一个发布版本,目前已经中止维护.Beautiful Soup 3库目前已经被几个主要的linux平台添加到源里:
$ apt-get install Python-beautifulsoup
在PyPi中分发的包名字是 BeautifulSoup
:
$ easy_install BeautifulSoup
$ pip install BeautifulSoup
或经过 Beautiful Soup 3.2.0源码包 安装
Beautiful Soup 3的在线文档查看 这里 .
只要一个小变更就能让大部分的Beautiful Soup 3代码使用Beautiful Soup 4的库和方法—-修改 BeautifulSoup
对象的引入方式:
from BeautifulSoup import BeautifulSoup
修改成:
from bs4 import BeautifulSoup
ImportError
异常“No module named BeautifulSoup”,缘由多是尝试执行Beautiful Soup 3,但环境中只安装了Beautiful Soup 4库ImportError
异常“No module named bs4”,缘由多是尝试运行Beautiful Soup 4的代码,但环境中只安装了Beautiful Soup 3.虽然BS4兼容绝大部分BS3的功能,但BS3中的大部分方法已经不推荐使用了,就方法按照 PEP8标准 从新定义了方法名.不少方法都从新定义了方法名,但只有少数几个方法没有向下兼容.
上述内容就是BS3迁移到BS4的注意事项
Beautiful Soup 3曾使用Python的 SGMLParser
解析器,这个模块在Python3中已经被移除了.Beautiful Soup 4默认使用系统的 html.parser
,也可使用lxml或html5lib扩展库代替.查看 安装解析器 章节
由于解析器 html.parser
与 SGMLParser
不一样. BS4 和 BS3 处理相同的文档会产生不一样的对象结构. 使用lxml或html5lib解析文档的时候, 若是添加了 html.parser
参数, 解析的对象又回发生变化. 若是发生了这种状况, 只能修改对应的处文档结果处理代码了.
renderContents
-> encode_contents
replaceWith
-> replace_with
replaceWithChildren
-> unwrap
findAll
-> find_all
findAllNext
-> find_all_next
findAllPrevious
-> find_all_previous
findNext
-> find_next
findNextSibling
-> find_next_sibling
findNextSiblings
-> find_next_siblings
findParent
-> find_parent
findParents
-> find_parents
findPrevious
-> find_previous
findPreviousSibling
-> find_previous_sibling
findPreviousSiblings
-> find_previous_siblings
nextSibling
-> next_sibling
previousSibling
-> previous_sibling
Beautiful Soup构造方法的参数部分也有名字变化:
BeautifulSoup(parseOnlyThese=...)
-> BeautifulSoup(parse_only=...)
BeautifulSoup(fromEncoding=...)
-> BeautifulSoup(from_encoding=...)
为了适配Python3,修改了一个方法名:
Tag.has_key()
-> Tag.has_attr()
修改了一个属性名,让它看起来更专业点:
Tag.isSelfClosing
-> Tag.is_empty_element
修改了下面3个属性的名字,以避免雨Python保留字冲突.这些变更不是向下兼容的,若是在BS3中使用了这些属性,那么在BS4中这些代码没法执行.
Tag.next
-> Tag.next_element
Tag.previous
-> Tag.previous_element
将下列生成器按照PEP8标准从新命名,并转换成对象的属性:
childGenerator()
-> children
nextGenerator()
-> next_elements
nextSiblingGenerator()
-> next_siblings
previousGenerator()
-> previous_elements
previousSiblingGenerator()
-> previous_siblings
recursiveChildGenerator()
-> descendants
parentGenerator()
-> parents
因此迁移到BS4版本时要替换这些代码:
for parent in tag.parentGenerator(): ...
替换为:
for parent in tag.parents: ...
(两种调用方法如今都能使用)
BS3中有的生成器循环结束后会返回 None
而后结束.这是个bug.新版生成器再也不返回 None
.
BS4中增长了2个新的生成器, .strings 和 stripped_strings . .strings
生成器返回NavigableString对象, .stripped_strings
方法返回去除先后空白的Python的string对象.
BS4中移除了解析XML的 BeautifulStoneSoup
类.若是要解析一段XML文档,使用 BeautifulSoup
构造方法并在第二个参数设置为“xml”.同时 BeautifulSoup
构造方法也再也不识别 isHTML
参数.
Beautiful Soup处理XML空标签的方法升级了.旧版本中解析XML时必须指明哪一个标签是空标签. 构造方法的 selfClosingTags
参数已经再也不使用.新版Beautiful Soup将全部空标签解析为空元素,若是向空元素中添加子节点,那么这个元素就再也不是空元素了.
HTML或XML实体都会被解析成Unicode字符,Beautiful Soup 3版本中有不少处理实体的方法,在新版中都被移除了. BeautifulSoup
构造方法也再也不接受 smartQuotesTo
或 convertEntities
参数. 编码自动检测 方法依然有 smart_quotes_to
参数,可是默认会将引号转换成Unicode.内容配置项 HTML_ENTITIES
, XML_ENTITIES
和 XHTML_ENTITIES
在新版中被移除.由于它们表明的特性已经再也不被支持.
若是在输出文档时想把Unicode字符转换成HTML实体,而不是输出成UTF-8编码,那就须要用到 输出格式 的方法.
Tag.string 属性如今是一个递归操做.若是A标签只包含了一个B标签,那么A标签的.string属性值与B标签的.string属性值相同.
多值属性 好比 class
属性包含一个他们的值的列表,而不是一个字符串.这可能会影响到如何按照CSS类名哦搜索tag.
若是使用 find*
方法时同时传入了 string 参数 和 name 参数 .Beautiful Soup会搜索指定name的tag,而且这个tag的 Tag.string 属性包含text参数的内容.结果中不会包含字符串自己.旧版本中Beautiful Soup会忽略掉tag参数,只搜索text参数.
BeautifulSoup
构造方法再也不支持 markupMassage 参数.如今由解析器负责文档的解析正确性.
不多被用到的几个解析器方法在新版中被移除,好比 ICantBelieveItsBeautifulSoup
和 BeautifulSOAP
.如今由解析器彻底负责如何解释模糊不清的文档标记.
prettify()
方法在新版中返回Unicode字符串,再也不返回字节流.
转载:https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/#