[Python3网络爬虫开发实战] 7-动态渲染页面爬取-1-Selenium的使用

在前一章中,咱们了解了Ajax的分析和抓取方式,这其实也是JavaScript动态渲染的页面的一种情形,经过直接分析Ajax,咱们仍然能够借助requests或urllib来实现数据爬取。php

不过JavaScript动态渲染的页面不止Ajax这一种。好比中国青年网(详见news.youth.cn/gn/),它的分页部分是由JavaScript生成的,并不是原始HTML代码,这其中并不包含Ajax请求。好比ECharts的官方实例(详见echarts.baidu.com/demo.html#b…),其图形都是通过JavaScript计算以后生成的。再有淘宝这种页面,它即便是Ajax获取的数据,可是其Ajax接口含有不少加密参数,咱们难以直接找出其规律,也很难直接分析Ajax来抓取。css

为了解决这些问题,咱们能够直接使用模拟浏览器运行的方式来实现,这样就能够作到在浏览器中看到是什么样,抓取的源码就是什么样,也就是可见便可爬。这样咱们就不用再去管网页内部的JavaScript用了什么算法渲染页面,不用管网页后台的Ajax接口到底有哪些参数。html

Python提供了许多模拟浏览器运行的库,如Selenium、Splash、PyV八、Ghost等。本章中,咱们就来介绍一下Selenium和Splash的用法。有了它们,就不用再为动态渲染的页面发愁了。python

Selenium是一个自动化测试工具,利用它能够驱动浏览器执行特定的动做,如点击、下拉等操做,同时还能够获取浏览器当前呈现的页面的源代码,作到可见便可爬。对于一些JavaScript动态渲染的页面来讲,此种抓取方式很是有效。本节中,就让咱们来感觉一下它的强大之处吧。jquery

1. 准备工做

本节以Chrome为例来说解Selenium的用法。在开始以前,请确保已经正确安装好了Chrome浏览器并配置好了ChromeDriver。另外,还须要正确安装好Python的Selenium库,详细的安装和配置过程能够参考第1章。web

2. 基本使用

准备工做作好以后,首先来大致看一下Selenium有一些怎样的功能。示例以下:正则表达式

from selenium import webdriverfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.common.keys import Keysfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.webdriver.support.wait import WebDriverWait browser = webdriver.Chrome()try:    browser.get('https://www.baidu.com')    input = browser.find_element_by_id('kw')    input.send_keys('Python')    input.send_keys(Keys.ENTER)    wait = WebDriverWait(browser, 10)    wait.until(EC.presence_of_element_located((By.ID, 'content_left')))    print(browser.current_url)    print(browser.get_cookies())    print(browser.page_source)finally:    browser.close()复制代码

运行代码后发现,会自动弹出一个Chrome浏览器。浏览器首先会跳转到百度,而后在搜索框中输入Python,接着跳转到搜索结果页,如图7-1所示。算法

图7-1 运行结果api

搜索结果加载出来后,控制台分别会输出当前的URL、当前的Cookies和网页源代码:浏览器

1
2
3
https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=0&rsv_idx=1&tn=baidu&wd=Python&rsv_pq=c94d0df9000a72d0&rsv_t=07099xvun1ZmC0bf6eQvygJ43IUTTUOl5FCJVPgwG2YREs70GplJjH2F%2BCQ&rqlang=cn&rsv_enter=1&rsv_sug3=6&rsv_sug2=0&inputT=87&rsv_sug4=87
[{'secure': False, 'value': 'B490B5EBF6F3CD402E515D22BCDA1598', 'domain': '.baidu.com', 'path': '/', 'httpOnly': False, 'name': 'BDORZ', 'expiry': 1491688071.707553}, {'secure': False, 'value': '22473_1441_21084_17001', 'domain': '.baidu.com', 'path': '/', 'httpOnly': False, 'name': 'H_PS_PSSID'}, {'secure': False, 'value': '12883875381399993259_00_0_I_R_2_0303_C02F_N_I_I_0', 'domain': '.www.baidu.com', 'path': '/', 'httpOnly': False, 'name': '__bsi', 'expiry': 1491601676.69722}]
<!DOCTYPE html><!--STATUS OK-->...</html>

源代码过长,在此省略。能够看到,咱们获得的当前URL、Cookies和源代码都是浏览器中的真实内容。

因此说,若是用Selenium来驱动浏览器加载网页的话,就能够直接拿到JavaScript渲染的结果了,不用担忧使用的是什么加密系统。

下面来详细了解一下Selenium的用法。

3. 声明浏览器对象

Selenium支持很是多的浏览器,如Chrome、Firefox、Edge等,还有Android、BlackBerry等手机端的浏览器。另外,也支持无界面浏览器PhantomJS。

此外,咱们能够用以下方式初始化:

1
2
3
4
5
6
7
from selenium import webdriver
browser = webdriver.Chrome()
browser = webdriver.Firefox()
browser = webdriver.Edge()
browser = webdriver.PhantomJS()
browser = webdriver.Safari()

这样就完成了浏览器对象的初始化并将其赋值为browser对象。接下来,咱们要作的就是调用browser对象,让其执行各个动做以模拟浏览器操做。

4. 访问页面

咱们能够用get()方法来请求网页,参数传入连接URL便可。好比,这里用get()方法访问淘宝,而后打印出源代码,代码以下:

1
2
3
4
5
6
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
print(browser.page_source)
browser.close()

运行后发现,弹出了Chrome浏览器而且自动访问了淘宝,而后控制台输出了淘宝页面的源代码,随后浏览器关闭。

经过这几行简单的代码,咱们能够实现浏览器的驱动并获取网页源码,很是便捷。

5. 查找节点

Selenium能够驱动浏览器完成各类操做,好比填充表单、模拟点击等。好比,咱们想要完成向某个输入框输入文字的操做,总须要知道这个输入框在哪里吧?而Selenium提供了一系列查找节点的方法,咱们能够用这些方法来获取想要的节点,以便下一步执行一些动做或者提取信息。

单个节点

好比,想要从淘宝页面中提取搜索框这个节点,首先要观察它的源代码,如图7-2所示。

图7-2 源代码

能够发现,它的idqname也是q。此外,还有许多其余属性,此时咱们就能够用多种方式获取它了。好比,find_element_by_name()是根据name值获取,find_element_by_id()是根据id获取。另外,还有根据XPath、CSS选择器等获取的方式。

咱们用代码实现一下:

1
2
3
4
5
6
7
8
9
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
input_first = browser.find_element_by_id('q')
input_second = browser.find_element_by_css_selector('#q')
input_third = browser.find_element_by_xpath('//*[@id="q"]')
print(input_first, input_second, input_third)
browser.close()

这里咱们使用3种方式获取输入框,分别是根据ID、CSS选择器和XPath获取,它们返回的结果彻底一致。运行结果以下:

1
2
3
<selenium.webdriver.remote.webelement.WebElement (session="5e53d9e1c8646e44c14c1c2880d424af", element="0.5649563096161541-1")>
<selenium.webdriver.remote.webelement.WebElement (session="5e53d9e1c8646e44c14c1c2880d424af", element="0.5649563096161541-1")>
<selenium.webdriver.remote.webelement.WebElement (session="5e53d9e1c8646e44c14c1c2880d424af", element="0.5649563096161541-1")>

能够看到,这3个节点都是WebElement类型,是彻底一致的。

这里列出全部获取单个节点的方法:

1
2
3
4
5
6
7
8
find_element_by_id
find_element_by_name
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector

另外,Selenium还提供了通用方法find_element(),它须要传入两个参数:查找方式By和值。实际上,它就是find_element_by_id()这种方法的通用函数版本,好比find_element_by_id(id)就等价于find_element(By.ID, id),两者获得的结果彻底一致。咱们用代码实现一下:

1
2
3
4
5
6
7
8
from selenium import webdriver
from selenium.webdriver.common.by import By
browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
input_first = browser.find_element(By.ID, 'q')
print(input_first)
browser.close()

实际上,这种查找方式的功能和上面列举的查找函数彻底一致,不过参数更加灵活。

多个节点

若是查找的目标在网页中只有一个,那么彻底能够用find_element()方法。但若是有多个节点,再用find_element()方法查找,就只能获得第一个节点了。若是要查找全部知足条件的节点,须要用find_elements()这样的方法。注意,在这个方法的名称中,element多了一个s,注意区分。

好比,要查找淘宝左侧导航条的全部条目,如图7-3所示。

图7-3 导航栏

就能够这样来实现:

1
2
3
4
5
6
7
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
lis = browser.find_elements_by_css_selector('.service-bd li')
print(lis)
browser.close()

运行结果以下:

1
[<selenium.webdriver.remote.webelement.WebElement (session="c26290835d4457ebf7d96bfab3740d19", element="0.09221044033125603-1")>, <selenium.webdriver.remote.webelement.WebElement (session="c26290835d4457ebf7d96bfab3740d19", element="0.09221044033125603-2")>, <selenium.webdriver.remote.webelement.WebElement (session="c26290835d4457ebf7d96bfab3740d19", element="0.09221044033125603-3")>...<selenium.webdriver.remote.webelement.WebElement (session="c26290835d4457ebf7d96bfab3740d19", element="0.09221044033125603-16")>]

这里简化了输出结果,中间部分省略。

能够看到,获得的内容变成了列表类型,列表中的每一个节点都是WebElement类型。

也就是说,若是咱们用find_element()方法,只能获取匹配的第一个节点,结果是WebElement类型。若是用find_elements()方法,则结果是列表类型,列表中的每一个节点是WebElement类型。

这里列出全部获取多个节点的方法:

1
2
3
4
5
6
7
8
find_elements_by_id
find_elements_by_name
find_elements_by_xpath
find_elements_by_link_text
find_elements_by_partial_link_text
find_elements_by_tag_name
find_elements_by_class_name
find_elements_by_css_selector

固然,咱们也能够直接用find_elements()方法来选择,这时能够这样写:

1
lis = browser.find_elements(By.CSS_SELECTOR, '.service-bd li')

结果是彻底一致的。

6. 节点交互

Selenium能够驱动浏览器来执行一些操做,也就是说可让浏览器模拟执行一些动做。比较常见的用法有:输入文字时用send_keys()方法,清空文字时用clear()方法,点击按钮时用click()方法。示例以下:

1
2
3
4
5
6
7
8
9
10
11
12
from selenium import webdriver
import time
browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
input = browser.find_element_by_id('q')
input.send_keys('iPhone')
time.sleep(1)
input.clear()
input.send_keys('iPad')
button = browser.find_element_by_class_name('btn-search')
button.click()

这里首先驱动浏览器打开淘宝,而后用find_element_by_id()方法获取输入框,而后用send_keys()方法输入iPhone文字,等待一秒后用clear()方法清空输入框,再次调用send_keys()方法输入iPad文字,以后再用find_element_by_class_name()方法获取搜索按钮,最后调用click()方法完成搜索动做。

经过上面的方法,咱们就完成了一些常见节点的动做操做,更多的操做能够参见官方文档的交互动做介绍:selenium-python.readthedocs.io/api.html#mo…

7. 动做链

在上面的实例中,一些交互动做都是针对某个节点执行的。好比,对于输入框,咱们就调用它的输入文字和清空文字方法;对于按钮,就调用它的点击方法。其实,还有另一些操做,它们没有特定的执行对象,好比鼠标拖曳、键盘按键等,这些动做用另外一种方式来执行,那就是动做链。

好比,如今实现一个节点的拖曳操做,将某个节点从一处拖曳到另一处,能够这样实现:

1
2
3
4
5
6
7
8
9
10
11
12
from selenium import webdriver
from selenium.webdriver import ActionChains
browser = webdriver.Chrome()
url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
browser.get(url)
browser.switch_to.frame('iframeResult')
source = browser.find_element_by_css_selector('#draggable')
target = browser.find_element_by_css_selector('#droppable')
actions = ActionChains(browser)
actions.drag_and_drop(source, target)
actions.perform()

首先,打开网页中的一个拖曳实例,而后依次选中要拖曳的节点和拖曳到的目标节点,接着声明ActionChains对象并将其赋值为actions变量,而后经过调用actions变量的drag_and_drop()方法,再调用perform()方法执行动做,此时就完成了拖曳操做,如图7-4和图7-5所示。

图7-4 拖曳前的页面

图7-5 拖曳后的页面

更多的动做链操做能够参考官方文档:selenium-python.readthedocs.io/api.html#mo…

8. 执行JavaScript

对于某些操做,Selenium API并无提供。好比,下拉进度条,它能够直接模拟运行JavaScript,此时使用execute_script()方法便可实现,代码以下:

1
2
3
4
5
6
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
browser.execute_script('alert("To Bottom")')

这里就利用execute_script()方法将进度条下拉到最底部,而后弹出alert提示框。

因此说有了这个方法,基本上API没有提供的全部功能均可以用执行JavaScript的方式来实现了。

9. 获取节点信息

前面说过,经过page_source属性能够获取网页的源代码,接着就可使用解析库(如正则表达式、Beautiful Soup、pyquery等)来提取信息了。

不过,既然Selenium已经提供了选择节点的方法,返回的是WebElement类型,那么它也有相关的方法和属性来直接提取节点信息,如属性、文本等。这样的话,咱们就能够不用经过解析源代码来提取信息了,很是方便。

接下来,就看看经过怎样的方式来获取节点信息吧。

获取属性

咱们可使用get_attribute()方法来获取节点的属性,可是其前提是先选中这个节点,示例以下:

1
2
3
4
5
6
7
8
9
from selenium import webdriver
from selenium.webdriver import ActionChains
browser = webdriver.Chrome()
url = 'https://www.zhihu.com/explore'
browser.get(url)
logo = browser.find_element_by_id('zh-top-link-logo')
print(logo)
print(logo.get_attribute('class'))

运行以后,程序便会驱动浏览器打开知乎页面,而后获取知乎的logo节点,最后打印出它的class

控制台的输出结果以下:

1
2
<selenium.webdriver.remote.webelement.WebElement (session="e08c0f28d7f44d75ccd50df6bb676104", element="0.7236390660048155-1")>
zu-top-link-logo

经过get_attribute()方法,而后传入想要获取的属性名,就能够获得它的值了。

获取文本值

每一个WebElement节点都有text属性,直接调用这个属性就能够获得节点内部的文本信息,这至关于Beautiful Soup的get_text()方法、pyquery的text()方法,示例以下:

1
2
3
4
5
6
7
from selenium import webdriver
browser = webdriver.Chrome()
url = 'https://www.zhihu.com/explore'
browser.get(url)
input = browser.find_element_by_class_name('zu-top-add-question')
print(input.text)

这里依然先打开知乎页面,而后获取“提问”按钮这个节点,再将其文本值打印出来。

控制台的输出结果以下:

1
提问

获取id、位置、标签名和大小

另外,WebElement节点还有一些其余属性,好比id属性能够获取节点idlocation属性能够获取该节点在页面中的相对位置,tag_name属性能够获取标签名称,size属性能够获取节点的大小,也就是宽高,这些属性有时候仍是颇有用的。示例以下:

1
2
3
4
5
6
7
8
9
10
from selenium import webdriver
browser = webdriver.Chrome()
url = 'https://www.zhihu.com/explore'
browser.get(url)
input = browser.find_element_by_class_name('zu-top-add-question')
print(input.id)
print(input.location)
print(input.tag_name)
print(input.size)

这里首先得到“提问”按钮这个节点,而后调用其idlocationtag_namesize属性来获取对应的属性值。

10. 切换Frame

咱们知道网页中有一种节点叫做iframe,也就是子Frame,至关于页面的子页面,它的结构和外部网页的结构彻底一致。Selenium打开页面后,它默认是在父级Frame里面操做,而此时若是页面中还有子Frame,它是不能获取到子Frame里面的节点的。这时就须要使用switch_to.frame()方法来切换Frame。示例以下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
import time
from selenium import webdriver
from selenium.common.exceptions import NoSuchElementException
browser = webdriver.Chrome()
url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
browser.get(url)
browser.switch_to.frame('iframeResult')
try:
logo = browser.find_element_by_class_name('logo')
except NoSuchElementException:
print('NO LOGO')
browser.switch_to.parent_frame()
logo = browser.find_element_by_class_name('logo')
print(logo)
print(logo.text)

控制台的输出以下:

1
2
3
NO LOGO
<selenium.webdriver.remote.webelement.WebElement (session="4bb8ac03ced4ecbdefef03ffdc0e4ccd", element="0.13792611320464965-2")>
RUNOOB.COM

这里仍是之前面演示动做链操做的网页为实例,首先经过switch_to.frame()方法切换到子Frame里面,而后尝试获取父级Frame里的logo节点(这是不能找到的),若是找不到的话,就会抛出NoSuchElementException异常,异常被捕捉以后,就会输出NO LOGO。接下来,从新切换回父级Frame,而后再次从新获取节点,发现此时能够成功获取了。

因此,当页面中包含子Frame时,若是想获取子Frame中的节点,须要先调用switch_to.frame()方法切换到对应的Frame,而后再进行操做。

11. 延时等待

在Selenium中,get()方法会在网页框架加载结束后结束执行,此时若是获取page_source,可能并非浏览器彻底加载完成的页面,若是某些页面有额外的Ajax请求,咱们在网页源代码中也不必定能成功获取到。因此,这里须要延时等待必定时间,确保节点已经加载出来。

这里等待的方式有两种:一种是隐式等待,一种是显式等待。

隐式等待

当使用隐式等待执行测试的时候,若是Selenium没有在DOM中找到节点,将继续等待,超出设定时间后,则抛出找不到节点的异常。换句话说,当查找节点而节点并无当即出现的时候,隐式等待将等待一段时间再查找DOM,默认的时间是0。示例以下:

1
2
3
4
5
6
7
from selenium import webdriver
browser = webdriver.Chrome()
browser.implicitly_wait(10)
browser.get('https://www.zhihu.com/explore')
input = browser.find_element_by_class_name('zu-top-add-question')
print(input)

这里咱们用implicitly_wait()方法实现了隐式等待。

显式等待

隐式等待的效果其实并无那么好,由于咱们只规定了一个固定时间,而页面的加载时间会受到网络条件的影响。

这里还有一种更合适的显式等待方法,它指定要查找的节点,而后指定一个最长等待时间。若是在规定时间内加载出来了这个节点,就返回查找的节点;若是到了规定时间依然没有加载出该节点,则抛出超时异常。示例以下:

1
2
3
4
5
6
7
8
9
10
11
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
browser = webdriver.Chrome()
browser.get('https://www.taobao.com/')
wait = WebDriverWait(browser, 10)
input = wait.until(EC.presence_of_element_located((By.ID, 'q')))
button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '.btn-search')))
print(input, button)

这里首先引入WebDriverWait这个对象,指定最长等待时间,而后调用它的until()方法,传入要等待条件expected_conditions。好比,这里传入了presence_of_element_located这个条件,表明节点出现的意思,其参数是节点的定位元组,也就是IDq的节点搜索框。

这样能够作到的效果就是,在10秒内若是IDq的节点(即搜索框)成功加载出来,就返回该节点;若是超过10秒尚未加载出来,就抛出异常。

对于按钮,能够更改一下等待条件,好比改成element_to_be_clickable,也就是可点击,因此查找按钮时查找CSS选择器为.btn-search的按钮,若是10秒内它是可点击的,也就是成功加载出来了,就返回这个按钮节点;若是超过10秒还不可点击,也就是没有加载出来,就抛出异常。

运行代码,在网速较佳的状况下是能够成功加载出来的。

控制台的输出以下:

1
2
<selenium.webdriver.remote.webelement.WebElement (session="07dd2fbc2d5b1ce40e82b9754aba8fa8", element="0.5642646294074107-1")>
<selenium.webdriver.remote.webelement.WebElement (session="07dd2fbc2d5b1ce40e82b9754aba8fa8", element="0.5642646294074107-2")>

能够看到,控制台成功输出了两个节点,它们都是WebElement类型。

若是网络有问题,10秒内没有成功加载,那就抛出TimeoutException异常,此时控制台的输出以下:

1
2
3
4
5
TimeoutException Traceback (most recent call last)
<ipython-input-4-f3d73973b223> in <module>()
7 browser.get('https://www.taobao.com/')
8 wait = WebDriverWait(browser, 10)
----> 9 input = wait.until(EC.presence_of_element_located((By.ID, 'q')))

关于等待条件,其实还有不少,好比判断标题内容,判断某个节点内是否出现了某文字等。表7-1列出了全部的等待条件。

表7-1 等待条件及其含义

等待条件

含义

title_is

标题是某内容

title_contains

标题包含某内容

presence_of_element_located

节点加载出来,传入定位元组,如(By.ID, 'p')

visibility_of_element_located

节点可见,传入定位元组

visibility_of

可见,传入节点对象

presence_of_all_elements_located

全部节点加载出来

text_to_be_present_in_element

某个节点文本包含某文字

text_to_be_present_in_element_value

某个节点值包含某文字

frame_to_be_available_and_switch_to_it

加载并切换

invisibility_of_element_located

节点不可见

element_to_be_clickable

节点可点击

staleness_of

判断一个节点是否仍在DOM,可判断页面是否已经刷新

element_to_be_selected

节点可选择,传节点对象

element_located_to_be_selected

节点可选择,传入定位元组

element_selection_state_to_be

传入节点对象以及状态,相等返回True,不然返回False

element_located_selection_state_to_be

传入定位元组以及状态,相等返回True,不然返回False

alert_is_present

是否出现警告

关于更多等待条件的参数及用法,能够参考官方文档:selenium-python.readthedocs.io/api.html#mo…

12. 前进和后退

日常使用浏览器时都有前进和后退功能,Selenium也能够完成这个操做,它使用back()方法后退,使用forward()方法前进。示例以下:

1
2
3
4
5
6
7
8
9
10
11
import time
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.baidu.com/')
browser.get('https://www.taobao.com/')
browser.get('https://www.python.org/')
browser.back()
time.sleep(1)
browser.forward()
browser.close()

这里咱们连续访问3个页面,而后调用back()方法回到第二个页面,接下来再调用forward()方法又能够前进到第三个页面。

13. Cookies

使用Selenium,还能够方便地对Cookies进行操做,例如获取、添加、删除Cookies等。示例以下:

1
2
3
4
5
6
7
8
9
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
print(browser.get_cookies())
browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'germey'})
print(browser.get_cookies())
browser.delete_all_cookies()
print(browser.get_cookies())

首先,咱们访问了知乎。加载完成后,浏览器实际上已经生成Cookies了。接着,调用get_cookies()方法获取全部的Cookies。而后,咱们添加一个Cookie,这里传入一个字典,有namedomainvalue等内容。接下来,再次获取全部的Cookies。能够发现,结果就多了这一项新加的Cookie。最后,调用delete_all_cookies()方法删除全部的Cookies。再从新获取,发现结果就为空了。

控制台的输出以下:

1
2
3
[{'secure': False, 'value': '"NGM0ZTM5NDAwMWEyNDQwNDk5ODlkZWY3OTkxY2I0NDY=|1491604091|236e34290a6f407bfbb517888849ea509ac366d0"', 'domain': '.zhihu.com', 'path': '/', 'httpOnly': False, 'name': 'l_cap_id', 'expiry': 1494196091.403418}]
[{'secure': False, 'value': 'germey', 'domain': '.www.zhihu.com', 'path': '/', 'httpOnly': False, 'name': 'name'}, {'secure': False, 'value': '"NGM0ZTM5NDAwMWEyNDQwNDk5ODlkZWY3OTkxY2I0NDY=|1491604091|236e34290a6f407bfbb517888849ea509ac366d0"', 'domain': '.zhihu.com', 'path': '/', 'httpOnly': False, 'name': 'l_cap_id', 'expiry': 1494196091.403418}]
[]

14. 选项卡管理

在访问网页的时候,会开启一个个选项卡。在Selenium中,咱们也能够对选项卡进行操做。示例以下:

1
2
3
4
5
6
7
8
9
10
11
12
import time
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.execute_script('window.open()')
print(browser.window_handles)
browser.switch_to_window(browser.window_handles[1])
browser.get('https://www.taobao.com')
time.sleep(1)
browser.switch_to_window(browser.window_handles[0])
browser.get('https://python.org')

控制台的输出以下:

1
['CDwindow-4f58e3a7-7167-4587-bedf-9cd8c867f435', 'CDwindow-6e05f076-6d77-453a-a36c-32baacc447df']

首先访问了百度,而后调用了execute_script()方法,这里传入window.open()这个JavaScript语句新开启一个选项卡。接下来,咱们想切换到该选项卡。这里调用window_handles属性获取当前开启的全部选项卡,返回的是选项卡的代号列表。要想切换选项卡,只须要调用switch_to_window()方法便可,其中参数是选项卡的代号。这里咱们将第二个选项卡代号传入,即跳转到第二个选项卡,接下来在第二个选项卡下打开一个新页面,而后切换回第一个选项卡从新调用switch_to_window()方法,再执行其余操做便可。

15. 异常处理

在使用Selenium的过程当中,不免会遇到一些异常,例如超时、节点未找到等错误,一旦出现此类错误,程序便不会继续运行了。这里咱们可使用try except语句来捕获各类异常。

首先,演示一下节点未找到的异常,示例以下:

1
2
3
4
5
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.find_element_by_id('hello')

这里首先打开百度页面,而后尝试选择一个并不存在的节点,此时就会遇到异常。

运行以后控制台的输出以下:

1
2
3
4
5
NoSuchElementException Traceback (most recent call last)
<ipython-input-23-978945848a1b> in <module>()
3 browser = webdriver.Chrome()
4 browser.get('https://www.baidu.com')
----> 5 browser.find_element_by_id('hello')

能够看到,这里抛出了NoSuchElementException异常,这一般是节点未找到的异常。为了防止程序遇到异常而中断,咱们须要捕获这些异常,示例以下:

from selenium import webdriver
from selenium.common.exceptions import TimeoutException, NoSuchElementException

browser = webdriver.Chrome()
try:
    browser.get('https://www.baidu.com')
except TimeoutException:
    print('Time Out')
try:
    browser.find_element_by_id('hello')
except NoSuchElementException:
    print('No Element')
finally:
    browser.close()
复制代码

这里咱们使用try except来捕获各种异常。好比,咱们对find_element_by_id()查找节点的方法捕获NoSuchElementException异常,这样一旦出现这样的错误,就进行异常处理,程序也不会中断了。

控制台的输出以下:

1
No Element

关于更多的异常类,能够参考官方文档:selenium-python.readthedocs.io/api.html#mo…

如今,咱们基本对Selenium的常规用法有了大致的了解。使用Selenium,处理JavaScript再也不是难事。


本资源首发于崔庆才的我的博客静觅: Python3网络爬虫开发实战教程 | 静觅

如想了解更多爬虫资讯,请关注个人我的微信公众号:进击的Coder

weixin.qq.com/r/5zsjOyvEZ… (二维码自动识别)

相关文章
相关标签/搜索