python网络爬虫——Pyppeteer

Pyppeteer

pyppeteer模块的基本使用

引言

Selenium 在被使用的时候有个麻烦事,就是环境的相关配置,得安装好相关浏览器,好比 Chrome、Firefox 等等,而后还要到官方网站去下载对应的驱动,最重要的还须要安装对应的 Python Selenium 库,确实是否是很方便,另外若是要作大规模部署的话,环境配置的一些问题也是个头疼的事情。那么本节就介绍另外一个相似的替代品,叫作 Pyppeteer。html

Pyppeteer简介

注意,本节讲解的模块叫作 Pyppeteer,不是 Puppeteer。Puppeteer 是 Google 基于 Node.js 开发的一个工具,有了它咱们能够经过 JavaScript 来控制 Chrome 浏览器的一些操做,固然也能够用做网络爬虫上,其 API 极其完善,功能很是强大。 而 Pyppeteer 又是什么呢?它其实是 Puppeteer 的 Python 版本的实现,但他不是 Google 开发的,是一位来自于日本的工程师依据 Puppeteer 的一些功能开发出来的非官方版本。浏览器

在 Pyppetter 中,实际上它背后也是有一个相似 Chrome 浏览器的 Chromium 浏览器在执行一些动做进行网页渲染,首先说下 Chrome 浏览器和 Chromium 浏览器的渊源。网络

  Chromium 是谷歌为了研发 Chrome 而启动的项目,是彻底开源的。两者基于相同的源代码构建,Chrome 全部的新功能都会先在 Chromium 上实现,待验证稳定后才会移植,所以 Chromium 的版本更新频率更高,也会包含不少新的功能,但做为一款独立的浏览器,Chromium 的用户群体要小众得多。两款浏览器“同根同源”,它们有着一样的 Logo,但配色不一样,Chrome 由蓝红绿黄四种颜色组成,而 Chromium 由不一样深度的蓝色构成。less

Pyppeteer 就是依赖于 Chromium 这个浏览器来运行的。那么有了 Pyppeteer 以后,咱们就能够免去那些繁琐的环境配置等问题。若是第一次运行的时候,Chromium 浏览器没有安装,那么程序会帮咱们自动安装和配置,就免去了繁琐的环境配置等工做。另外 Pyppeteer 是基于 Python 的新特性 async 实现的,因此它的一些执行也支持异步操做,效率相对于 Selenium 来讲也提升了。异步

环境安装

  • 因为 Pyppeteer 采用了 Python 的 async 机制,因此其运行要求的 Python 版本为 3.5 及以上
  • pip install pyppeteer

快速上手

 

- 爬取http://quotes.toscrape.com/js/ 所有页面数据async

import asyncio
from pyppeteer import launch
from lxml import etree
 
async def main():
browser = await launch()
page = await browser.newPage()
await page.goto('http://quotes.toscrape.com/js/')
page_text = await page.content()
tree = etree.HTML(page_text)
div_list = tree.xpath('//div[@class="quote"]')
print(len(div_list))
await browser.close()
 
asyncio.get_event_loop().run_until_complete(main())
from pyppeteer import launch
import asyncio
from lxml import etree

# 实例化浏览器对象(谷歌测试版)
async def main():
    bro = await launch()
    # 新建一个空白页
    page = bro.newPage()
    page.goto('http://quotes.toscrape.com/js/')

    # 获取page当前显示页面的源码数据
    page_text = await page.content()

    return page_text

def parse(task):
    page_text = task.result()
    tree = etree.HTML(page_text)
    div_list = tree.xpath('//div[@class="quote"]')
    for div in div_list:
        content = div.xpath('./span[1]/text()')
        print(content)

c = main()
task = asyncio.ensure_future(c)
task.add_done_callback(parse)
loop = asyncio.get_event_loop()
loop.run_until_complete(c)
结合协程

 

 解释:ide

  launch 方法会新建一个 Browser 对象,而后赋值给 browser,而后调用 newPage 方法至关于浏览器中新建了一个选项卡,同时新建了一个 Page 对象。而后 Page 对象调用了 goto 方法就至关于在浏览器中输入了这个 URL,浏览器跳转到了对应的页面进行加载,加载完成以后再调用 content 方法,返回当前浏览器页面的源代码。而后进一步地,咱们用 pyquery 进行一样地解析,就能够获得 JavaScript 渲染的结果了。在这个过程当中,咱们没有配置 Chrome 浏览器,没有配置浏览器驱动,免去了一些繁琐的步骤,一样达到了 Selenium 的效果,还实现了异步抓取。工具

 

详细用法

  • 开启浏览器
  • 调用 launch 方法便可,相关参数介绍:
    • ignoreHTTPSErrors (bool): 是否要忽略 HTTPS 的错误,默认是 False。
    • headless (bool): 是否启用 Headless 模式,即无界面模式,若是 devtools 这个参数是 True 的话,那么该参数就会被设置为 False,不然为 True,即默认是开启无界面模式的。
    • executablePath (str): 可执行文件的路径,若是指定以后就不须要使用默认的 Chromium 了,能够指定为已有的 Chrome 或 Chromium。
    • args (List[str]): 在执行过程当中能够传入的额外参数。
    • devtools (bool): 是否为每个页面自动开启调试工具,默认是 False。若是这个参数设置为 True,那么 headless 参数就会无效,会被强制设置为 False。
  • 关闭提示条:”Chrome 正受到自动测试软件的控制”,这个提示条有点烦,那咋关闭呢?这时候就须要用到 args 参数了,禁用操做以下:
    • browser = await launch(headless=False, args=['--disable-infobars'])
相关文章
相关标签/搜索