首先介绍Puppeteernode
Puppeteer是一个node库,他提供了一组用来操纵Chrome的API(默认headless也就是无UI的chrome,也能够配置为有UI)git
有点相似于PhantomJS,但Puppeteer是Chrome官方团队进行维护的,前景更好。es6
使用Puppeteer,至关于同时具备Linux和Chrome的能力,应用场景会很是多。就爬虫领域来讲,远比通常的爬虫工具功能更丰富,性能分析、自动化测试也不在话下,今天先探讨爬虫相关github
Puppeteer官方文档请猛戳这里chrome
puppeteer.launch()
运行puppeteer,他会return一个promise,使用then方法获取browser实例,Browser API猛击这里 browser.newPage()
方法,能够获得一个page实例, 猛戳 Page API page.goto()
方法,跳转至ES6标准入门 page.evaluate()
方法中注册回调函数,并分析dom结构,从下图能够进行详细分析,并经过document.querySelectorAll('ol li a')
拿到文章的全部连接page.pdf()
方法打印当前页面核心代码以下api
puppeteer.launch().then(async browser => { let page = await browser.newPage(); await page.goto('http://es6.ruanyifeng.com/#README'); await timeout(2000); let aTags = await page.evaluate(() => { let as = [...document.querySelectorAll('ol li a')]; return as.map((a) =>{ return { href: a.href.trim(), name: a.text } }); }); await page.pdf({path: `./es6-pdf/${aTags[0].name}.pdf`}); page.close() // 这里也可使用promise all,但cpu可能吃紧,谨慎操做 for (var i = 1; i < aTags.length; i++) { page = await browser.newPage() var a = aTags[i]; await page.goto(a.href); await timeout(2000); await page.pdf({path: `./es6-pdf/${a.name}.pdf`}); page.close(); } browser.close(); });
https://github.com/zhentaoo/p...promise
若是在page go以后立刻进行pdf抓取,此时页面还未完成渲染,只能抓到loading图(以下),因此用timeout作了简单点处理
less
最终爬取效果以下,PDF的尺寸、预览效果、首页重复就不作过多整理, 预览效果以下,若是想要本身处理,能够设置一下chrome尺寸,打印页数
dom
最后声明,生成的PDF很粗糙,应该不会对阮老师产生什么影响,若有问题能够第一时间联系我....async