【nodeJS爬虫】前端爬虫系列

写这篇 blog 其实一开始我是拒绝的,由于爬虫爬的就是cnblog博客园。搞很差编辑看到了就把个人帐号给封了:)。javascript

言归正传,前端同窗可能向来对爬虫不是很感冒,以为爬虫须要用偏后端的语言,诸如 php , python 等。固然这是在 nodejs 前了,nodejs 的出现,使得 Javascript 也能够用来写爬虫了。因为 nodejs 强大的异步特性,让咱们能够轻松以异步高并发去爬取网站,固然这里的轻松指的是 cpu 的开销。
要读懂本文,其实只须要有
  • 能看懂 Javascript 及 JQueryphp

  • 简单的nodejs基础css

  • http 网络抓包 和 URL 基础html

本文较长且图多,但若是能耐下心读完本文,你会发现,简单的一个爬虫实现并不难,而且能从中学到不少东西。前端

本文中的完整的爬虫代码,在个人github上能够下载。主要的逻辑代码在 server.js 中,建议边对照代码边往下看。java

在详细说爬虫前,先来简单看看要达成的最终目标,入口为 http://www.cnblogs.com/ ,博客园文章列表页每页有20篇文章,最多能够翻到200页。我这个爬虫要作的就是异步并发去爬取这4000篇文章的具体内容,拿到一些咱们想要的关键数据。node

 

   爬虫流程

看到了最终结果,那么咱们接下来看看该如何一步一步经过一个简单的 nodejs 爬虫拿到咱们想要的数据,首先简单科普一下爬虫的流程,要完成一个爬虫,主要的步骤分为:python

抓取

爬虫爬虫,最重要的步骤就是如何把想要的页面抓取回来。而且能兼顾时间效率,可以并发的同时爬取多个页面。jquery

同时,要获取目标内容,须要咱们分析页面结构,由于 ajax 的盛行,许多页面内容并不是是一个url就能请求的的回来的,一般一个页面的内容是通过屡次请求异步生成的。因此这就要求咱们可以利用抓包工具分析页面结构。git

若是深刻作下去,你会发现要面对不一样的网页要求,好比有认证的,不一样文件格式、编码处理,各类奇怪的url合规化处理、重复抓取问题、cookies 跟随问题、多线程多进程抓取、多节点抓取、抓取调度、资源压缩等一系列问题。

因此第一步就是拉网页回来,慢慢你会发现各类问题待你优化。

存储

当把页面内容抓回来后,通常不会直接分析,而是用必定策略存下来,我的以为更好的架构应该是把分析和抓取分离,更加松散,每一个环节出了问题可以隔离另一个环节可能出现的问题,好排查也好更新发布。
那么存文件系统、SQL or NOSQL 数据库、内存数据库,如何去存就是这个环节的重点。

分析

对网页进行文本分析,提取连接也好,提取正文也好,总之看你的需求,可是必定要作的就是分析连接了。一般分析与存储会交替进行。能够用你认为最快最优的办法,好比正则表达式。而后将分析后的结果应用与其余环节。

展现

要是你作了一堆事情,一点展现输出都没有,如何展示价值?
因此找到好的展现组件,去show出肌肉也是关键。
若是你为了作个站去写爬虫,抑或你要分析某个东西的数据,都不要忘了这个环节,更好地把结果展现出来给别人感觉。

 

   编写爬虫代码

Step.1 页面分析

如今咱们一步一步来完成咱们的爬虫,目标是爬取博客园第1页至第200页内的4000篇文章,获取其中的做者信息,并保存分析。

共4000篇文章,因此首先咱们要得到这个4000篇文章的入口,而后再异步并发的去请求4000篇文章的内容。可是这个4000篇文章的入口 URL 分布在200个页面中。因此咱们要作的第一步是 从这个200个页面当中,提取出4000个 URL 。而且是经过异步并发的方式,当收集完4000个 URL 再进行下一步。那么如今咱们的目标就很明确了:

 

Step2.获取4000个文章入口URL

要获取这么多 URL ,首先仍是得从分析单页面开始,F12 打开 devtools 。很容易发现文章入口连接保存在 class 为 titlelnk 的 <a> 标签中,因此4000个 URL 就须要咱们轮询 200个列表页 ,将每页的20个 连接保存起来。那么该如何异步并发的从200个页面去收集这4000个 URL 呢,继续寻找规律,看看每一页的列表页的 URL 结构:

那么,1~200页的列表页 URL 应该是这个样子的:

1
2
3
for ( var  i=1 ; i<= 200 ; i++){
     pageUrls.push( 'http://www.cnblogs.com/#p' +i);
}

有了存放200个文章列表页的 URL ,再要获取4000个文章入口就不难了,下面贴出关键代码,一些最基本的nodejs语法(譬如如何搭建一个http服务器)默认你们都已经会了:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
// 一些依赖库
var  http = require( "http" ),
     url = require( "url" ),
     superagent = require( "superagent" ),
     cheerio = require( "cheerio" ),
     async = require( "async" ),
     eventproxy = require( 'eventproxy' );
 
var  ep =  new  eventproxy(),
     urlsArray = [],  //存放爬取网址
     pageUrls = [],   //存放收集文章页面网站
     pageNum = 200;   //要爬取文章的页数
 
for ( var  i=1 ; i<= 200 ; i++){
     pageUrls.push( 'http://www.cnblogs.com/#p' +i);
}
 
// 主start程序
function  start(){
     function  onRequest(req, res){  
         // 轮询 全部文章列表页
         pageUrls.forEach( function (pageUrl){
             superagent.get(pageUrl)
                 .end( function (err,pres){
               // pres.text 里面存储着请求返回的 html 内容,将它传给 cheerio.load 以后
               // 就能够获得一个实现了 jquery 接口的变量,咱们习惯性地将它命名为 `$`
               // 剩下就都是利用$ 使用 jquery 的语法了
               var  $ = cheerio.load(pres.text);
               var  curPageUrls = $( '.titlelnk' );
 
               for ( var  i = 0 ; i < curPageUrls.length ; i++){
                 var  articleUrl = curPageUrls.eq(i).attr( 'href' );
                 urlsArray.push(articleUrl);
                 // 至关于一个计数器
                 ep.emit( 'BlogArticleHtml' , articleUrl);
               }
             });
         });
 
         ep.after( 'BlogArticleHtml' , pageUrls.length*20 , function (articleUrls){
         // 当全部 'BlogArticleHtml' 事件完成后的回调触发下面事件
         // ...
         });
     }
     http.createServer(onRequest).listen(3000);
}
exports.start= start;
这里咱们用到了三个库,superagent 、 cheerio 、 eventproxy。
分别简单介绍一下:

superagent

superagent(http://visionmedia.github.io/superagent/ ) 是个轻量的的 http 方面的库,是nodejs里一个很是方便的客户端请求代理模块,当咱们须要进行 get 、 post 、 head 等网络请求时,尝试下它吧。

cheerio

cheerio(https://github.com/cheeriojs/cheerio ) 你们能够理解成一个 Node.js 版的 jquery,用来从网页中以 css selector 取数据,使用方式跟 jquery 同样同样的。

eventproxy

eventproxy(https://github.com/JacksonTian/eventproxy ) 很是轻量的工具,可是可以带来一种事件式编程的思惟变化。

用 js 写过异步的同窗应该都知道,若是你要并发异步获取两三个地址的数据,而且要在获取到数据以后,对这些数据一块儿进行利用的话,常规的写法是本身维护一个计数器。

先定义一个 var count = 0,而后每次抓取成功之后,就 count++。若是你是要抓取三个源的数据,因为你根本不知道这些异步操做到底谁先完成,那么每次当抓取成功的时候,就判断一下count === 3。当值为真时,使用另外一个函数继续完成操做。

而 eventproxy 就起到了这个计数器的做用,它来帮你管理到底这些异步操做是否完成,完成以后,它会自动调用你提供的处理函数,并将抓取到的数据当参数传过来。

OK,运行一下上面的函数,假设上面的内容咱们保存在 server.js 中,而咱们有一个这样的启动页面 index.js,

如今咱们在回调里增长几行代码,打印出结果:

打开node命令行,键入指令,在浏览器打开 http://localhost:3000/ ,能够看到:

1
node index.js

成功了!咱们成功收集到了4000个 URL ,可是我将这个4000个 URL 去重后发现,只有20个 URL 剩下,也就是说我将每一个 URL  push 进数组了200次,必定是哪里错,看到200这个数字,我立马回头查看 200 个 文章列表页。

我发现,当我用 http://www.cnblogs.com/#p1 ~ 200 访问页面的时候,返回的都是博客园的首页。 而真正的列表页,藏在这个异步请求下面:

看看这个请求的参数:

把请求参数提取出来,咱们试一下这个 URL,访问第15页列表页:http://www.cnblogs.com/?CategoryId=808&CategoryType=%22SiteHome%22&ItemListActionName=%22PostList%22&PageIndex=15&ParentCategoryId=0 。

成功了,那么咱们稍微修改下上面的代码:

1
2
3
4
5
6
7
//for(var i=1 ; i<= 200 ; i++){
//  pageUrls.push('http://www.cnblogs.com/#p'+i);
//}
//改成
for ( var  i=1 ; i<= 200 ; i++){
     pageUrls.push( 'http://www.cnblogs.com/?CategoryId=808&CategoryType=%22SiteHome%22&ItemListActionName=%22PostList%22&PageIndex=' + i + '&ParentCategoryId=0' );
}

再试一次,发现此次成功收集到了4000个没有重复的 URL 。第二步完成!

 

Step.3 爬取具体页面内容 使用 async 控制异步并发数量 

获取到4000个 URL ,而且回调入口也有了,接下来咱们只须要在回调函数里继续爬取4000个具体页面,并收集咱们想要的信息就行了。其实刚刚咱们已经经历了第一轮爬虫爬取,只是有一点作的很差的地方是咱们刚刚并无限制并发的数量,这也是我发现 cnblog 能够改善的一点,否则很容易被单IP的巨量 URL 请求攻击到崩溃。为了作一个好公民,也为了减轻网站的压力(其实为了避免被封IP),这4000个URL 我限制了同时并发量最高为5。这里用到了另外一个很是强大的库 async ,让咱们控制并发量变得十分轻松,简单的介绍以下。

async

async(https://github.com/caolan/async#queueworker-concurrency),async是一个流程控制工具包,提供了直接而强大的异步功能mapLimit(arr, limit, iterator, callback)。

此次咱们要介绍的是 async 的 mapLimit(arr, limit, iterator, callback) 接口。另外,还有个经常使用的控制并发链接数的接口是 queue(worker, concurrency) ,你们能够去看看它的API。

继续咱们的爬虫,进到具体的文章页面,发现咱们想获取的信息也不在直接请求而来的 html 页面中,而是以下这个 ajax 请求异步生成的,不过庆幸的是咱们上一步收集的 URL 包含了这个请求所须要的参数,因此咱们仅仅须要多作一层处理,将这个参数从 URL 中取出来再从新拼接成一个ajax URL 请求。

下面,贴出代码,在咱们刚刚的回调函数中,继续咱们4000个页面的爬取,而且控制并发数为5:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
ep.after( 'BlogArticleHtml' ,pageUrls.length*20, function (articleUrls){
     // 当全部 'BlogArticleHtml' 事件完成后的回调触发下面事件
     // 控制并发数
     var  curCount = 0;
     var  reptileMove =  function (url,callback){
         //延迟毫秒数
         var  delay = parseInt((Math.random() * 30000000) % 1000, 10);
       curCount++;
       console.log( '如今的并发数是' , curCount,  ',正在抓取的是' , url,  ',耗时'  + delay +  '毫秒' ); 
     
     superagent.get(url)
         .end( function (err,sres){
             // sres.text 里面存储着请求返回的 html 内容
             var  $ = cheerio.load(sres.text);
             // 收集数据
             // 拼接URL
             var  currentBlogApp = url.split( '/p/' )[0].split( '/' )[3],
                 appUrl =  "http://www.cnblogs.com/mvc/blog/news.aspx?blogApp=" + currentBlogApp;
             // 具体收集函数
             personInfo(appUrl);
         });
 
     setTimeout( function () {
         curCount--;
         callback( null ,url + 'Call back content' );
     }, delay);     
     };
 
// 使用async控制异步抓取   
// mapLimit(arr, limit, iterator, [callback])
// 异步回调
async.mapLimit(articleUrls, 5 , function  (url, callback) {
       reptileMove(url, callback);
     },  function  (err,result) {
         // 4000 个 URL 访问完成的回调函数
         // ...
     });
});

根据从新拼接而来的 URL ,再写一个具体的 personInfo(URL) 函数,具体获取咱们要的昵称、园龄、粉丝数等信息。

这样,咱们把抓取回来的信息以 JSON 串的形式存储在 catchDate 这个数组当中,

node index.js 运行一下程序,将结果打印出来,能够看到中间过程及结果:

至此,第三步就完成了,咱们也收集到了4000条咱们想要的原始数据。

 

Step.4 分析 展现

原本想将爬来的数据存入 mongoDB ,但由于这里我只抓取了4000条数据,相对于动不动爬几百万几千万的量级而言不值一提,故就不添加额外的操做 mongoDB 代码,专一于爬虫自己。

收集到数据以后,就想看你想怎么展现了,这里推荐使用 Highcharts 纯JS图表库去展现咱们的成果。固然这里我偷懒了没有作,直接用最原始的方法展现结果。

下面是我不一样时间段爬取,通过简单处理后的的几张结果图:

(结果图的耗时均在并发量控制为 5 的状况下)


 

   后记

OK,至此,整个爬虫就完成了,其实代码量不多,我以为写爬虫更多的时间是花在在处理各种问题,分析页面结构。

完整的爬虫代码,在个人github上能够下载。若是仍有疑问,能够把代码 down 到本地,从新从文章开头对照代码再实践一次,相信不少问题会迎刃而解。

由于代码开源,本着负责任的心态,但愿你们能够照着代码写写其余网站的爬虫,若是都拿cnblog来爬,服务器可能会承受不住的:)

参考文章:《Node.js 包教不包会》

原创文章,文笔有限,才疏学浅,文中如有不正之处,万望告知。

相关文章
相关标签/搜索