这篇文章讲解一下yunshare项目的爬虫模型。html
使用nodejs开发爬虫很简单,不须要相似python的scrapy这样的爬虫框架,只须要用request或者superagent这样的http库就能完成大部分的爬虫工做了。node
使用nodejs开发爬虫半年左右了,爬虫能够很简单,也能够很复杂。简单的爬虫定向爬取一个网站,可能有个几万或者几十万的页面请求,复杂的爬虫相似google bot这样搜索引擎的蜘蛛爬虫,要每时每刻爬取互联网上最新的内容。python
通常的我的开发者都是用爬虫定向爬取一些网站,而后提取一些结构化的数据,使用api接口获取数据也能够归到这一类。若是想简单的练习爬虫技术,能够尝试爬取豆瓣电影数据和书籍数据的,使用api接口和爬取html页面都能完成这个任务。git
爬虫的说白了就是一个http客户端,经过http协议和远程http服务器通讯,获取html页面内容或者其余的种子文件,pdf文件等等。和浏览器不一样的一点就是爬虫不会把抓取的内容渲染出来,而是解析页面内容而后保存到数据库里面。github
在开始学习爬虫的时候我考虑的是怎么爬取html页面内容,怎么解析html页面之间的连接规则,后来遇到了页面编码的问题。数据库
国内网站主要是使用html和gbk这两种编码方式,解决编码有两种思路,第一个是在获取页面内容的时候根据页面的<meta charset='gbk'>
编码把内容统一转码成utf8的,由于nodejs字符串默认编码就是utf8。json
这个方案充满了不肯定性。api
问题1:不一样网站的指定编码的方式不同,除了前面提到的那种方式,还有<meta http-equiv="Content-Type" content="text/html; charset=gbk">
这种方式指定编码,这个问题还不是很大,不少的http工具库都能正确的解析这两种编码,问题是还有不少网站没有指定编码,又或者指定的编码和文件的实际编码不一致(遇到过真实的案例)。promise
问题2:若是你把gbk编码的html文件转成utf8编码保存到本地,用浏览器直接打开这个文件的时候会显示乱码,很是不利于开发过程当中的查找问题。浏览器
既然前面的方案有这么多的问题,剩下的方法就是把html内容直接按照原来的编码保存到本地,而后解析的时候指定编码。
这个方法有2个好处:一、简化了爬虫模型,二、能够用浏览器打开html文件,不会乱码。惟一的缺点是不一样网站文件内容解析的时候彷佛须要指定编码,对于小规模爬虫这个问题其实影响不大。
前面的编码方案解决了爬取不一样网站html文件的编码问题,咱们能够用一个统一的爬虫方法爬取不一样网站的内容,那若是你想爬取非html内容呢?
是否是又要从新写一个爬虫方法,解决这个问题的方法就是http协议,假设咱们写的这个爬虫方法就是一个完整的http客户端,那理论上这个客户端是否是能根据Content-Typ
获取各类格式的文件。
那到底能不能用一个简单的方法就能实现上述的功能呢?下面的方法就是我采用request写的nodejs简单高效的爬虫模型。
function fetch(url) { console.log(`down ${url} started`); const deferred = Q.defer(); const file = getfile(url); fs.ensureDirSync(path.dirname(file)); const stream = request .get(url) .on('error', (err) => { deferred.reject(`down ${url}:${err}`); }) .on('response', (res) => { if (res.statusCode !== 200) { deferred.reject(`down ${url}:${res.statusCode}`); } else { console.log(`down ${url}:${res.statusCode}`); } }) .pipe(fs.createWriteStream(`${file}`)); stream.on('finish', () => { deferred.resolve(); }); return deferred.promise; }
这段代码在yunshare/src/util/fetch.js
里面,固然这个方法不能单独运行,可是关键的逻辑就是这么简单。
无论是什么格式的http请求,json,html,torrent等都统一把返回的二进制格式文件保存到以md5(url)
为文件名的位置。上面的getfile
就是用来获取文件路径的。
使用MD5散列仍是有发生冲突的风险的,若是你想要爬取上亿的网页,可能还须要对上面的模型进行扩展。一个简单的思路就是把网页路径中的域名提取出来,不一样网站的内容保存在对应的域文件夹下面。
其余的相似的思路也行,须要注意的就是若是爬虫保存文件和解析文件是分开的,你须要保证在解析文件的时候能用一样的方法定位这个文件。共同的参数就是url,因此你生成文件名的时候不能用一些随时间变化的参数。
最后,献上第一个使用node全栈开发的网站:哔哩搜索,目前索引百度网盘资源1000w条了。