不知不觉作nodejs开发已经将近一年多了,过程当中学了不少,也忘了不少,因此仍是坚持在博客里面留下点内容,方便之后查看。node
本文主要实现一个简单的网站爬虫功能,抓取网站里面的图片以及内容。jquery
在抓取以前用到了superagent、cheerio、request、fs模块。api
superagent和http用途实际上是差很少的,都是经过url模拟请求,为了记录一下用法,这里两个都用了;cheerio我我的理解就至关于一个服务端的jquery,能够对响应的内容进行过滤,用法跟jquery同样;fs模块是nodejs里面的文件操做模块。网络
以爬取360网站为例:dom
1 /** 2 * 网络爬虫 3 */ 4 5 let sup = require("superagent"); 6 let cheer = require("cheerio"); 7 let request = require("request"); 8 let fs = require("fs"); 9 const domain = "www.360.com"; 10 const url = "https://" + domain + "/"; 11 sup.get(url).end(function (err, res, body) { 12 if (err) { 13 console.log(err); 14 } else { 15 console.log('----------------------'); 16 //找出页面响应的文本内容 17 let $ = cheer.load(res.text); 18 //经过cheerio过滤内容 用法与jquery同样 如:找出里面全部的图片 19 let rst = $("img"); 20 rst.each(function (idx, item) { 21 //这里request.get的encoding必定要设置为null,api文档有说明,为null的时候响应文本会返回一个buffer 22 let imgUrl = ((item.attribs.src.includes(('http://', 'https://'))) ? url : 'http:') + item.attribs.src;
23 console.log('********************', imgUrl);
24 request.get({ url: imgUrl, encoding: null }, function (error, response, body) { 25 if (error) { 26 console.error(error); 27 } else { 28 //持续下载数据 29 let dir = domain + "/" + item.attribs.src.replace('//', ''); 30 let path = dir.split('/'); 31 //去掉最后的文件名部分 32 path.pop(); 33 if (fs.existsSync(path.join('/')) == false) { 34 //循环建立文件夹 35 var dirInfo = ""; 36 for (var i = 0; i < path.length; i++) { 37 dirInfo += path[i] + "/" 38 if (fs.existsSync(dirInfo) == false && dirInfo != '') 39 fs.mkdirSync(dirInfo); 40 } 41 } 42 //把body的的string转为object写入到文件 43 fs.writeFile(dir, body, (err) => { 44 console.log('----------------', err); 45 }) 46 } 47 }) 48 }) 49 } 50 })
以上为我的学习记录,只是一个学习的知识点分享,若是不对之处,请留言指出。学习