一个最简单的漫画脚本最基本的功能是下载,可是在是下载以前还要作什么?是找资源!那么“搜索”功能也应该算在一个最简单漫画爬虫的基本功能。因此,接下来围绕这两个功能看看从一零开始的 ic-comic-spider!html
ps:咱们用于爬取漫画的站点肯定为 chuixuenode
# 下载漫画全本
icsdr http://xxx
# 搜索漫画
icsdr --search [comic name]
复制代码
咱们以 ONE-PUNCH MAN 的目录页为例子。 目录页面的分析目标是:1. 获取漫画名;2. 获取漫画每章节的连接;git
审查元素,能够找到漫画名的节点:github
咱们能够经过如下方式复制节点路径方便待会获取对应节点:npm
# 漫画名的节点路径
#intro_l > div.title > h1
# 目录章节节点路径
#play_0 ul > li > a
复制代码
图片页就不能直接经过审查元素获取节点路径获取图片的资源连接了。图片的节点通常都不会直接在服务端渲染后,基本上都是在浏览器端渲染,所以咱们直接用axios请求到的html文本是浏览器渲染前的,言外之意就是里面是没有图片的节点的!json
那么,想要获取图片的资源连接咱们就须要直接从源码中找图片连接的组成规则,当前这个网站也是如此!axios
如今我打开ONE-PUNCH MAN第127话页面,审查元素能够看到解析后的图片连接:api
控制台
->
source
,开始阅读源码找组合图片连接的逻辑,此处省略十年!
而后,如下是我找到的组合规则,而且封装成函数:promise
const imgOrigins = ['http://2.csc1998.com/', 'http://img.csc1998.com/'];
const viewidThreshold = 519253;
/** * 获取图片origin * @param { number } viewId */
function getImgOrigin(viewId) {
let origin;
if (viewId >= viewidThreshold) {
origin = imgOrigins[0];
} else {
origin = imgOrigins[1];
}
return origin;
}
/** * 获取图片连接的后半部分 * @param { string } _doc html文本 */
function getImgPaths(_doc) {
const photosr = [];
const packedMatcheds = _doc.match(/packed=\"(.*)\"\;/);
const packed = packedMatcheds && packedMatcheds[1];
if (packed) {
const temp = Buffer.from(packed, 'base64').toString();
eval(eval(temp.slice(4)));
photosr.shift();
} else {
const photosrMatched = _doc.match(/photosr\[.+\] =\".*";/);
if (photosrMatched) {
eval(photosrMatched[0]);
photosr.shift();
}
}
return photosr;
}
/** * 组合img的origin和 paths * @param { string } _origin * @param { string[] } _paths */
function generateImgSrcs(_origin, _paths) {
const srcs = _paths.map((imgPath) => {
return url.resolve(_origin, imgPath);
});
return srcs;
}
复制代码
首先是先找到搜索的api是什么!
控制台
-> Network
,而后进行搜索,你就会发现这个搜索的api(大部分的站点也是这么找)
那么搜索的api便是:
http://www.chuixue.net/e/search/?searchget=1&show=title,player,playadmin,pinyin&keyboard=[keywork]
复制代码
接下来就是分析结果列表
搜索结果的节点路径
#dmList > ul > li > dl > dt > a
复制代码
这样就能够拿到搜索到的资源了!
须要用到的npm包:
axios:请求资源(获取页面html和下载漫画图片流)
cheerio:将html文本转化成dom,方便提取目标资源连接
主要用到的几个方法是:
.text( [textString] )
:获取节点文本.attr([string])
:获取节点属性.html([string])
:获取节点html文本.eq([number])
:获取节点列表中的其中之一iconv-lite: 用于转码请求回来的html文本,主要是为了解决中文乱码问题
这里补充说明如何知道html文本的编码。这里有两个方法:
控制台
-> Element
:控制台
-> Console
, 打印document.characterSet
获取目录的dom对象
/** * 获取目录dom对象 * @param {*} _url */
function getCatalogDom(_url) {
const reqOptions = {
method: 'GET',
url: _url,
responseType: 'arraybuffer'
};
return axios.request(reqOptions).then((resp) => {
const data = iconv.decode(resp.data, 'GBK');
const doc = cheerio.load(data);
return doc;
}).catch((err) => {
console.log(err);
});
}
复制代码
获取漫画名字
漫画名字节点路径咱们已经知道,使用刚刚拿到的dom对象,使用cheerio的.text()
获取名字。
/** * 获取漫画名字 * @param { string } _doc */
function getComicName(_doc) {
const selectorPath = '#intro_l > div.title > h1';
return _doc(selectorPath).text();
}
复制代码
获取章节列表资源
使用上面找到的节点路径便可获取到章节的节点列表,而后使用.eq
遍历配合.attr
方法便可获取到章节的名字和连接。
/** * 获取章节列表资源 * @param { object } _doc * @param { string } _catalogUrl */
function getComicChaptes(_doc, _catalogUrl) {
const { URL } = url;
const origin = (new URL(_catalogUrl)).origin;
const selectorPath = '#play_0 ul > li > a';
const chapterEles = _doc(selectorPath);
const list = [];
for (let i = 0, len = chapterEles.length; i < len; i+=1) {
const ele = chapterEles.eq(i);
list.push({
title: ele.attr('title'),
url: url.resolve(origin, ele.attr('href'))
})
}
return list;
}
复制代码
封装一下以上函数
/** * 获取目录资源 * @param { string } _catalogUrl */
function parseCatalog(_catalogUrl) {
return getCatalogDom(_catalogUrl)
.then((_doc) => {
const comicName = getComicName(_doc);
const catalogs = getComicChaptes(_doc, _catalogUrl);
return {
comicName,
catalogs
};
});
}
复制代码
而后咱们只需调用这个parseCatalog
函数便可获取到漫画的目录资源
解析完目录以后,就是要获取到每一个章节的图片支资源连接,这个也是站点极力想要保护的部分,或多或少都会作一些防盗链的措施,好比chuixue就把图片资源放列表用base64加密,而后将解密逻辑隐藏在其余文件,这样直接抓取漫画页就不能很容易地拿到图片连接。
上面我已经找到组合图片连接的逻辑,如今咱们首先要作的是把html文本爬回来,而后正则匹配到咱们须要的资源;
/** * 获取章节的图片资源连接 * @param { string } _chapterUrl */
function getImageSrcList(_chapterUrl) {
const imgSrcList = [];
const reqOptions = {
method: 'GET',
url: _chapterUrl
};
return axios.request(reqOptions).then((resp) => {
const doc = resp.data || '';
const viewId = doc.match(/var viewid = \"(.*)\"\;/)[1];
const origin = getImgOrigin(viewId);
const imgPaths = getImgPaths(doc);
const imgSrcList = generateImgSrcs(origin, imgPaths);
return imgSrcList;
})
}
复制代码
如今咱们就获取第127话的图片资源:
(function __main() {
parseCatalog(config.catalog)
.then((_data) => {
// 最后一章节(127话)
const lastedChapter = _data.catalogs.pop();
getImageSrcList(lastedChapter.url).then((imgSrcList) => {
console.log(imgSrcList);
});
});
})();
复制代码
以上咱们已经实现了一部分逻辑,已经能够拿到图片的资源连接,接下来咱们只须要将图片下载回来就ok!
下面用递归实现对第127话漫画图片的下载(固然你也能够直接遍历,并在遍历的过程当中直接发请求,让全部的下载一块儿并发,可是啊,请求得过于频繁怕不是会被禁了你ip?!)。
(function _download(index) {
const imgSrc = imgSrcList[index];
if (imgSrc) {
console.log('download:', imgSrc);
const format = imgSrc.split('.').pop();
const picIndex = index + 1;
const fileName = picIndex + '.' + format;
const savePath = path.join(process.cwd(), fileName);
downloadPic(imgSrc, savePath).then(() => {
_download(++index);
}).catch((error) => {
console.log(error.message);
});
} else {
console.log('finish chapter!');
}
})(0);
复制代码
下载部分到此就基本结束,接下咱们在实现搜索的逻辑,而后就能够进入优化的阶段~
/** * 站内搜索漫画 * @param { string } keyword */
function search(_keyword) {
console.log('search: ' + _keyword);
const selectorPath = '#dmList > ul > li > dl > dt > a';
const keyword = encodeText(_keyword);
const origin = 'http://www.chuixue.net/';
const searchUrl = 'http://www.chuixue.net/e/search/?searchget=1&show=title,player,playadmin,pinyin&keyboard=' + keyword;
const reqOptions = {
method: 'GET',
url: searchUrl,
responseType: 'arraybuffer'
};
const promise = axios.request(reqOptions).then((resp) => {
const html = iconv.decode(resp.data, 'GBK');
const doc = cheerio.load(html);
const eles = doc(selectorPath);
let searchList = [];
for (let i = 0, len = eles.length; i < len; i += 1) {
const ele = eles.eq(i);
const name = ele.attr('title');
const src = url.resolve(origin, ele.attr('href'));
searchList.push({ name, src });
}
searchList = searchList.filter((item) => {
return item.name;
});
return searchList;
});
return promise;
}
复制代码
看上面的实现逻辑,你在函数的第三行你会发现这么一个函数encodeText
,这个不是语言自带的函数,而是本身封装的,这个转码函数是个什么东西???
/** * 转码搜索关键字 * @param { string } _text */
function encodeText(_text) {
const buf = iconv.encode(_text, 'GBK');
const hex = buf.toString('hex');
const chars = hex.split('');
let text = '';
for (let i = 0, len = chars.length; i < len; i += 2) {
const char = chars.slice(i, i + 2).join('');
text += `%${char.toUpperCase()}`;
}
return text;
}
复制代码
你会发现转码后的结果和urlencode
的结果很像,但其实不是~,你打开控制台的Network
你会发现
搜索的关键字确实是被转码了,可是又不是被urlencode了,可是你用encode试下你就会发现:
并不同~
这是为何?
假如你对此感兴趣你去看看这篇文章(备用文章连接)。你去看这部分搜索的源码你会发现,代码并无作任何的转码操做,仅仅只是提交了表单!言外之意这个转码的过程是浏览器作的~
回归正题,搜索的实现结果:
回一下咱们的实现目标:
# 下载漫画全本
icsdr http://xxx
# 搜索漫画
icsdr --search [comic name]
复制代码
作成命令行执行~
这时候咱们就须要commander这个库!
#!/usr/bin/env node
const spider = require('./index');
const program = require('commander');
const config = {
isSearch: false,
isDownload: true,
comicName: '',
downloadLink: ''
};
program
.version('0.1.0')
.option('-s, --search [comic name]', 'Search Comic', function(comicName) {
config.isSearch = true;
config.isDownload = false;
config.comicName = comicName;
})
.parse(process.argv);
(function __main() {
if (config.isDownload) {
if (!config.downloadLink) {
config.downloadLink = process.argv.pop();
}
spider.download(config.downloadLink);
} else {
spider.search(config.comicName);
}
})();
复制代码
此时此刻你已经能够使用命令行执行脚本:
# 下载漫画
node icsdr.js [catalog link]
# 搜索漫画
node icsdr.js -s [comic name]
复制代码
已经很接近咱们的目标,这个时候咱们还须要修改一下咱们的package.json(若是没有就npm init)
下面关键且必须的部分:
"name": "icsdr",
...
// 指明脚本执行文件
"bin": {
"icsdr": "./icsdr.js"
},
复制代码
你想要直接使用icsdr命令,有好几个方法懂得本身然懂。
npm link
npm i [absolute-path/relative-path] -g
而后你就能够:
固然这里为了演示只是下载了第127话!
本次代码例子已经上传到个人github,能够自行食用
欢迎star个人ic-comic-spider
以上简单说了一下comic spider的基本实现,下一篇将基于这个“基本实现”扩展一下下载相关的功能!