新手爬虫,教你爬掘金(二)

距离上次教程已通过了快两周了,没办法啊,学业繁忙(¬、¬) (¬_¬)html

本文用到的三个工具为

  • cheerio:jQuery语法,帮助你在非浏览器环境下解析网页用的
    • 上次没用到,这个确定用到啦
  • segment 一个基于盘古词库的中文分词工具,cnode大神写的,手动@leizongmin大神

cheerio用法

const cheerio = require('cheerio'),
    $ = cheerio.load('<h2 class="title">Hello world</h2>');

$('h2.title').text('Hello there!');
$('h2').addClass('welcome');

$.html();
//=> <h2 class="title welcome">Hello there!</h2>
复制代码

额外用法戳这里node

segment 用法

const Segment = require('segment');
// 建立实例
const segment = new Segment();
// 使用默认的识别模块及字典,载入字典文件须要1秒,仅初始化时执行一次便可
segment.useDefault();

// 开始分词
console.log(segment.doSegment('这是一个基于Node.js的中文分词模块。'));
// [ { w: '这是', p: 0 },
// { w: '一个', p: 2097152 },
// { w: '基于', p: 262144 },
// { w: 'Node.js', p: 8 },
// { w: '的', p: 8192 },
// { w: '中文', p: 1048576 },
// { w: '分词', p: 4096 },
// { w: '模块', p: 1048576 },
// { w: '。', p: 2048 } ]

复制代码

可是咱们通常不须要输出词性,也不须要输出多余的标点符号,因此git

const result = segment.doSegment(text, {
  simple: true,          //不输出词性
  stripPunctuation: true //去除标点符号
});
//  [ '这是', '一个', '基于', 'Node.js', '的', '中文', '分词', '模块' ]
复制代码

更高级用法见segment程序员

所有代码见githubgithub

基本用法也了解了,接下来进入正题吧╰(●’◡’●)╮算法

爬取图片

image.png
image.png
爬取到的图片

image.png

能够看到img元素上面src和自定义的data-src属性都带有图片地址,至于为何再下面的代码中我没有获取src的值 彻底是我太菜了◔ ‸◔?,img.eq(i).src 获取不到值,只能 prop('data-src')数据库

自定义属性兼容性不好劲segmentfault

Internet Explorer 11+ Chrome 8+ Firefox 6.0+ Opera 11.10+ Safari 6+浏览器

熟悉正则的同窗,稍微分析下图片的地址就能够经过正则来获取url了,如下是我给出的示例 /(https:\/\/user-gold-cdn).+?\/ignore-error\/1/g 须要注意的是/的转义,以及惰性匹配.+?,关于惰性匹配我这里不打算说了(稍微提一下下(//▽//),其实就是匹配符合要求的最短串),要是提及来又能够写一大堆了bash

想详细了解的同窗能够看看这个解释

/** * * @param {any} $ cheerio * @param {any} request 请求函数 */
function saveImg($, request) {
  const img = $('.lazyload');
  const origin = request.default();  //这里是我对request进行了一个简单的封装,default返回未封装的request
  for (let i = 0; i < img.length; ++i) {
    //data.body.match(/(https:\/\/user-gold-cdn).+?\/ignore-error\/1/g)
    let src = img.eq(i).prop('data-src');
    let name = src.match(/\/.{16}\?/g) && src.match(/\/.{16}\?/g)[0].slice(1, -1); //匹配出图片名称
    if (name) {
      origin.get(src).pipe(fs.createWriteStream(`./images/${name}.png`)); //愉快的下载图片
    }
  }
}
复制代码

数据处理

介绍下用的数据结构Map,用来存储词频(词-词出现的次数)

相似于对象,也是键值对的集合,可是“键”的范围不限于字符串,各类类型的值(包括对象)均可以看成键。也就是说,Object 结构提供了“字符串—值”的对应,Map 结构提供了“值—值”的对应,是一种更完善的 Hash 结构实现。若是你须要“键值对”的数据结构,Map 比 Object 更合适。

其实对于本文来说,键都为字符串,用对象也彻底没有问题,使用Map彻底是为了尝鲜 (●’◡’●)ノ 关于Map复制的解释,这一点和对象又不同

Map复制

image.png
Object复制,做为参数传进构造函数并不能够复制
image.png

async function getPage(request, url) {
  const data = await request.get({ url });
  const $ = cheerio.load(data.body);
  saveImg($, request);
  //获取内容
  let length = $('p').length;
  for (let i = 0; i < length; ++i) {
    let result = segment.doSegment(
      $('p')  //大部份内容都是p标签包裹的,这里不作过复杂的处理
        .eq(i)
        .text(),
      {
        simple: true, //不输出词性
        stripPunctuation: true //去除标点符号
      }
    );
    result.forEach((item, key) => {
      map.set(item, map.get(item) + 1 || 1); //1 + undefined || 1 => 1
    });
  }
  map = sortToken(map);
}

function sortToken(map) {
  const words = {}; //存储词
  let mapCopy = new Map(map); //获取副本,Map直接赋值应该也是地址引用,参见上文
  map.forEach((value, key) => {
    //分词长度大于1
    if (value !== 1 && key.length > 1) { //词频大于1且不是单个字的留下,单字没有什么号分析的吧?
      words[key] = value;
    }
    if (value === 1) { //词频太低,直接刷了
      mapCopy.delete(key);
    }
  });
  const keys = Object.keys(words);
  //排序
  keys.sort((a, b) => {
    return words[b] - words[a];
  });
  // 每篇文章词频最高的20个词,有兴趣了解的同窗能够去看看top k算法(咱们是获取前k个,它是获取第k个,可是它这样须要把前k个都保存下来,用来比较哪些是前k大)
  // 我这个方法只是粗略的获取词频最高的20个词,实际上会有误差,假设第一次排序,第十一个词词频为23,而第二次排序,第十个词词频为12,这样原本以前词频高的反被刷了
  // 但这样的好处是节省内存(实际上是假的),真正的能够利用最大堆和利用数据库存储,这样就不用存在内存了
  // 最后爬取完了,从数据库取出数据,再参照top k思想算法得出结果
  keys.slice(0, 20).forEach(item => {
    console.log(item, words[item]);
  });
  //返回分词中词频为1的分词
  return mapCopy;
}
复制代码

image.png
我爬取了最新评论前100个文章的内容进行了分析,得出了以上结果 能够看到, 代码方法函数对象执行调用组件等等跟代码有关的中文词语都出现了 不过仍是 一个最受欢迎,出现次数快1000次了 (」゜ロ゜)」 有兴趣的同窗,可使用英文分词进行分析,分析下程序员们写文章喜欢写什么代码
image.png
以上是我分析的一篇文章里面的英文

还能够再分析标题,而后还能够改进排序算法,直接把整个article-content(class)的text进行分析,而不是像我同样,只是分析p标签 (๑•̀_•́๑) ,最后用可视化工具(例如e-cahrt)把数据展现出来

喜欢的同窗能够star哦github

以上,若有错误,欢迎你们指正

相关文章
相关标签/搜索