基于Vert.x和RxJava 2构建通用的爬虫框架

最近因为业务须要监控一些数据,虽然市面上有不少优秀的爬虫框架,可是我仍然打算从头开始实现一套完整的爬虫框架。java

在技术选型上,我没有选择Spring来搭建项目,而是选择了更轻量级的Vert.x。一方面感受Spring过重了,而Vert.x是一个基于JVM、轻量级、高性能的框架。它基于事件和异步,依托于全异步Java服务器Netty,并扩展了不少其余特性。react

github地址:https://github.com/fengzhizi715/NetDiscoverygit

一. 爬虫框架的功能

爬虫框架包含爬虫引擎(SpiderEngine)和爬虫(Spider)。SpiderEngine能够管理多个Spider。github

1.1 Spider

在Spider中,主要包含几个组件:downloader、queue、parser、pipeline以及代理池IP(proxypool),代理池是一个单独的项目,我前段时间写的,在使用爬虫框架时常常须要切换代理IP,因此把它引入进来。web

proxypool地址:https://github.com/fengzhizi715/ProxyPooljson

Spider.png

其他四个组件都是接口,在爬虫框架中内置了一些实现,例如内置了多个下载器(downloader)包括vertx的webclient、http client、okhttp三、selenium实现的下载器。开发者能够根据自身状况来选择使用或者本身开发全新的downloader。浏览器

Downloader的download方法会返回一个Maybe。服务器

package com.cv4j.netdiscovery.core.downloader;

import com.cv4j.netdiscovery.core.domain.Request;
import com.cv4j.netdiscovery.core.domain.Response;
import io.reactivex.Maybe;

/** * Created by tony on 2017/12/23. */
public interface Downloader {

    Maybe<Response> download(Request request);

    void close();
}
复制代码

在Spider中,经过Maybe对象来实现后续的一系列的链式调用,好比将Response转换成Page对象,再对Page对象进行解析,Page解析完毕以后作一系列的pipeline操做。app

downloader.download(request)
                            .observeOn(Schedulers.io())
                            .map(new Function<Response, Page>() {

                                @Override
                                public Page apply(Response response) throws Exception {

                                    Page page = new Page();
                                    page.setHtml(new Html(response.getContent()));
                                    page.setRequest(request);
                                    page.setUrl(request.getUrl());
                                    page.setStatusCode(response.getStatusCode());

                                    return page;
                                }
                            })
                            .map(new Function<Page, Page>() {

                                @Override
                                public Page apply(Page page) throws Exception {

                                    if (parser != null) {

                                        parser.process(page);
                                    }

                                    return page;
                                }
                            })
                            .map(new Function<Page, Page>() {

                                @Override
                                public Page apply(Page page) throws Exception {

                                    if (Preconditions.isNotBlank(pipelines)) {

                                        pipelines.stream()
                                                .forEach(pipeline -> pipeline.process(page.getResultItems()));
                                    }

                                    return page;
                                }
                            })
                            .subscribe(new Consumer<Page>() {

                                @Override
                                public void accept(Page page) throws Exception {

                                    log.info(page.getUrl());

                                    if (request.getAfterRequest()!=null) {

                                        request.getAfterRequest().process(page);
                                    }
                                }
                            }, new Consumer<Throwable>() {
                                @Override
                                public void accept(Throwable throwable) throws Exception {

                                    log.error(throwable.getMessage());
                                }
                            });
复制代码

在这里使用RxJava 2可让整个爬虫框架看起来更加响应式:)框架

爬虫的基本原理.png

1.2 SpiderEngine

SpiderEngine能够包含多个Spider,能够经过addSpider()、createSpider()来将爬虫添加到SpiderEngine和建立新的Spider并添加到SpiderEngine。

SpiderEngine.png

在SpiderEngine中,若是调用了httpd(port)方法,还能够监控SpiderEngine中各个Spider。

1.2.1 获取某个爬虫的状态

http://localhost:{port}/netdiscovery/spider/{spiderName}

类型:GET

1.2.2 获取SpiderEngine中全部爬虫的状态

http://localhost:{port}/netdiscovery/spiders/

类型:GET

1.2.3 修改某个爬虫的状态

http://localhost:{port}/netdiscovery/spider/{spiderName}/status

类型:POST

参数说明:

{
    "status":2   //让爬虫暂停
}
复制代码
status 做用
2 让爬虫暂停
3 让爬虫从暂停中恢复
4 让爬虫中止

使用框架的例子

建立一个SpiderEngine,而后建立三个Spider,每一个爬虫每隔必定的时间去爬取一个页面。

SpiderEngine engine = SpiderEngine.create();

        Spider spider = Spider.create()
                .name("tony1")
                .repeatRequest(10000,"http://www.163.com")
                .initialDelay(10000);

        engine.addSpider(spider);

        Spider spider2 = Spider.create()
                .name("tony2")
                .repeatRequest(10000,"http://www.baidu.com")
                .initialDelay(10000);

        engine.addSpider(spider2);

        Spider spider3 = Spider.create()
                .name("tony3")
                .repeatRequest(10000,"http://www.126.com")
                .initialDelay(10000);

        engine.addSpider(spider3);

        engine.httpd(8080);
        engine.run();
复制代码

上述程序运行一段时间以后,在浏览器中输入:http://localhost:8080/netdiscovery/spiders

咱们能看到三个爬虫运行的结果。

爬虫运行结果.png

将json格式化一下

{
	"code": 200,
	"data": [{
		"downloaderType": "VertxDownloader",
		"leftRequestSize": 0,
		"queueType": "DefaultQueue",
		"spiderName": "tony2",
		"spiderStatus": 1,
		"totalRequestSize": 7
	}, {
		"downloaderType": "VertxDownloader",
		"leftRequestSize": 0,
		"queueType": "DefaultQueue",
		"spiderName": "tony3",
		"spiderStatus": 1,
		"totalRequestSize": 7
	}, {
		"downloaderType": "VertxDownloader",
		"leftRequestSize": 0,
		"queueType": "DefaultQueue",
		"spiderName": "tony1",
		"spiderStatus": 1,
		"totalRequestSize": 7
	}],
	"message": "success"
}
复制代码

案例

最近比较关注区块链,所以作了一个程序来实时抓取三种数字货币的价格,能够经过“询问”公众号的方式来获取最新的价格。

爬虫案例.PNG

目前该程序已经上线,能够经过询问个人公众号,来实时获取这几种数字货币的最新价格。

TODO

  1. 增长对登陆验证码的识别
  2. 增长elasticsearch的支持

总结

这个爬虫框架才刚刚起步,我也参考了不少优秀的爬虫框架。将来我会在框架中考虑增长经过截屏图片来分析图片中的数据。甚至会结合cv4j框架。过年前,在爬虫框架中会优先实现对登陆验证码的识别。

相关文章
相关标签/搜索