本文翻译自:https://github.com/nathanmarz/storm/wiki/Distributed-RPC,做为学习Storm DRPC的资料,转载必须以超连接形式标明文章原始出处及本文翻译连接。html
分布式RPC(distributed RPC,DRPC)用于对Storm上大量的函数调用进行并行计算过程。对于每一次函数调用,Storm集群上运行的拓扑接收调用函数的参数信息做为输入流,并将计算结果做为输出流发射出去。java
DRPC自己算不上Storm的特性,它是经过Storm的基本元素:streams,spouts,bolts,topologies而衍生的一个模式。DRPC能够单独做为一个独立于Storm的库发布,但因为其重要性仍是和Storm捆绑在了一块儿。git
DRPC经过DRPC Server来实现,DRPC Server的总体工做过程以下:github
接收到一个RPC调用请求;web
发送请求到Storm上的拓扑;数据库
从Storm上接收计算结果;app
将计算结果返回给客户端。jvm
以上过程,在client客户端看来,一个DRPC调用看起来和通常的RPC调用没什么区别。下面代码是client经过DRPC调用“reach”函数,参数为“http://twitter.com”:分布式
DRPCClient client = new DRPCClient("drpc-host", 3772); String result = client.execute("reach", "http://twitter.com");
DRPC内部工做流程以下:ide
Client向DRPC Server发送被调用执行的DRPC函数名称及参数。
Storm上的topology经过DRPCSpout实现这一函数,从DPRC Server接收到函数调用流;
DRPC Server会为每次函数调用生成惟一的id;
Storm上运行的topology开始计算结果,最后经过一个ReturnResults的Bolt链接到DRPC Server,发送指定id的计算结果;
DRPC Server经过使用以前为每一个函数调用生成的id,将结果关联到对应的发起调用的client,将计算结果返回给client。
Storm提供了一个topology builder——LinearDRPCTopologyBuilder,它能够自动完成几乎全部的DRPC步骤。包括:
构建spout;
向DRPC Server返回结果;
为Bolt提供函数用于对tuples进行汇集。
下面是一个简单的例子,这个DRPC拓扑只是简单的在输入参数后追加“!”后返回:
public static class ExclaimBolt extends BaseBasicBolt { public void execute(Tuple tuple, BasicOutputCollector collector) { String input = tuple.getString(1); collector.emit(new Values(tuple.getValue(0), input + "!")); } public void declareOutputFields(OutputFieldsDeclarer declarer) { declarer.declare(new Fields("id", "result")); } } public static void main(String[] args) throws Exception { LinearDRPCTopologyBuilder builder = new LinearDRPCTopologyBuilder("exclamation"); builder.addBolt(new ExclaimBolt(), 3); // ... }
由上述例子可见,咱们只需不多的工做便可完成拓扑。当建立LinearDRPCTopologyBuilder
的时候,须要指定拓扑中
DRPC
函数的名称
“
exclamation”
。一个
DRPC Server
能够协调多个函数,每一个函数有不一样的函数名称。拓扑中的第一个
bolt
的输入是
两
个字段:第一个是请求的
id
号;第二个是请求的参数。
LinearDRPCTopologyBuilder
同时须要最后一个
bolt
发射一个包含两个字段的输出流:第一个字段是请求
id
;第二个字段是计算结果。所以,全部的中间
tuples
必须包含请求
id
做为第一个字段。
例子中,
ExclaimBolt
在输入
tuple
的第二个字段后面追加
“!”
,
LinearDRPCTopologyBuilder
负责处理其他的协调工做:与
DRPC Server
创建链接,发送结果给
DRPC Server
。
DRPC能够以本地模式运行,下面的代码是如何在本地模式运行上面的例子:
LocalDRPC drpc = new LocalDRPC(); LocalCluster cluster = new LocalCluster(); cluster.submitTopology("drpc-demo", conf, builder.createLocalTopology(drpc)); System.out.println("Results for 'hello':" + drpc.execute("exclamation", "hello")); cluster.shutdown(); drpc.shutdown();
首先建立一个LocalDRPC
对象,该对象在本地模拟一个
DRPC Server
,正如
LocalCluster
在本地模拟一个
Storm
集群同样。而后建立一个
LocalCluster
对象在本地模式下运行拓扑。
LinearDRPCTopologyBuilder
含有单独的方法用于建立本地拓扑和远程拓扑。
本地模式下,
LocalDRPC
并不绑定任何端口,所以
Storm
的拓扑须要了解要通信的对象
——
这就是为何
createLocalTopology
方法须要以
LocalDRPC
对象做为输入。
加载完拓扑以后,经过对
LocalDRPC
调用
execute
方法,就能够执行
DRPC
函数调用了。
在实际的Storm集群上运行DRPC也同样很简单。只需完成如下步骤:
启动DRPC Server(s);
配置DRPC Server(s)地址;
向Storm集群提交DRPC拓扑。
首先,经过storm脚本启动DRPC Server:
bin/storm drpc
而后,在Storm集群中配置DRPC Server地址,这就是DRPCSpout
读取函数调用请求的地方。这一步的配置能够经过
storm.yaml
文件或者拓扑的配置来完成。经过
storm.yaml
文件的配置方式以下:
drpc.servers: - "drpc1.foo.com" - "drpc2.foo.com"
最后,经过StormSubmitter
启动
DRPC
拓扑。为了以远程模式运行
上面的例子,代码以下:
StormSubmitter.submitTopology("exclamation-drpc", conf, builder.createRemoteTopology());
createRemoteTopology
被用于为
Storm
集群建立合适的拓扑。
上面的exclamation只是一个简单的DRPC例子。下面经过一个复杂的例子介绍如何在Storm集群内进行DRPC——计算Twitter上每一个URL的到达度(reach),也就是每一个URL暴露给的不一样人的个数。
为了完成这一计算,须要完成如下步骤:
获取全部点选了(tweet)该URL的人;
获取步骤1中全部人的关注者(followers,粉丝);
对全部关注者followers进行去重;
对步骤3中的关注者人数进行求和。
一个简单的URL到达度计算可能涉及成千上万次数据库调用以及数以百万的followers记录,计算量很是大。有了Storm,将很容易实现这一计算过程。单机上可能须要运行几分钟才能完成,在Storm集群上,即便是最难计算的URL也只须要几秒钟。
这个例子的代码在storm-starter:点击这里。这里是如何建立拓扑的代码:
LinearDRPCTopologyBuilder builder = new LinearDRPCTopologyBuilder("reach"); builder.addBolt(new GetTweeters(), 3); builder.addBolt(new GetFollowers(), 12) .shuffleGrouping(); builder.addBolt(new PartialUniquer(), 6) .fieldsGrouping(new Fields("id", "follower")); builder.addBolt(new CountAggregator(), 2) .fieldsGrouping(new Fields("id"));
拓扑的执行分为如下四步:
GetTweeters:获取全部tweet了指定URL的用户列表,这个Bolt将输入流[id, url]转换成输出流[id, tweeter],每一个url元组被映射为多个tweeter元组。
GetFollowers:获取步骤1中全部用户列表的followers,这个Bolt将输入流[id, twetter]转换成输出流[id, follower],当某我的同时是多我的的关注者follower,并且这些人都tweet了指定的URL,那么将产生重复的follower元组。
PartialUniquer:将全部followers按照follower id分组,使得同一个follower在同一个task中被处理。这个Bolt接收follower并进行去重计数。
CountAggregator:从各个PartialUniquer中接收各部分的计数结果,累加后完成到达度计算。
下面是PartialUniquer
这个
Bolt
的代码实现:
public class PartialUniquer extends BaseBatchBolt { BatchOutputCollector _collector; Object _id; Set<String> _followers = new HashSet<String>(); @Override public void prepare(Map conf, TopologyContext context, BatchOutputCollector collector, Object id) { _collector = collector; _id = id; } @Override public void execute(Tuple tuple) { _followers.add(tuple.getString(1)); } @Override public void finishBatch() { _collector.emit(new Values(_id, _followers.size())); } @Override public void declareOutputFields(OutputFieldsDeclarer declarer) { declarer.declare(new Fields("id", "partial-count")); } }
PartialUniquer
经过继承
BaseBatchBolt
实现了
IBatchBolt
接口,
batch bolt
提供了
API
用于将一批
tuples
做为总体来处理。每一个请求
id
会建立一个新的
batch bolt
实例,同时
Storm
负责这些实例的清理工做。
当PartialUniquer
接收到一个
follower
元组时执行
execute
方法,将
follower
添加到请求
id
对应的
HashSet
集合中。
Batch bolt同时提供了finishBatch
方法用于当这个
task
已经处理完全部的元组时调用。
PartialUniquer
发射一个包含当前
task
所处理的
follower ids
子集去重后个数的元组。
在内部实现上,
CoordinatedBolt
用于检测指定的
bolt
是否已经收到指定请求
id
的全部
tuples
元组。
CoordinatedBolt
使用
direct streams管理实现这一协做过程。
拓扑的其余部分易于理解。到达度的每一步的计算过程都是并行进行的,经过DRPC实现也是很是容易的。
LinearDRPCTopologyBuilder
只能处理
“
线性的
”DRPC
拓扑
——
正如到达度这样能够经过一系列步骤序列来完成的计算。不难想象,
DRPC
调用中包含有更复杂的带有分支和合并
Bolt
的拓扑。目前,必须本身直接使用
CoordinatedBolt
来完成这种非线性拓扑的计算。
DRPCSpout发射[args, return-info],其中return-info包含DRPC Server的主机和端口号,以及DRPC Server为该次请求生成的惟一id号;
构造一个Storm拓扑包含如下部分:
DRPCSpout
PrepareRequest(生成一个请求id,为return info建立一个流,为args建立一个流)
CoordinatedBolt wrappers以及direct groupings
JoinResult(将结果与return info拼接起来)
ReturnResult(链接到DRPC Server,返回结果)
LinearDRPCTopologyBuilder是创建在Storm基本元素之上的高层抽象。
KeyedFairBolt用于组织同一时刻多请求的处理过程;
如何直接使用CoordinatedBolt
。