[Spark进阶]--自定义Accumulator的AccumulatorParam

Spark版本:Spark-1.6.0 环境:Windows 10、jdk-1.7、scal-2.10.5、idea-2016 先看看官方对Accumulators的说明 官方已经提示如果想要自定义Accumulator的AccumulatorParam,那么可以参考如下 AccumulatorParam接口 /** * Helper object defining how to accumula
相关文章
相关标签/搜索