理解 Spark RDD 算子 aggregate

理解 Spark RDD 算子 aggregate def aggregate[U](zeroValue: U)(seqOp: (U, T) ⇒ U, combOp: (U, U) ⇒ U)(implicit arg0: ClassTag[U]): U 这个算子一共有两个参数列表,第一个参数列表中传递 zeroValue (第零个值)第二个参数列表中传递两个函数,传入的第一个函数seqOp函数会做
相关文章
相关标签/搜索