spark 算子

  什么是spark算子?能够理解成spark RDD的方法,这些方法做用于RDD的每个partition。   由于spark的RDD是一个 lazy的计算过程,只有获得特定触发才会进行计算,不然不会产生任何结果。大致上分:web Transformation 变换/转换算子,不触发执行 Action 行动算子,立马触发执行   Spark中RDD的定义是一个弹性的分布式数据集,弹性体如今计算上
相关文章
相关标签/搜索