理解Spark的RDD算子

什么是Spark的算子呢?说简单一些就是Spark内部封装了一些处理RDD数据的函数方法。   其中算子又分为两部分:   Transformation 与 Actions Transformation(转换):Transformation属于延迟计算,当一个RDD转换成另一个RDD时并没有立即进行转换,仅仅是记住了数据集的逻辑操作 Action(执行):触发Spark作业的运行,真正触发转换算子
相关文章
相关标签/搜索