Spark任务执行流程解析

Spark任务流程如下图所示:           下面会根据该图对每个步骤做详细介绍:    1、RDD Objects RDD(ResilientDistributed Dataset)叫做分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合。RDD具有数据流模型的特点:自动容错、位置感知性调度和可伸缩性。RDD允许用户在执行多个查询时显式地将工作
相关文章
相关标签/搜索