Spark 基本概念

Spark 基本概念 基本定义如下: RDD(resillient distributed dataset):弹性分布式数据集。 Task:具体执行任务。Task分为ShuffleMapTask和ResultTask两种。ShuffleMapTask和ResultTask分别类似于Hadoop中的Map,Reduce。 Job:用户提交的作业。一个Job可能由一到多个Task组成。 Stage:J
相关文章
相关标签/搜索