spark原理解析和spark core

spark原理解析 解析一:resilient distributed dataset (RDD) resilient distributed dataset (RDD):弹性分布式数据集,有容错机制可并行执行。java 分布式即体如今每一个rdd分多个partition,每一个partition在执行时为一个task,会被master分配到某一个worker执行器(Executor)的某一个co
相关文章
相关标签/搜索