spark 计算引擎

spark 计算引擎(一) spark 的计算是一个层层迭代的过程,迭代即上一轮的输出是下一轮计算的输入,RDD是spark计算的核心,是spark对各类计算数据的统一抽象模型,关于RDD的特性,将在从此的博客中陆续更新,今天要给你们展现的是spark的计算引擎模型。web 迭代计算 MappedRDD 的iterator 方法实际是父RDD的iterator方法,若是任务是初次执行,此时还没有缓
相关文章
相关标签/搜索