【Spark】RDD的设计和运行原理

Spark的核心是建立在统一的抽象RDD之上,使得Spark的各个组件可以无缝进行集成,在同一个应用程序中完成大数据计算任务。 RDD设计背景 在实际应用中,存在许多迭代式算法(比如机器学习、图算法等)和交互式数据挖掘工具,这些应用场景的共同之处是,不同计算阶段之间会重用中间结果,即一个阶段的输出结果会作为下一个阶段的输入。 但是,目前的MapReduce框架都是把中间结果写入到HDFS中,带来了
相关文章
相关标签/搜索