子雨大数据之Spark入门教程---Spark入门:RDD的设计与运行原理1.3

Spark的核心是创建在统一的抽象RDD之上,使得Spark的各个组件能够无缝进行集成,在同一个应用程序中完成大数据计算任务。RDD的设计理念源自AMP实验室发表的论文《Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing》。程序员 1.RDD设计背景 在实际应用中,
相关文章
相关标签/搜索