Spark计算过程分析

摘要: ### 基本概念----------Spark是一个分布式的内存计算框架,其特色是能处理大规模数据,计算速度快。Spark延续了Hadoop的MapReduce计算模型,相比之下Spark的计算过程保持在内存中,减小了硬盘读写,可以将多个操做进行合并后计算,所以提高了计算速度。同时Spark也提供了更丰富的计算API。MapReduce是Hadoop和Spark的计算模型,其特色 编程 基
相关文章
相关标签/搜索