spark的四大核心组件

相对于第一代的大数据生态系统Hadoop中的MapReduce,Spark 不管是在性能仍是在方案的统一性方面,都有着极大的优点。Spark框架包含了多个紧密集成的组件,如图4所示。位于底层的是Spark Core,其实现了Spark的做业调度、内存管理、容错、与存储系统交互等基本功能,并针对弹性分布式数据集提供了丰富的操做。在Spark Core的基础上,Spark提供了一系列面向不一样应用需求
相关文章
相关标签/搜索