大数据系列(六)之 Spark 分布式计算框架

目录 一、Spark是什么? 二、为什么要用Spark? 三、Spark特点 四、基本概念 五、Spark架构设计 六、Spark核心组件 七、Spark运行模式 本文仅用于学习交流使用,感谢大家的阅读! 一、Spark是什么? Spark是用于大规模数据处理的统一分析引擎。最初是由加州大学柏克莱分校AMPLab所开发。它提供了Scala,Java,Python和R中的高级API,以及优化的引擎,
相关文章
相关标签/搜索