3.2.1 spark体系之分布式计算-spark-core之离线计算-初识Spark

目录 1.什么是Spark 2.总体技术栈 3.Spark演变历史 4.Spark与MapReduce的区别 5.Spark运行模式 1.什么是Spark Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行计算框架,Spark拥有Had
相关文章
相关标签/搜索