Hadoop生态组件之Spark--第七讲

1、什么是Spark       Spark是一个针对大规模数据处理的快速通用引擎。  类似MapReduce,都进行数据的处理 2、Spark的特点: (1)基于Scala语言、Spark基于内存的计算 (2)快:基于内存 (3)易用:支持Scala、Java、Python (4)兼容性:完全兼容Hadoop 3、Spark体系结构:主从结构 (1)主节点:Master (2)从节点:Worke
相关文章
相关标签/搜索