Spark Core基础01

一、Spark入门 1、官网(http://spark.apache.org/docs/2.2.2/) 2、Spark产生的背景 MapReduce局限性: 1)繁杂 只有map/reduce两个算子 mapjoin只有map,没有reduce 测试麻烦 2)效率低 进程级别:MapTask ReduceTask IO:chain 网络+磁盘 排序:面试题:key类型是实现什么接口? Memory
相关文章
相关标签/搜索