Spark及其生态圈概述

1.Spark的概述及特点     执行速度快、易用、通用 2.Spark的产生背景 (1)MapReduce的局限性:代码繁琐、只能支持map和reduce方法、执行效率低下、不适合迭代多次、交互式、流式的处理 (2)框架多样化:1)批处理:MapReduce、Hive、Pig;2)流式处理:Storm、Jstorm;3)交互式计算:Impala 这些需求都可以用Spark解决 3.Spark对
相关文章
相关标签/搜索