spark基础

spark可类比于hadoop的MapReduce,性能上有更多优化,一个主要的特点就是spark是基于内存运算的,相比于MapReduce的基于磁盘,减少了IO开销,运算速度快;另一个优化是spark提供基于DAG的运算,防止数据反复落地;同时spark提供多种计算模式,满足不同需求 spark 生态系统 下图展示了spark生态系统的主要模块: Mesos,hadoop YARN:底层资源调度
相关文章
相关标签/搜索