Apache Spark和Apache Storm的区别

2019独角兽企业重金招聘Python工程师标准>>> 直接上图顺便带上Hadoop MapReduce Apache Spark是基于内存的分布式数据分析平台,旨在解决快速批处理分析任务、迭代机器学习任务、交互查询以及图处理任务。其最主要的特点在于,Spark使用了RDD或者说弹性分布式数据集。 RDD非常适合用于计算的流水线式并行操作。RDD的不变性(immutable)保证,使其具有很好的容
相关文章
相关标签/搜索