在机器学习、大数据等领域工做,该学Hadoop仍是Spark?

相信看这篇文章的大家,都和我同样对Hadoop和Apache Spark的选择有必定的疑惑,今天查了很多资料,咱们就来谈谈这两种 平台的比较与选择吧,看看对于工做和发展,到底哪一个更好。 1、Hadoop与Spark 1.Spark Spark是一个用来实现快速而通用的集群计算的平台。速度方面,Spark扩展了普遍使用的MapReduce计算模型,并且高效地支持更多计算模式,包括交互式查询和流处理
相关文章
相关标签/搜索