小白学习Spark原理

Spark是UC Berkeley AMP lab所开发相似于Hadoop MapReduce的通用并行计算框架,Spark是基于map reduce算法实现分布式计算,拥有Hadoop MapReduce所具备的优势;但不一样于MapReduce的是Job中间输出的结果能够保存在内存中,从而再也不须要读写HDFS,所以Spark能更好地适用于数据挖掘与机器学习等须要迭代的map reduce算法
相关文章
相关标签/搜索