为什么Spark比MapReduce快

前言 边上的哥们问了这样一个问题: 无论什么数据都必须得加载到在内存中计算,为什么Spark就比MapReduce快那么多? 先上一幅Spark官网的图: 在官网这张图里隐隐约约的看到一个词:DAG 使用最先进的DAG程序——这一句话已经告诉我们速度提高100倍的关键原因(当然后面写的查询优化器和物理执行引擎也是一部分原因),好了,这哥们的问题已经解决了 简要说明 Spark对速度的最大声称是它能
相关文章
相关标签/搜索