与Hadoop相比,怎么看待spark?

Hadoop 首先看一下Hadoop解决了什么问题,Hadoop就是解决了大数据(大到一台计算机没法进行存储,一台计算机没法在要求的时间内进行处理)的可靠存储和处理。 HDFS,在由普通PC组成的集群上提供高可靠的文件存储,经过将块保存多个副本的办法解决服务器或硬盘坏掉的问题。 MapReduce,经过简单的Mapper和Reducer的抽象提供一个编程模型,能够在一个由几十台上百台的PC组成的不
相关文章
相关标签/搜索