从函数式编程到Hadoop

一、 函数式编程描述代码干什么而不是怎么干,python中代表性的如高阶函数map reduce filter Hadoop是Apache开源大的一个分布式计算框架,核心设计就是MapRuduce和HDFS(Hadoop Distributed File System)   二、Spark Spark是基于map reduce算法实现的分布式计算框架 Spark的中间输出和结果输出可以保存在内存中
相关文章
相关标签/搜索