【招聘系列1】Hadoop常见问题

简答说一下Hadoop的map-reduce编程模型 http://blog.csdn.net/opennaive/article/details/7514146 hadoop和Spark的都是并行计算,那么他们有什么相同和区别 两者都是用mr模型来进行并行计算,hadoop的一个作业称为job,job里面分为map task和reduce task,每个task都是在自己的进程中运行的,当tas
相关文章
相关标签/搜索