MapReduce 超详细执行流程解读

一、一个大文件须要处理,它在在 HDFS 上是以 block 块形式存放,每一个 block 默认为 128M 存 3 份,运行时每一个 map 任务会处理一个 split,若是 block 大和 split 相同(默认状况下确 实相同) , 有多少个 block 就有多少个 map 任务, 因此对整个文件处理时会有不少 map 任务 进行并行计算 二、 每一个 map 任务处理完输入的 spli
相关文章
相关标签/搜索