MapReduce工作机制

MapReduce工作流程 1、InputFormat根据job提供的文件目录,对目录下面的文件进行遍历 2、首先遍历第一个文件 获取文件的大小 获取切片大小        上面的源码就是切片大小的计算公式,blocksize为块的大小;如果job运行在本地,默认块大小是32M;如果job运行在yarn上,hadoop1.x 默认块大小是64M;hadoop2.x 默认块大小是128M。     
相关文章
相关标签/搜索