Hadoop FileInputFormat 默认切片机制

默认的切片机制 简单地按照文件的内容长度进行切片 切片大小,默认等于 block 大小**(Local模式默认32M,集群模式默认128M)** 切片时不考虑数据集整体,而是逐个针对每一个文件单独切片 源码分析 参考:Hadoop MapReduce Splits 切片源码分析及切片机制 计算切片大小 computeSplitSize 默认情况下,切片大小=blocksize protected
相关文章
相关标签/搜索