Hadoop MapReduce中如何处理跨行Block和UnputSplit

Hadoop的初学者常常会疑惑这样两个问题:1.Hadoop的一个Block默认是64M,那么对于一个记录行形式的文本,会不会形成一行记录被分到两个Block当中?2.在把文件从Block中读取出来进行切分时,会不会形成一行记录被分红两个InputSplit,若是被分红两个InputSplit,这样一个InputSplit里面就有一行不完整的数据,那么处理这个InputSplit的Mapper会不
相关文章
相关标签/搜索