Hadoop之DataNode工作流程

一、简介 DataNode提供真实文件数据的存储服务,通过文件块(block最基本的存储单位)来存储。对于文件内容而言,一个文件的长度大小是size,那么从文件的0偏移开始,按照固定的大小,顺序对文件进行划分并编号,划分好的每一个块称一个Block。 HDFS默认Block大小是128MB,以一个256MB文件,共有256/128=2个Block;不同于普通文件系统的是,HDFS中,如果一个文件小
相关文章
相关标签/搜索