Hadoop的HDFS和MapReduce子框架主要是针对大数据文件来设计的,在小文件的处理上不但效率低下,并且十分消耗内存资源(每个小文件占用一个Block,每个block的元数据都存储在namenode的内存里)。解决办法一般是选择一个容器,将这些小文件组织起来统一存储。HDFS提供了两种类型的容器,分别是SequenceFile和MapFile。java
SequenceFile的存储相似于Log文件,所不一样的是Log File的每条记录的是纯文本数据,而SequenceFile的每条记录是可序列化的字符数组。node
SequenceFile可经过以下API来完成新记录的添加操做:算法
fileWriter.append(key,value)数组
能够看到,每条记录以键值对的方式进行组织,但前提是Key和Value需具有序列化和反序列化的功能网络
Hadoop预约义了一些Key Class和Value Class,他们直接或间接实现了Writable接口,知足了该功能,包括:数据结构
Text 等同于Java中的String
IntWritable 等同于Java中的Int
BooleanWritable 等同于Java中的Boolean
.
.app
在存储结构上,SequenceFile主要由一个Header后跟多条Record组成,如图所示:框架
Header主要包含了Key classname,Value classname,存储压缩算法,用户自定义元数据等信息,此外,还包含了一些同步标识,用于快速定位到记录的边界。oop
每条Record以键值对的方式进行存储,用来表示它的字符数组可依次解析成:记录的长度、Key的长度、Key值和Value值,而且Value值的结构取决于该记录是否被压缩。大数据
数据压缩有利于节省磁盘空间和加快网络传输,SeqeunceFile支持两种格式的数据压缩,分别是:record compression和block compression。
record compression如上图所示,是对每条记录的value进行压缩
block compression是将一连串的record组织到一块儿,统一压缩成一个block,如图所示:
block信息主要存储了:块所包含的记录数、每条记录Key长度的集合、每条记录Key值的集合、每条记录Value长度的集合和每条记录Value值的集合
注:每一个block的大小是可经过io.seqfile.compress.blocksize属性来指定的
示例:SequenceFile读/写 操做
MapFile是排序后的SequenceFile,经过观察其目录结构能够看到MapFile由两部分组成,分别是data和index。
index做为文件的数据索引,主要记录了每一个Record的key值,以及该Record在文件中的偏移位置。在MapFile被访问的时候,索引文件会被加载到内存,经过索引映射关系可迅速定位到指定Record所在文件位置,所以,相对SequenceFile而言,MapFile的检索效率是高效的,缺点是会消耗一部份内存来存储index数据。
需注意的是,MapFile并不会把全部Record都记录到index中去,默认状况下每隔128条记录存储一个索引映射。固然,记录间隔可人为修改,经过MapFIle.Writer的setIndexInterval()方法,或修改io.map.index.interval属性;
另外,与SequenceFile不一样的是,MapFile的KeyClass必定要实现WritableComparable接口,即Key值是可比较的。
示例:MapFile读写操做
注意:使用MapFile或SequenceFile虽然能够解决HDFS中小文件的存储问题,但也有必定局限性,如:1.文件不支持复写操做,不能向已存在的SequenceFile(MapFile)追加存储记录2.当write流不关闭的时候,没有办法构造read流。也就是在执行文件写操做的时候,该文件是不可读取的