版权声明:本套技术专栏是做者(秦凯新)平时工做的总结和升华,经过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。QQ邮箱地址:1120746959@qq.com,若有任何技术交流,可随时联系。html
Hadoop自己也提供了几个解决方案,分别为:Hadoop Archive,Sequence file和CombineFileInputFormat。node
Hadoop Archive或者HAR,是一个高效地将小文件放入HDFS块中的文件存档工具,它可以将多个小文件打包成一个HAR文件,这样在减小namenode内存使用的同时,仍然容许对文件进行透明的访问。算法
(1) 对某个目录/foo/bar下的全部小文件存档成/outputdir/ zoo.har:
hadoop archive -archiveName zoo.har -p /foo/bar /outputdir
固然,也能够指定HAR的大小(使用-Dhar.block.size)。
(2) HAR的访问路径能够是如下两种格式:
har://scheme-hostname:port/archivepath/fileinarchive
har:///archivepath/fileinarchive(本节点)
能够这样查看HAR文件存档中的文件:
hadoop dfs -ls har:///user/zoo/foo.har
输出:
har:///user/zoo/foo.har/hadoop/dir1
har:///user/zoo/foo.har/hadoop/dir2
复制代码
使用HAR时须要两点,第一,对小文件进行存档后,原文件并不会自动被删除,须要用户本身删除;第二,建立HAR文件的过程其实是在运行一个mapreduce做业,于是须要有一个hadoop集群运行此命令。数组
此外,HAR还有一些缺陷:第一,一旦建立,Archives便不可改变。要增长或移除里面的文件,必须从新建立归档文件。第二,要归档的文件名中不能有空格,不然会抛出异常,能够将空格用其余符号替换(使用-Dhar.space.replacement.enable=true 和-Dhar.space.replacement参数)。app
sequenceFile文件是Hadoop用来存储二进制形式的[Key,Value]对而设计的一种平面文件(Flat File)。能够把SequenceFile当作是一个容器,把全部的文件打包到SequenceFile类中能够高效的对小文件进行存储和处理。工具
SequenceFile文件并不按照其存储的Key进行排序存储,SequenceFile的内部类Writer提供了append功能。SequenceFile中的Key和Value能够是任意类型Writable或者是自定义Writable。oop
在存储结构上,SequenceFile主要由一个Header后跟多条Record组成,Header主要包含了Key classname,value classname,存储压缩算法,用户自定义元数据等信息,此外,还包含了一些同步标识,用于快速定位到记录的边界。每条Record以键值对的方式进行存储,用来表示它的字符数组能够一次解析成:记录的长度、Key的长度、Key值和value值,而且Value值的结构取决于该记录是否被压缩。性能
https://blog.csdn.net/bitcarmanlee/article/details/78111289
复制代码
咱们基于Hadoop内置的CombineFileInputFormat来实现处理海量小文件,须要作的工做就很显然了,以下所示:spa
实现一个RecordReader来读取CombineFileSplit包装的文件Block.net
继承自CombineFileInputFormat实现一个使用咱们自定义的RecordReader的输入规格说明类
处理数据的Mapper实现类
配置用来处理海量小文件的MapReduce Job
https://blog.csdn.net/flyfish778/article/details/47722551
复制代码
引用: http://www.raincent.com/content-85-11297-1.html
复制代码
由于工做中用到这个,总结成文,参考多维博客,均代表引用链接,内容粗鄙,勿怪!
秦凯新 于深圳