HDFS是什么?php
源自于Google的GFS论文
发表于2003年10月
HDFS是GFS克隆版
Hadoop Distributed File System
易于扩展的分布式文件系统
运行在大量普通廉价机器上,提供容错机制
为大量用户提供性能不错的文件存取服务java
HDFS的优势:node
高容错性
数据自动保存多个副本
副本丢失后自动恢复
适合批处理
移动计算而非数据
数据位置暴露给计算框架
适合大数据处理
GB、TB、甚至PB级数据
百万规模以上的文件数量
10K+节点规模
流式文件访问
一次性写入,屡次读取
保证数据一致性
可构建在廉价机器上
经过多副本提升可靠性
提供了容错和恢复机制apache
HDFS的缺点:编程
低延迟数据访问
好比毫秒级
低延迟与高吞吐率
小文件存取
占用NameNode大量内存
寻道时间超过读取时间
并发写入、文件随机修改
一个文件只能有一个写者
仅支持append架构
分布式文件系统的一种实现方式:并发
HDFS设计思想:app
HDFS架构:框架
HDFS数据块(block):分布式
文件被切分红固定大小的数据块
默认数据块大小为128MB,可配置
若文件大小不到128MB,则单独存成一个block
为什么数据块如此之大
数据传输时间超过寻道时间(高吞吐率)
一个文件存储方式
按大小被切分红若干个block,存储到不一样节点上
默认状况下每一个block有三个副本
HDFS写流程:
HDFS读流程:
HDFS典型物理拓扑:
每一个机架一般有16-64个节点
HDFS副本放置策略:
一个文件划分红多个block,每一个block存多份,如何为每一个block选择节点存储这几份数据?
Block副本放置策略:
副本1:同Client的节点上
副本2:不一样机架中的节点上
副本3: 与第二个副本同一机架的另外一个节点上
其余副本:随机挑选
HDFS可靠性策略:
文件完整性
---CRC32校验
---用其余副本取代损坏文件
Heartbeat
---Datanode按期向Namenode发heartbeat
元数据信息
---FSImage(文件系统镜像)、Editlog(操做 日志)
---多份存储
---主备NameNode实时切换
HDFS不适合存储小文件:
元信息存储在NameNode内存中
一个节点的内存是有限的
存取大量小文件消耗大量的寻道时间
类比拷贝大量小文件与拷贝同等大小的一个大文件
NameNode存储block数目是有限的
一个block元信息消耗大约150byte内存
存储一亿个block,大约须要20GB内存
若是一个文件大小为10K,则一亿个文件大小仅为1TB(但要消耗掉NameNode20GB内存)
HDFS访问方式:
HDFS Shell命令
HDFS Java API
HDFS Fuse:实现了fuse协议
HDFS lib hdfs:C/C++访问接口
HDFS其余语言编程API
使用thrift实现
支持C++、Python、php、C#等语言
HDFS Shell命令一律览:
hadoop fs 命令一文件操做命令:
HADOOP Shell命令一文件操做命令:
将本地文件上传到HDFS上
bin/hadoop fs –copyFromLocal /local/data /hdfs/data
删除文件/目录
bin/hadoop fs –rm /hdfs/data
建立目录
bin/hadoop fs –mkdir /hdfs/data
HDFS Shell命令一管理命令:
HDFS Shell命令一管理脚本
HDFS Shell命令一文件管理命令fsck
检查hdfs中文件的健康情况
查找缺失的块以及过少或过多副本的块
查看一个文件的全部数据块位置
删除损坏的数据块
HDFS Shell命令一文件管理命令fsck
HDFS Shell命令一数据均衡器balancer
数据块重分布
bin/start-balancer.sh-threshold <percentage of disk capacity>
percentage of disk capacity
HDFS达到平衡状态的磁盘使用率误差值
值越低各节点越平衡,但消耗时间也更长
HDFS Java API介绍
configuration类:
该类的对象封装了配置信息,这些配置信息来自core-*.xml
FileSystem类:
文件系统类,可以使用该类的方法对文件/目录进行操做。通常经过FileSystem的静态方法get得到一个文件系统对象
FSDataInputStream和FSDataOutputStream类:
HDFS中的输入输出流。分别经过FileSystem的Open方法和create方法得到
以上类均来自java包:org.apache.hadoop.fs
HDFS Java程序举例
将本地文件拷贝到HDFS上
Configution config=new Configution();
FileSystem hdfs = FileSystem.get(config);
Path srcPath = new Path(srcFile);
Path dstPath = new Path(dstFile);
hdfs.copyFromLocalFile(srcPath, dstPath);
HDFS 多语言API一借助thrift