产生背景及定义
HDFS:分布式文件系统,用于存储文件,主要特色在于其分布式,即有不少服务器联合起来实现其功能,集群中的服务器各有各的角色node
- 随着数据量愈来愈大,一个操做系统存不下全部的数据,那么就分配到更多的操做系统管理的磁盘中,可是管理和维护极不方便,因而迫切须要一种系统来管理多台机器上的文件,这就是分布式管理系统,HDFS是其中一种。
- HDFS的使用适合一次写入,屡次读出的场景,且不支持对文件的直接修改,仅支持在文件末尾追加
- HDFS采用流式的数据访问方式:特色就是像流水同样,数据不是一次过来,而是一点一点“流”过来,处理数据也是一点一点处理。若是是数据所有过来以后才处理,那么延迟就会很大,并且会消耗很大的内存。
优缺点
- 高容错性
- 数据自动保存多个副本,经过增长副本的方式,提升容错性
- 若某一个副本丢失后,它能够自动分配到其它节点做为新的副本
- 处理大数据
- 数据规模:可以处理的数据规模能够达到GB,TB,甚至PB级别的数据
- 文件规模:可以处理百万规模以上的文件数量,数量至关之大
- 可构建在廉价的机器上,经过多副本机制,提升可靠性
组成架构
namenode(nn)
:就是Master,是一个管理者,存放元数据
- 管理HDFS的名称空间
- 配置副本策略
- 管理数据块的映射信息
- 处理客户端的读写请求
datanode(dn)
:就是slave,真正存储文件的地方
secondarynamenode(2nn)
:并不是namenode的热备,当namenode挂掉的时候,并不能立刻替换namenode并提供服务
- 做为namenode的辅助,分担其工做量,好比按期合并Fsimage和Edits(文章后边会讲到这两个东西),并推送给namenode
- 在紧急状况下,可辅助恢复namenode,可是只能恢复部分,而不能所有恢复
client
:客户端
- 文件的切分,在上传HDFS以前,client将文件切分为一个一个的Block,而后一个一个进行上传
- 与namenode交互,获取文件的datanode信息
- 与datanode交互,读取或写入数据
- client提供一些命令来管理HDFS,好比namenode的格式化
- client经过一些命令来访问HDFS,好比对HDFS的增删查改等
文件块大小
为何要把文件抽象为Block块存储?缓存
- block的拆分使得单个文件大小能够大于整个磁盘的容量,构成文件的Block能够分布在整个集群, 理论上,单个文件能够占据集群中全部机器的磁盘。
- Block的抽象也简化了存储系统,对于Block,无需关注其权限,全部者等内容(这些内容都在文件级别上进行控制)。
- Block做为容错和高可用机制中的副本单元,即以Block为单位进行复制。
HDFS中的文件在物理内存中分块存储(Block),块的大小在Hadoop2.x版本中默认为128M,在老版本中为64M,那么为何为128M呢?服务器
其实,HDFS的块的大小的设置主要取决于磁盘传输速率,以下:网络
- 若是在HDFS中,寻址时间为10ms,即查找到目标Block的时间为10ms
- 专家说操做的最佳状态为:寻址时间为传输时间的1%,所以传输时间为1s
- 而目前磁盘的传输速率广泛为100M/s
为何块大小不能设置过小,也不能设置太大?架构
- HDFS的块设置过小,会增长寻址时间,使得程序可能一直在寻找块的开始位置
- 若是设置的太大,从磁盘传输数据的时间会明显大于定位这个块所需的寻址时间,致使程序处理这块数据时会很是慢
HDFS的数据流
HDFS写数据流程
- 客户端经过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。
- NameNode返回是否能够上传。
- 客户端请求第一个 Block上传到哪几个DataNode服务器上。
- NameNode返回3个DataNode节点,分别为dn一、dn二、dn3, 若是有多个节点,返回实际的副本数量,并根据距离及负载状况计算
- 客户端经过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,而后dn2调用dn3,将这个通讯管道创建完成。
- dn一、dn二、dn3逐级应答客户端。
- 客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答。
- 当一个Block传输完成以后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-7步)。
网络拓扑---节点距离计算
在HDFS写数据的过程当中,NameNode会选择距离待上传数据最近距离的DataNode接收数据,那么这个最近距离是怎么计算的呢?分布式
结论:两个节点到达最近的共同祖先的距离总和,即为节点距离。oop
如上图所示:大数据
- 同一节点上的进程节点距离为0
- 同一机架上不一样节点的距离为两个节点到共同机架r1的距离总和,为2
- 同一数据中心不一样机架的节点距离为两个节点到共同祖先集群d1的距离之和,为4
- 不一样数据中心的节点距离为两个节点到达共同祖先数据中心的距离之和,为6
机架感知(副本存储的节点选择)
副本的数量咱们能够从配置文件中设置,那么HDFS是怎么选择副本存储的节点的呢?操作系统
如上图所示,为了提升容错性,有以下设置,加入如今有3个副本:3d
- 第一个副本在Client所在的节点上,若是客户端在集群外,则随机选一个
- 第二个副本和第一个副本位于相同机架,随机节点
- 第三个副本位于不一样机架,随机节点
这样作的目的就是为了提升容错性。
HDFS读数据流程
- 客户端经过Distributed FileSystem向NameNode请求下载文件,NameNode经过查询元数据,找到文件块所在的DataNode地址。
- 挑选一台DataNode(就近原则,而后随机)服务器,请求读取数据。
- DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来作校验)。
- 客户端以Packet为单位接收,先在本地缓存,而后写入目标文件。