前方高能 | HDFS 的架构,你吃透了吗?

本文已收录github:https://github.com/BigDataScholar/TheKingOfBigData,里面有我准备的大数据高频考点,Java一线大厂面试题资源,上百本免费电子书籍,做者亲绘大数据生态圈思惟导图…持续更新,欢迎star!html

前言

        HDFS 是 Hadoop 中存储数据的基石,存储着全部的数据,具备高可靠性,高容错性,高可扩展性,高吞吐量等特征,可以部署在大规模廉价的集群上,极大地下降了部署成本。有意思的是,其良好的架构特征使其可以存储海量的数据。本篇文章,咱们就来系统学习一下,Hadoop HDFS的架构!
在这里插入图片描述node

HDFS架构

        HDFS采用 Master/Slave 架构存储数据,且支持 NameNode 的 HA。HDFS架构主要包含客户端,NameNodeSecondaryNameNodeDataNode 四个重要组成部分,如图所示:git

在这里插入图片描述

        (1)客户端向NameNode发起请求,获取元数据信息,这些元数据信息包括命名空间、块映射信息及 DataNode 的位置信息等。github

        (2)NameNode 将元数据信息返回给客户端。web

        (3)客户端获取到元数据信息后,到相应的 DataNode 上读/写数据面试

        (4)相关联的 DataNode 之间会相互复制数据,以达到 DataNode 副本数的要求apache

        (5)DataNode 会按期向 NameNode 发送心跳信息,将自身节点的状态信息报告给 NameNode。bash

        (6)SecondaryNameNode 并非 NameNode 的备份。SecondaryNameNode 会按期获取 NameNode 上的 fsimageedits log 日志,并将两者进行合并,产生 fsimage.ckpt 推送给 NameNode。服务器

一、NameNode

        NameNode 是整个 Hadooop 集群中相当重要的组件,它维护着整个 HDFS 树,以及文件系统树中全部的文件和文件路径的元数据信息。这些元数据信息包括文件名命令空间文件属性(文件生成的时间、文件的副本数、文件的权限)、文件数据块文件数据块与所在 DataNode 之间的映射关系等。架构

        一旦 NameNode 宕机或 NameNode 上的元数据信息损坏或丢失,基本上就会丢失 Hadoop 集群中存储的全部数据,整个 Hadoop 集群也会随之瘫痪

        在 Hadoop 运行的过程当中, NameNode 的主要功能以下图所示:
在这里插入图片描述

二、SecondaryNameNode

        SecondaryNameNode 并非 NameNode 的备份,在NameNode 发生故障时也不能马上接管 NameNode 的工做。SecondaryNameNode 在 Hadoop 运行的过程当中具备两个做用:一个是备份数据镜像,另外一个是按期合并日志与镜像,所以能够称其为 Hadoop 的检查点(checkpoint)。SecondaryNameNode 按期合并 NameNode 中的 fsimage 和 edits log,可以防止 NameNode 重启时把整个 fsimage 镜像文件加载到内存,耗费过长的启动时间

        SecondaryNameNode 的工做流程如图所示:
在这里插入图片描述        SecondaryNameNode的工做流程以下:

        (1)SecondaryNameNode 会通知 NameNode 生成新的 edits log 日志文件。

        (2)NameNode 生成新的 edits log 日志文件,而后将新的日志信息写到新生成的 edits log 日志文件中。

        (3)SecondaryNameNode 复制 NameNode 上的 fsimage 镜像和 edits log 日志文件,此时使用的是 http get 方式。

        (4)SecondaryNameNodefsimage将镜像文件加载到内存中,而后执行 edits log 日志文件中的操做,生成新的镜像文件 fsimage.ckpt

        (5)SecondaryNameNodefsimage.ckpt 文件发送给 NameNode,此时使用的是 http post 方式。

        (6)NameNodeedits log 日志文件替换成新生成的 edits.log 日志文件,一样将 fsimage文件替换成 SecondaryNameNode 发送过来的新的 fsimage 文件。

        (7)NameNode 更新 fsimage 文件,将这次执行 checkpoint 的时间写入 fstime 文件中。

        通过 SecondaryNameNodefsimage 镜像文件和 edits log 日志文件的复制和合并操做以后,NameNode 中的 fsimage 镜像文件就保存了最新的 checkpoint 的元数据信息, edits log 日志文件也会从新写入数据,两个文件中的数据不会变得很大。所以,当重启 NameNode 时,不会耗费太长的启动时间。

        SecondaryNameNode 周期性地进行 checkpoint 操做须要知足必定的前提条件,这些条件以下

        (1)edits log 日志文件的大小达到了必定的阈值,此时会对其进行合并操做。

        (2)每隔一段时间进行 checkpoint 操做。

        这些条件能够在core-site.xml文件中进行配置和调整,代码以下所示:

<property>
         <name>fs.checkpoint.period</name>
         <value>3600</value>
</property>
<property>
         <name>fs.checkpoint.size</name>
         <value>67108864</value>
</property>

        上述代码配置了 checkpoint 发生的时间周期和 edits log日志文件的大小阈值,说明以下。

        (1)fs.checkpoint.period:表示触发 checkpoint发生的时间周期,这里配置的时间周期为 1 h。

        (2)fs.checkpoint.size:表示 edits log 日志文件大小达到了多大的阈值时会发生 checkpoint操做,这里配置的 edits log大小阈值为 64 MB。

        上述代码中配置的 checkpoint操做发生的状况以下:

        (1)若是 edits log 日志文件通过 1 h 未能达到 64 MB,可是知足了 checkpoint发生的周期为 1 h 的条件,也会发生 checkpoint 操做。

        (2)若是 edits log日志文件大小在 1 h 以内达到了 64MB,知足了 checkpoint 发生的 edits log日志文件大小阈值的条件,则会发生 checkpoint操做。

注意:若是 NameNode 发生故障或 NameNode 上的元数据信息丢失或损坏致使 NameNode 没法启动,此时就须要人工干预,将 NameNode 中的元数据状态恢复到 SecondaryNameNode 中的元数据状态。此时,若是 SecondaryNameNode 上的元数据信息与 NameNode 宕机时的元数据信息不一样步,则或多或少地会致使 Hadoop 集群中丢失一部分数据。出于此缘由,应尽可能避免将 NameNode 和 SecondaryNameNode 部署在同一台服务器上

三、DataNode

        DataNode 是真正存储数据的节点,这些数据以数据块的形式存储在 DataNode 上。一个数据块包含两个文件:一个是存储数据自己的文件,另外一个是存储元数据的文件(这些元数据主要包括数据块的长度、数据块的检验和、时间戳)。

        DataNode 运行时的工做机制如图所示:

在这里插入图片描述
        如图所示,DataNode 运行时的工做机制以下:

        (1)DataNode启动以后,向 NameNode 注册

        (2)NameNode 返回注册成功的消息给 DataNode。

        (3)DataNode 收到 NameNode 返回的注册成功的信息以后,会周期性地向 NameNode 上报当前 DataNode 的全部块信息,默认发送全部数据块的时间周期是 1h

        (4)DataNode 周期性地向NameNode 发送心跳信息;NameNode 收到 DataNode 发来的心跳信息后,会将DataNode 须要执行的命令放入到 心跳信息的 返回数据中,返回给 DataNode。DataNode 向 NameNode 发送心跳信息的默认时间周期是 3s

        (5)NameNode 超过必定的时间没有收到 DataNode 发来的心跳信息,则 NameNode 会认为对应的 DataNode 不可用。默认的超时时间是 10 min。

        (6)在存储上相互关联的 DataNode 会同步数据块,以达到数据副本数的要求

        当 DataNode 发生故障致使 DataNode 没法与 NameNode 通讯时,NameNode 不会当即认为 DataNode 已经 “死亡”。要通过一段短暂的超时时长后才会认为 DataNode 已经 “死亡”。HDFS 中默认的超时时长为 10 min + 30 s,能够用以下公式来表示这个超时时长:

timeout = 2 * dfs.namenode.heartbeat.recheck-interval +10 * dfs.heartbeat.interval

        其中,各参数的含义以下:

        (1)timeout:超时时长。

        (2)dfs.namenode.heartbeat.recheck-interval:检查过时 DataNode 的时间间隔,与 dfs.heartbeat.interval 结合使用,默认的单位是 ms,默认时间是 5 min。

        (3)dfs.heartbeat.interval:检测数据节点的时间间隔,默认的单位为 s,默认的时间是 3 s。

        因此,能够得出 DataNode 的默认超时时长为 630s,以下所示:

timeout = 2 * 5 * 60 + 10 * 3 = 630s

        DataNode 的超时时长也能够在 hdfs-site.xml文件中进行配置,代码以下所示:

<property>
     <name>dfs.namenode.heartbeat.recheck-interval</name>
     <value>3000</value>
</property>
<property>
     <name>dfs.heartbeat.interval</name>
     <value>2</value>
</property>

        根据上面的公式能够得出,在配置文件中配置的超时时长为:

timeout = 2 * 3000 / 1000 + 10 * 2 = 26s

        当 DataNode 被 NameNode 断定为 “死亡”时,HDFS 就会立刻自动进行数据块的容错复制。此时,当被 NameNode 断定为 “死亡” 的 DataNode 从新加入集群中时,若是其存储的数据块并无损坏,就会形成 HDFS 上某些数据块的备份数超过系统配置的备份数目

        HDFS上删除多余的数据块须要的时间长短和数据块报告的时间间隔有关。该参数能够在 hdfs-site.xml文件中进行配置,代码以下所示:

<property>
     <name>dfs.blockreport.intervalMsec</name>
     <value>21600000</value>
     <description>Determines block reporting interval in milliseconds.</description>
</property>

        数据块报告的时间间隔默认为 21600000ms,即 6h,能够经过调整此参数的大小来调整数据块报告的时间间隔。


小结

        本篇文章算是对 HDFS的架构解释的比较透彻,相信不管是刚入门的小白,仍是已经有了必定基础的大数据学者,看完都会有必定的收获,但愿你们平时学习也可以多学会总结,用输出倒逼本身输入!
        

巨人的肩膀

一、《海量数据处理与大数据技术实战》
二、《大数据平台架构与原型实现》
三、https://baike.baidu.com/item/hdfs/4836121?fr=aladdin
四、http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_user_guide.html

        好了,本篇文章就到这里,更多干货文章请关注个人公众号。你知道的越多,你不知道的也越多。我是梦想家,点个关注,咱们下一期见!
在这里插入图片描述

本文同步分享在 博客“大数据梦想家”(CSDN)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。

相关文章
相关标签/搜索