云计算分布式大数据Hadoop实战高手之路第七讲Hadoop图文训练课程:经过HDFS的心跳来测试replication具体的工做机制和流程

这一讲主要深刻使用HDFS命令行工具操做Hadoop分布式集群,主要是经过实验的配置hdfs-site.xml文件的心跳来测试replication具体的工做和流程。html

经过HDFS的心跳来测试replication具体的工做机制和流程的PDF版本请猛击这里node

 

王家林的“云计算分布式大数据Hadoop实战高手之路”之完整发布目录web

 

云计算分布式大数据实战技术Hadoop交流群:312494188,天天都会在群中发布云计算实战性资料,欢迎你们加入!分布式

 

王家林 第六讲Hadoop图文训练课程:使用HDFS命令行工具操做Hadoop分布式集群初体验中,咱们配置了hadoop.main这台主机的hdfs-site.xml这个配置文件的“dfs.replication”的值为2:

 

当咱们上传文件时候文件会保存2份副本:工具

下面咱们经过实验的方式探究replication属性配置的做用。oop

首先关闭集群:测试

而后修改hadoop.main这台机器上的hdfs-site.xml配置文件:大数据

在这个配置文件中加入新的配置信息:云计算

保存退出。spa

新加入的配置信息:

的具体含义是当DataNode和NameNode的心跳失去链接的时间超过15秒以后,Hadoop系统就会认为这个DataNode已经死亡,此时Hadoop会把这个DataNode标记为不能工做的状态,之后若是客户端去 访问数据的时候,Hadoop就不会尝试到这个DataNode去获取数据。

下面看一下其工做的具体方式:

首先启动HDFS:

进入HDFS的Web监控台的Node页面:

咱们发现hadoop.main和hadoop.slave这两个DataNode均在正常的工做中。

咱们观察到“Last Contact”选项的数据,该数据是代表DataNode和NameNode最近联系的心跳成功的时间,咱们再次刷新页面看一下这个数据:

咱们发现这个具体的数据时比较低的。

此时咱们经过命令行工做查看datanode进程:

咱们发现hadoop.main上运行的DataNode节点的进程是16228,咱们把这个DataNode杀掉:

咱们再次刷新HDFS的Node的控制台:

继续刷新:

继续刷新:

能够发现第一个DataNode的心跳时间不断的在增长,同时在第三次刷新的时候心跳间隔时间为25,这个数据超过咱们配置文件中的15,再刷新一次:

此时发现只有一个正在服务的DataNode,由于咱们的Hadoop.main中的DataNode心跳间隔时间超过了15秒,Hadoop此时把把该节点标记为无效节点。

咱们返回文件系统页面看一下咱们上传的文件存储信息:

此外发现文件的可访问信息只是存放在了hadoop.slave这个节点中了,固然,此时咱们仍是能够正常的访问文件,虽然只有一份可用副本,这就是replication节点的做用,咱们在配置该节点的时候把值设置为2,代表同一个文件在HDFS中有两个副本,当一个运行DataNode的进程由于某些缘由不能工做的时候,咱们依旧可使用剩余的一份副本工做,这不会影响客户端对数据的访问。

相关文章
相关标签/搜索