NameNode故障后,能够经过下列两种方式进行恢复数据: 方法一(手动):将SecondaryNameNode文件下的数据复制到NameNode中 方法二(程序):使用-importCheckpoint选项启动NameNode的守护线程, 从而将SecondaryNameNode文件目录下的数据拷贝到NamenNode中
模拟NameNode故障,并采用方法一,恢复NameNode的数据。 (1)kill -9 NameNode进程 (2)删除NameNode存储的数据($HADOOP_PATH/data/tmp/dfs/name) $ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/* (3)拷贝SecondaryNameNode中的数据到原NameNode存储数据目录中 $ scp -r upuptop@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/ (4)重启NameNode $ sbin/hadoop-daemon.sh start namenode
(1)修改hdfs-site.xml文件node
<property> <name>dfs.namenode.checkpoint.period</name> <value>120</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/module/hadoop-2.7.2/data/tmp/dfs/name</value> </property>
(2)模拟NameNode挂掉web
kill -9 namenode进程
(3)删除namenode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)网络
$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*
(4)若是SecondaryNameNode不和Namenode在一个主机节点上,须要将SecondaryNameNode存储数据的目录拷贝到Namenode存储数据的平级目录,并删除in_use.lock文件。svg
$ scp -r upuptop@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary ./ $ rm -rf in_use.lock $ pwd /opt/module/hadoop-2.7.2/data/tmp/dfs $ ls data name namesecondary
4)导入检查点数据(等待一会ctrl+c结束掉)oop
$ bin/hdfs namenode -importCheckpoint
5)启动NameNode学习
$ sbin/hadoop-daemon.sh start namenode
本博客仅为博主学习总结,感谢各大网络平台的资料。蟹蟹!!线程