1.停掉全部hadoop进程node
2删除全部节点的日志和本地数据
$xcall.sh "rm -rf /soft/hadoop/logs/"//这个操做实现删除全部节点的数据
$xcall.sh "rm -rf /home/centos/hadoop/"web
3.改换hadoop的符号链接为habootstrap
4.登陆每台JN节点主机,启动JN(journalNode)节点
[s201-s203
$>hadoop-daemon.sh start journalnode;centos
5.登陆其中一个NN节点,格式化文件系统(s200)
$>hadoop namenode -formatsession
6.复制s200目录下面nn的元数据到s206
$>scp -r ~/hadoop/* centos@s206:/home/centos/hadoopoop
7.在未格式化的NN(s206)节点上作standby引导
7.1)须要保证201的NN节点启动
$>hadoop-daemon.sh start namenode
7.2)登陆s206上作节点引导
$>hdfs namenode -bootstrapStandby测试
7.3登陆到s200将s200的edit日志初始化到JN节点 $>hdfs namenode -initializeSharedEdits
8.启动s206的名称节点和数据节点
$>hadoop-daemons.sh start datanode;
登陆到s206启动namenode
$>hadoop-daemon.sh start namenode
9.查看webUI日志
10.自动容灾
10.1)介绍
自动容灾要引入两个组件,zk quarum+zk容灾控制器(ZKFC)
运行NN主机还要运行ZKFC进程,主要负责如下事务:
1)健康监控
2)session管理
3)选举
10.2部署自动容灾
a.中止全部进程:stop-all.sh
b.配置hdfs-site.sh,启用自动容灾
[hdfs-site.xml]
c.配置 core-site.xml [core-site.xml],指定zk的链接地址
d.分发两个文件到全部节点code
11.在登陆其中的一台NN(s200),在zk中初始化HA状态,而后使用如下命令
$>hdfs zkfc -formatZKorm
12.启动hdfs相关进程 start-dfs.sh 13.测试自动容灾(s200是活跃节点) kill-9