服务器角色
服务器 | 192.168.58.180 | 192.168.58.181 | 192.168.58.182 | 192.168.58.183 |
Name | CentOSMaster | Slvae1 | Slave2 | StandByNameNode |
NameNode | Yes | Yes | ||
DataNode | Yes | Yes | Yes | |
journalNode | Yes | yes | Yes | |
ZooKeeper | Yes | Yes | Yes | |
ZKFC | Yes | Yes | ||
Spark | Yes | Yes | ||
hbase | Yes | Yes |
Slave2没有zookeeper,因此hbase装在183和181,不过因为hbase.rootdir必须在hdfs上,因此估计仍是只能搭载在180和183上。
就是不知道zk和hbase必须对应,就是说2个hbase,三个zk不知道行不。
备注:个人公钥文件在/home/hxsyl/.ssh下不在/root/hxsyl下,经过
find / -name id_rsa
查找java
1.
分别在每一个机器上运行命令zkServer.sh start或者在$ZOOKEEPER_HOME/bin目录下运行./zkServer.sh start命令。而后能够经过命令jps来查看Zookeeper启动的进程QuorumPeerMain。
可经过zkServer.sh status命令来查看Zookeeper状态。正常是机器中只有一个leader,其余的都是follow
$ZOOKEEPER_HOME/bin/zkServer.sh start
slave2不要zk了node
DN节点是命令行模式,可是ssh IP “启动”命令显示成功了,可是ip里没进程,可是这种stop就能够 马丹,咋回事 只能去命令杭霞窍sql
2.主节点执行
hdfs zkfc -formatZK
注意:最后的zk是大写,不然shell
6/11/30 20:31:45 FATAL tools.DFSZKFailoverController: Got a fatal error, exiting now org.apache.hadoop.HadoopIllegalArgumentException: Bad argument: -formatzk
这个必须设置自动故障切换为true。
他会根据$HADOOP_HOME/etc/hadoop/core-site.xml文件中ha.zookeeper.quorum的值来进行初始化。
这个须要肯定开启了自动ha切换,不然不行。
可是如今
DFSZKFailoverController并无启动,start zkfc后才能够,而后才是一个active,一个standby,
3.
注意:全部操做均在Hadoop部署目录下进行。 启动Hadoop集群: Step1 : 在各个JournalNode节点上,输入如下命令启动journalnode服务:
$HADOOP_HOME/sbin/hadoop-daemon.sh start journalnode
或者在mster执行
$HADOOP_HOME/sbin/hadoop-daemons.sh start journalnode
注意第二种启动方法master节点并非journalNode,须要单独启动,挺值得时候单独中止
s2没有journalNode。
4.
在[nn1]上,对其进行格式化,并启动:
bin/hdfs namenode -format sbin/hadoop-daemon.sh start namenode 5. 在[nn2]上,同步nn1的元数据信息: bin/hdfs namenode -bootstrapStandby 6. 启动[nn2]: sbin/hadoop-daemon.sh start namenode 通过以上四步操做,nn1和nn2均处理standby状态 7. 将[nn1]切换为Active
有问题 如何配置自动切换的话 这个不要,强制手动 出现脑列问题....
bin/hdfs haadmin -transitionToActive nn1
强制切换是 --forcemanual nn1,有人说重启zkfc,我先格式化仍是而后启动zkfc,说zkfc在运行。
而后重启hbase便可。
8.
此时两个都是standby,standby也能够启动datanode。 在[nn1]上,启动全部datanode sbin/hadoop-daemons.sh start datanode
9.启动yarn
sbin/start-yarn.sh
在master1上多出ResourceManager进程,在slave1 slave2 slave3上多出NodeManager进程
10.启动zkfc
sbin/hadoop-daemon.sh start zkfc
注意这个和上面的启动journalNode式样的,damons的并无启动master的zkfc,须要单独启动。apache
11.bootstrap
sbin/mr-jobhistory-daemon.sh start historyserver 原文配置在Stand上,我改为CentOSMaster上了。
11.启动hbase服务器
bin/start-hbase.shssh
关闭Hadoop集群: 在[nn1]上,输入如下命令 sbin/stop-dfs.sh 并无中止上面的yarn和历史服务器 主节点的journalNode也没中止
各个节点的zookeeper也没中止
hbase中止很慢 查看master日志发现一直在等待Regionserver 那么先中止它 hbase-daemons.sh stop regionserver
进入spark的sbin目录下
start-all.sh
./start-history-server.sh
12.关闭
a.zookeeper
$ZOOKEEPER_HOME/bin/zkServer.sh stop 一个一个关闭