- 一:系统环境配置
- 二:软件需求
- 三:安装zookeeper处理
- 四:编辑hadoop 配置文件
- 五:启动服务
- 六:配置zookeeper自动故障转移
承接 在上文档hadoop 分布式的文档进行部署
在前环境 状态下增长zookeeper-3.4.6.tar.gz 包 上传zookeeper 包到/home/hadoop/yangyang/目录下面
在master.hadoop.com 上面 tar –zxvf zookeeper-3.4.6.tar.gz rm –rf zookeeper-3.5.6.tar.gz mv zookeeper-3.4.6 zookeeper cd zookeeper/conf cp -p zoo_sample.cfg zoo.cfg vim zoo.cfg
#mkdir zookeeper/data #echo “1” > zookeeper/data/myid 同步其它节点处理: scp –r zoo* hadoop@192.168.3.2:/home/hadoop/yangyang/ scp –r zoo* hadoop@192.168.3.3:/home/hadoop/yangyang/ slave1.hadoop.com echo “2” > zookeeper/data/myid slave2.hadoop.com echo “3” > zookeeper/data/myid
3.1 zookeeper 相关命令node
3.1.1. 显示根目录下、文件: ls / 使用 ls 命令来查看当前 ZooKeeper 中所包含的内容 3.1.2. 显示根目录下、文件: ls2 / 查看当前节点数据并能看到更新次数等数据 3.1.3 建立文件,并设置初始内容: create /zk "test" 建立一个新的 znode节点“ zk ”以及与它关联的字符串 3.1.4 获取文件内容: get /zk 确认 znode 是否包含咱们所建立的字符串 3.1.5 修改文件内容: set /zk "zkbak" 对 zk 所关联的字符串进行设置 3.1.6 删除文件: delete /zk 将刚才建立的 znode 删除 3.1.7 退出客户端: quit 3.1.8 帮助命令: help
master.hadoop.com cd /home/hadoop/yangyang/zookeeper/bin ./zkServer.sh status
slave1.hadoop.com cd /home/hadoop/yangyang/zookeeper/bin ./zkServer.sh status
slave2.hadoop.com
Zookeeper 的进入命令窗口: ./zkCli.sh
ls /
create /zk “yangyang”
编辑core-site.xml 文件:
vim core-site.xmlpython
<property> <name>fs.defaultFS</name> <value>hdfs://mycluster</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/yangyang/hadoop/data</value> </property>
编辑hdfs-site.xml 文件:apache
<configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.nameservices</name> <value>mycluster</value> </property> <property> <name>dfs.ha.namenodes.mycluster</name> <value>nn1,nn2</value> </property> #######################nn1############################### <property> <name>dfs.namenode.rpc-address.mycluster.nn1</name> <value>master.hadoop.com:8020</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn1</name> <value>master.hadoop.com:50070</value> </property> #######################nn2############################### <property> <name>dfs.namenode.rpc-address.mycluster.nn2</name> <value>slave1.hadoop.com:8020</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn2</name> <value>slave1.hadoop.com:50070</value> </property> #######################journal node####################### <property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://master.hadoop.com:8485;slave1.hadoop.com:8485;slave2.hadoop.com:8485/mycluster</value> </property> <property> <name>dfs.journalnode.edits.dir</name> <value>/home/hadoop/yangyang/hadoop/data/jn</value> </property> ##########################proxy########################### <property> <name>dfs.client.failover.proxy.provider.mycluster</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property> ##########################fence########################### <property> <name>dfs.ha.fencing.methods</name> <value>sshfence</value> </property> <property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/home/hadoop/.ssh/id_rsa</value> </property> </configuration>
同步全部hadoop 的配置文件: tar –zcvf hadoop.tar.gz hadoop scp hadoop.tar.gz hadoop@192.168.3.2:/home/hadoop/yangyang/ scp hadoop.tar.gz hadoop@192.168.3.3:/home/hadoop/yangyang/
启动全部节点journalnode 节点: master.hadoop.com cd /home/hadoop/yangyang/hadoop/ sbin/hadoop-daemon.sh start journalnode
启动master.hadoop.com的namenode 与datanode sbin/hadoop-daemon.sh start namenode sbin/hadoop-daemon.sh start datanode
打开浏览器访问:
slave1.hadoop.com 进行节点同步master.hadoop.com
bin/hdfs namenode –bootstrapStandby
启动slave1.hadoop.com 节点的namenode 与datanode
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
打开浏览器处理
手动切换master.hadoop.com 为active 状态:
bin/hdfs haadmin -transitionToActive nn1
建立目录与上传测试:
浏览器查看master.hadoop.com 的hdfs active 节点
浏览器查看slave1.hadoop.com 的hdfs standby 节点:
手动切换 将master.haoop.com 切换为standby 将slave1.hadoop.com 切换为active
master.hadoop.com:
bin/hdfs haadmin -transitionToStandby nn1
将slave1.hadoop.com 变为active 节点:
bin/hdfs haadmin -transitionToActive nn2
浏览器查看:
master.hadoop.com
slave1.hadoop.com浏览器查看:
bootstrap
master.hadoop .com 编辑core-site.xml 在configuration 中增长 <property> <name>ha.zookeeper.quorum</name> <value>master.hadoop.com:2181,slave1.hadoop.com:2181,slave2.hadoop.com:2181</value> </property> 编辑hdfs-site.xml 文件 在configuration 中 增长: <property> <name>dfs.ha.automatic-failover.enabled</name> <value>true</value> </property>
cd /home/hadoop/yangyang/hadoop/etc/hadoop/ scp core-site.xml hadoop@192.168.3.2:/home/hadoop/yangyang/ hadoop/etc/hadoop/ scp hdfs-site.xml hadoop@192.168.3.3:/home/hadoop/yangyang/ hadoop/etc/hadoop/