hbase ha
- HA
- 准备工做 登录 master1 > wget http://archive.apache.org/dist/hbase/hbase-0.98.8/hbase-0.98.8-hadoop2-bin.tar.gz > tar zxvf hbase...
- 修改配置 > cd hbase.../conf
- vi hbase-env.sh 在后面追加 #JDK export JAVA_HOME=/usr/java/jdk1.7.0_05 #hbase目录 export HBASE_HOME=/.../hbase-... #hadoop目录 export HADOOP_HOME=/.../hadoop-... export PATH=$PATH:/.../hbase-.../bin #是否使用默认的zookeeper export HBASE_MANAGES_ZK=false
- vi hbase-site.xml <configuration> <property> <name>hbase.rootdir</name>r <value>hdfs://{hadoop-cluster-name}:9000/hbase</value> //必须与你的hadoop主机名,端口号一致;Hbase该项并不识别机器IP,只能使用机器hostname才行 </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>{zookeeper-node},{zookeeper-node},{zookeeper-node}</value>
</property> <property> <name>hbase.master</name> <value>60000</value> </property> <property> <name>zookeeper.session.timeout</name> <value>60000</value> </property> <property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> //必须与zookeeper的配置文件zoo.cfg里的配置项clientport一致 </property> </configuration>
- vi regionservers 加入 数据处理节点,和 hadoop datanode 数据节点对应
- 将hbase 发送到 其它节点
- 启动
- master1 > ./start-hbase.sh
- master2 > ./hbase-daemon.sh start master
欢迎关注本站公众号,获取更多信息