hbase ha

  • HA
    • 准备工做 登录 master1 > wget http://archive.apache.org/dist/hbase/hbase-0.98.8/hbase-0.98.8-hadoop2-bin.tar.gz > tar zxvf hbase...
    • 修改配置 > cd hbase.../conf
      • vi hbase-env.sh 在后面追加 #JDK export JAVA_HOME=/usr/java/jdk1.7.0_05   #hbase目录 export HBASE_HOME=/.../hbase-...   #hadoop目录 export HADOOP_HOME=/.../hadoop-...   export PATH=$PATH:/.../hbase-.../bin   #是否使用默认的zookeeper export HBASE_MANAGES_ZK=false
      • vi hbase-site.xml <configuration> <property> <name>hbase.rootdir</name>r <value>hdfs://{hadoop-cluster-name}:9000/hbase</value> //必须与你的hadoop主机名,端口号一致;Hbase该项并不识别机器IP,只能使用机器hostname才行 </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>{zookeeper-node},{zookeeper-node},{zookeeper-node}</value>
        </property> <property> <name>hbase.master</name> <value>60000</value> </property> <property> <name>zookeeper.session.timeout</name> <value>60000</value> </property> <property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> //必须与zookeeper的配置文件zoo.cfg里的配置项clientport一致 </property> </configuration>
        • vi regionservers 加入 数据处理节点,和 hadoop datanode 数据节点对应
        • 将hbase 发送到 其它节点
        • 启动
          • master1 > ./start-hbase.sh
          • master2 > ./hbase-daemon.sh start master
相关文章
相关标签/搜索