HDFS的namenode从单节点扩展为HA须要注意的问题

扩展为HA须要注意的问题

原Namenode称为namenode1,新增的Namenode称为namenode2.node

从namenode单节点扩展为HA模式官网上有详细的教程,下面是扩展过程当中疏忽的地方。web

  • namenode2部署后须要复制namenode1格式化好的数据,就是namenode1部署的时候,经过hdfs namenode -format生成的数据。shell

  • journalnode部署好后,也须要格式化数据。格式化方式为:journalnode启动以后,在namenode执行hdfs namenode -bootstrapStandby来初始化journalnode,namenode不能是在运行状态,不然会报数据被锁定的异常。apache

    而后执行hadoop/bin/hdfs haadmin -transitionToActive nn1手动吧nn1切换成active节点。bootstrap

下面是简写的笔记,按照我的知识基础写的,建议部署过程参照官网。架构

HA 原理

hadoop能够经过nfs和quorum journal manager(QJM)实现。app

经过QJM共享edit log。ssh

当主节点挂了,备从edit log迅速成为主节点。webapp

架构

HA 集群中有一个namenode是Active ,另外一个是Standbyide

部署Standby的时候,把Active节点上格式化好的数据拷贝到Standby。

要布署HA,须要准备一下内容:

  • Namenode: 主节点和备节点。
  • JournalNode:JournalNode是轻量级的,因此JournalNode能够布署在其余的Hadoop机器上,好比job tracker或者yarn RecourceManager。注意:必须至少三个JournalNode,这种结构容许系统有一个节点故障。能够大于单台,可是要增长容许故障节点的数量,journalnode的数量必须时奇数。由于系统健康情况的最低标准为(n/2)+1 个。因此三个节点只容许一台挂掉,4个节点也容许1台挂掉。

HA配置

参数说明

hdfs-site.xml

dfs.nameservices 用于标识集群

<property>
  <name>dfs.nameservices</name>
  <value>mycluster</value>
</property>

dfs.ha.namenodes.[nameservice ID] 集群mycluster的namenode成员

<property>
  <name>dfs.ha.namenodes.mycluster</name>
  <value>nn1,nn2</value>
</property>

dfs.namenode.rpc-address.[nameservice ID].[name node ID]

<property>
  <name>dfs.namenode.rpc-address.mycluster.nn1</name>
  <value>machine1.example.com:8020</value>
</property>
<property>
  <name>dfs.namenode.rpc-address.mycluster.nn2</name>
  <value>machine2.example.com:8020</value>
</property>

dfs.namenode.http-address.[nameservice ID].[name node ID]

<property>
  <name>dfs.namenode.http-address.mycluster.nn1</name>
  <value>machine1.example.com:50070</value>
</property>
<property>
  <name>dfs.namenode.http-address.mycluster.nn2</name>
  <value>machine2.example.com:50070</value>
</property>

dfs.namenode.shared.edits.dir 配置edits共享地址,journalnode的地址。

mycluster是nameservice ID

<property>
  <name>dfs.namenode.shared.edits.dir</name>
  <value>qjournal://node1.example.com:8485;node2.example.com:8485;node3.example.com:8485/mycluster</value>
</property>

dfs.client.failover.proxy.provider.[nameservice ID] 客户端用来链接avtive namenode的类。

<property>
  <name>dfs.client.failover.proxy.provider.mycluster</name>
  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

dfs.ha.fencing.methods 再故障转移时的一种保护机制。Hadoop可使用shell和sshfence的方式。

sshfence参数远程链接到目标节点杀死进程。

<property>
      <name>dfs.ha.fencing.methods</name>
      <value>sshfence</value>
    </property>

    <property>
      <name>dfs.ha.fencing.ssh.private-key-files</name>
      <value>/home/exampleuser/.ssh/id_rsa</value>
    </property>

shell 可使用的变量

$target_host hostname of the node to be fenced
$target_port IPC port of the node to be fenced
$target_address the above two, combined as host:port
$target_nameserviceid the nameservice ID of the NN to be fenced
$target_namenodeid the namenode ID of the NN to be fenced
<property>
      <name>dfs.ha.fencing.methods</name>
      <value>shell(/path/to/my/script.sh --nameservice=$target_nameserviceid $target_host:$target_port)</value>
    </property>

core-site.xml

<property>
  <name>fs.defaultFS</name>
  <value>hdfs://mycluster</value>
</property>

dfs.journalnode.edits.dir journalnode保存edits的路径

JournalNode的配置

<property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/path/to/journal/node/local/data</value>
</property>

JournalNode

上面是配置,启动方式为:

hadoop-2.9.2/sbin/hadoop-daemon.sh --config /opt/hadoop-2.9.2/etc/hadoop --script hdfs start journalnode

journalnode启动以后在namenode执行hdfs namenode -bootstrapStandby来初始化journalnode

而后执行hadoop/bin/hdfs haadmin -transitionToActive nn1手动吧nn1切换成active节点。

namenode|secondarynamenode|datanode|journalnode|dfs|dfsadmin|fsck|balancer|zkfc|portmap|nfs3|dfsrouter

自动故障转移

上面的配置只能使用手动转移。

zookeeper布署

namenode

core-site.xml

<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://ns1</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/modules/App/hadoop-2.5.0/data/tmp</value>
</property>
<property>
    <name>hadoop.http.staticuser.user</name>
    <value>beifeng</value>
</property>
<property>
    <name>ha.zookeeper.quorum</name>
    <value>bigdata-01:2181,bigdata-02:2181,bigdata-03:2181</value>
</property>
</configuration>

hdfs-site.xml

<configuration>
<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
property>
    <name>dfs.permissions.enabled</name>
    <value>false</value>
</property>
<property>
    <name>dfs.nameservices</name>
    <value>ns1</value>
</property>
<property>
    <name>dfs.blocksize</name>
    <value>134217728</value>
</property>
<property>
    <name>dfs.ha.namenodes.ns1</name>
    <value>nn1,nn2</value>
</property>
<!-- nn1的RPC通讯地址,nn1所在地址  -->
<property>
    <name>dfs.namenode.rpc-address.ns1.nn1</name>
    <value>bigdata-01:8020</value>
</property>
<!-- nn1的http通讯地址,外部访问地址 -->
<property>
    <name>dfs.namenode.http-address.ns1.nn1</name>
    <value>bigdata-01:50070</value>
</property>
<!-- nn2的RPC通讯地址,nn2所在地址 -->
<property>
    <name>dfs.namenode.rpc-address.ns1.nn2</name>
    <value>bigdata-02:8020</value>
</property>
<!-- nn2的http通讯地址,外部访问地址 -->
<property>
    <name>dfs.namenode.http-address.ns1.nn2</name>
    <value>bigdata-02:50070</value>
</property>
<!-- 指定NameNode的元数据在JournalNode日志上的存放位置(通常和zookeeper部署在一块儿) -->
<property>
    <name>dfs.namenode.shared.edits.dir</name>
    <value>qjournal://bigdata-01:8485;bigdata-02:8485;bigdata-03:8485/ns1</value>
</property>
<!-- 指定JournalNode在本地磁盘存放数据的位置 -->
<property>
    <name>dfs.journalnode.edits.dir</name>
    <value>/opt/modules/App/hadoop-2.5.0/data/journal</value>
</property>
<!--客户端经过代理访问namenode,访问文件系统,HDFS 客户端与Active 节点通讯的Java 类,使用其肯定Active 节点是否活跃  -->
<property>
    <name>dfs.client.failover.proxy.provider.ns1</name>
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<!--这是配置自动切换的方法,有多种使用方法,具体能够看官网,在文末会给地址,这里是远程登陆杀死的方法  -->
<property>
    <name>dfs.ha.fencing.methods</name>
    <value>sshfence</value>     ----这个参数的值能够有多种,你也能够换成shell(/bin/true)试试,也是能够的,这个脚本do nothing 返回0
</property>
<!-- 这个是使用sshfence隔离机制时才须要配置ssh免登录 -->
<property>
    <name>dfs.ha.fencing.ssh.private-key-files</name>
    <value>/home/beifeng/.ssh/id_rsa</value>
</property>
<!-- 配置sshfence隔离机制超时时间,这个属性同上,若是你是用脚本的方法切换,这个应该是能够不配置的 -->
<property>
    <name>dfs.ha.fencing.ssh.connect-timeout</name>
    <value>30000</value>
</property>
<!-- 这个是开启自动故障转移,若是你没有自动故障转移,这个能够先不配 -->
<property>
    <name>dfs.ha.automatic-failover.enabled</name>
    <value>true</value>
</property>
</configuration>

mapred-site.xml

<configuration>
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>
<property>
    <name>mapreduce.jobhistory.address</name>
    <value>bigdata-01:10020</value>
</property>
<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>bigdata-01:19888</value>
</property>
</configuration>

yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>bigdata-03</value>
    </property>
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
        <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>106800</value>
    </property>
</configuration>
相关文章
相关标签/搜索