Hadoop namenode节点没法启动的问题解决

      namenode是Hadoop集群HDFS的管理节点,管理着整个分布式文件系统的命名空间,以及文件与块的映射关系等,在Hadoop集群中扮演着相当重要的做用。node

      我以前安装的Hadoop集群中namenode和secondary namenode是在一个节点上安装的,安装的节点是在masters文件中配置的IP地址,而后在网上看了一些资料,但愿将secondary namenode 分配到其余的集群节点上,作到更好的可维护性,也可以减少对namenode的压力。 web

      网上的资料是说${HADOOP_HOME}/etc/hadoop/masters中配置的是secondary namenode运行的节点,并非namenode的运行节点,所以在masters中将节点信息修改成但愿将secondary namenode 运行的主机节点的IP地址,如图:分布式

而后须要在 ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml中配置secondary namenode 与 namenode运行的节点的信息,如图:oop

 

<property>
<name>dfs.http.address</name>
<value>192.168.178.134:50070</value>
<description>
The address and the base port where the dfs namenode web ui will listen on.
If the port is 0 then the server will start on a free port.
</description>
</property>

ui

<property>
<name>dfs.namenode.secondary.http-address</name>
<value>192.168.178.128:50090</value>
</property>spa

</configuration>server

这两个第一个配置的是namenode运行的节点信息,而第二个是secondary namenode运行的节点信息。因为我以前没有配置这两个,只是配置了一个namenode默认的地址信息,以下:xml

<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.178.134:9000</value>
</property>blog

而后无就把我这个删除了,只保留了上面那两个。而后进行集群的从新启动,刚开始启动是没有什么问题的,可是过了一天进行集群的启动就发现namenode没法启动,datanode正常启动。最后把我以前删掉的这一段加上就行了。ip

fs.defaultFS这个属性是HDFS的hadoop访问目录节点nameNode的地址和端口。

而上面的那个dfs.http.address是NameNode web管理端口以及namenode的地址信息。

相关文章
相关标签/搜索