[原创]Hadoop默认设置致使NameNode启动失败一例

 

看到市面上不少书在讲解Hadoop的时候都轻描淡写的提到了HDFS的设置问题。大多采起的是默认设置,最多也就是设置一些副本数量之类。node

笔者在工做中遇到了这样一种状况:每次重启系统以后,NameNode就会消失。oop

 

从新尝试下面的命令:spa

1 hdfs namenode –format
2 sbin/start-all.sh

这样确实可以恢复Hadoop的运行,可是HDFS上面的数据会所有丢失。这显然不是咱们想看到的。code

仔细查找官方文档,发现hdfs-site.xml里面包含了HDFS的默认工做路径,居然指向了”/tmp”!orm

添加下面的代码到hdfs-site.xml,替换成你本身的工做路径便可解决此问题。xml

1 <property> 
2     <name>dfs.name.dir</name> 
3     <value>/home/user/<user name>/hadoop_namedata</value> 
4 </property>

 

最后,个人环境以下:
Ubuntu 14.10 x64
Hadoop 2.6.0
相关文章
相关标签/搜索