一、在打算作namenode的机器上,wget或其余方式下载hadoop的压缩包,并解压到本地指定目录java
下载解压命令参考Linux经常使用命令。node
二、配置namenode,修改site文件shell
修改core-site.xmloop
<configuration> <property> <name>fs.default.name</name> <value>hdfs://bd01:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/wukong/a_usr/hadoop-tmp</value> </property> </configuration>
注意:bd01配置的是namenode的主机名。tmp目录必须配置且不能删除,若是删除hadoop的hdfs就没了,必须从新安装。ui
修改hdfs-site.xmlspa
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
注意: 文件系统中文件复制的份数,默认是3份。份数越多,越耗费磁盘。通常设置成奇数,方便数据不一致时能够判断正确性。
.net
修改mapred-site.xmlcode
<configuration> <property> <name>mapred.job.tracker</name> <value>bd01:9001</value> </property> </configuration>
三、配置hadoop-env.shorm
# The java implementation to use. Required. export JAVA_HOME=/usr/lib64/jdk1.7.0_65/
配置JAVA_HOME时将路径指向本身本机上的jdk目录。xml
四、配置masters和slaves
在masters中加入secondarynamenode主机名,slaves中加入slaves的主机名。
五、向各个节点复制hadoop
使用scp复制。scp使用方法参考Linux经常使用命令
六、格式化namenode
bin/hadoop namenode -format
当log中出现info是...has been successfully formated...以后,就算格式化成功了。
七、启动hadoop守护进程
bin/start-all.sh
八、用jps检验各后台进程是否OK
jps
若是有问题,能够修改配置文件,杀死已启动的进程后从新启动hadoop。杀死进程命令参考Linux经常使用命令。若是没有问题,应该显示有以下几个进程:namenode, secondnamenode, jobtracker。若是在datanode节点上查看进程,则会看到datanode, tasktracker。