Hdoop分布式安装要点

1.Ubuntu上的准备

1)合适的用户

建议添加一个名为hadoop的用户方便记忆(其实什么用户都无大碍),不建议使用root!!具体方法自行检索,这里提供整体的过程梳理,下同。java

2)合适的java版本

不建议使用Ubuntu自带的java版本,请自行下载并让当前用户使用。node

3)openssh-server

Ubuntu默认只安装了ssh客户端,没有安装服务器端,安装ssh服务器端是必须的。bash

4)关闭防火墙

root权限用户:服务器

iptables -F

 

2.用户的设置

1)修改hostname

Ubuntu的主机名(hostname)修改的位置是:/etc/hostnamessh

建议修改成masterX或slaveX分布式

2)修改hosts表

vi /etc/hosts  创建各集群主机名(hostname)与ip的对应关系oop

127.0.0.1这个本地回环地址只能映射为localhost,有多余的删除!(伪分布式可能使用,集群模式不能使用)spa

3)配置PATH、JAVA_HOME变量

配置~/.bashrc文件里的PATH、JAVA_HOMEcode

 

3.hadoop2.7.3配置

修改几个配置文件:orm

core-site.xml

hdfs-site.xml

mapred-site.xml

yarn-site.xml

和DataNode结点的主机名文件:

slaves

 

4.hadoop文件复制

将配置好的整个hadoop文件(第三步)复制到集群里全部的机器中(避免重复操做的不二选择0.o)

建议使用scp命令

 

5.设置ssh免密登陆

master主机能够ssh免密登陆全部的主机包括本身(localhost)。

master主机的当前用户产生ssh公私钥,将公钥发给全部机器的当前用户,全部的用户将该公钥保存到容许列表(authorized_key)里,master用本身的私钥实现身份认证从而免密登陆。

 

6.NameNode结点的格式化

maser主机上执行

hdfs namenode -format

--

以上

相关文章
相关标签/搜索