建议添加一个名为hadoop的用户方便记忆(其实什么用户都无大碍),不建议使用root!!具体方法自行检索,这里提供整体的过程梳理,下同。java
不建议使用Ubuntu自带的java版本,请自行下载并让当前用户使用。node
Ubuntu默认只安装了ssh客户端,没有安装服务器端,安装ssh服务器端是必须的。bash
root权限用户:服务器
iptables -F
Ubuntu的主机名(hostname)修改的位置是:/etc/hostnamessh
建议修改成masterX或slaveX分布式
vi /etc/hosts 创建各集群主机名(hostname)与ip的对应关系oop
127.0.0.1这个本地回环地址只能映射为localhost,有多余的删除!(伪分布式可能使用,集群模式不能使用)spa
配置~/.bashrc文件里的PATH、JAVA_HOMEcode
修改几个配置文件:orm
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
和DataNode结点的主机名文件:
slaves
将配置好的整个hadoop文件(第三步)复制到集群里全部的机器中(避免重复操做的不二选择0.o)
建议使用scp命令
master主机能够ssh免密登陆全部的主机包括本身(localhost)。
master主机的当前用户产生ssh公私钥,将公钥发给全部机器的当前用户,全部的用户将该公钥保存到容许列表(authorized_key)里,master用本身的私钥实现身份认证从而免密登陆。
maser主机上执行
hdfs namenode -format
--
以上