集群环境:node
- centOs6.8:hadoop102,hadoop103,hadoop104
- jdk版本:jdk1.8.0_144
- hadoop版本:Hadoop 2.7.2
首先准备三台客户机(hadoop102,hadoop103,hadoop104),关闭防火墙,修改成静态ip和ip地址映射git
编写集群分发脚本github
[kocdaniel@hadoop102 ~]$ mkdir bin
[kocdaniel@hadoop102 ~]$ cd bin/
[kocdaniel@hadoop102 bin]$ vim xsync
复制代码
在文件中编写以下脚本代码web
#!/bin/bash
#1 获取输入参数个数,若是没有参数,直接退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi
#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname
#3 获取上级目录到绝对路径 –P指向实际物理地址,防止软链接
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir
#4 获取当前用户名称
user=`whoami`
#5 循环
for((host=103; host<105; host++)); do
echo ------------------- hadoop$host --------------
rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
done
复制代码
[kocdaniel@hadoop102 bin]$ chmod 777 xsync
[kocdaniel@hadoop102 bin]$ xsync /home/atguigu/bin
复制代码
集群配置shell
hadoop102 | hadoop103 | hadoop104 | |
---|---|---|---|
HDFS | NameNode DataNode | DataNode | SecondaryNameNode DataNode |
YARN | NodeManager | ResourceManager NodeManager | NodeManager |
因为计算机配置有限,只能使用三台虚拟机,工做环境中根据须要规划集群vim
切换到hadoop安装目录/etc/hadoop/
bash
[kocdaniel@hadoop102 hadoop]$ vim core-site.xml
# 在文件中写入以下内容
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>
复制代码
HDFS配置文件ssh
hadoop-env.sh
[kocdaniel@hadoop102 hadoop]$ vim hadoop-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
复制代码
**注意:**咱们已经在/etc/profile文件中配置了JAVA_HOME,这里为何还须要配置JAVA_HOME?oop
答:由于Hadoop运行是守护进程(守护进程是一个在后台运行而且不受任何终端控制的进程。--摘自百度百科),正是由于它后台运行,不接受任何终端控制,因此它读取不到咱们配置好的环境变量,因此这里须要单独配置一下。ui
hdfs-site.xml
[kocdaniel@hadoop102 hadoop]$ vim hdfs-site.xml
# 写入以下配置
<!-- 配置副本数量为3,默认也为3,因此这个也能够删掉 -->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop104:50090</value>
</property>
复制代码
YARN配置文件
yarn-env.sh
[kocdaniel@hadoop102 hadoop]$ vim yarn-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
复制代码
yarn-site.xml
[kocdaniel@hadoop102 hadoop]$ vi yarn-site.xml
# 增长以下配置
<!-- Reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop103</value>
</property>
复制代码
MapReduce配置文件
mapred-env.sh
[kocdaniel@hadoop102 hadoop]$ vim mapred-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
复制代码
mapred-site.xml
# 若是是第一次配置的话,须要先将mapred-site.xml.template重命名为mapred-site.xml
[kocdaniel@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml
[kocdaniel@hadoop102 hadoop]$ vim mapred-site.xml
# 在文件中增长以下配置
<!-- 指定MR运行在Yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
复制代码
[kocdaniel@hadoop102 hadoop]$ xsync /opt/module/hadoop-2.7.2/
复制代码
[kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop namenode -format
复制代码
[kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start namenode
[kocdaniel@hadoop102 hadoop-2.7.2]$ jps
3461 NameNode
复制代码
[kocdaniel@hadoop102 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[kocdaniel@hadoop102 hadoop-2.7.2]$ jps
3461 NameNode
3608 Jps
3561 DataNode
[kocdaniel@hadoop103 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[kocdaniel@hadoop103 hadoop-2.7.2]$ jps
3190 DataNode
3279 Jps
[kocdaniel@hadoop104 hadoop-2.7.2]$ hadoop-daemon.sh start datanode
[kocdaniel@hadoop104 hadoop-2.7.2]$ jps
3237 Jps
3163 DataNode
复制代码
配置ssh
免密ssh配置
在配置namenode的主机hadoop102上生成私钥和公钥
/home/用户名/.ssh/
[kocdaniel@hadoop102 .ssh]$ ssh-keygen -t rsa
复制代码
[kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop103
[kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop104
# 注意:ssh访问本身也须要输入密码,因此咱们须要将公钥也拷贝给102
[kocdaniel@hadoop102 .ssh]$ ssh-copy-id hadoop102
复制代码
一样,在配置resourcemanager的主机hadoop103上执行一样的操做,而后就能够群起集群了
配置slaves
hadoop安装目录/etc/hadoop/
[kocdaniel@hadoop102 hadoop]$ vim slaves
# 注意结尾不能有空格,文件中不能有空行
hadoop102
hadoop103
hadoop104
复制代码
[kocdaniel@hadoop102 hadoop]$ xsync slaves
复制代码
启动集群
[kocdaniel@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
# 查看启动结果,和集群规划(配置文件中)的一致
[atguigu@hadoop102 hadoop-2.7.2]$ jps
4166 NameNode
4482 Jps
4263 DataNode
[atguigu@hadoop103 hadoop-2.7.2]$ jps
3218 DataNode
3288 Jps
[atguigu@hadoop104 hadoop-2.7.2]$ jps
3221 DataNode
3283 SecondaryNameNode
3364 Jps
复制代码
# 注意:NameNode和ResourceManger若是不是同一台机器,不能在NameNode上启动 YARN,应该在ResouceManager所在的机器上启动YARN
[kocdaniel@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh
复制代码
web端查看相关信息