复制单机版hadoop,复制三分node
使用root用户登陆linux
vi /etc/sysconfig/network-scripts/ifcfg-enp33
,将最后一行的ip地址修改(通常与主机器连号)systemctl restart network
,重启网络vi /etc/hostname
,修改主机名,三台虚拟机都要操做vi /etc/hosts
,修改主机列表(主机器也要修改)而后重启reboot,为简单演示只配三台机器,以下192.168.222.121 hadoop101 192.168.222.122 hadoop102 192.168.222.123 hadoop103
cd /root/.ssh/
,删除私钥文件: rm -rf id_rsa
,而后回到家目录: cd ~
ssh-keygen -t rsa -P ""
,输入命令后直接回车,再按回车。cat /root/.ssh/id_rsa.pub > /root/.ssh/authorized_keys
将密钥变成公钥ssh-copy-id -i .ssh/id_rsa.pub -p22 root@192.168.56.121
(有n个机器,每台机器就要配n-1次)ssh root@192.168.56.121 或 ssh root@hadoop121
,无需密码验证即当前机器对121机器免登陆配置成功(有多少台机器都要验证)cd /opt/hadoop/etc/hadoop
vi hdfs-site.xml
<configuration> <property> <--设置数据块应该被备份的份数--> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <--配置备用节点地址,这里选择的是第二台虚拟机--> <value>hadoop102:50090</value> </property> </configuration>
vi slaves
把全部节点都添加上去。hadoop101 hadoop102 hadoop103
保存并退出web
scp 当前文件名 root@传输到的主机名:传输到的地址/文件名
vi mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>当前主机名:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>当前主机名:19888</value> </property> </configuration>
hadoop namenode -format
start-all.sh
和 mr-jobhistory-daemon.sh start historyserver