本文主要从基础准备,添加DataNode和添加NodeManager三个部分详细说明在Hadoop2.6.0环境下,如何动态新增节点到集群中。
node
基础准备框架
在基础准备部分,主要是设置hadoop运行的系统环境
ssh
修改系统hostname(经过hostname和/etc/sysconfig/network进行修改)oop
修改hosts文件,将集群全部节点hosts配置进去(集群全部节点保持hosts文件统一)进程
设置NameNode(两台HA均须要)到DataNode的免密码登陆(ssh-copy-id命令实现,能够免去cp *.pub文件后的权限修改)ip
修改主节点slave文件,添加新增节点的ip信息(集群重启时使用)hadoop
将hadoop的配置文件scp到新的节点上
集群
添加DataNode登录
对于新添加的DataNode节点,须要启动datanode进程,从而将其添加入集群
基础
在新增的节点上,运行sbin/hadoop-daemon.sh start datanode便可
而后在namenode经过hdfs dfsadmin -report查看集群状况
最后还须要对hdfs负载设置均衡,由于默认的数据传输带宽比较低,能够设置为64M,即hdfs dfsadmin -setBalancerBandwidth 67108864便可
默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,咱们可将其设置为5%
而后启动Balancer,sbin/start-balancer.sh -threshold 5,等待集群自均衡完成便可
添加Nodemanager
因为Hadoop 2.X引入了YARN框架,因此对于每一个计算节点均可以经过NodeManager进行管理,同理启动NodeManager进程后,便可将其加入集群
在新增节点,运行sbin/yarn-daemon.sh start nodemanager便可
在ResourceManager,经过yarn node -list查看集群状况