hadoop上线和下线节点

在运行中的ambari hadoop集中中动态添加或删除节点node

1. 下线节点
1) namenode节点上dfs.exclude文件,看配置文件怎么配置的,里每行添加一个服务器名,如我要下线server7,server8,server9,则以下:
server7
server8web

resourcemanager节点上yarn.exclude文件里每行添加一个服务器名,如我要下线server7,server8,server9,则以下:
server7
server8

2) 选择任意一台节点执行:
hdfs dfsadmin -refreshNodes
yarn rmadmin -refreshNodes
yarn node -list服务器

3) 这时能够经过hdfs dfsadmin -report或者web界面查看该datanode状态转为Decommission In Progress。
若是节点上数据比较多,下线会比较慢,等待。
当datanode完成数据迁移时,姿态会变为Decommissioned,继续下面操做oop

4) 删除dfs.exclude中下线节点的hosts,从新刷新:
hdfs dfsadmin -refreshNodesserver

5) 删除slaves中下线节点的hostshadoop


2. 上线节点
上线节点基本与下线相同
1) slaves文件里每行添加一个上线服务器名,同时保证dfs.exclude文件为空。

2) ./hdfs dfsadmin -refreshNodesio

3) 在要上线的节点上启动datanode:
./hadoop-daemon.sh start datanodeclass

4) 如须要启动nodemanager,则执行:
./yarn-daemon.sh start nodemanager配置

5) 修改slaves,添加上线节点的hosts 配置文件