http://www.cnblogs.com/imzye/p/5174169.htmlhtml
1、动态增长DataNodenode
一、准备新的DataNode节点机器,配置SSH互信,能够直接复制已有DataNode中.ssh目录中的authorized_keys和id_rsassh
二、复制Hadoop运行目录、hdfs目录及tmp目录至新的DataNodeoop
三、在新DataNode上启动hadoophtm
..sbin/hadoop-daemon.sh start datanode ..sbin/yarn-daemon.sh start datanode
四、在NameNode上刷新节点blog
..bin/hdfs dfsadmin -refreshNodes ..sbin/start-balancer.sh
五、为方便下次启动,能够将新DataNode的域名和ip加入/etc/hosts中ip