Hadoop和Spark集群中某台工做机崩溃后如何重启?node
工做机是hadoop集群的datanode,Spark集群的worker。ide
只须要在机器重启后,oop
1、链接hadoop集群spa
bin/hadoop-daemon.sh start datanode //启动数据节点
bin/hadoop-daemon.sh start tasktracker //启动任务管理器
此时再在master上使用 ./hadoop dfsadmin -report 是就会发现这些节点已经启动起来 。orm
2、链接spark集群hadoop
start-slave.sh spark://master:7077
it
ok了!spark