Hadoop和Spark集群中某台工做机崩溃后如何重启?

Hadoop和Spark集群中某台工做机崩溃后如何重启?node


工做机是hadoop集群的datanode,Spark集群的worker。ide


只须要在机器重启后,oop

1、链接hadoop集群spa

bin/hadoop-daemon.sh start datanode     //启动数据节点
bin/hadoop-daemon.sh start tasktracker  //启动任务管理器
此时再在master上使用 ./hadoop dfsadmin -report   是就会发现这些节点已经启动起来 。orm


2、链接spark集群hadoop

start-slave.sh  spark://master:7077
it

ok了!spark

相关文章
相关标签/搜索