针对启动hadoop后, 再启动spark , slave节点datanode消失问题

Master启动后 ,slave1和slave2 DataNode节点没有启动的问题   先停掉hadoop /usr/local/src/hadoop-2.6.5/sbin/stop-all.sh   master节点和slave1, salve2节点上 下面3个文件下清空 注意: 三个节点同时清空,不然白费 mkdir /usr/local/src/hadoop-2.6.5/tmp mkdir
相关文章
相关标签/搜索