Hadoop 2.x HDFS和YARN的启动方式

一.三种启动方式介绍

   方式一:逐一启动(实际生产环境中的启动方式)node

    hadoop-daemon.sh start|stop  namenode|datanode| journalnodessh

       yarn-daemon.sh start |stop  resourcemanager|nodemanageroop

  方式二:分开启动spa

      start-dfs.sh进程

      start-yarn.shhadoop

   方式三:一块儿启动get

     start-all.sh
 登录

二.脚本解读

start-dfs.sh脚本:配置

(1)     经过命令bin/hdfs getconf –namenodes查看namenode在那些节点上密码

(2)     经过ssh方式登陆到远程主机,启动hadoop-deamons.sh脚本

(3)     hadoop-deamon.sh脚本启动slaves.sh脚本

(4)     slaves.sh脚本启动hadoop-deamon.sh脚本,再逐一启动

start-all.sh脚本:

     说明:start-all.sh其实是调用sbin/start-dfs.sh脚本和sbin/start-yarn.sh脚本
 

三.三种启动方式的关系

start-all.sh其实调用start-dfs.sh和start-yarn.sh

start-dfs.sh调用hadoop-deamon.sh 
start-yarn.sh调用yarn-deamon.sh

以下图:

 

四.为何要设置ssh协议

当执行start-dfs.sh脚本时,会调用slaves.sh脚本,经过ssh协议无密码登录到其余节点去启动进程。

为了能自动启动远程节点的进程,须要进行免密码登陆。

 

五.采用第二种启动方式

上面已经配置好了ssh公钥登陆,接下来用第二种启动方式启动

Step1:先中止因此进程(若是已经启动)

[hadoop@hadoop-yarn hadoop-2.2.0]$sbin/yarn-daemon.sh stop nodemanager

[hadoop@hadoop-yarn hadoop-2.2.0]$sbin/yarn-daemon.sh stop resourcemanager

[hadoop@hadoop-yarn hadoop-2.2.0]$sbin/hadoop-daemon.sh stop datanode

[hadoop@hadoop-yarn hadoop-2.2.0]$sbin/hadoop-daemon.sh stop secondarynamenode

[hadoop@hadoop-yarn hadoop-2.2.0]$sbin/hadoop-daemon.sh stop namenode

Step2:启动因此进程

[hadoop@hadoop-yarn hadoop-2.2.0]$sbin/start-dfs.sh

[hadoop@hadoop-yarn hadoop-2.2.0]$ sbin/start-yarn.sh

Step3:查看管理界面

YARN: http://hadoop-yarn.dragon.org:8088/

HDFS: http://hadoop-yarn.dragon.org:50070/

相关文章
相关标签/搜索