hadoop配置文件加载顺序

  用了一段时间的hadoop,如今回来看看源码发现别有一番味道,温故而知新,还真是这样的java

  在使用hadoop以前咱们须要配置一些文件,hadoop-env.sh,core-site.xml,hdfs-site.xml,mapred-site.xml。那么这些文件在何时被hadoop使用?node

  通常的在启动hadoop的时候使用最多就是start-all.sh,那么这个脚本都干了些什么?linux

 
start-all.sh
# Start all hadoop daemons. Run this on master node.
#特别的地方时要在master节点上启动hadoop全部进程
 
bin=`dirname "$0"`
bin=`cd "$bin"; pwd` #bin=$HADOOP_HOME/bin
 
if [ -e "$bin/../libexec/hadoop-config.sh" ]; then
. "$bin"/../libexec/hadoop-config.sh
else
. "$bin/hadoop-config.sh"
fi
 
# start dfs daemons
"$bin"/start-dfs.sh --config $HADOOP_CONF_DIR
 
# start mapred daemons
"$bin"/start-mapred.sh --config $HADOOP_CONF_DIR

 

加载hadoop-env.sh
 
  脚本先找到hadoop中的bin目录,在配置了hadoop环境变量的状况下该处可使用$HADOOP_HOME/bin直接代替。接下来是执行hadoop-config.sh,这个文件可能会在$HADOOP_HOME/libexec目录或者是$HADOOP_HOME/bin目录下,在我使用的hadoop版本中是在$HADOOP_HOME/libexec目录下,在hadoop-config.sh文件中有下面这几行脚本
 
hadoop-config.sh
if [ -f "${HADOOP_CONF_DIR}/hadoop-env.sh" ]; then
. "${HADOOP_CONF_DIR}/hadoop-env.sh"
fi

测试$HADOOP_HOME/conf/hadoop-env.sh为普通文件后,经过  . "${HADOOP_CONF_DIR}/hadoop-env.sh"执行hadoop-env.sh这个脚本,ok,咱们在hadoop-env.sh中配置的环境变量 JAVA_HOME 生效了,其实我感受这个地方彻底能够不用配置,为何?由于咱们在linux上安装hadoop确定要安装java,那么安装时确定都会配置JAVA_HOME,在/etc/profile中配置的环境变量在任何的shell进程中都生效。shell

 
加载core-*.xml,hdfs.*.xml文件
 
    执行完hadoop-config.sh命令后,执行$HADOOP_HOME/start-dfs.sh 。该脚本的做用是启动namenode,datename,secondarynamenode这三个与hdfs有关的进程
 
start-dfs.sh
# Run this on master node.
 
usage="Usage: start-dfs.sh [-upgrade|-rollback]"
 
bin=`dirname "$0"`
bin=`cd "$bin"; pwd`
 
if [ -e "$bin/../libexec/hadoop-config.sh" ]; then
. "$bin"/../libexec/hadoop-config.sh
else
. "$bin/hadoop-config.sh"
fi
 
# get arguments
if [ $# -ge 1 ]; then
nameStartOpt=$1
shift
case $nameStartOpt in
(-upgrade)
;;
(-rollback)
dataStartOpt=$nameStartOpt
;;
(*)
echo $usage
exit 1
;;
esac
fi
 
# start dfs daemons
# start namenode after datanodes, to minimize time namenode is up w/o data
# note: datanodes will log connection errors until namenode starts
"$bin"/hadoop-daemon.sh --config $HADOOP_CONF_DIR start namenode $nameStartOpt
"$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start datanode $dataStartOpt
"$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR --hosts masters start secondarynamenode

仔细看看不能发现,在start-dfs.sh中一样也会执行hadoop-config.sh,之因此有这一步,是由于咱们不老是使用start-all.sh来启动hadoop的全部进程,有时候咱们只须要使用hdfs而不须要MapReduce,此时只须要单独执行start-dfs.sh,一样hadoop-config.sh中定义的变量也会被文件系统相关进程使用,因此这里在启动namenode,datanode,secondarynamenode以前须要先执行hadoop-config.sh,同时hadoop-env.sh文件被执行。再来看看最后的三行代码,分别是启动namenode,datanode,secondarynamenode的脚本。启动hadoop后一共有5个进程,其中三个就是namenode,datanode,secondarynamenode,既然能启动进程说明对应的类中必定有main方法,看看源码就能够验证这一点,这不是重点,重点是来看看对应的类是怎么加载配置文件的。不管是namenode,仍是dataname,仍是secondarynamenode,他们在启动时都会加载core-*.xml和hdfs-*.xml文件,以org.apache.hadoop.hdfs.server.namenode.NameNode 这个类为例,其余的两个类org.apache.hadoop.hdfs.server.datanode.DataNode,org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode相似。apache

org.apache.hadoop.hdfs.server.namenode.NameNode 
public class NameNode implements ClientProtocol, DatanodeProtocol,
NamenodeProtocol, FSConstants,
RefreshAuthorizationPolicyProtocol,
RefreshUserMappingsProtocol {
static{
Configuration.addDefaultResource("hdfs-default.xml");
Configuration.addDefaultResource("hdfs-site.xml");
}
...
}

看看静态代码块里面内容,会很兴奋,看到了hdfs-default.xml和hdfs-site.xml。对重点就在这里,static code block在类加载到jvm执行类的初始化时会执行(不是对象初始化)。Configuration.addDefaultResource("hdfs-default.xml");这段代码执行前会先将Configuration这个类加载jvm中,那么看下org.apache.hadoop.conf.Configuration这个类中的static code block干了些什么app

org.apache.hadoop.conf.Configuration
static{
//print deprecation warning if hadoop-site.xml is found in classpath
ClassLoader cL = Thread.currentThread().getContextClassLoader();
if (cL == null) {
cL = Configuration.class.getClassLoader();
}
if(cL.getResource("hadoop-site.xml")!=null) {
LOG.warn("DEPRECATED: hadoop-site.xml found in the classpath. " +
"Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, "
+ "mapred-site.xml and hdfs-site.xml to override properties of " +
"core-default.xml, mapred-default.xml and hdfs-default.xml " +
"respectively");
}
addDefaultResource("core-default.xml");
addDefaultResource("core-site.xml");
}

Configuration类在类的初始化时加载了core-default.xml和core-site.xml这两个文件。这样namenode在启动的时候就加载了core-*.xml和hdfs-*.xml文件,其中core-*.xml是由Configuration这个类加载的。jvm

 
加载core-*.xml和mapred-*.xml文件
 
    执行完start-dfs.xml后,执行start-mapred.sh,该脚本和start-hdf.sh差很少。
 
start-mapred.sh
# Start hadoop map reduce daemons. Run this on master node.
 
bin=`dirname "$0"`
bin=`cd "$bin"; pwd`
 
if [ -e "$bin/../libexec/hadoop-config.sh" ]; then
. "$bin"/../libexec/hadoop-config.sh
else
. "$bin/hadoop-config.sh"
fi
 
# start mapred daemons
# start jobtracker first to minimize connection errors at startup
"$bin"/hadoop-daemon.sh --config $HADOOP_CONF_DIR start jobtracker "$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start tasktracker 

该脚本一样也会执行hadoop-config.sh,一样也会执行hadoop-env.sh。这里和start-dfs.sh是统一的。最后两行代码是启动jobtracker和tasktracker进程的。一样对应着两个类org.apache.hadoop.mapred.JobTrackerorg.apache.hadoop.mapred.TaskTrackeride

 
org.apache.hadoop.mapred.JobTracker为例,org.apache.hadoop.mapred.TaskTracker相似
org.apache.hadoop.mapred.JobTracker
public class JobTracker implements MRConstants, InterTrackerProtocol,
JobSubmissionProtocol, TaskTrackerManager, RefreshUserMappingsProtocol,
RefreshAuthorizationPolicyProtocol, AdminOperationsProtocol,
JobTrackerMXBean {
 
static{
Configuration.addDefaultResource("mapred-default.xml");
Configuration.addDefaultResource("mapred-site.xml");
}
...
}

 

ok,有了上面的解释,如今已经很明白了。JobTracker启动时加载了core-*.xml和mapred-*.xml文件,其中core-*.xml是由Configuration完成的。
 
summarize:
    使用start-all.sh启动hadoop全部的进程时,各类配置文件得加载顺序:
       HDFS:hadoop-env.sh --> core-default.xml --> core-site.xml --> hdfs-default.xml --> hdfs-site.xml
       Mapred:hadoop-env.sh --> core-default.xml --> core-site.xml --> mapred.default.xml --> mapred.site.xml
注意到一点,core-*.xml系统的文件老是优先加载,并且hadoop中5个进程都会加载,这也说明core-*.xml是公共的基础库,被你们伙共享。
    配置文件时在进程启动时加载的,这也能够证实若是修改了hadoop的配置文件,不管是系统配置文件仍是管理员配置文件,都须要从新启动进程生效。
相关文章
相关标签/搜索