这里重点介绍几个目录bin、conf及lib目录。node
文件名称shell |
说明oop |
hadoopthis |
用于执行hadoop脚本命令,被hadoop-daemon.sh调用执行,也能够单独执行,一切命令的核心spa |
hadoop-config.sh线程 |
Hadoop的配置文件日志 |
hadoop-daemon.shserver |
经过执行hadoop命令来启动/中止一个守护进程(daemon)。xml 该命令会被bin目录下面全部以“start”或“stop”开头的全部命令调用来执行命令,hadoop-daemons.sh也是经过调用hadoop-daemon.sh来执行优命令的,而hadoop-daemon.sh自己由是经过调用hadoop命令来执行任务。继承 |
hadoop-daemons.sh |
经过执行hadoop命令来启动/中止多个守护进程(daemons),它也是调用hadoop-daemon.sh来完成的。 |
rcc |
The Hadoop record compiler |
slaves.sh |
该命令用于向全部的slave机器上发送执行命令 |
start-all.sh |
所有启动,它会调用start-dfs.sh及start-mapred.sh |
start-balancer.sh |
启动balancer |
start-dfs.sh |
启动Namenode、Datanode及SecondaryNamenode |
start-jobhistoryserver.sh |
启动Hadoop任务历史守护线程,在须要执行历史服务的机器上执行该命令。 原文: Start hadoop job history daemons. Run this on node where history server need to run |
start-mapred.sh |
启动MapReduce |
stop-all.sh |
所有中止,它会调用stop-dfs.sh及stop-mapred.sh |
stop-balancer.sh |
中止balancer |
stop-dfs.sh |
中止Namenode、Datanode及SecondaryNamenode |
stop-jobhistoryserver.sh |
中止Hadoop任务历史守护线程 |
stop-mapred.sh |
中止MapReduce |
task-controller |
任务控制器,这不是一个文本文件,没有被bin下面的shell调用 |
文件名称 |
说明 |
capacity-scheduler.xml |
|
configuration.xsl |
|
core-site.xml |
Hadoop核心全局配置文件,能够其它配置文件中引用该文件中定义的属性,如在hdfs-site.xml及mapred-site.xml中会引用该文件的属性。 该文件的模板文件存在于$HADOOP_HOME/src/core/core-default.xml,可将模板文件拷贝到conf目录,再进行修改。 |
fair-scheduler.xml |
|
hadoop-env.sh |
Hadoop环境变量 |
hadoop-metrics2.properties |
|
hadoop-policy.xml |
|
hdfs-site.xml |
HDFS配置文件,该模板的属性继承于core-site.xml。 该文件的模板文件存在于$HADOOP_HOME/src/hdfs/hdfs-default.xml,可将模板文件拷贝到conf目录,再进行修改。 |
log4j.properties |
Log4j的日志属于文件 |
mapred-queue-acls.xml |
MapReduce的队列 |
mapred-site.xml |
MapReduce的配置文件,该模板的属性继承于core-site.xml。 该文件的模板文件存在于$HADOOP_HOME/src/mapred/mapredd-default.xml,可将模板文件拷贝到conf目录,再进行修改。 |
masters |
用于设置全部secondaryNameNode的名称或IP,每一行存放一个。若是是名称,那么设置的secondaryNameNode名称必须在/etc/hosts有ip映射配置。 |
slaves |
用于设置全部slave的名称或IP,每一行存放一个。若是是名称,那么设置的slave名称必须在/etc/hosts有ip映射配置。 |
ssl-client.xml.example |
|
ssl-server.xml.example |
|
taskcontroller.cfg |
|
task-log4j.properties |
|
存放的是Hadoop运行时依赖的的jar包,Hadoop在执行的时候会把lib目录下面的jar所有加到classpath中。若是不想经过HADOOP_CLASSPATH指定本身的JAR文件所在路径,能够把计算须要用的jar所有都拷贝到lib目录中。