hadoop集群搭建

1、目的

本文描述了如何安装、配置和管理有实际意义的Hadoop集群,其规模可从几个节点的小集群到几千个节点的超大集群。java

若是你但愿在单机上安装Hadoop玩玩,从这里能找到相关细节。node

2、先决条件

  1. 确保在你集群中的每一个节点上都安装了全部必需软件。web

  2. 获取Hadoop软件包。服务器

3、安装

安装Hadoop集群一般要将安装软件解压到集群内的全部机器上。网络

一般,集群里的一台机器被指定为 NameNode,另外一台不一样的机器被指定为JobTracker。这些机器是masters。余下的机器即做为DataNode做为TaskTracker。这些机器是slavesapp

咱们用HADOOP_HOME指代安装的根路径。一般,集群里的全部机器的HADOOP_HOME路径相同。框架

 

4、配置

接下来描述了如何配置Hadoop集群。分布式

一、配置文件

对Hadoop的配置经过conf/目录下的两个重要配置文件完成:ide

  1. hadoop-default.xml - 只读的默认配置。oop

  2. hadoop-site.xml - 集群特有的配置。

要了解更多关于这些配置文件如何影响Hadoop框架的细节,请看这里。

此外,经过设置conf/hadoop-env.sh中的变量为集群特有的值,你能够对bin/目录下的Hadoop脚本进行控制。    

二、集群配置

要配置Hadoop集群,你须要设置Hadoop守护进程的运行环境和Hadoop守护进程的运行参数

Hadoop守护进程指NameNode/DataNode 和JobTracker/TaskTracker。

2.一、配置Hadoop守护进程的运行环境

管理员可在conf/hadoop-env.sh脚本内对Hadoop守护进程的运行环境作特别指定。

至少,你得设定JAVA_HOME使之在每一远端节点上都被正确设置。

管理员能够经过配置选项HADOOP_*_OPTS来分别配置各个守护进程。 下表是能够配置的选项。

 

守护进程 配置选项
NameNode HADOOP_NAMENODE_OPTS
DataNode HADOOP_DATANODE_OPTS
SecondaryNamenode HADOOP_SECONDARYNAMENODE_OPTS
JobTracker   HADOOP_JOBTRACKER_OPTS
TaskTracker HADOOP_TASKTRACKER_OPTS

  

例如,配置Namenode时,为了使其可以并行回收垃圾(parallelGC), 要把下面的代码加入到hadoop-env.sh :    
export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}"

其它可定制的经常使用参数还包括:

  • HADOOP_LOG_DIR - 守护进程日志文件的存放目录。若是不存在会被自动建立。

  • HADOOP_HEAPSIZE - 最大可用的堆大小,单位为MB。好比,1000MB。 这个参数用于设置hadoop守护进程的堆大小。缺省大小是1000MB。

 

2.二、配置Hadoop守护进程的运行参数

这部分涉及Hadoop集群的重要参数,这些参数在conf/hadoop-site.xml中指定。

参数 取值 备注
fs.default.name   NameNode的URI。 hdfs://主机名/
mapred.job.tracker JobTracker的主机(或者IP)和端口。 主机:端口
dfs.name.dir   NameNode持久存储名字空间及事务日志的本地文件系统路径。 当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到全部目录中作冗余备份。
dfs.data.dir   DataNode存放块数据的本地文件系统路径,逗号分割的列表。 当这个值是逗号分割的目录列表时,数据将被存储在全部目录下,一般分布在不一样设备上。
mapred.system.dir   Map/Reduce框架存储系统文件的HDFS路径。好比/hadoop/mapred/system/。   这个路径是默认文件系统(HDFS)下的路径, 须从服务器和客户端上都可访问。
mapred.local.dir   本地文件系统下逗号分割的路径列表,Map/Reduce临时数据存放的地方。 多路径有助于利用磁盘i/o。
mapred.tasktracker.{map|reduce}.tasks.maximum   某一TaskTracker上可运行的最大Map/Reduce任务数,这些任务将同时各自运行。 默认为2(2个map和2个reduce),可依据硬件状况更改。
dfs.hosts/dfs.hosts.exclude   许可/拒绝DataNode列表。 若有必要,用这个文件控制许可的datanode列表。
mapred.hosts/mapred.hosts.exclude   许可/拒绝TaskTracker列表。 若有必要,用这个文件控制许可的TaskTracker列表。

 

一般,上述参数被标记为 final 以确保它们不被用户应用更改。

2.三、现实世界的集群配置

这节罗列在大规模集群上运行sort基准测试(benchmark)时使用到的一些非缺省配置。

      运行sort900的一些非缺省配置值,sort900即在900个节点的集群上对9TB的数据进行排序:

参数 取值 备注
dfs.block.size   134217728 针对大文件系统,HDFS的块大小取128MB。
dfs.namenode.handler.count   40 启动更多的NameNode服务线程去处理来自大量DataNode的RPC请求。
mapred.reduce.parallel.copies 20 reduce启动更多的并行拷贝器以获取大量map的输出。
mapred.child.java.opts -Xmx512M   为map/reduce子虚拟机使用更大的堆。
fs.inmemory.size.mb   200 为reduce阶段合并map输出所需的内存文件系统分配更多的内存。
io.sort.factor 100 文件排序时更多的流将同时被归并。
io.sort.mb   200 提升排序时的内存上限。

      运行sort1400和sort2000时须要更新的配置,即在1400个节点上对14TB的数据进行排序和在2000个节点上对20TB的数据进行排序:

参数 取值 备注
mapred.job.tracker.handler.count   60 启用更多的JobTracker服务线程去处理来自大量TaskTracker的RPC请求。
mapred.reduce.parallel.copies     50
tasktracker.http.threads 50 为TaskTracker的Http服务启用更多的工做线程。reduce经过Http服务获取map的中间输出。
mapred.child.java.opts     -Xmx1024M 使用更大的堆用于maps/reduces的子虚拟机

2.四、Slaves

一般,你选择集群中的一台机器做为NameNode,另一台不一样的机器做为JobTracker。余下的机器即做为DataNode又做为TaskTracker,这些被称之为slaves

在conf/slaves文件中列出全部slave的主机名或者IP地址,一行一个。

2.五、日志

Hadoop使用Apache log4j来记录日志,它由Apache Commons Logging框架来实现。编辑conf/log4j.properties文件能够改变Hadoop守护进程的日志配置(日志格式等)。

2.六、历史日志

做业的历史文件集中存放在hadoop.job.history.location,这个也能够是在分布式文件系统下的路径,其默认值为${HADOOP_LOG_DIR}/history。jobtracker的web UI上有历史日志的web UI连接。

历史文件在用户指定的目录hadoop.job.history.user.location也会记录一份,这个配置的缺省值为做业的输出目录。这些文件被存放在指定路径下的“_logs/history/”目录中。所以,默认状况下日志文件会在“mapred.output.dir/_logs/history/”下。若是将hadoop.job.history.user.location指定为值none,系统将再也不记录此日志。

用户可以使用如下命令在指定路径下查看历史日志汇总  
$ bin/hadoop job -history output-dir    
这条命令会显示做业的细节信息,失败和终止的任务细节。    
关于做业的更多细节,好比成功的任务,以及对每一个任务的所作的尝试次数等能够用下面的命令查看    
$ bin/hadoop job -history all output-dir

一但所有必要的配置完成,将这些文件分发到全部机器的HADOOP_CONF_DIR路径下,一般是${HADOOP_HOME}/conf。

5、Hadoop的机架感知

HDFS和Map/Reduce的组件是可以感知机架的。

NameNode和JobTracker经过调用管理员配置模块中的APIresolve来获取集群里每一个slave的机架id。该API将slave的DNS名称(或者IP地址)转换成机架id。使用哪一个模块是经过配置项topology.node.switch.mapping.impl来指定的。模块的默认实现会调用topology.script.file.name配置项指定的一个的脚本/命令。 若是topology.script.file.name未被设置,对于全部传入的IP地址,模块会返回/default-rack做为机架id。在Map/Reduce部分还有一个额外的配置项mapred.cache.task.levels,该参数决定cache的级数(在网络拓扑中)。例如,若是默认值是2,会创建两级的cache- 一级针对主机(主机 -> 任务的映射)另外一级针对机架(机架 -> 任务的映射)。

6、启动Hadoop

       启动Hadoop集群须要启动HDFS集群和Map/Reduce集群。

格式化一个新的分布式文件系统:  
$ bin/hadoop namenode -format

在分配的NameNode上,运行下面的命令启动HDFS:  
$ bin/start-dfs.sh

bin/start-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在全部列出的slave上启动DataNode守护进程。

在分配的JobTracker上,运行下面的命令启动Map/Reduce:  
$ bin/start-mapred.sh

bin/start-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在全部列出的slave上启动TaskTracker守护进程。

7、中止Hadoop

在分配的NameNode上,执行下面的命令中止HDFS:  
$ bin/stop-dfs.sh

bin/stop-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在全部列出的slave上中止DataNode守护进程。

在分配的JobTracker上,运行下面的命令中止Map/Reduce:  
$ bin/stop-mapred.sh

bin/stop-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在全部列出的slave上中止TaskTracker守护进程。

相关文章
相关标签/搜索