前言* Hadoop是Apache开源组织的一个分布式计算开源框架,在不少大型网站上都已经获得了应用,如亚马逊、Facebook和Yahoo等等。对于我来讲,最近的一个使用点就是服务集成平台的日志分析。服务集成平台的日志量将会很大,而这也正好符合了分布式计算的适用场景(日志分析和索引创建就是两大应用场景)。html
今天咱们来实际搭建一下Hadoop 2.2.0版,实战环境为目前主流服务器操做系统CentOS 5.8系统。java
1、实战环境node
1linux 2apache 3服务器 4oracle 5框架 6dom |
|
2、系统准备
一、Hadoop能够从Apache官方网站直接下载最新版本Hadoop2.2。官方目前是提供了linux32位系统可执行文件,因此若是须要在64位系统上部署则须要单独下载src 源码自行编译。(若是是真实线上环境,请下载64位hadoop版本,这样能够避免不少问题,这里我实验采用的是32位版本)
Hadoop下载地址
http://apache.claz.org/hadoop/common/hadoop-2.2.0/
Java 下载下载
http://www.oracle.com/technetwork/java/javase/downloads/index.html
二、咱们这里采用三台CnetOS服务器来搭建Hadoop集群,分别的角色如上已经注明。
第一步:咱们须要在三台服务器的/etc/hosts里面设置对应的主机名以下(真实环境能够使用内网DNS解析)
[root@node1 hadoop]# cat /etc/hosts
1 2 3 4 5 6 |
|
(注* 咱们须要在namenode、datanode三台服务器上都配置hosts解析)
第二步:从namenode上无密码登录各台datanode服务器,须要作以下配置:
1 2 3 4 |
|
3、Java安装配置
1 2 3 4 5 |
|
保存退出便可,而后执行source /etc/profile 生效。在命令行执行java -version 以下表明JAVA安装成功。
1 2 3 4 |
|
(注* 咱们须要在namenode、datanode三台服务器上都安装Java JDK版本)
4、Hadoop版本安装
官方下载的hadoop2.2.0版本,不用编译直接解压安装就能够使用了,以下:
第一步解压:
1 2 |
|
第二步配置变量:
1 2 3 4 5 |
|
5、配置Hadoop
在namenode上配置,咱们须要修改以下几个地方:
一、修改vi /data/hadoop/etc/hadoop/core-site.xml 内容为以下:
1 2 3 4 5 6 7 8 9 10 11 12 13 |
|
二、修改vi /data/hadoop/etc/hadoop/mapred-site.xml内容为以下:
1 2 3 4 5 6 7 8 |
|
三、修改vi /data/hadoop/etc/hadoop/core-site.xml内容为以下:
1 2 3 4 5 6 7 8 9 10 11 12 13 |
|
四、修改 vi /data/hadoop/etc/hadoop/masters文件内容为以下:
1 |
|
五、修改vi /data/hadoop/etc/hadoop/slaves文件内容为以下:
1 2 |
|
如上配置完毕,以上的配置具体含义在这里就不作过多的解释了,搭建的时候不明白,能够查看一下相关的官方文档。
如上namenode就基本搭建完毕,接下来咱们须要部署datanode,部署datanode相对简单,执行以下操做便可。
1 |
|
自此整个集群基本搭建完毕,接下来就是启动hadoop集群了。
6、启动hadoop并测试
在启动hadoop以前,咱们须要作一步很是关键的步骤,须要在namenode上执行以下命令初始化name目录和数据目录。
1 |
|
那如何算初始化成功呢,以下截图成功建立name目录即正常:
而后启动hadoop全部服务,以下命令:
1 |
|
咱们还能够查看相应的端口是否启动:netstat -ntpl
访问以下地址:http://192.168.149.128:50070/
访问地址:http://192.168.149.128:8088/