1、环境说明:java
操做系统:Centos6.5 Linux node1 2.6.32-431.el6.x86_64 #1 SMP Fri Nov 22 03:15:09 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux
jdk版本:java version "1.7.0_79"
hadoop版本:Apache hadoop-2.5.2node
2、下载软件:apache
从Apache官方地址http://apache.dataguru.cn/hadoop/common/hadoop-2.5.2/目录下载浏览器
hadoop-2.5.2.tar.gz
解压:
tar -zxvf hadoop-2.5.2_x64.tar.gz hadoop-2.5.2
拷贝到/usr/local/目录下:ssh
cp hadoop-2.5.2 /usr/local/
如上,至关于将hadoop安装到了/usr/local/hadoop-2.5.1目录下。分布式
3、单机版修改配置文件:oop
首先切换到hadoop安装目录下:测试
/usr/local/hadoop-2.5.2
一、修改etc/hadoop/hadoop-env.sh文件:spa
# set to the root of your Java installation export JAVA_HOME=/usr/java/jdk1.7.0_79 # Assuming your installation directory is /usr/local/hadoop-2.5.2 export HADOOP_PREFIX=/usr/local/hadoop-2.5.2
其实在原来的配置文件中已经提供了JAVA_HOME的配置,若是在系统环境变量中已经配置过的话,此处能够省略。操作系统
二、测试一下,运行bin/hadoop命令:效果以下图
三、继续测试另外一个示例:这里至关于运行了一个任务,计算结果写入到了output目录下。
$ mkdir input $ cp etc/hadoop/*.xml input $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.2.jar grep input output 'dfs[a-z.]+' $ cat output/*
4、伪分布式配置:
一、修改etc/hadoop/core-site.xml:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
二、修改etc/hadoop/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
三、配置免密码登陆以及测试:
$ ssh-keygen -t rsa #一路回车
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ ssh localhost
四、执行:
①格式化文件系统:
$ bin/hdfs namenode -format
②启动NameNode守护进程:
$ sbin/start-dfs.sh
③在浏览器中打开:http://localhost:50070/