单机模式是Hadoop的默认模式。当首次解压Hadoop的源码包时,Hadoop没法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下全部3个XML文件均为空。当配置文件为空时,Hadoop会彻底运行在本地。由于不须要与其余节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。html
1、JDK安装与配置java
详情请见:http://www.cnblogs.com/zhangwenjing/p/3580726.htmlapache
2、Hadoop安装与配置oop
一、Hadoop下载与安装spa
地址:http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.3.0/hadoop-2.3.0.tar.gz调试
使用wget命令下载:wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.3.0/hadoop-2.3.0.tar.gzhtm
解压缩:tar -zxvf hadoop-2.3.0-src.tar.gzblog
重命名:mv hadoop-2.3.0-src hadoop进程
二、Hadoop配置内存
Hadoop配置在hadoop/etc/hadoop下,因为默认为单机模式,因此能够不作修改。现据实际状况做以下修改:
hadoop-env.sh
export JAVA_HOME=/usr/local/java/jdk1.7.0_51(JDK安装目录)
修改内存大小:export HADOOP_CLIENT_OPTS="-Xmx512m $HADOOP_CLIENT_OPTS"
三、实例运行
切换到安装目录,创建要上传到hadoop的两个文件 test1.txt、test2.txt
mkdir input
cd input
echo "hello world" > test1.txt
echo "hello hadoop" > test2.txt
运行hadoop自带的wordcount实例能够统计一批文本文件中单词出现的次数
bin/hadoop jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.3.0.jar wordcount input output
查看结果:
cat output/*