简介:目前业界主流存储与分析平台以Hadoop为主的开源生态圈,MapReduce做为Hadoop的数据集的并行运算模型,除了提供Java编写MapReduce任务外,还兼容了Streaming方式,能够使用任意脚本语言来编写MapReduce任务,优势是开发简单且灵活。java
yum安装方式:yum install -y java-1.6.0-openjdk* 配置Java环境变量:vi /etc/profile JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.41.x86_64 JRE_HOME=$JAVA_HOME/jre CLASS_PATH=::$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin export JAVA_HOME JRE_HOME CLASS_PATH PATH 使配置文件生效:source /etc/profile
export JAVA_HOME=/usr/lib/jvm/java-1.6.0-openjdk-1.6.0.41.x86_64
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/data/tmp/hadoop-${user.name}</value> </property> <property> <name>fs.default.name</name> <value>hdfs://192.168.1.1:9000</value> </property> </configuration>
<configuration> <property> <name>dfs.name.dir</name> <value>/data/tmp/name</value> </property> <property> <name>dfs.data.dir</name> <value>/data/hdfs/data</value> </property> <property> <name>dfs.datanode.max.xcievers</name> <value>4096</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> </configuration>
<configuration> <property> <name>mapred.job.tracker</name> <value>192.168.1.1:9001</value> </property> </configuration>
masters文件node
192.168.1.1
slaves文件jvm
192.168.1.1 192.168.1.2 192.168.1.3
master主机tcp
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50030 -j ACCEPT iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50070 -j ACCEPT iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 9000 -j ACCEPT iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 90001 -j ACCEPT
Slave主机ide
iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50075 -j ACCEPT iptables -I INPUT -s 192.168.1.0/24 -p tcp --dport 50060 -j ACCEPT iptables -I INPUT -s 192.168.1.1 -p tcp --dport 50010 -j ACCEPT
./bin/start-all.sh
所示结果以下,表示启动成功oop
./bin/hadoop jar hadoop-examples-1.2.1.jar pi 10 100
所示结果以下,表示配置成功测试
Map/Reduce管理地址:192.168.1.1:50030
HDFS管理地址:192.168.1.1:50070大数据