# Java Env export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_80.jdk/Contents/Home export JRE_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_80.jdk/Contents/Home/jre export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib3. 保存后,运行 source .bash_profile,使环境变量当即生效。
4. 输入 java -version 能够看到成功安装的JDK版本信息。 java
2. 修改 .bash_profile 文件配置 Hadoop 环境变量,在文件末尾添加如下内容: node
# Hadoop Env export HADOOP_HOME=/Users/jackiehff/Software/hadoop-2.6.4 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
保存后,运行 source .bash_profile, 使 Hadoop 环境变量当即生效。 linux
3. 修改 Hadoop 环境变量配置文件 etc/hadoop/hadoop-env.sh,在文件末尾添加如下内容: 浏览器
# The java implementation to use. export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_80.jdk/Contents/Home export HADOOP_PREFIX=/Users/jackiehff/Software/hadoop-2.6.44. 输入 hadoop version 能够看到成功安装的 Hadoop 版本信息。
5. 输入 hadoop 能够看到 hadoop 命令使用方法。 bash
Hadoop默认配置运行于非分布式模式中,即做为单个的 Java 进程运行,这样调试起来会很方便。下面运行一下自带的 WordCount 程序。 app
mkdir input cp etc/hadoop/*.xml input hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+'
运行过程大体以下: 框架
查看运行结果 ssh
cat outut/*运行结果以下:
由于伪分布模式下,即便全部节点都在一台机器上,Hadoop 也须要经过 ssh 登陆,这一步的目的是配置本机无密码 ssh 登陆。 分布式
验证是否能够不须要密码 ssh 到 localhost。 oop
ssh localhost
若是不行,执行以下命令:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys再次执行 ssh localhost,就无需密码。
伪分布式模式主要涉及如下配置信息:
(1) 修改 Hadoop 的核心配置文件 core-site.xml, 主要是配置 HDFS 的地址和端口号。
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/Users/jackiehff/Software/hadoop-2.6.4/tmp</value> </property> </configuration>
(2) 修改 Hadoop 中 HDFS 的配置文件 hdfs-site.xml, 主要是配置数据副本。
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
(3) 修改 Hadoop 中 MapReduce 配置文件 mapred-site.xml, 主要是配置 MapReduce 框架名称。
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
(4) 修改 Hadoop 中 YARN 的配置文件 yarn-site.xml,主要用于指定 shuffle server。
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
(1) 格式化文件系统
hdfs namenode -format(2) 启动 NameNode 和 DataNode 守护进程
start-dfs.shHadoop 守护进程日志输出写到 $HADOOP_LOG_DIR 指定的目录 (默认是 $HADOOP_HOME/logs)
输出结果以下:
16/04/11 21:38:26 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Starting namenodes on [localhost] localhost: starting namenode, logging to /Users/jackiehff/Software/hadoop-2.6.4/logs/hadoop-jackiehff-namenode-jackiehff.local.out localhost: starting datanode, logging to /Users/jackiehff/Software/hadoop-2.6.4/logs/hadoop-jackiehff-datanode-jackiehff.local.out Starting secondary namenodes [0.0.0.0] 0.0.0.0: starting secondarynamenode, logging to /Users/jackiehff/Software/hadoop-2.6.4/logs/hadoop-jackiehff-secondarynamenode-jackiehff.local.out 16/04/11 21:39:39 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable使用 jps 查看当前全部 Java 进程
能够看到 HDFS 启动成功。
(3) 浏览器访问 NameNode ,地址: http://localhost:50070/。
(4) 启动 ResourceManager 和 NodeManager 进程
start-yarn.sh输出信息以下:
starting yarn daemons starting resourcemanager, logging to /Users/jackiehff/Software/hadoop-2.6.4/logs/yarn-jackiehff-resourcemanager-jackiehff.local.out localhost: starting nodemanager, logging to /Users/jackiehff/Software/hadoop-2.6.4/logs/yarn-jackiehff-nodemanager-jackiehff.local.out使用 jps 查看当前全部 Java 进程
能够看到 NodeManager 和 ResourceManager 启动成功。
(5) 浏览器访问 ResourceManager, 地址: http://localhost:8088/。
(6) 建立执行MapReduce 任务所需的HDFS 目录。
hdfs dfs -mkdir /input(7) 拷贝输入文件到分布式文件系统
hdfs dfs -put etc/hadoop/* /input(8) 运行示例程序
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep /input output dfs'[a-z.]+'(9) 查看运行结果
hdfs dfs -cat output/*
能够在浏览器中查看相关 Job。
(9) 中止 HDFS。
stop-dfs.sh(10) 中止 YARN。
stop-yarn.sh