1. 安装准备apache
(1)必须安装jdk:浏览器
由于hadoop是基于Java实现的,全部必须安装jdkoop
是JDK不是jre测试
jdk1.7spa
jdk1.83d
(2)系统位数xml
(3)建立专用用户blog
useradd hadoophadoop
passwd hadoop get
为hadoop用户授予将要使用的文件夹权限
使用的文件夹有安装文件夹、数据存放文件夹(能够自定义)。
ps:lz放在了home/hadoop文件夹
2. hadoop下载
推荐下载二进制(binary)不须要本身编译。hadoop2.8.4大约230M
ps:Linux下直接运行下载:wget http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.8.4/hadoop-2.8.4.tar.gz
解压
tar xzf hadoop-2.8.4.tar.gz
hadoop目录几个以下
先记住这三个文件便可
3. hadoop配置
3.1添加hadoop环境
在hadoop用户下配置hadoop环境(只对hadoop用户有效)
在hadoop的环境变量配置文件中添加下面代码
ps:最后一行PATH=...原本就有的,只要用冒号(英文)分割,加入新加入的环境变量名称便可。(相似win中path,使用分号分隔的状况)
从新加载环境变量配置文件
测试是否成功:
hadoop version
3.2 配置hadoop-env.sh
位置:在hadoop/etc/hadoop下
加入Java的路径
ps:建议使用决路径,不推荐使用${JAVA_HOME},lz使用这种hadoop找不到JAVA_HOME 。(多是个别缘由)
3.3 配置core-site.xml文件
写入下列内容
ps:hadoop用户必要有临时目录读写权限,最好全部者是hadoop
ps:确保端口被占用
3.4 配置hdfs-site,xml
写入冗余份数,默认3份。
3.5 配置mapred-site.xml
使用mapred-site.xml.template模板复制获得mapred-site.xml
进行配置
3.6配置yarn-site.xml
4启动hadoop
4.1.格式化
失败缘由分析:
权限问题
Java环境变量
4.2 启动hdfs
须要入三次密码hadoop帐户密码
4.3 启动 yarm
使用jps查看是否启动成功
4.4浏览器查看
Linux机器上使用浏览器查看
5.总结
出现失败的缘由主要是hadoop的权限和Java问题