本文介绍如何在Linux下安装伪分布式的hadoop开发环境。java
在一开始想利用cgywin在 windows下在哪, 可是一直卡在ssh的安装上。因此最后换位虚拟机+ubuntu安装。node
选择的版本是hadoop 2.7.2 安装步骤虽然简单,可是中间遇到的小问题仍是比较多的,总结下安装hadoop主要分为3大部:linux
注意几点:web
否则localhost的时候报 permission deniedubuntu
下载好hadoop,解压完毕。
在伪分布式下须要配置以下几个文件, 他们都在etc/hadoop下vim
<configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration>
<configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/home/sld/app/hadoop-2.7.2/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/sld/app/hadoop-2.7.2/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/sld/app/hadoop-2.7.2/tmp/dfs/data</value> </property> </configuration>
export JAVA_HOME=“你的JDK安装地址”windows
注意一点的是就是在环境变量中设置的了JDK的路径这里还要设置
注意另一点: 输出路径最好设置到hadoop目录下, 部分在格式化的时候无法格式化到oracle
在启动Hadoop前,需格式化Hadoop的文件系统HDFS(这点与Windows是同样的,从新分区后的卷老是须要格式化的)。进入Hadoop文件夹,输入下面的命令app
bin/hadoop namenode -format
而后启动ssh
sbin/start-all.sh
也能够只启动 hdfs
sbin/start-hdfs.sh
若是要关闭hadoop能够用
sbin/stop-hdfs.sh
利用jps命令查看java的进程
SecondaryNameNode DataNode NameNode NodeManager ResourceMananger
若是缺失 DataNode或者 NameNode 说明 hdfs-site.xml 没有配置好。从新配置+格式化+启动
Hadoop 启动之后会有两个地址能够方位:
http://localhost:50030 (MapReduce的Web页面) http://localhost:50070 (HDFS的Web页面)
而后
curl http://localhost::50070
也能够在虚拟机外面方位:
http://192.168.20.129:50070