#Hadoop环境#node
##操做系统## 我用的是Mac,其实Mac系统也是Linux的一个分支,用RedHat,CenterOS,Ubuntu等都是同样的。不建议在windows下安装Hadoopwindows
##安装前提##服务器
##获取Hadoop安装包##工具
##将下载的hadoop安装包用FTP工具上传到Linux服务器的/usr/local目录下oop
##解压hadoop压缩包操作系统
cd /usr/local/ tar -zxvf hadoop-2.3.0.tar.gz
##设置环境变量code
##修改Hadoop配置文件##orm
###修改hdfs-site.xml###xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>
###修改core-site.xmlhadoop
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop-2.3.0</value> </property> </configuration>
###修改 mapred-site.xml
<configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration>
###修改hadoop-env.sh
增长一行:(依照我的的Java安装路径填写)
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_25.jdk/Contents/Home
##至此,hadoop的安装和配置已经ok##
先格式化一下HDFS系统:
hadoop namenode -format
而后咱们能够启动hadoop了
cd /usr/local/hadoop-2.3.0/sbin
./start-all.sh
若是启动时 没有明显的报错,那么说明安装成功了。
##验证 hadoop fs -mkdir /d1 #建立的目录 hadoop fs -ls / #查看根目录