groupadd hadoop 添加一个组 useradd hadoop -g hadoop 添加用户
将编译好的hadoop文件上传至工做目录,我这里是/opt目录html
hadoop也要设置环境变量,使用vi /etc/profile命令编辑添加以下内容:java
export HADOOP_HOME=/opt/hadoop export PATH=$HADOOP_HOME/bin:$PATH
一样也要执行source /etc/profile使配置文件生效,而后执行命令使用命令chown -R hadoop:hadoop hadoop/将其全部者改成hadoopnode
1. 修改hadoop目录下的conf/hadoop-env.sh文件shell
加入java的安装路径export JAVA_HOME=/opt/java/jdkapache
2. 把hadoop目录下的conf/core-site.xml文件修改为以下:浏览器
<property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/data/tmp</value> </property>
3. 把hadoop目录下的conf/ hdfs-site.xml文件修改为以下:服务器
//由于是伪集群因此值是1,若是是集群,就是几台的值 <property> <name>dfs.replication</name> <value>1</value> </property>
4. 把hadoop目录下的conf/ mapred-site.xml文件修改为以下:分布式
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
1. 格式化分布式文件系统oop
bin/hdfs namenode -format
2. Start NameNode daemon and DataNode daemonspa
sbin/start-dfs.sh
3.执行jps若是包含一下进程就是启动成功了:
3200 SecondaryNameNode 3271 JobTracker 3370 TaskTracker 3002 NameNode 3106 DataNode 5687 Jps
启动成功以后能够用浏览器访问(NameNode后台):localhost:50070/
修改mapred-site.xml内容以下:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
修改yarn-site.xml:
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
Start ResourceManager daemon and NodeManager daemon:
sbin/start-yarn.sh
启动成功以后能够用浏览器访问(ResourceManager后台):localhost:8088/
以前在云主机上安装一直觉得官方提供的压缩包是32位,原来官网从hadoop2.5版本开始就提供了64位。坑了好几天了。
查看hadoop是32位仍是64位:
/hadoop-2.7.0/lib/native$ file libhadoop.so.1.0.0 //hadoop的native目录
官方文档:http://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/SingleCluster.html