Win10 下 hadoop3.0.0 单机部署

前言

因近期要作 hadoop 有关的项目,需配置 hadoop 环境,简单起见就准备进行单机部署,方便开发调试。顺便记录下采坑步骤,方便碰到一样问题的朋友们。node

安装步骤

1、下载 hadoop-XXX.tar.gz

下载地址:http://archive.apache.org/dist/hadoop/core/git

将文件解压至无空格目录下,好像时间有那么点点久。。。。。github

注:解压需管理员权限!!!apache

添加环境变量oop

添加HADOOP_HOME配置spa

在 path 中添加 bin 目录 C:\hadoop-3.0.0\bin调试

JAVA_HOMEcode

 

2、hadoop配置

一、修改C:/hadoop-3.0.0/etc/hadoop/core-site.xml配置:orm

<configuration>
<property>
    <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value>
 </property>
 <property>
  <name>hadoop.tmp.dir</name>
  <value>/C:/hadoop-3.0.0/data/tmp</value>
 </property>
</configuration>

二、修改C:/hadoop-3.0.0/etc/hadoop/mapred-site.xml配置:xml

<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
   </property>
</configuration>

三、在C:/hadoop-3.0.0目录下建立data目录,做为数据存储路径:

  • 在D:/hadoop-3.0.0/data目录下建立datanode目录;
  • 在D:/hadoop-3.0.0/data目录下建立namenode目录;

四、修改C:/hadoop-3.0.0/etc/hadoop/hdfs-site.xml配置:

<configuration>
    <!-- 这个参数设置为1,由于是单机版hadoop -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property> 
     <name>dfs.permissions</name> 
     <value>false</value> 
  </property>
   <property>
       <name>dfs.namenode.name.dir</name>
       <value>/C:/hadoop-3.0.0/data/namenode</value>
   </property>
   <property>
        <name>fs.checkpoint.dir</name>
        <value>/C:/hadoop-3.0.0/data/snn</value>
    </property>
    <property>
        <name>fs.checkpoint.edits.dir</name>
        <value>/C:/hadoop-3.0.0/data/snn</value>
    </property>
       <property>
       <name>dfs.datanode.data.dir</name>
       <value>/C:/hadoop-3.0.0/data/datanode</value>
   </property>
</configuration>

五、修改C:/hadoop-3.0.0/etc/hadoop/yarn-site.xml配置:

<configuration>
<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
   </property>
   <property>
          <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>  
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
   </property>
</configuration>

六、修改C:/hadoop-3.0.0/etc/hadoop/hadoop-env.cmd配置,添加

set JAVA_HOME=%JAVA_HOME%

set
HADOOP_PREFIX=%HADOOP_HOME% set HADOOP_CONF_DIR=%HADOOP_PREFIX%\etc\hadoop set YARN_CONF_DIR=%HADOOP_CONF_DIR% set PATH=%PATH%;%HADOOP_PREFIX%\bin

七、bin目录替换

https://github.com/steveloughran/winutils下载解压,而后找到对应的版本后完整替换bin目录便可

至此,咱们的配置就完成了

3、启动服务

一、打开cmd

cd C:\hadoop-3.0.0\bin

hdfs namenode -format

二、经过start-all.cmd启动服务:

C:\hadoop-3.0.0\sbin\start-all.cmd

而后能够看到同时打开了4个cmd窗口

  • Hadoop Namenode
  • Hadoop datanode
  • YARN Resourc Manager
  • YARN Node Manager 

经过http://127.0.0.1:8088/便可查看集群全部节点状态:

 

访问http://localhost:9870/便可查看文件管理页面:

 

总结

一次还算比较顺利的采坑,后面准备开始肝项目了 orz。。。

相关文章
相关标签/搜索