Windows10下配置Hadoop2-x环境

1.下载Hadoop并解压

下载地址node

http://hadoop.apache.org/#Download+Hadooplinux

解压到路径:apache

C:\Hadoop\hadoop-2.6.5windows

因为Hadoop在windows上支持的不如linux好,推荐有条件的话仍在Linux上配置Hadoop环境,若是仍要在Windows上使用Hadoop的话,咱们须要在Hadoop的解压路径的:"C:\Hadoop\hadoop-2.6.5\bin"路径下添加两个文件:bash

hadoop.dll、winutils.exeoop

而且将 hadoop.dll 复制到系统路径中:spa

C:\Windows\System32code

2.配置环境变量

打开:orm

个人电脑(右击选择属性)-->高级系统设置-->环境变量-->点击新建xml

添加环境变量:

HADOOP_HOME
复制代码

对应值为Hadoop安装路径:

C:\Hadoop\hadoop-2.6.5
复制代码

而后修改环境变量Path: 在尾部新添加Hadoop的bin目录(尾部没有";"则记得添加";"):

C:\Hadoop\hadoop-2.6.5\bin
复制代码

检查Hadoop环境是否配置好: 在cmd终端中输入:

hadoop version
复制代码

若是输出Hadoop的版本则环境配置完成,若出现JAVA_HOME错误则多是由于Java默认安装在"C:\Program Files\Java"路径下,出错缘由是路径"Program Files"中包含空格,这里应该修改JAVA_HOME为:"C:\Progra~1\Java\jdk1.8.0_151",即将"Program Files"修改成"Progra~1";或者将Java安装在不含空格的路径中以解决问题。

3. 修改Hadoop配置文件

在"C:\Hadoop\hadoop-2.6.5\etc\hadoop"目录下修改一下几个xml配置文件: (1)core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>    
</configuration>
复制代码

(2)hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>    
        <name>dfs.namenode.name.dir</name>    
        <value>file:/hadoop/data/dfs/namenode</value>    
    </property>    
    <property>    
        <name>dfs.datanode.data.dir</name>    
        <value>file:/hadoop/data/dfs/datanode</value>  
    </property>
</configuration>
复制代码

(3)mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
复制代码

(4)yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>
复制代码

4. 运行Hadoop(以管理员身份运行cmd终端)

(1)格式化namenode 在Hadoop路径下:

hadoop namenode -format
复制代码

所有启动:

hadoop .\sbin\start-all.cmd
复制代码

建立输入文件夹:

hadoop fs -mkdir /user/"your user name"/input    //中间须要填写window系统中注册的用户名,去C:\user\下查找
复制代码

将本身建立的文件file1复制到输入文件夹中:

hadoop fs -put file1 /user/***/input
复制代码

运行word count示例:

hadoop jar .\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.6.5.jar wordcount input outpu
复制代码

注意:这里可能会报错

Exception message: CreateSymbolicLink error (1314)

这个错误的缘由极可能是用户权限问题,使用管理员权限运行程序则可成功运行。

相关文章
相关标签/搜索