windows 安装hadoop

1.首先安装jdkhtml

下载jdk解压包,配置环境变量node

配置变量名JAVA_HOME,变量值: D:\jdk1.8.0_91git

 

配置变量名CLASSPATH, 变量值.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;github

 

 

 

 win10须要写真实路径,用%JAVA_HOME%,从新开机后jdk设置无效。apache

 

 

 

 2.下载hadoop(因为以前用的2.2.0,因此这次下载的仍是2.0)windows

Apache的hadoop下载地址浏览器

地址:https://archive.apache.org/dist/hadoop/common/markdown

CDH的hadoop下载地址jvm

地址:http://archive.cloudera.com/cdh5/cdh/5/oop

三、配置hadoop环境变量

变量名:HADOOP_HOME ,变量值:D:\hadoop\hadoop-2.2.0

 

 

 下载完,发现没有hadoop.dll和winutils.exe,以前搭建hbase的时候,有下载一个hadoop-common-2.2.0-bin-master,里面包含这两个文件,直接拷贝进去就能够,一开始不知道要拷贝,一直报如下错误,windows本地运行mr程序时(不提交到yarn,运行在jvm靠线程执行),hadoop.dll防止报nativeio异常、winutils.exe没有的话报空指针异常,此外,还应该将hadoop.dll拷贝到c:/windows/System32,不然启动也会报错。

winutils.exe下载地址:

https://github.com/4ttty/winutils

hadoop-env.cmd文件中设置jdk路径,正常状况以下,有的博客说要设置成D:\jdk1.8.0_91这样的路径,可是不改也能够。

 set JAVA_HONE=%JAVA_HONE%,

 

 

 4.设置hadoop配置文件,路径:D:\hadoop\hadoop-2.2.0\etc\hadoop

core-site.xml

复制代码
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>    
</configuration>
复制代码

hdfs-site.xml

复制代码
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>    
        <name>dfs.namenode.name.dir</name>    
        <value>file:/hadoop/data/dfs/namenode</value>    
    </property>    
    <property>    
        <name>dfs.datanode.data.dir</name>    
        <value>file:/hadoop/data/dfs/datanode</value>  
    </property>
</configuration>
复制代码

mapred-site.xml

复制代码
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
复制代码

yarn-site.xml

复制代码
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>
复制代码

五、进入bin目录,执行下面2条命令,先格式化namenode再启动hadoop

格式化:hadoop namenode -format
进入sbin目录而后启动:start-all.cmd
   输入jps

 

 经过jps命令能够看到4个进程都拉起来了,到这里hadoop的安装启动已经完事了。接着咱们能够用浏览器到localhost:8088看mapreduce任务,到localhost:50070->Utilites->Browse the file system看hdfs文件。若是重启hadoop无需再格式化namenode,只要stop-all.cmd再start-all.cmd就能够了。

上面拉起4个进程时会弹出4个窗口,咱们能够看看这4个进程启动时都干了啥:

 

 访问http://localhost:8088

访问http://localhost:50070

 

 

 

 到此,Hadoopan安装完毕,

参考博客:https://www.cnblogs.com/xinaixia/p/7641612.html

参考博客:http://www.javashuo.com/article/p-rotjlmkg-cq.html

目前还存在一个问题,hbase 中使用mapreduce 统计表命令时,一开始缺乏dll文件一直报nativeIO,有人说去改hadoop-common的jar包底下的nativeIO类,试过了没有用,hadoop bin中加了dll文件以后,报下面的错误,目前尚未解决,猜想是mapred-site.xml这个文件须要新增属性配置。

统计命令:hbase org.apache.hadoop.hbase.mapreduce.RowCounter  表名称

相关文章
相关标签/搜索