1、编译
html
1.安装jdk,而且配置好环境变量。
node
2.eclipse已经下载而且配置好了。linux
3.安装ant,而且配置好了环境变量。git
4.hadoop包在windows本地已经有了,要和hadoop集群上的hadoop包同样,eclipse运行MapReduce时须要调用本地的hadoop包。github
5.下载hadoop2x-eclipse-plugin源代码,目前hadoop2的eclipse-plugins源代码由github脱管,下载地址是:https://github.com/winghc/hadoop2x-eclipse-plugin,而后在右侧的Download ZIP链接点击下载,而且解压hadoop2x-eclipse-plugin-master.zip。shell
6.这一步尽可能先不作,能直接编译成功最好,由于有些时候去掉这个会出点问题。有些时候换个网络可能就会编译成功了。切换到hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin 目录,修改build.xml文件,找到windows
<target name="compile" depends="init, ivy-retrieve-common" unless="skip.contrib">
去掉depends="init, ivy-retrieve-common",修改成以下内容:网络
<target name="compile" unless="skip.contrib">
7.编译hadoop-eclipse-plugin插件,打开命令行cmd,切换到hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin 目录,执行命令:less
ant jar -Dversion=2.6.0 -Declipse.home=E:\programs\eclipse -Dhadoop.home=E:\programs\hadoop-2.6.0
执行的时候出现过找不到build目录,后面从新执行一下又能够,想不通为何。eclipse
8.找到编译的包,在hadoop2x-eclipse-plugin-master\build\contrib\eclipse-plugin目录下。
参考文章:windows编译hadoop 2.x Hadoop-eclipse-plugin插件
2、配置
安装好了hadoop插件以后,就是配置使用hadoop插件了,除了在linux要安装hadoop,在咱们的eclipse开发电脑上也须要有hadoop的安装目录,并且版本必须和集群上同样。
参考文章:Hadoop集群(第7期)_Eclipse开发环境设置,拉到“2.4 Eclipse插件开发配置”这一小节,第二步开始,第一步能够省略。
新建Map/Reduce locations的配置
Map/Reduce(V2) Master
hadoop1.x:和mapred-site.xml的mapreduce.jobtracker.address对应。
hadoop2.x:和hdfs-site.xml的mapred.job.tracker.http.address对应。
注意:有些时候Map/Reduce(V2) Master的端口配错了,同样能够在eclipse运行程序。
DFS Master
hadoop1.x:和core-site.xml的fs.default.name对应。
hadoop2.x:和hdfs-site.xml的dfs.namenode.rpc-address对应。