参考:http://blog.sina.com.cn/s/blog_62186b4601012acs.htmljavascript
HDFS 测试文件:php
测试结果:html
详细配置参考它的原文:java
Hadoop版本:hadoop-0.20.2
Eclipse版本:eclipse-java-helios-SR2-linux-gtk.tar.gzpython
========================安装eclipse=======================linux
一、首先下载eclipse,我下载的是:eclipse-java-helios-SR2-linux-gtk.tar.gzios
二、安装eclipse
(1)把eclipse-java-helios-SR2-linux-gtk.tar.gz解压到某个目录中,我解压到的是/home/wangxing/Development,获得eclipse目录c++
(2)在/usr/bin目录下建立一个启动脚本eclipse,执行下面的命令来建立:
sudo gedit /usr/bin/eclipseapache
而后在该文件中添加如下内容:
#!/bin/sh
export MOZILLA_FIVE_HOME="/usr/lib/mozilla/"
export ECLIPSE_HOME="/home/wangxing/Development/eclipse"
$ECLIPSE_HOME/eclipse $*app
(3)修改该脚本的权限,让它变成可执行,执行下面的命令:
sudo chmod +x /usr/bin/eclipse
三、在Applications(应用程序)菜单上添加一个图标
sudo gedit /usr/share/applications/eclipse.desktop
而后在文件中添加下列内容:
[Desktop Entry]
Encoding=UTF-8
Name=Eclipse Platform
Comment=Eclipse IDE
Exec=eclipse
Icon=/home/wangxing/Development/eclipse/icon.xpm
Terminal=false
StartupNotify=true
Type=Application
Categories=Application;Development;
========================安装hadoop============================
关于hadoop在Linux下伪分布式的安装详见:http://blog.sina.com.cn/s/blog_62186b4601011c6a.html
========================在eclipse配置hadoop====================
1.在eclipse上安装hadoop插件
复制 hadoop安装目录/contrib/eclipse-plugin/hadoop-0.20.203.0-eclipse-plugin.jar 到eclipse安装目录/plugins/ 下
2.重启eclipse,配置hadoop installation directory。
若是安装插件成功,打开Window-->Preferens,你会发现Hadoop Map/Reduce选项,在这个选项里你须要配置Hadoop installation directory。配置完成后退出。
3.配置Map/Reduce Locations
在Window-->Show View中打开Map/Reduce Locations,在Map/Reduce Locations中新建一个Hadoop Location。在这个View中,右键-->New Hadoop Location。在弹出的对话框中你须要配置Location name,如Hadoop,还有Map/Reduce Master和DFS Master。这里面的Host、Port分别为你在mapred-site.xml、core-site.xml中配置的地址及端口。如:
本人hadoop的配置详见:http://www.oschina.net/code/snippet_176897_7976
4.新建项目。
File-->New-->Other-->Map/Reduce Project,项目名能够随便取,如WordCount。
复制 hadoop安装目录/src/example/org/apache/hadoop/examples/WordCount.java到刚才新建的项目WordCount下,删除WordCount.java首行package
5.在本地新建word.txt,内容为:
java c++ python cjava c++ javascript helloworld hadoopmapreduce java hadoop hbase
6.经过hadoop的命令在HDFS上建立/tmp/workcount目录,命令以下:
bin/hadoop fs -mkdir /tmp/wordcount
经过copyFromLocal命令把本地的word.txt复制到HDFS上,命令以下:
bin/hadoop fs -copyFromLocal /home/wangxing/Development/eclipseWorkspace/word.txt /tmp/wordcount/word.txt
7.运行项目
(1).在新建的项目Hadoop,点击WordCount.java,右键-->Run As-->Run Configurations
(2).在弹出的Run Configurations对话框中,点Java Application,右键-->New,这时会新建一个application名为WordCount
(3).配置运行参数,点Arguments,在Program arguments中输入你要传给程序的输入文件夹和你要求程序将计算结果保存的文件夹,如:
hdfs://localhost:9000/tmp/wordcount/word.txt hdfs://localhost:9000/tmp/wordcount/out
(4)点击Run,运行程序
过段时间将运行完成,等运行结束后,查看例子的输出结果,使用命令:
bin/hadoop fs -ls /tmp/wordcount/out
发现有两个文件夹和一个文件,使用命令查看part-r-00000里的运行结果:
bin/hadoop fs -cat /tmp/wordcount/out/part-r-00000