分享知识-快乐本身:运行(wordcount)案例

运行 wordcount 案例:

一):大数据(hadoop)初始化环境搭建html

二):大数据(hadoop)环境搭建java

三):运行wordcount案例node

四):揭秘HDFSlinux

五):揭秘MapReduceapache

六):揭秘HBase编程

七):HBase编程vim

-----------------------------------------------------------------windows

Hadoop集群测试wordcount程序:

1):在bigData目录下建立wordcount文件夹eclipse

mkdir wordcount //建立文件夹

2):在wordcount文件夹下建立两个文件并输入内容oop

//建立 file1.txt
vim file1.txt
//输入内容以下:

 hello word
 hello java

//建立 file2.txt
vim file2.txt

 hello hadoop
 hello wordcount

 

3):在HDFS中建立input文件夹

hadoop fs -mkdir /input // hadoop fs :能够理解为 hadoop系统文件目录

查看建立的文件(是否存在)

4):把刚才建立的两个文件上传到HDFS中input文件夹

//上传全部以 .txt 结尾的文件
hadoop fs -put ./*.txt /input/

//查看上传的文件
hadoop fs -ls /

注意:可能存在的问题:

查看当前正在运行的相关服务:

jps  //没有规定要在哪个目录执行

1):上传过程当中可能出现如下错误:

解决方案:

查看 配置  hdfs-site.xml 节点指定的路径【 name 和 data 】目录是否自动生成了(查看主机是否存在 name 和子机器上的 data)。

小编这里是没有生成 data 目录。

有了目录还须要注意:name 和 data 目录中的 id 必须一致:(若是不一致能够修改一下 或者 删除 name data logs tem 生成的目录 从新格式化并启动集群:查看是否有相应信息)

5):运行wordcount程序

Hadoop的 jar 包中已经给咱们提供了 mapreduce 程序!都在 /bigData/hadoop-2.8.0/share/hadoop/mapreduce文件夹中!

切换到 share/hadoop/mapreduce 目录下:

cd share/hadoop/mapreduce

执行如下命令:

hadoop jar hadoop-mapreduce-examples-2.8.0.jar  wordcount /input/ /output/

 /input/ :是指须要计算文件所在的位置

 /output/:是指计算以后的结果文件存放位置

6):查看执行运算后的结果

hadoop fs -cat /output/*

Eclipse集成Hadoop插件:点我下载源码

若是eclipse是装在了真机windows系统中,须要咱们在真机上安装hadoop!(一样将 hadoop 压缩包在 windows 上解压一份:【以管理员方式运行解压】

1):配置 windows hadoop环境变量:

2):使用 hadoop  version 查看是否配置成功:

3):下载指定版本的插件:下载地址一  下载地址二

把插件放进 eclipse 安装目录下的 plugins 文件夹下

4):启动eclipse配置hadoop的安装目录

4-1):

 

4-2):

4-3):eclipse中显示插件的页面:

4-):

5):使用eclipse建立并运行wordcount程序

导入计算程序:

1):

2):

NativeIO:更改如下配置

目录结构:

右键点击WordCount====》Run As ===》Run Configuration:

java Application 上 new:

hdfs://admin:9000/input
hdfs://admin:9000/eclipseoutput

获得结果:

注意:Error 可能出现的错误...

1):有多是本机的hadoop/bin目录下缺乏hadoop.dllwinutils.exe等文件。(建议所有替换 hadoop/bin 下的全部文件。bin包在上述的下载地址中)

2):

org.apache.hadoop.security.AccessControlException: Permissiondenied: user=zhengcy, access=WRITE,inode="/user/root/output":root:supergroup:drwxr-xr-x

在集群中运行hadoop fs -chmod -R 777 /

或者

修改三个虚拟机的配置:hdfs-site.xml
添加以下配置:

 <property>
  <name>dfs.permissions</name>
  <value>false</value>
 </property>

3):

Exception in thread "main" java.lang.RuntimeException: 
java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. -see https://wiki.apache.org/hadoop/WindowsProblems

解决方式:在 WordCount类中的main 方法中添加以下配置

System.setProperty("hadoop.home.dir", "hadoop安装目录");

6):使用eclipse打成jar包发布到linux中运行

7):运行完毕以后,在eclipse中查看效果图!

 

 

点我进行下一步的操做(揭秘HDFS)

相关文章
相关标签/搜索