首先查看hadoop进程。java
jpsoop
说明只有一个进程,hadoop没启动spa
启动hadoop进程3d
start-dfs.shblog
start-yarn.sh进程
出现以下进程说明hadoop启动成功hadoop
在以下目录建立一个data.txt文件input
里面随便输入一些英文字符。就像我刚才输入的同样文件上传
进入hadoop目录map
.在云端建立一个/data/input的文件夹结构
bin/hdfs dfs -mkdir -p /data/input
把data.txt文件上传到云端,
bin/hdfs dfs -put data.txt /data/input
查看云端的/data/input文件夹下面有哪些文件
bin/hdfs dfs -ls /data/input
这个就是咱们上传的data.txt文件
运行share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar这个java程序,调用wordcount方法
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /data/input/data.txt /data/out/data
后面出现这些说明成功
查看结果
bin/hdfs dfs -cat /data/out/data/part-r-00000
成功