决定参照这个教程来安装https://blog.csdn.net/zp8126/article/details/78249741html
CentOS6.5 +JDK 1.8环境,用MobaXterm_v11.1操做node
1.首先检查jdk安装状况linux
2.下载hadoop(hadoop版本选择?)web
使用rz上传命令找不到的话要先下载,下面是成功了shell
MobaXterm使用rzhttps://blog.csdn.net/kq1983/article/details/95262378centos
貌似上传仍是不行,但直接进入目录这样上传就能够了,以下:浏览器
你看,两种方式都能看到这个安装包ssh
这里已经有了感受oop
<property>
<name>fs.default.name</name>
<!-- yang为主机名,也可使用ip-->
<value>hdfs://hadoop001:9000</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop001:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<!-- 文件临时目录,能够本身指定 -->
<value>/usr/hadoop/temp/</value>
</property>ui
格式化后
配置一直有点小问题,以前start-all.sh而后jps查看到的进程列表都只有DateNode和Jps
不懈努力地理解修改配置文件后,看下图都好了,但我不记得最后到底改的哪里弄好了。。。
hadoop web管理页面打不开,先试试http://www.javashuo.com/article/p-buexodvi-eb.html
我说我怎么一直打不开web管理页面,太傻了,是要用虚拟机中centos6.5的浏览器打开,我一本正经在那儿用Window浏览器打开。。。
我先把两文件这里改为了这样匹配的样子
瞧!
开启yarn,这里的意思是已经开启了,要再开启得先关闭,因此如今直接浏览器打开就行
结束!(那个ssh免密码登陆再弄吧)
关于hadoop集群启动后datanode没有启动问题,即jps后没有DataNodehttps://blog.csdn.net/huguihua2002/article/details/100079564
先保证hadoop集群是正确启动的,而后运行WordCount程序 https://blog.csdn.net/u012366219/article/details/78781382
上面警告的处理http://www.javashuo.com/article/p-hgenyqsb-gs.html
查看到结果
如今用IntelliJ Idea打包wordcount的mapreduce程序,而后传到装有hadoop的虚拟机系统上运行
参照此教程https://www.cnblogs.com/airnew/p/9540982.html,到要建立shell文件那里我开始有点迷糊了
而后到运行的时候又有这个问题
尝试用这个方法解决https://blog.csdn.net/weixin_34194317/article/details/86360351又有新问题
根据网友的问题解决方案,hadoop fs -rm -r /input删除这个文件夹,将执行命令反复再尝试了好几遍也不行,我执行的命令以下
hadoop fs -mkdir /input hadoop fs -put test.txt /input hadoop jar /usr/hadoop/hadoop-2.10.0/bin/WordCount.jar WordCount /input /output
放弃后继续查找经验https://blog.csdn.net/ASN_forever/article/details/81066282看到这里忽然灵感一现:路径一致+输入输出更名
确保WordCount.jar包与输入输出文件在同一层次路径下后,而后我只输入下面代码,便成功了
hadoop jar WordCount.jar /input/test.txt /output4
代码改了下,又跑了下,感受理解更深了些。
我把改后生成的WordCount.jar上传到了linux 的/wcdata文件夹中,原本这里面还又建了一个test.txt文档,但经过[root@hadoop001 wcdata]# hadoop jar WordCount.jar /input/test.txt /output命令后发现jar包虽然是使用的wcdata该文件夹中的,可是使用的输入文本却仍是/usr/hadoop/hadoop-2.10.0/test.txt这里的,而不是/wcdata/test.txt这个,有点纳闷。