hadoop-3.2.0------>入门五 伪分布式 WordCount实例

     一、点击页面,查看文件夹

                 二、在根目录下建立文件夹(命令:bin/hdfs dfs -mkdir -p /user/root/input),建立完成以后咱们能够看到页面上显示出咱们全部的文件夹。

                                bin/hdfs dfs:固定写法linux

                                -mkdir:建立文件夹服务器

                                 -p:多级目录oop

                                /user/root/input:目录地址spa

                    

                 三、查看咱们所建立的文件夹,在hdfs中,(命令:bin/hdfs dfs -ls /)

                            

                  四、将文件上传至hdfs咱们所建立的文件夹中

                                命令:bin/hdfs dfs -put wcinput/wc.input     /user/root/input
                                bin/hdfs dfs:固定写法3d

                                 -put:上传blog

                                wcinput/wc.input:文件路径及文件名hadoop

                                /user/root/input:上传至hdfs服务器中的文件夹路径ci

                  五、在页面中查看上传的文件

                    

                  六、输入命令 bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar wordcount  /user/root/input  /user/root/output

                                bin/hadoop jar:执行一个jar文件input

                                share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.0.jar :文件所在的目录    examples由于加s了确定是多个案例文件上传

                                wordcount :由于examples是多个案例咱们这里执行的是wordcount 案例

                                /user/root/input:输入文件夹

                                /user/root/output:输出文件夹,名字能够随意取,通常会以执行的文件名字+output命名

                               注意:这里的output文件夹不能存在,若是存在将会报错,在执行命令时会自动建立wcoutput 文件夹

                    

                  七、去页面上查看有没有执行成功,从下图能够看到咱们的output文件夹已经出现。

                  八、点进去能够看到有两个文件分别是_SUCCESS和part-r-00000。

                  九、能够点击part-r-00000文件名字进行下载,下载到本地,查看里面的内容。

                       

                 十、一样咱们也能够在linux系统中进行查看,命令(bin/hdfs dfs -cat /user/root/output/p*)

                                

                        

相关文章
相关标签/搜索