【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第四步)(1)

第一步:经过Spark的shell测试Spark的工做

 

Step1:启动Spark集群,这一点在第三讲讲的极为细致,启动后的WebUI以下:web

Step2:启动Spark Shell:shell

此时能够经过以下Web控制台查看shell的状况:app

Step3:把Spark安装目录“README.md”拷贝到HDFS系统上测试

在Master节点上新启动一个命令终端,并进入到Spark安装目录下:spa

咱们把文件拷贝到HDFS的root文件夹下:orm

此时,咱们观察一下Web控制台,会发现该文件已经成功上传到HDFS上:it

Step4:在Spark shell之下操做编写代码,操做咱们上传的“README.md”:ast

首先,咱们看一下在Shell环境下的“sc”这个自动帮助咱们生产的环境变量:import

能够看出sc就是SparkContext的实例,这是在启动Spark Shell的时候系统帮助咱们自动生成的,SparkContext是把代码提交到集群或者本地的通道,咱们编写Spark代码,不管是要运行本地仍是集群都必须有SparkContext的实例。集群

接下来,咱们读取“README.md”这个文件:

咱们把读取的内容保存给了file这个变量,其实file是一个MappedRDD,在Spark的代码编写中,一切都是基于RDD操做的;

 

再接下来,咱们从读取的文件中过滤出全部的“Spark”这个词

此时生成了一个FilteredRDD;

再接下来,咱们统计一下“Spark”一共出现了多少次:

从执行结果中咱们发现“Spark”这个词一共出现了15次。

此时,咱们查看Spark Shell的Web控制台:

发现控制台中显示咱们提交了一个任务并成功完成,点击任务能够看到其执行详情:

那咱们如何验证Spark Shell对README.md这个文件中的“Spark”出现的15次是正确的呢?其实方法很简单,咱们能够使用Ubuntu自带的wc命令来统计,以下所示:

发现此时的执行结果也是15次,和Spark Shell的计数是同样同样的。

相关文章
相关标签/搜索