Learning Spark——使用spark-shell运行Word Count

在hadoop、zookeeper、hbase、spark集群环境搭建 中已经把环境搭建好了,工欲善其事必先利其器,如今器已经有了,接下来就要开搞了,先从spark-shell开始揭开Spark的神器面纱。web spark-shell是Spark的命令行界面,咱们能够在上面直接敲一些命令,就像windows的cmd同样,进入Spark安装目录,执行如下命令打开spark-shell:shell
相关文章
相关标签/搜索