spark2学习(1) 之Spark Shell

在Spark 2.0之前,Spark的主要编程接口是弹性分布式数据集(RDD)。在Spark 2.0之后,RDD被数据集取代,数据集类似于RDD一样强类型,但在底层有更丰富的优化。这里强调以下,我们使用的ambari去安装集群的,所以不描述安装的问题。 使用Spark Shell进行交互式分析 启动sparkshell    /usr/hdp/current/spark2-client/bin/s
相关文章
相关标签/搜索