Spark核心 2 RDD编程

之前我们把RDD讲解了一下,这篇文章就进行简单的使用 这里例用官方文档进行解读:http://spark.apache.org/docs/latest/rdd-programming-guide.html 在IDEA中创建Spark应用程序 在IDEA中添加了spark以后,我们就可以在spark classes 中添加依赖了: import org.apache.spark.SparkConte
相关文章
相关标签/搜索