SparkConf和SparkContext

任何Spark程序都是SparkContext开始的,SparkContext的初始化需要一个SparkConf对象,SparkConf包含了Spark集群配置的各种参数。 初始化后,就可以使用SparkContext对象所包含的各种方法来创建和操作RDD和共享变量。 Scala: 1 2 3 4 val conf = new SparkConf().setMaster("master").set
相关文章
相关标签/搜索