关于SparkContext

1. SparkContext是spark功能的入口,代表与spark集群的连接,能够用来在集群上创建RDD、累加器、广播变量 2. 每个JVM里只能存在一个处于激活状态的SparkContext,在创建新的SparkContext之前必须调用stop()来关闭之前的SparkContext 3. SparkConf包含了Spark集群配置的各种参数,对于一般简单应用,只需要传递下面两个参数: 集
相关文章
相关标签/搜索