Spark之SparkContext

SparkContext [睡着的水-hzjs-2016.8.20]编程 1、SparkContext并发 ---一、Spark 程序在运行的时候分为Driver 和 Executors 两部分;优化 ---二、Spark 的程序编写时基于SparkContext的,集体来讲包含两方面:spa a) Spark 编程的核心基础RDD,是由SparkContext 来最初建立的(第一个RDD,必定是
相关文章
相关标签/搜索