对于Spark开发人员来讲,了解stage的划分算法能够让你知道本身编写的spark application被划分为几个job,每一个job被划分为几个stage,每一个stage包括了你的哪些代码,只有知道了这些以后,碰到某个stage执行特别慢或者报错,你才能快速定位到对应的代码,对其进行性能优化和排错。算法
接着上期内核源码(五)的最后,每一个action操做最终会调用SparkContext初始化时建立的DAGSchedule的runJob方法建立一个job:性能优化
那么这一篇就咱们来探究一下每一个job中stage究竟是如何划分的app
dagScheduler.runJob(rdd, cleanedFunc, partitions, callSite, allowLocal, resultHandler, localProperties.get)oop
val waiter = submitJob(rdd, func, partitions, callSite, allowLocal, resultHandler, properties)post
eventProcessLoop.post(JobSubmitted( jobId, rdd, func2, partitions.toArray, allowLocal, callSite, waiter, properties))性能
new DAGSchedulerEventProcessLoop(this)优化
dagScheduler.handleJobSubmitted(jobId, rdd, func, partitions, allowLocal, callSite, listener, properties)this
跳转了这么多,咱们终于找到了DAGScheduler的job调度核心入口handleJobSubmitted
方法,该方法总共分为五步完成stage的划分和提交。spa
finalStage = newStage(finalRDD, partitions.size, None, jobId, callSite)
使用触发job的最后一个rdd建立finalStage3d
val job = new ActiveJob(jobId, finalStage, func, partitions, callSite, listener, properties)
用finalStage建立一个job
submitStage(finalStage)
stage划分算法重点!递归寻找父Stage!
val missing = getMissingParentStages(stage).sortBy(_.id)
获取当前stage的父stage
submitMissingTasks(stage, jobId.get)
提交某一个stage
val locs = getPreferredLocs(stage.rdd, id)
给每一个partition建立一个ShuffleMapTask或ResultTask(最后一个stage),并计算其运行的最佳位置
重要知识点
对于每一种有shuffle的操做,例如:groupByKey、reduceByKey、countByKey等,底层都对应了三个RDD: