Apache Spark 的设计与实现(模块协调完成整个job)

架构

前三章从 job 的角度介绍了用户写的 program 如何一步步地被分解和执行。这一章主要从架构的角度来讨论 master,worker,driver 和 executor 之间怎么协调来完成整个 job 的运行。
实在不想在文档中贴过多的代码,这章贴这么多,只是为了方面本身回头 debug 的时候能够迅速定位,不想看代码的话,直接看图和描述便可。

部署图

从新贴一下 Overview 中给出的部署图: deploy 接下来分阶段讨论并细化这个图。

Job 提交

下图展现了driver program(假设在 master node 上运行)如何生成 job,并提交到 worker node 上执行。 JobSubmission Driver 端的逻辑若是用代码表示:
finalRDD.action()
=> sc.runJob()

// generate job, stages and tasks
=> dagScheduler.runJob()
=> dagScheduler.submitJob()
=>   dagSchedulerEventProcessActor ! JobSubmitted
=> dagSchedulerEventProcessActor.JobSubmitted()
=> dagScheduler.handleJobSubmitted()
=> finalStage = newStage()
=>   mapOutputTracker.registerShuffle(shuffleId, rdd.partitions.size)
=> dagScheduler.submitStage()
=>   missingStages = dagScheduler.getMissingParentStages()
=> dagScheduler.subMissingTasks(readyStage)

// add tasks to the taskScheduler
=> taskScheduler.submitTasks(new TaskSet(tasks))
=> fifoSchedulableBuilder.addTaskSetManager(taskSet)

// send tasks
=> sparkDeploySchedulerBackend.reviveOffers()
=> driverActor ! ReviveOffers
=> sparkDeploySchedulerBackend.makeOffers()
=> sparkDeploySchedulerBackend.launchTasks()
=> foreach task
      CoarseGrainedExecutorBackend(executorId) ! LaunchTask(serializedTask)
  代码的文字描述: 当用户的 program 调用 val sc = new SparkContext(sparkConf) 时,这个语句会帮助 program 启动诸多有关 driver 通讯、job 执行的对象、线程、actor等, 该语句确立了 program 的 driver 地位。

生成 Job 逻辑执行图

Driver program 中的 transformation() 创建 computing chain(一系列的 RDD),每一个 RDD 的 compute() 定义数据来了怎么计算获得该 RDD 中 partition 的结果,getDependencies() 定义 RDD 之间 partition 的数据依赖。

生成 Job 物理执行图

每一个 action() 触发生成一个 job,在 dagScheduler.runJob() 的时候进行 stage 划分,在 submitStage() 的时候生成该 stage 包含的具体的 ShuffleMapTasks 或者 ResultTasks,而后将 tasks 打包成 TaskSet 交给 taskScheduler,若是 taskSet 能够运行就将 tasks 交给 sparkDeploySchedulerBackend 去分配执行。

分配 Task

sparkDeploySchedulerBackend 接收到 taskSet 后,会经过自带的 DriverActor 将 serialized tasks 发送到调度器指定的 worker node 上的 CoarseGrainedExecutorBackend Actor上。

Job 接收

Worker 端接收到 tasks 后,执行以下操做
coarseGrainedExecutorBackend ! LaunchTask(serializedTask)
=> executor.launchTask()
=> executor.threadPool.execute(new TaskRunner(taskId, serializedTask))
  executor 将 task 包装成 taskRunner,并从线程池中抽取出一个空闲线程运行 task。一个 CoarseGrainedExecutorBackend 进程有且仅有一个 executor 对象。

Task 运行

下图展现了 task 被分配到 worker node 上后的执行流程及 driver 如何处理 task 的 result。 TaskExecution Executor 收到 serialized 的 task 后,先 deserialize 出正常的 task,而后运行 task 获得其执行结果 directResult,这个结果要送回到 driver 那里。可是经过 Actor 发送的数据包不易过大, 若是 result 比较大(好比 groupByKey 的 result)先把 result 存放到本地的“内存+磁盘”上,由 blockManager 来管理,只把存储位置信息(indirectResult)发送给 driver,driver 须要实际的 result 的时候,会经过 HTTP 去 fetch。若是 result 不大(小于 spark.akka.frameSize = 10MB),那么直接发送给 driver。 上面的描述还有一些细节:若是 task 运行结束生成的 directResult > akka.frameSize,directResult 会被存放到由 blockManager 管理的本地“内存+磁盘”上。 BlockManager 中的 memoryStore 开辟了一个 LinkedHashMap 来存储要存放到本地内存的数据。LinkedHashMap 存储的数据总大小不超过 Runtime.getRuntime.maxMemory * spark.storage.memoryFraction(default 0.6) 。若是 LinkedHashMap 剩余空间不足以存放新来的数据,就将数据交给 diskStore 存放到磁盘上,但前提是该数据的 storageLevel 中包含“磁盘”。
In TaskRunner.run()
// deserialize task, run it and then send the result to 
=> coarseGrainedExecutorBackend.statusUpdate()
=> task = ser.deserialize(serializedTask)
=> value = task.run(taskId)
=> directResult = new DirectTaskResult(ser.serialize(value))
=> if( directResult.size() > akkaFrameSize() ) 
       indirectResult = blockManager.putBytes(taskId, directResult, MEMORY+DISK+SER)
   else
       return directResult
=> coarseGrainedExecutorBackend.statusUpdate(result)
=> driver ! StatusUpdate(executorId, taskId, result)
  ShuffleMapTask 和 ResultTask 生成的 result 不同。 ShuffleMapTask 生成的是 MapStatus,MapStatus 包含两项内容:一是该 task 所在的 BlockManager 的 BlockManagerId(实际是 executorId + host, port, nettyPort),二是 task 输出的每一个 FileSegment 大小。 ResultTask 生成的 result 的是 func 在 partition 上的执行结果。好比 count() 的 func 就是统计 partition 中 records 的个数。因为 ShuffleMapTask 须要将 FileSegment 写入磁盘,所以须要输出流 writers,这些 writers 是由 blockManger 里面的 shuffleBlockManager 产生和控制的。
In task.run(taskId)
// if the task is ShuffleMapTask
=> shuffleMapTask.runTask(context)
=> shuffleWriterGroup = shuffleBlockManager.forMapTask(shuffleId, partitionId, numOutputSplits)
=> shuffleWriterGroup.writers(bucketId).write(rdd.iterator(split, context))
=> return MapStatus(blockManager.blockManagerId, Array[compressedSize(fileSegment)])

//If the task is ResultTask
=> return func(context, rdd.iterator(split, context))
  Driver 收到 task 的执行结果 result 后会进行一系列的操做:首先告诉 taskScheduler 这个 task 已经执行完,而后去分析 result。因为 result 多是 indirectResult,须要先调用 blockManager.getRemoteBytes() 去 fech 实际的 result,这个过程下节会详解。获得实际的 result 后,须要分状况分析, 若是是 ResultTask 的 result,那么可使用 ResultHandler 对 result 进行 driver 端的计算(好比 count() 会对全部 ResultTask 的 result 做 sum),若是 result 是 ShuffleMapTask 的 MapStatus,那么须要将 MapStatus(ShuffleMapTask 输出的 FileSegment 的位置和大小信息) 存放到 mapOutputTrackerMaster 中的 mapStatuses 数据结构中以便之后 reducer shuffle 的时候查询。若是 driver 收到的 task 是该 stage 中的最后一个 task,那么能够 submit 下一个 stage,若是该 stage 已是最后一个 stage,那么告诉 dagScheduler job 已经完成。
After driver receives StatusUpdate(result)
=> taskScheduler.statusUpdate(taskId, state, result.value)
=> taskResultGetter.enqueueSuccessfulTask(taskSet, tid, result)
=> if result is IndirectResult
      serializedTaskResult = blockManager.getRemoteBytes(IndirectResult.blockId)
=> scheduler.handleSuccessfulTask(taskSetManager, tid, result)
=> taskSetManager.handleSuccessfulTask(tid, taskResult)
=> dagScheduler.taskEnded(result.value, result.accumUpdates)
=> dagSchedulerEventProcessActor ! CompletionEvent(result, accumUpdates)
=> dagScheduler.handleTaskCompletion(completion)
=> Accumulators.add(event.accumUpdates)

// If the finished task is ResultTask
=> if (job.numFinished == job.numPartitions) 
      listenerBus.post(SparkListenerJobEnd(job.jobId, JobSucceeded))
=> job.listener.taskSucceeded(outputId, result)
=>    jobWaiter.taskSucceeded(index, result)
=>    resultHandler(index, result)

// if the finished task is ShuffleMapTask
=> stage.addOutputLoc(smt.partitionId, status)
=> if (all tasks in current stage have finished)
      mapOutputTrackerMaster.registerMapOutputs(shuffleId, Array[MapStatus])
      mapStatuses.put(shuffleId, Array[MapStatus]() ++ statuses)
=> submitStage(stage)
 

Shuffle read

上一节描述了 task 运行过程及 result 的处理过程,这一节描述 reducer(须要 shuffle 的 task )是如何获取到输入数据的。关于 reducer 如何处理输入数据已经在上一章的 shuffle read 中解释了。 问题:reducer 怎么知道要去哪里 fetch 数据? readMapStatusreducer 首先要知道 parent stage 中 ShuffleMapTask 输出的 FileSegments 在哪一个节点。 这个信息在 ShuffleMapTask 完成时已经送到了 driver 的 mapOutputTrackerMaster,并存放到了 mapStatuses: HashMap<stageid, array[mapstatus]=""> 里面,给定 stageId,能够获取该 stage 中 ShuffleMapTasks 生成的 FileSegments 信息 Array[MapStatus],经过 Array(taskId) 就能够获得某个 task 输出的 FileSegments 位置(blockManagerId)及每一个 FileSegment 大小。 当 reducer 须要 fetch 输入数据的时候,会首先调用 blockStoreShuffleFetcher 去获取输入数据(FileSegments)的位置。blockStoreShuffleFetcher 经过调用本地的 MapOutputTrackerWorker 去完成这个任务,MapOutputTrackerWorker 使用 mapOutputTrackerMasterActorRef 来与 mapOutputTrackerMasterActor 通讯获取 MapStatus 信息。blockStoreShuffleFetcher 对获取到的 MapStatus 信息进行加工,提取出该 reducer 应该去哪些节点上获取哪些 FileSegment 的信息,这个信息存放在 blocksByAddress 里面。以后,blockStoreShuffleFetcher 将获取 FileSegment 数据的任务交给 basicBlockFetcherIterator。
rdd.iterator()
=> rdd(e.g., ShuffledRDD/CoGroupedRDD).compute()
=> SparkEnv.get.shuffleFetcher.fetch(shuffledId, split.index, context, ser)
=> blockStoreShuffleFetcher.fetch(shuffleId, reduceId, context, serializer)
=> statuses = MapOutputTrackerWorker.getServerStatuses(shuffleId, reduceId)

=> blocksByAddress: Seq[(BlockManagerId, Seq[(BlockId, Long)])] = compute(statuses)
=> basicBlockFetcherIterator = blockManager.getMultiple(blocksByAddress, serializer)
=> itr = basicBlockFetcherIterator.flatMap(unpackBlock)
  blocksByAddress basicBlockFetcherIterator 收到获取数据的任务后,会生成一个个 fetchRequest, 每一个 fetchRequest 包含去某个节点获取若干个 FileSegments 的任务。图中展现了 reducer-2 须要从三个 worker node 上获取所需的白色 FileSegment (FS)。总的数据获取任务由 blocksByAddress 表示,要从第一个 node 获取 4 个,从第二个 node 获取 3 个,从第三个 node 获取 4 个。 为了加快任务获取过程,显然要将总任务划分为子任务(fetchRequest),而后为每一个任务分配一个线程去 fetch。Spark 为每一个 reducer 启动 5 个并行 fetch 的线程(Hadoop 也是默认启动 5 个)。因为 fetch 来的数据会先被放到内存做缓冲,所以一次 fetch 的数据不能太多,Spark 设定不能超过 spark.reducer.maxMbInFlight=48MB注意这 48MB 的空间是由这 5 个 fetch 线程共享的,所以在划分子任务时,尽可能使得 fetchRequest 不超过 48MB / 5 = 9.6MB。如图在 node 1 中,Size(FS0-2) + Size(FS1-2) < 9.6MB 可是 Size(FS0-2) + Size(FS1-2) + Size(FS2-2) > 9.6MB,所以要在 t1-r2 和 t2-r2 处断开,因此图中有两个 fetchRequest 都是要去 node 1 fetch。 那么会不会有 fetchRequest 超过 9.6MB?固然会有,若是某个 FileSegment 特别大,仍然须要一次性将这个 FileSegment fetch 过来。另外,若是 reducer 须要的某些 FileSegment 就在本节点上,那么直接进行 local read。最后,将 fetch 来的 FileSegment 进行 deserialize,将里面的 records 以 iterator 的形式提供给 rdd.compute(),整个 shuffle read 结束。
In basicBlockFetcherIterator:

// generate the fetch requests
=> basicBlockFetcherIterator.initialize()
=> remoteRequests = splitLocalRemoteBlocks()
=> fetchRequests ++= Utils.randomize(remoteRequests)

// fetch remote blocks
=> sendRequest(fetchRequests.dequeue()) until Size(fetchRequests) > maxBytesInFlight
=> blockManager.connectionManager.sendMessageReliably(cmId, 
       blockMessageArray.toBufferMessage)
=> fetchResults.put(new FetchResult(blockId, sizeMap(blockId)))
=> dataDeserialize(blockId, blockMessage.getData, serializer)

// fetch local blocks
=> getLocalBlocks() 
=> fetchResults.put(new FetchResult(id, 0, () => iter))
  下面再讨论一些细节问题: reducer 如何将 fetchRequest 信息发送到目标节点?目标节点如何处理 fetchRequest 信息,如何读取 FileSegment 并回送给 reducer? fetchrequest rdd.iterator() 碰到 ShuffleDependency 时会调用 BasicBlockFetcherIterator 去获取 FileSegments。BasicBlockFetcherIterator 使用 blockManager 中的 connectionManager 将 fetchRequest 发送给其余节点的 connectionManager。connectionManager 之间使用 NIO 模式通讯。其余节点,好比 worker node 2 上的 connectionManager 收到消息后,会交给 blockManagerWorker 处理,blockManagerWorker 使用 blockManager 中的 diskStore 去本地磁盘上读取 fetchRequest 要求的 FileSegments,而后仍然经过 connectionManager 将 FileSegments 发送回去。若是使用了 FileConsolidation,diskStore 还须要 shuffleBlockManager 来提供 blockId 所在的具体位置。若是 FileSegment 不超过 spark.storage.memoryMapThreshold=8KB ,那么 diskStore 在读取 FileSegment 的时候会直接将 FileSegment 放到内存中,不然,会使用 RandomAccessFile 中 FileChannel 的内存映射方法来读取 FileSegment(这样能够将大的 FileSegment 加载到内存)。 当 BasicBlockFetcherIterator 收到其余节点返回的 serialized FileSegments 后会将其放到 fetchResults: Queue 里面,并进行 deserialization,因此 fetchResults: Queue 就至关于在 Shuffle details 那一章提到的 softBuffer。若是 BasicBlockFetcherIterator 所需的某些 FileSegments 就在本地,会经过 diskStore 直接从本地文件读取,并放到 fetchResults 里面。最后 reducer 一边从 FileSegment 中边读取 records 一边处理。
After the blockManager receives the fetch request

=> connectionManager.receiveMessage(bufferMessage)
=> handleMessage(connectionManagerId, message, connection)

// invoke blockManagerWorker to read the block (FileSegment)
=> blockManagerWorker.onBlockMessageReceive()
=> blockManagerWorker.processBlockMessage(blockMessage)
=> buffer = blockManager.getLocalBytes(blockId)
=> buffer = diskStore.getBytes(blockId)
=> fileSegment = diskManager.getBlockLocation(blockId)
=> shuffleManager.getBlockLocation()
=> if(fileSegment < minMemoryMapBytes)
     buffer = ByteBuffer.allocate(fileSegment)
   else
     channel.map(MapMode.READ_ONLY, segment.offset, segment.length)
  每一个 reducer 都持有一个 BasicBlockFetcherIterator,一个 BasicBlockFetcherIterator 理论上能够持有 48MB 的 fetchResults。每当 fetchResults 中有一个 FileSegment 被读取完,就会一会儿去 fetch 不少个 FileSegment,直到 48MB 被填满。
BasicBlockFetcherIterator.next()
=> result = results.task()
=> while (!fetchRequests.isEmpty &&
        (bytesInFlight == 0 || bytesInFlight + fetchRequests.front.size <= maxBytesInFlight)) {
        sendRequest(fetchRequests.dequeue())
      }
=> result.deserialize()
   
相关文章
相关标签/搜索