@[Spark架构]

并行化是将工作负载分在不同线程或不同节点上执行的子任务. Spark的工作负载的划分由RDD分区决定。 编写程序提交到Master上, Master是由四大部分组成(RDD Graph,Scheduler,Block Tracker以及Shuffle Tracker) 启动RDD Graph就是DAG,它会提交给Task Scheduler任务调度器等待调度执行 具体执行时,Task Schedu
相关文章
相关标签/搜索