Spark任务执行流程

Spark任务执行流程 DAGScheduler 和TaskScheduler都在Driver端(开启spark-shell的那一端),main函数创建SparkContext时会使得driver和Master节点建立连接,Master会根据任务所需资源在集群中找符合条件的worker.然后Master对worker进行RPC通信,通知worker启动Executor ,Executor会和Dri
相关文章
相关标签/搜索