spark job, stage ,task介绍

1. spark 如何执行程序? 首先看下spark 的部署图:    节点类型有: 1. master 节点: 常驻master进程,负责管理全部worker节点。 2. worker 节点: 常驻worker进程,负责管理executor 并与master节点通信。 dirvier:官方解释为: The process running the main() function of the ap
相关文章
相关标签/搜索