Spark的基本工作流程

原文地址: https://my.oschina.net/134596/blog/3038296 park的应用分为任务调度和任务执行两个部分,所有的Spark应用程序都离不开SparkContext和Executor两部分,Executor负责执行任务,运行Executor的机器称为Worker节点,SparkContext由用户程序启动,通过资源调度模块和Executor通信。 具体来说,以S
相关文章
相关标签/搜索