Spark的基本工作流程(未)

为什么80%的码农都做不了架构师?>>>    Spark的应用分为任务调度和任务执行两个部分,所有的Spark应用程序都离不开SparkContext和Executor两部分,Executor负责执行任务,运行Executor的机器称为Worker节点,SparkContext由用户程序启动,通过资源调度模块和Executor通信。 具体来说,以SparkContext为程序运行的总入口,在Sp
相关文章
相关标签/搜索