大数据之spark_spark的执行流程简介及初始Task数量的生成规则

spark的执行流程简介 1.类加载,通过反射调用指定类的main方法 2.创建SparkContext,跟Master通信,申请资源 3.Master跟Worker进行通信启动Executor 4.启动Eexcutor,并创建线程池 5.Executor向Driver反向注册 (前5步完成准备工作) 6.创建原始的RDD.例如textFile() 7.调用RDD中的Transformations
相关文章
相关标签/搜索