Spark总结02

下面的是对Spark总结01的复习以及详细的讲解 一、作业提交的执行流程   1)Spark程序写完之后,就要提交到spark集群上面去运行,这就是spark作业(一次代码的运行+一份数据的处理+一次结果的产出)。 2) Spark作业是通过spark集群中的多个独立的进程(executor)并行执行的,每个进程处理一部分数据,从而做到分布式并行计算,才能做到对大数据并行处理和计算。作业在多个进程
相关文章
相关标签/搜索