关于spark

术语总是难以理解的,因为它取决于所处的上下文。在很多情况下,你可能习惯于“将Job提交给一个cluster”,但是对于spark而言却是提交了一个driver程序。 也就是说,对于Job,spark有它自己的定义,如下: A parallel computation consisting of multiple tasks that gets spawned in response to a Sp
相关文章
相关标签/搜索