spark RDD join的核心过程

spark RDD join的核心过程 spark join的过程是查询过程当中最核心的过程,怎么作到实现两个表的关联查询耗费资源最少。可看源码以下 join的实如今 PairRDDFunctions类当中。web def join[W](other: RDD[(K, W)], partitioner: Partitioner): RDD[(K, (V, W))] = self.withScope
相关文章
相关标签/搜索