spark一个奇怪的bug

见下面代码: val right_rdd=rightplan.execute() val right_result=right_rdd.collect()rightplan是一个SparkPlan,若直接collect取数据,则取到的数据集是每一个分区内部的最后一条数据*分区内的总记录个数: 可是单独取InternalRow行内的数据的话,是能够取到的,真实数据集是: collect先后取save
相关文章
相关标签/搜索