Spark DataFrame pivot()实现分组、透视、求和

问题:sql         对A列和B列进行分组,而后在C列上进行透视操做并对D列数据进行求和apache 实现功能以下:app 实现方式:性能       Spark中语法为:df.groupBy(“A”, “B”).pivot(“C”).sum(“D”),显然这种语法格式很是直观,但这其中也有个值得注意的地方:为取得更好的性能,须要明确指定透视列对应的不一样值,例如若是C列有两个不一样的值(
相关文章
相关标签/搜索