Spark小技巧之pivot

最近在用spark处理数据的时候,遇到了这样一种需求: 我想统计每个城市在工作日和周末早高峰、晚高峰、夜高峰和普通时间段的订单数,并且早高峰、晚高峰、夜高峰和普通时间段分别占一列。 原始文件CSV文件的内容如下图所示: peak_type代表时间段,其中morning_peak代表早高峰、evening_peak代表晚高峰、nignt_peak代表夜高峰、normal代表正常时间段。 这个问题的实
相关文章
相关标签/搜索