spark中的分区操做回顾--mapPartition

开发十年,就只剩下这套Java开发体系了 >>>   数组 1.spark中repartitionAndSortWithinPartitions实现重分区+排序缓存 def spark_rand(): Unit ={ val data=Array(1, 2, 3, 4, 5, 6,6, 7,3,4, 8, 9, 10, 11, 22, 33, 43, 26, 50, 81, 54, 76, 9
相关文章
相关标签/搜索