SparkRDD算子案例:统计出每个省份每一个广告被点击数量排行的Top3

1、数据准备apache

agent.log:时间戳,省份,城市,用户,广告,中间字段使用空格分隔。ui

 

2、需求分析spa

方法一:scala

(1)用空格分割每一行的数据,须要的数据是省份id和广告id3d

(2)将省份id和广告id和次数1组成键值对,经过算子map组合成((省份id,广告id),1)对象

(3)计算相同key的总和,使用算子reduceByKey将相同key的值聚合到一块儿,在shuffle前有combine操做blog

(4)用map将((省份id,广告id),sum)改成(省份id,(广告id,sum))排序

(5)将同一个省份的全部广告进行分组聚合(省份id,List((广告id1,sum1),(广告id2,sum2)…))get

(6)对同一个省份全部广告的集合进行排序并取前3条string

方法二:

(1)用空格分割每一行的数据,须要的数据是省份id和广告id

(2)将同一个省份的全部广告进行分组聚合(省份id,List(广告id1,广告id2,…))

(3)将广告id和次数1组成键值对,经过算子map组合成(广告id,1),并根据广告id进行分组聚合,再经过算子map转换成List以后取出广告id和List大小

(4)根据List大小进行降序排序,并取出前3条

 

3、代码实现

方法一:

package com.require

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Demo1 {
  def main(args: Array[String]): Unit = {

    //一、实例化conf对象以及建立sc对象
    val conf = new SparkConf().setMaster("local").setAppName(Demo1.getClass.getSimpleName)
    val sc = new SparkContext(conf)

    //二、读取文件
    val fileRDD: RDD[String] = sc.textFile("F:\\数据\\agent.log")

    //三、切分、拼1
    val toOneRDD: RDD[((String, String), Int)] = fileRDD.map { x =>
      val strings: Array[String] = x.split(" ")
      ((strings(1), strings(4)), 1)
    }

    //四、聚合((province,add),sum)
    val sumRDD: RDD[((String, String), Int)] = toOneRDD.reduceByKey(_ + _)

    //五、将省份做为key,广告加点击数为value:(province,(add,sum))
    val mapRDD: RDD[(String, (String, Int))] = sumRDD.map(x => (x._1._1, (x._1._2, x._2)))

    //六、将同一个省份的全部广告进行分组聚合(province,List((add1,sum1),(add2,sum2)...))
    val groupRDD: RDD[(String, Iterable[(String, Int)])] = mapRDD.groupByKey()

    //七、对同一个省份全部广告的集合进行排序并取前3条
    val sortRDD: RDD[(String, List[(String, Int)])] = groupRDD.mapValues { x =>
      x.toList.sortWith((x, y) => x._2 > y._2).take(3)
    }

    //八、将数据拉取到Driver端并打印
    sortRDD.collect().foreach(println)

    sc.stop()
  }
}

  

方法二:

package com.require

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.rdd.RDD

object Demo2 {
  def main(args: Array[String]): Unit = {

    //一、实例化conf对象以及建立sc对象
    val conf = new SparkConf().setMaster("local").setAppName(Demo2.getClass.getSimpleName)
    val sc = new SparkContext(conf)
    
    //二、读取文件
    val fileRDD: RDD[String] = sc.textFile("F:\\数据\\agent.log")

    //三、切分
    val mapRDD: RDD[(String, String)] = fileRDD.map(x => {
      val strings: Array[String] = x.split(" ")
      (strings(1), strings(4))
    })

    //四、根据省份进行分组(province,List(add1,add2,...))
    val groupRDD: RDD[(String, Iterable[String])] = mapRDD.groupByKey()

    //五、处理List
    val result: RDD[(String, List[(String, Int)])] = groupRDD.map(x => {
      //将广告拼1,并分组取出大小
      val stringToInt: Map[String, Int] = x._2.map((_, 1)).groupBy(_._1).map(y => {
        val size: Int = y._2.toList.size
        (y._1, size)
      })

      //根据广告数量降序排序并取出前三
      val tuples: List[(String, Int)] = stringToInt.toList.sortBy(-_._2).take(3)
      (x._1, tuples)
    })

    //六、打印
    result.foreach(println)

    sc.stop()

  }
}

 

4、运行结果

相关文章
相关标签/搜索