流式计算一个很常见的场景是基于事件时间进行处理,经常使用于检测、监控、根据时间进行统计等系统中。好比埋点日志中每条日志记录了埋点处操做的时间,或者业务系统中记录了用户操做时间,用于统计各类操做处理的频率等,或者根据规则匹配,进行异常行为检测或监控系统告警。这样的时间数据都会包含在事件数据中,须要提取时间字段并根据必定的时间范围进行统计或者规则匹配等。
使用Spark Streaming SQL能够很方便的对事件数据中的时间字段进行处理,同时Spark Streaming SQL提供的时间窗口函数能够将事件时间按照必定的时间区间对数据进行统计操做。
本文经过讲解一个统计用户在过去5秒钟内点击网页次数的案例,介绍如何使用Spark Streaming SQL对事件时间进行操做。html
Spark Streaming SQL支持两类窗口操做:滚动窗口(TUMBLING)和滑动窗口(HOPPING)。git
2.1滚动窗口github
滚动窗口(TUMBLING)根据每条数据的时间字段将数据分配到一个指定大小的窗口中进行操做,窗口以窗口大小为步长进行滑动,窗口之间不会出现重叠。例如:若是指定了一个5分钟大小的滚动窗口,数据会根据时间划分到 [0:00 - 0:05)
、 [0:05, 0:10)
、[0:10, 0:15)
等窗口。sql
GROUP BY TUMBLING ( colName, windowDuration )
对inventory表的inv_data_time时间列进行窗口操做,统计inv_quantity_on_hand的均值;窗口大小为1分钟。apache
SELECT avg(inv_quantity_on_hand) qoh FROM inventory GROUP BY TUMBLING (inv_data_time, interval 1 minute)
2.2滑动窗口json
滑动窗口(HOPPING),也被称做Sliding Window。不一样于滚动窗口,滑动窗口能够设置窗口滑动的步长,因此窗口能够重叠。滑动窗口有两个参数:windowDuration和slideDuration。slideDuration为每次滑动的步长,windowDuration为窗口的大小。当slideDuration < windowDuration时窗口会重叠,每一个元素会被分配到多个窗口中。
因此,滚动窗口实际上是滑动窗口的一种特殊状况,即slideDuration = windowDuration则等同于滚动窗口。架构
GROUP BY HOPPING ( colName, windowDuration, slideDuration )
对inventory表的inv_data_time时间列进行窗口操做,统计inv_quantity_on_hand的均值;窗口为1分钟,滑动步长为30秒。ide
SELECT avg(inv_quantity_on_hand) qoh FROM inventory GROUP BY HOPPING (inv_data_time, interval 1 minute, interval 30 second)
业务日志收集到Aliyun SLS后,Spark对接SLS,经过Streaming SQL对数据进行处理并将统计后的结果写入HDFS中。后续的操做流程主要集中在Spark Streaming SQL接收SLS数据并写入HDFS的部分,有关日志的采集请参考日志服务。函数
4.1环境准备oop
git clone git@github.com:aliyun/aliyun-emapreduce-sdk.git cd aliyun-emapreduce-sdk git checkout -b master-2.x origin/master-2.x mvn clean package -DskipTests
编译完后, assembly/target目录下会生成emr-datasources_shaded_${version}.jar,其中${version}为sdk的版本。
4.2建立表
命令行启动spark-sql客户端
spark-sql --master yarn-client --num-executors 2 --executor-memory 2g --executor-cores 2 --jars emr-datasources_shaded_2.11-${version}.jar --driver-class-path emr-datasources_shaded_2.11-${version}.jar
建立SLS和HDFS表
spark-sql> CREATE DATABASE IF NOT EXISTS default; spark-sql> USE default; -- 数据源表 spark-sql> CREATE TABLE IF NOT EXISTS sls_user_log USING loghub OPTIONS ( sls.project = "${logProjectName}", sls.store = "${logStoreName}", access.key.id = "${accessKeyId}", access.key.secret = "${accessKeySecret}", endpoint = "${endpoint}"); --结果表 spark-sql> CREATE TABLE hdfs_user_click_count USING org.apache.spark.sql.json OPTIONS (path '${hdfsPath}');
4.3统计用户点击数
spark-sql>SET streaming.query.name=user_click_count; spark-sql>SET spark.sql.streaming.checkpointLocation.user_click_count=hdfs:///tmp/spark/sql/streaming/test/user_click_count; spark-sql>insert into hdfs_user_click_count select sum(cast(action_click as int)) as click, userId, window from sls_user_log where delay(__time__)<"1 minute" group by TUMBLING(__time__, interval 5 second), userId;
其中,内建函数delay()
用来设置Streaming SQL中的watermark,后续会有专门的文章介绍Streaming SQL watermark的相关内容。
4.4查看结果
能够看到,产生的结果会自动生成一个window列,包含窗口的起止时间信息。
本文简要介绍了流式处理中基于事件时间进行处理的场景,以及Spark Streaming SQL时间窗口的相关内容,并经过一个简单案例介绍了时间窗口的使用。后续文章,我将介绍Spark Streaming SQL的更多内容。
本文为云栖社区原创内容,未经容许不得转载。