在电商运营工做中,营销活动是很是重要的部分,对用户增加和GMV都有很大帮助。对电商运营来讲,如何从庞大的商品库中筛选出卖家优质商品并推送给有须要的买家购买是每时每刻都要思索的问题,并且这个过程须要尽量快和实时。保证快和实时就能够提高买卖双方的用户体验,提升用户粘性。git
为了解决上面提到的问题,闲鱼研发了马赫系统。马赫是一个实时高性能的商品选品系统,解决在亿级别商品中经过规则筛选优质商品并进行投放的场景。有了马赫系统以后,闲鱼的运营同窗能够在马赫系统上建立筛选规则,好比商品标题包含“小猪佩奇”、类目为“玩具”、价格不超过100元且商品状态为未卖出。在运营建立规则后,马赫系统会同时进行两步操做,第一步是从存量商品数据筛选符合条件的商品进行打标;第二步是对商品实时变动进行规则计算,实时同步规则命中结果。github
马赫系统最大的特色是快而实时,体如今命中规模为100w的规则能够在10分钟以内完成打标;商品自己变动致使的规则命中结果同步时间为1秒钟。运营能够经过马赫系统快速筛选商品向用户投放,闲鱼的流量也能够精准投给符合条件的商品而且将流量利用到最大化。算法
那么马赫系统是如何解决这一典型的电商问题的呢,马赫系统和流计算有什么关系呢,这是下面要详细说明的部分。sql
流计算是持续、低延迟、事件触发的数据处理模型。流计算模型是使用实时数据集成工具,将数据实时变化传输到流式数据存储,此时数据的传输变成实时化,将长时间累积大量的数据平摊到每一个时间点不停地小批量实时传输;流计算会将计算逻辑封装为常驻计算服务,一旦启动就一直处于等待事件触发状态,当有数据流入后会触发计算迅速获得结果;当流计算获得计算结果后能够马上将数据输出,无需等待总体数据的计算结果。数据库
闲鱼实时选品系统使用的流计算框架是Blink,Blink是阿里巴巴基于开源流计算框架Flink定制研发的企业级流计算框架,能够认为是Flink的增强版,如今已经开源。Flink是一个高吞吐、低延迟的计算引擎,同时还提供不少高级功能。好比它提供有状态的计算,支持状态管理,支持强一致性的数据语义以及支持Event Time,WaterMark对消息乱序的处理等特性,为闲鱼实时选品系统的超低延时选品提供了有力支持。apache
3.一、Blink之State数组
State是指流计算过程当中计算节点的中间计算结果或元数据属性,好比在aggregation过程当中要在state中记录中间聚合结果,好比Apache Kafka做为数据源时候,咱们也要记录已经读取记录的offset,这些State数据在计算过程当中会进行持久化(插入或更新)。因此Blink中的State就是与时间相关的,Blink任务的内部数据(计算数据和元数据属性)的快照。
马赫系统会在State中保存商品合并以后的所有数据和规则运行结果数据。当商品发生变动后,马赫系统会将商品变动信息与State保存的商品信息进行合并,并将合并的信息做为入参运行全部规则,最后将规则运行结果与State保存的规则运行结果进行Diff后获得最终有效的运行结果。因此Blink的State特性是马赫系统依赖的关键特性。框架
3.二、Blink之Windowide
Blink的Window特性特指流计算系统特有的数据分组方式,Window的建立是数据驱动的,也就是说,窗口是在属于此窗口的第一个元素到达时建立。当窗口结束时候删除窗口及状态数据。Blink的Window主要包括两种,分别为滚动窗口(Tumble)和滑动窗口(Hop)。
滚动窗口有固定大小,在每一个窗口结束时进行一次数据计算,也就是说滚动窗口任务每通过一次固定周期就会进行一次数据计算,例如每分钟计算一次总量。函数
滑动窗口与滚动窗口相似,窗口有固定的size,与滚动窗口不一样的是滑动窗口能够经过slide参数控制滑动窗口的新建频率。所以当slide值小于窗口size的值的时候多个滑动窗口会重叠,此时数据会被分配给多个窗口,以下图所示:
Blink的Window特性在数据计算统计方面有不少使用场景,马赫系统主要使用窗口计算系统处理数据的实时速度和延时,用来进行数据统计和监控告警。
3.三、Blink之UDX
UDX是Blink中用户自定义函数,能够在任务中调用以实现一些定制逻辑。Blink的UDX包括三种,分别为:
马赫系统中使用了大量的UDX进行逻辑定制,包括消息解析、数据处理等。而马赫系统最核心的商品数据合并、规则运行和结果Diff等流程就是经过UDAF实现的。
选品系统在项目立项后也设计有多套技术方案。通过多轮讨论后,最终决定对两套方案实施验证后决定最终实现方案。
第一套方案是基于PostgreSQL的方案,PostgreSQL能够很便捷的定义Function进行数据合并操做,在PostgreSQL的trigger上定义执行规则逻辑。基于PostgreSQL的技术实现较复杂,但能知足功能需求。不过性能测试结果显示PostgreSQL处理小数据量(百万级)性能较好;当trigger数量多、trigger逻辑复杂或处理亿级别数据时,PostgreSQL的性能会有较大下滑,不能知足秒级选品的性能指标。所以基于PostgreSQL的方案被否决(在闲鱼小商品池场景中仍在使用)。
第二套方案是基于Blink流计算方案,经过验证发现Blink SQL很适合用来表达数据处理逻辑并且Blink性能很好,综合对比以后最终选择Blink流计算方案做为实际实施的技术方案。
为了配合使用流计算方案,马赫系统通过设计和解耦,无缝对接Blink计算引擎。其中数据处理模块是马赫系统核心功能模块,负责接入商品相关各种数据、校验数据、合并数据、执行规则和处理执行结果并输出等步骤,因此数据处理模块的处理速度和延时在很大程度上能表明马赫系统数据处理速度和延时。接下来咱们看下数据处理模块如何与Blink深度结合将数据处理延迟降到秒级。
数据处理模块结构如上图,包含数据接入层、数据合并层、规则运行层和规则运行结果处理层。每层都针对流计算处理模式进行了单独设计。
4.一、数据接入层
数据接入层是数据处理模块前置,负责对接多渠道各类类型的业务数据,主要逻辑以下:
这样设计的考虑是由于业务数据是多种多样的,好比商品信息包括数据库的商品表记录、商品变动的MQ消息和算法产生的离线数据,若是直接经过Blink对接这些业务数据源的话,须要建立多个Blink任务来对接不一样类型业务数据源,这种处理方式过重,并且数据接入逻辑与Blink紧耦合,不够灵活。
数据接入层能够很好的解决上述问题,数据接入层能够灵活接入多种业务数据,而且将数据接入与Blink解耦,最终经过同一个Topic发出消息。而Blink任务只要监听对应的Topic就能够接二连三的收到业务数据流,触发接下来的数据处理流程。
4.二、数据合并层
数据合并是数据处理流程的重要步骤,数据合并的主要做用是将商品的最新信息与内存中保存的商品信息合并供后续规则运行使用。数据合并主要逻辑是:
{key:[timestamp, value]}
,key是字段名称,value是字段值,timestamp为字段数据产生时间戳;数据合并有几个前提:
举例来讲,内存中保存的商品ID=1的信息是{"desc": [1, "描述1"], "price": [4, 100.5]},数据流中商品ID=1的信息是{"desc": [2, "描述2"], "price": [3, 99.5]},那么合并结果就是{"desc": [2, "描述2"], "price": [4, 100.5]},每一个字段的值都是最新的,表明商品当前最新信息。
当商品信息发生变化后,最新数据由数据接入层流入,经过数据合并层将数据合并到内存,Blink内存中保存的是商品当前最新的所有数据。
4.三、规则运行层
规则运行层是数据处理流程核心模块,经过规则运算得出商品对各规则命中结果,逻辑以下:
这里的规则指的是运营建立的业务规则,好比商品价格大于50且状态为在线。规则的输入是通过数据合并后的商品数据,输出是true或false,便是否命中规则条件。规则表明的是业务投放场景,马赫系统的业务价值就是在商品发生变动后尽快判断是否命中以前未命中的规则或是不命中以前已经命中的规则,并将命中和不命中结果尽快体现到投放场景中。
规则运行需利用Blink强大算力来保证快速执行,马赫系统当前有将近300条规则,并且还在快速增加。这意味着每一个商品发生变动后要在Blink上运行成百上千条规则,闲鱼天天有上亿商品发生变动,这背后须要的运算量是很是惊人的。
4.四、运行结果处理层
读者读到这里可能会奇怪,明明通过规则运行以后直接把运行结果输出到投放场景就能够了,不须要运行结果处理层。实际上运行结果处理层是数据处理模块最重要的部分。
由于在实际场景中,商品的变动在大部分状况只会命中不多一部分规则,并且命中结果也不多会变化。也就是说商品对不少规则的命中结果是没有意义的,若是将这些命中结果也输出的话,只会增长操做TPS,对实际结果没有任何帮助。而筛选出有效的运行结果,这就是运行结果处理层的做用。运行结果处理层逻辑以下:
运行结果处理层利用Blink内存保存商品上一次变动后规则运行结果,并将当前变动后规则运行结果与内存中结果进行比较,计算出有效运行结果。举例来讲,商品A上一次变动后规则命中结果为{"rule1":true, "rule2":true, "rule3":false, "rule4":false},当前变动后规则命中结果为{"rule1":true, "rule2":false, "rule3":false, "rule4":true}。由于商品A变动后对rule1和rule3的命中结果没有变化,因此实际有效的命中结果是{"rule2":false, "rule4":true},经过运行结果处理层处理后输出的是有效结果的最小集,能够极大减少无效结果输出,提升数据处理的总体性能和效率。
4.五、难点解析
虽然闲鱼实时选品系统在立项之初通过预研和论证,但由于使用不少新技术框架和流计算思路,在开发过程当中遇到一些难题,包括设计和功能实现方面的,不少是设计流计算系统的典型问题。咱们就其中一个问题与各位读者探讨-规则公式转换。
4.5.一、规则公式转换
这个问题的业务场景是:运营同窗在马赫系统页面上筛选商品字段后保存规则,服务端是已有的老系统,逻辑是根据规则生成一段SQL,SQL的where条件和运营筛选条件相同。SQL有两方面的做用,一方面是做为离线规则,在离线数据库中执行SQL筛选符合规则的离线商品数据;另外一方面是转换成在线规则,在Blink任务中对实时商品变动数据执行规则以判断是否命中。
由于实时规则运行使用的是MVEL表达式引擎,MVEL表达式是类Java语法的,因此问题就是将离线规则的SQL转换成在线规则的Java表达式,二者逻辑需一致,而且需兼顾性能和效率。问题的解决方案很明确,解析SQL后将SQL操做符转换成Java操做符,并将SQL特有语法转成Java语法,例如A like '%test%'转成A.contains('test')。
这个问题的难点是如何解析SQL和将解析后的语义转成Java语句。通过调研以后给出了简单而优雅的解决方案,主要步骤以下:
经过后序遍历算法遍历where条件子树;
实际运行结果以下:
代码逻辑以下(主要是二叉树后续遍历和操做符转换,再也不详细解释):
马赫系统上线以来,已经支持近400场活动和投放场景,天天处理近1.4亿条消息,峰值TPS达到50000。马赫系统已经成为闲鱼选品投放的重要支撑。
本文主要阐述马赫系统中数据处理的具体设计方案,说明总体设计的前因后果。虽然闲鱼实时选品系统针对的是商品选品,但数据处理流计算技术方案的输入是MQ消息,输出也是MQ消息,不与具体业务绑定,因此数据处理流计算技术方案不仅适用于商品选品,也适合其余相似实时筛选业务场景。但愿咱们的技术方案和设计思路能给你带来一些想法和思考,也欢迎和咱们留言讨论,谢谢。
本文为云栖社区原创内容,未经容许不得转载。