解密“达达-京东到家”的订单即时派发技术原理和实践

本文由达达京东到家Java工程师季炳坤原创分享。php

一、前言

达达-京东到家做为优秀的即时配送物流平台,实现了多渠道的订单配送,包括外卖平台的餐饮订单、新零售的生鲜订单、知名商户的优质订单等。为了提高平台的用户粘性,咱们须要兼顾商户和骑士的各自愿景:商户但愿订单可以准时送达,骑士但愿能够高效抢单。那么在合适的时候提高订单定制化的曝光率,是及时送物流平台的核心竞争力之一。html

本文将描述“达达-京东到家”的订单即时派发系统从无到有的系统演进过程,以及方案设计的关键要点,但愿能为你们在解决相关业务场景上提供一个案例参考。java

关于“达达-京东到家”:android

达达-京东到家,是同城速递信息服务平台和无界零售即时消费平台。达达-京东到家创始人兼首席执行官蒯佳祺;redis

公司旗下,目前已覆盖全国400 多个主要城市,服务超过120万商家用户和超 5000万我的用户;算法

2018年8月,达达-京东到家正式宣布完成最新一轮5亿美圆融资,投资方分别为沃尔玛和京东。数据库

(本文同步发布于:http://www.52im.net/thread-1928-1-1.htmlapi

二、关于做者

季炳坤:“达达-京东到家”Java工程师,负责“达达-京东到家”的订单派发、订单权限、合并订单等相关技术工做的实现。数组

三、订单即时派发架构的演进

在公司发展的初期,咱们的外卖订单从商户发单以后直接出如今抢单池中,3千米以内的骑士可以看到订单,而且从订单卡片中获取配送地址、配送时效等关键信息。这种暴力的显示模式,很容易形成骑士挑选有利于自身的订单进行配送,从而致使部分订单超时未被配送。这样的模式,在必定程度上致使了商户的流失,同时也浪费了骑士的配送时间。缓存

从上面的场景能够看出来,咱们系统中缺乏一个订单核心调度者。有一种方案是选择区域订单的订单调度员,由调度员根据骑士的接单状况、配送时间、订单挤压等实时状况来进行订单调度。这种模式,看似可行,可是人力成本投入过高,且比较依赖我的的经验总结。

核心问题已经出来了:我的的经验总结会是什么呢?

1) 骑士正在配送的订单的数量,是否已经饱和;

2) 骑士的配送习惯是什么;

3) 某一阶段的订单是否顺路,骑士是否能够一块儿配送;

4) 骑士到店驻留时间的预估;

5) ...

理清核心问题的答案,咱们的系统派单便成为了可能。

基于以上的原理,订单派发模式就能够逐渐从抢单池的订单显示演变成系统派单:

咱们将会:

1)记录商户发单行为;

2)骑士配送日志及运行轨迹等信息。

而且通过数据挖掘和数据分析:

1)获取骑士的画像;

2)骑士配送时间的预估;

3)骑士到店驻留时间的预估等基础信息;

4)使用遗传算法规划出最优的配送路径;

5)...

通过上述一系列算法,咱们将在骑士池中匹配出最合适的骑士,进而使用长链接(Netty)不间断的通知到骑士。

随着达达业务的不断迭代,订单配送逐渐孵化出基于大商户的驻店模式:基于商户维护一批固定的专属骑士,订单只会在运力不足的时候才会外发到抢单池中,正常状况使用派单模式通知骑士。

四、订单派发模型的方案选型

订单派发能够浅显的认为是一种信息流的推荐。在订单进入抢单池以前,咱们会根据每一个城市的调度状况,先进行轮询N次的派单。

大概的表现形式以下图:

举例:有笔订单须要进行推送,在推送过程当中,咱们暂且假设一直没有骑士接单,那么这笔订单会每间隔N秒便会进行一次普通推荐,而后进入抢单池。

从订单派发的流程周期上能够看出来,派发模型充斥着大量的延迟任务,只要能解决订单在何时能够进行派发,那么整个系统 50% 的功能点就能迎刃而解。

咱们先了解一下经典的延迟方案,请继续往下读。。。

4.1 方案1:数据库轮询

经过一个线程定时的扫描数据库,获取到须要派单的订单信息。

优势:开发简单,结合quartz便可以知足分布式扫描;

缺点:对数据库服务器压力大,不利于项目后续发展。

4.2 方案2:JDK的延迟队列 - DelayQueue

DelayQueue是Delayed元素的一个无界阻塞队列,只有在延迟期满时才能从中提取元素。队列中对象的顺序按到期时间进行排序。

优势:开发简单,效率高,任务触发时间延迟低;

缺点:服务器重启后,数据会丢失,要知足高可用场景,须要hook线程二次开发;宕机的担心;若是数据量暴增,也会引发OOM的状况产生。

4.3 方案3:时间轮 - TimingWheel

时间轮的结构原理很简单,它是一个存储定时任务的环形队列,底层是由数组实现,而数组中的每一个元素均可以存放一个定时任务列表。列表中的每一项都表示一个事件操做单元,当时间指针指向对应的时间格的时候,该列表中的全部任务都会被执行。 时间轮由多个时间格组成,每一个时间格表明着当前实践论的跨度,用tickMs表明;时间轮的个数是固定的,用wheelSize表明。

整个时间轮的跨度用interval表明,那么指针转了一圈的时间为:

interval = tickMs * wheelSize

若是tickMs=1ms,wheelSize=20,那么便能计算出此时的时间是以20ms为一转动周期,时间指针(currentTime)指向wheelSize=0的数据槽,此时有5ms延迟的任务插入了wheelSize=5的时间格。随着时间的不断推移,指针currentTime不断向前推动,过了5ms以后,当到达时间格5时,就须要将时间格5所对应的任务作相应的到期操做。

若是此时有个定时为180ms的任务该如何处理?很直观的思路是直接扩充wheelSize?这样会致使wheelSize的扩充会随着业务的发展而不断扩张,这样会使时间轮占用很大的内存空间,致使效率低下,所以便衍生出了层级时间轮的数据结构。

180ms的任务会升级到第二层时间轮中,最终被插入到第二层时间轮中时间格#8所对应的TimerTaskList中。若是此时又有一个定时为600ms的任务,那么显然第二层时间轮也没法知足条件,因此又升级到第三层时间轮中,最终被插入到第三层时间轮中时间格#1的TimerTaskList中。注意到在到期时间在[400ms,800ms)区间的多个任务(好比446ms、455ms以及473ms的定时任务)都会被放入到第三层时间轮的时间格#1中,时间格#1对应的TimerTaskList的超时时间为400ms。

随着时间轮的转动,当TimerTaskList到期时,本来定时为450ms的任务还剩下50ms的时间,还不能执行这个任务的到期操做。便会有个时间轮降级的操做,会将这个剩余时间50ms的定时任务从新提交到下一层级的时间轮中,因此该任务被放到第二层时间轮到期时间为 [40ms,60ms) 的时间格中。再经历了40ms以后,此时这个任务又被触发到,不过还剩余10ms,仍是不能当即执行到期操做。因此还要再一次的降级,此任务会被添加到第一层时间轮到期时间为[10ms,11ms)的时间格中,以后再经历10ms后,此任务真正到期,最终执行相应的到期操做。

优势:效率高,可靠性高(Netty,Kafka,Akka均有使用),便于开发;

缺点:数据存储在内存中,须要本身实现持久化的方案来实现高可用。

五、订单派发方案的具体实现

结合了上述的三种方案,最后决定使用redis做为数据存储,使用timingWhell做为时间的推进者。这样即可以将定时任务的存储和时间推进进行解耦,依赖Redis的AOF机制,也不用过于担忧订单数据的丢失。

kafka中为了处理成千上万的延时任务选择了多层时间轮的设计,咱们从业务角度和开发难度上作了取舍,只选择设计单层的时间轮即可以知足需求。

1)时间格和缓存的映射维护:

假设当前时间currentTime为11:49:50,订单派发时间dispatchTime为11:49:57,那么时间轮的时间格#7中会设置一个哨兵节点(做为是否有数据存储在redis的依据 )用来表示该时间段是否会时间事件触发,同时会将这份数据放入到缓存中(key=dispatchTime+ip), 当7秒事后,触发了该时间段的数据,便会从redis中获取数据,异步执行相应的业务逻辑。最后,防止因为重启等一些操做致使数据的丢失,哨兵节点的维护也会在缓存中维护一份数据,在重启的时候从新读取。

2)缓存的key统一加上IP标识:

因为咱们的时间调度器是依附于自身系统的,经过将缓存的key统一加上IP的标识,这样就能够保证各台服务器消费属于自身的数据,从而防止分布式环境下的并发问题,也能够减轻遍历整个列表带来的时间损耗(时间复杂度为O(N))。

3)使用异步线程处理时间格中对应的数据:

使用异步线程,是考虑到若是上一个节点发生异常或者超时等状况,会延误下一秒的操做,若是使用异常能够改善调度的即时性问题。

咱们在设计系统的时候,系统的完善度和业务的知足度是互相关联影响的,单从上述的设计看,是会有些问题的,好比使用IP做为缓存的key,若是集群发生变动便会致使数据不会被消费;使用线程池异步处理也有几率致使数据不会被消费。这些不会被消费的数据会进入到抢单池中。从派单场景的需求来看,这些场景是能够被接受的,固然了,咱们系统会有脚原本进行按期的筛选,将那些进入抢单池的订单进行再次派单。

* 思考:为何不使用ScheduledThreadPoolExecutor来定时轮询redis?

缘由是即使这样能够完成业务上的需求,获取定时触发的任务,可是带来的空查询不但会拉高服务的CPU,redis的QPS也会被拉高,可能会致使redis的慢查询会显著增多。

六、结语

咱们在完成一个功能的时候,每每须要一些可视化的数据来肯定业务发展的正确性。所以咱们在开发的时候,也相应的记录了一些订单与骑士的交互动做。从天天的报表数据能够看出来,90% 以上的订单是经过派单发出而且被骑士承认接单。

订单派发的模式是提高订单曝光率有效的技术手段,咱们一直结合大数据、人工智能等技术手段但愿能更好的作好订单派发,能提供更加多元化的功能,将达达打形成更加一流的配送平台。

附录:更多相关技术文章

伪即时通信:分享滴滴出行iOS客户端的演进过程

iOS的推送服务APNs详解:设计思路、技术原理及缺陷等

信鸽团队原创:一块儿走过 iOS10 上消息推送(APNS)的坑

Android端消息推送总结:实现原理、心跳保活、遇到的问题等

扫盲贴:认识MQTT通讯协议

一个基于MQTT通讯协议的完整Android推送Demo

IBM技术经理访谈:MQTT协议的制定历程、发展示状等

求教android消息推送:GCM、XMPP、MQTT三种方案的优劣

移动端实时消息推送技术浅析

扫盲贴:浅谈iOS和Android后台实时消息推送的原理和区别

绝对干货:基于Netty实现海量接入的推送服务技术要点

移动端IM实践:谷歌消息推送服务(GCM)研究(来自微信)

为什么微信、QQ这样的IM工具不使用GCM服务推送消息?

极光推送系统大规模高并发架构的技术实践分享

从HTTP到MQTT:一个基于位置服务的APP数据通讯实践概述

魅族2500万长链接的实时消息推送架构的技术实践分享

专访魅族架构师:海量长链接的实时消息推送系统的心得体会

深刻的聊聊Android消息推送这件小事

基于WebSocket实现Hybrid移动应用的消息推送实践(含代码示例)

一个基于长链接的安全可扩展的订阅/推送服务实现思路

实践分享:如何构建一套高可用的移动端消息推送系统?

Go语言构建千万级在线的高并发消息推送系统实践(来自360公司)

腾讯信鸽技术分享:百亿级实时消息推送的实战经验

百万在线的美拍直播弹幕系统的实时推送技术实践之路

京东京麦商家开放平台的消息推送架构演进之路

了解iOS消息推送一文就够:史上最全iOS Push技术详解

基于APNs最新HTTP/2接口实现iOS的高性能消息推送(服务端篇)

解密“达达-京东到家”的订单即时派发技术原理和实践》

>> 更多同类文章 ……

(本文同步发布于:http://www.52im.net/thread-1928-1-1.html

相关文章
相关标签/搜索