百亿级实时消息推送的实战之道,与王者荣耀一班车就是这么稳!

要说如今市面上最火爆的手游,莫非拥有两亿注册用户的王者荣耀了。据悉,王者荣耀的渗透率高达22.3%,这意味着每7个中国人中就有一位是王者荣耀注册用户。众所周知,手游App对推送实时性和精准性要求很是高,而王者荣耀这种日活跃千万级的应用对推送的要求就更高了,下面咱们来看看王者荣耀背后的信鸽推送是怎么应对挑战,作到海量、实时和精准推送的。linux


2017年7月7日-8日,ArchSummit全球架构师峰会在深圳召开。ArchSummit全球架构师峰会是InfoQ中国团队推出的面向高端技术管理者、架构师的技术大会,展现新技术在行业应用中的最新实践,其中超过上百位技术专家,千名技术人共同参与,包括海外的facebook、ebay、hulu,国内的BAT、YY、京东等,群英荟萃,精彩纷呈。

腾讯移动推送(信鸽)高级工程师甘恒通在本场架构师峰会上分享了《腾讯移动推送(信鸽)百亿级实时消息推送的实战经验》,解析了信鸽实时精准推送系统的演进与实践。算法

信鸽的挑战

应用的用户的生命周期来讲分5个阶段,即用户的获取、激活、留存、传播和收入,信鸽的消息推送是触达用户,提高留存的重要途径。sql

信鸽平台现已服务于数万的App开发者,日推送消息数60亿,推送支撑能力超过百亿;而精准推送是有效提升消息打开率的手段。信鸽的实践中案例数据代表,精准推送的平均CTR是全量推送的4倍数据库

那么,如何实现海量数据的压力下,知足实时、精准的推送要求,这里有很大的挑战。缓存


这里咱们主要讨论的是对于信鸽后台的挑战,主要有这三个关键字:海量、实时和精准。

海量是指,信鸽终端并发长链接是数千万,日推送量也有百亿的量级,服务于不少大客户,如王者荣耀,日活跃数千万,其推送量可想而知。性能优化

另一些特殊行业的App,也有特别的推送诉求。好比资讯类的应用,时效性要求很是高,须要每秒千万级的推送速度。网络

而另外一些应用则须要在达到运营目标的前提下,但愿尽可能减小对用户的骚扰,即精准推送。数据结构

信鸽的应对之道

对于信鸽面临的挑战,咱们作了哪些解决方案?
首先信鸽是一个免费的运营工具,成本是咱们这边一个很大的须要考量的点:一方面,须要提升设备资源的利用率,能够经过一些虚拟化的方式来解决;第二方面,咱们要深刻挖掘单机的性能。多线程

对于单机性能的优化,有4个方面,从下往上看是硬件、操做系统、协议栈、架构。架构

一、 操做系统优化
先看一下在操做系统这个层级是如何对海量并发长链接的接入进行优化的。这里主要挑战是在内存,经过slabtop命令能够看到当前系统内存分配的状况。从这一栏能够看到,当咱们构建了大概200万长链接的时候,整个系统的内存基本上已经满了。对于长链接的内存使用,会消耗在这6个数据结构上。

咱们深刻分析这6个来自epoll模型和内核TCP协议栈的数据结构。对于epoll模型,底层实现是一个特殊的文件系统,epoll文件的内容主要是保存了一棵红黑树和就绪的被侦听文件列表rdllist,红黑树的节点是被侦听文件对象。epoll主要提供了三个API:epoll_wait、epoll_create、epoll_ctl。当咱们经过epoll_ctl把一个文件加入到epoll的时候,会建立两个数据结构epitem、eppool_entry,epitem关联到被侦听的文件fd,eppool_entry保存了事件就绪时设置rdllist的回调函数ep_poll_callback。咱们从另一个链路看一下网卡的收包流程,当数据包过来的时候,网卡接收完数据会产生一个硬中断,数据经过DMA拷贝到内存。系统经过软中断守护进程,调用网卡的驱动来完成数据包的解析并最终调用poll方法。poll方法会回调设置好的ep_poll_callback,即把fd挂到rdllist中,当调用的epoll_wait时候,便可获取到就绪的fd集合。


对于海量的并发链接,主要经过调整操做系统的配置来解决。信鸽使用了公司自研的tlinux 2.0,系统对于内存这一块也作了比较多的优化,具体的配置参数以下,能够看到,主要也是一些epoll的限制和TCP的内存的限制。

二、 Server框架优化
看完操做系统层级的优化,咱们再来看一下另外一个主要性能优化的点——server框架。信鸽对于关键的接入层server使用C++语言进行开发。好的server框架主要有两个要点,1是对底层RPC通讯的良好封装,使得开发只须要关注业务逻辑代码的开发,2是高性能,框架对消息处理CPU消耗尽量少。经过Intel® VTune™ Amplifier这个工具咱们能够对server框架进行性能评测,这里列了两个框架。左边这个框架能够看到把不少CPU都浪费在消息的内存拷贝,同时对消息的处理进行了过多的封装。对于右边的框架就作得比较好,对于框架的问题就不存在了,主要是操做系统自己的消耗,还有协议栈的消耗。这部分对于有更高的要求来讲,还能够进行深度优化。这是咱们后台选用的框架,主要实现的要点有三个,第一是池化技术、第二是协程模型、第三是无锁框架。这里的Proxy主要用于接入网络的请求,具体的业务逻辑代码是放在Work进程里面处理。整个框架作了一个通用的抽象,将一次数据请求主要分为数据接收、数据路由、最后是具体的数据处理。数据接入进程和具体数据处理进程,经过无锁的共享内存来通讯,这样就避免了不少没必要要内存拷贝和消息编解码操做。

对于处理业务逻辑的工做进程,比较常见的有三种模型,第一种是进程同步模型,数据进来之后,由独立的线程进行处理,优势是代码实现比较直观,缺点是处理海量并发用户请求的时候,操做系统对多线程的切换会成为一个主要的瓶颈。第二种用得比较多的是异步事件驱动模型,由epoll进行事件的侦听,经过一些状态机来驱动业务逻辑代码的执行,优势是性能较高,缺点是当业务逻辑分支多的时候,代码很是难维护。咱们这边是采用协程模型,协程和线程和相似,它跟线程不一样的是,线程的切换和调度须要本身来实现,协程模型能够采用同步的思惟进行代码开发,又具备异步模型的高性能,协程切换优化的点是,经过汇编的方式,直接把相关寄存器中的值保存在内存,来进行上下文的切换。

三、 协议栈优化
下面咱们看一下协议栈的优化。这里的协议栈主要是指linux内核TCP协议栈。linux内核的协议栈主要问题是相关Socket的方法都是系统调用,须要从用户态切换到内核态,数据从内核空间到用户空间也须要进行额外的内存拷贝操做。业界有一些开源的用户态TCP协议栈,能够解决这两个问题。使用用户态的TCP协议栈须要优化的点是相关的接口和系统自带的Socket接口命名不一致,直接使用涉及到大量代码的修改,咱们怎么样作到在不修改代码的状况下用TCP协议栈呢?这里是经过Hook机制,拦截相关Socket系统调用,dlsym符号解析返回自定义的Socket方法。
四、 硬件性能挖掘


下面咱们再看一下单机性能优化的最后一个点——对于硬件性能的挖掘。硬件性能的挖掘,主要是善于利用Intel CPU的指令集。能够拿咱们常用的CRC32操做来举例。通常的CRC32实现是根据算法定义来执行字节转码操做,而Intel提供了一套SSE4.2的指令集,它里面包含CRC32的方法。咱们能够看一下35W次计算二者的耗时对比,直接用Intel的指令集比通常的实现方法快6倍。

小结:性能好,推送才能顶住海量信息的压力,支撑公司内外业务核心,提供强有力的通道支持。

实时方案的构建

对海量设备进行实时推送主要的解决方案是针对推送的场景优化存储结构,同时将单个推送的RPC节点间调用转换成分布式的批量位图运算,优化Android终端长链接,接入集群分多地部署,作最近接入,和APNs的交互使用HTTP/2协议,对无效的token自动作数据清理。


咱们这里举一个具体的场景来讲一下倒排索引是如何应用到实时推送中的。好比一个应用对在广东的男性用户进行一次推送,会通过一个这样通用的推送流程:一个推送的任务到达一个调度的节点,决定是否下发推送任务,若是下发,则会通过目标人群的检索,筛选出男且是广东的用户,接下来进行通道检索,信鸽这边既有自建的通道,也有厂商的通道,用户在推送的时候,他可能以为厂商的通道更加稳定、更加高效,这个时候他能够选择对于华为设备走华为通道、小米设备就走小米通道,对于其它的设备就走信鸽自建的通道。下一步就是地域检索,信鸽这边的设备是就近接入的,咱们在全国部署有这几个集群,分别是深圳集群、上海集群、天津集群和海外的HK集群。这里选择了广东的用户,因此选择深圳集群。对于一个传统的系统来讲,一次推送能够这样实现,一个应用下的N个用户的推送,转换成N次RPC节点间调用,人群信息、通道信息、地域信息分别保存在Mysql或者Nosql数据库中,每一个RPC调用,须要到数据库里面检查一下他是不是男的,是不是广东的用户,再看一下是否是华为的设备或者小米的设备,断定完以后要进行地域的检索,看看接入的是哪一个集群。整个流程下来以后,要通过大量的数据库操做,才能完成一次推送。

可是通过倒排索引的构建以后,全部的数据均可以放到内存中。好比男性人群,能够构建一个bitmap,小米的通道也是一个bitmap,华为的通道也是一个bitmap,不一样的地域分别是不一样的bitmap。当一次任务下发的时候,对bitmap进行一些&操做,就能够把最终须要推送的人群下发到相应的接入机中,整个过程能够作到ms级别。对于推送下发整个流程,检索是一方面,另外一方面还须要查询路由信息找到终端TCP长链接的接入机,这些路由信息包含接入机的编号、进程的编号、长链接socket fd的编号,用一个long数据类型便可保存,全部的路由信息保存在分布式的Nosql内存数据库中,整个推送流程只有接入机的路由须要进行数据库的查询,结合本地的缓存,能够作到kw/s的推送下发速度。

精准推送的构建

信鸽的推送系统主要分为三部分,第一部分是数据、第二部分是具体的系统实现、第三部分是具体的应用。


具体的应用有这三个:实时推送、推送助手、ABTest。推送助手和ABTest的做用是更好地帮助用户使用消息推送来进行产品的运营。好比推送助手,对于不少运营人员来讲,可能没有相关的运营经验,对内容的管理,他可能只大概知道须要推送的目标群体,可是他对推送文案不知道若是编写会更好,这个时候咱们后台会对历史的推送进行数据的收集,对文案和推送的效果进行关联性的分析,当他选择一个推送场景的时候,咱们就会把一些文案的样式和关键词给到他,让他本身组织出一个更好的推送的文案。另一个是ABTest,用户本身手里有几个文案或者目标推送人群,当他不肯定的哪一个更合适的时候,咱们给他提供ABTest的能力,从目标推送人群中抽取部分测试用户,多个文案通过实时推送,在几分钟的时间里,把推送的效果即点击率反馈给用户,系统自动或者由用户选择一个最佳的推送文案或者是一个最佳的目标人群对剩下的用户进行推送。

下面看一下系统的实现,主要分实时和离线。离线部分主要是用来进行人群的挖掘。对于精准推送来讲,它的核心是根据应用运营的目标将消息推送给匹配的目标人群。应用的运营的目标通常有提高用户活跃度,潜在流失用户挽回,提高应用收入等,不一样人群的挖掘方法可能不尽相同,但流程基本一致,通常会分为数据的准备、模型的构建、预测结果、输出。

咱们这里举一个实际的潜在流失用户人群挖掘的例子。咱们想预测一下这个应用里面可能有哪些人是会流失的,这样应用能够针对这部分人群作一些挽留的推送。原始数据保存在HDFS或者TDW里面,通过数据加工之后,把用户可能流失的一些特征给提取出来,好比说有首次注册的时间、每日启动的次数、每日的活跃状态和最近登陆的时间。特征提取后有两条路径,一是要构建一个潜在流失用户预测的模型,二是在模型的基础上进行潜在流失用户的预测。对于模型构建部分,须要结合真实的流失状况和特征,做为训练的样本,通过算法模型的训练以后,咱们就获得了一个潜在流失用户预测的模型。对于天天新增的数据,咱们也是通过特征提取以后,把数据输入这个模型里面,就会获得一个具体的预测结果便可能会流失的人群集合。对于算法模型,咱们这边主要用了一些机器学习里面的统计学习的方法,没有用到一些如今比较火的深度学习的方法。由于咱们在实际进行训练的时候发现当咱们的数据样本很是大的时候,用通常的好比C4.5决策树模型,经过一些断定规则,就可以知道用户是否流失,或者是贝叶斯,经过特征类别的条件几率分布预测是否会流失,采用这些模型召回率能够达到0.76和0.89的水平,已经知足咱们的应用场景,因此没有采用计算复杂度更高的深度学习的模型。

实时效果评估
信鸽最新更新的实时效果功能,为用户提供了推送效果的实时统计。面对百亿级推送的压力,实时统计也会占用很大的计算资源,那么信鸽是如何实现这一功能的呢?
通常推送的效果评估主要看CTR,可是CTR可能对于一些用户来讲,不能反映他的运营目标,他可能更关注的效果是我作了一次推送,用户有没有到达个人目标页面,或者说推送了正在进行促销的通知,有没有更多人进行下单购买。这些场景能够经过在前台给用户管理推送效果跟踪配置的方式来实现。用户每次推送以前,能够指定推送效果如何评估,这里多是一些目标页面集合的浏览pv或者自定义事件的uv,系统把它转化成一个配置文件。当他进行推送的时候,咱们就会把配置文件下发到统计系统里去。当执行推送完以后,应用的用户就会产生点击、注册、浏览的行为。这些数据到进入到系统的时候,主要会作两部分的操做,第一部分是根据推送文件指定的方法进行数据的抽取、过滤、转换、加载并更新相关的倒排索引数据,当真正须要指标输出的时候,咱们会有一个管理的节点,进行计算规则的下发,好比说点击的用户里面有多少是男的,检索之后进行一次bitmap的&操做,就能统计出有多少用户了。数据会实时刷新到Redis存储中,应用开发者在前台查询结果的时候,咱们就会把这个结果反馈给用户。

能看到这里的都是真爱!今天的干货分享就先到这里~

本文的姊妹篇《百亿级消息推送背后的故事——来自于infoQ的前方报道》将于下周推出,敬请关注哦!

联系咱们:

若是您但愿试用或者体验信鸽推送,请访问信鸽官网接入试用。

若是您对该功能有疑问、或者在使用中遇到了困难,欢迎您联系信鸽官网在线客服,或者发送您的问题邮件至:dtsupport@tencent.com

商务合做或业务咨询,请联系如下邮箱:data@tencent.com

相关文章
相关标签/搜索