高频交易支付架构并不复杂

 

写在前面nginx

支付系统是整个交易系统中至关核心的一部分功能,以咱们的交易中台为例,经过领域方式的拆分,支付架构隶属于订单团队,在整个用户下单以后进行支付,支付以后成单进入交易履约流程。
web

支付系统因为自己和金融相关,不像其余高频系统面对海量请求能够大量使用缓存,异步mq等方式解决三高问题。支付系统对数据一致性要求更高,因此对于其架构设计原则仍是有本身特色的。redis

分库分表算法

构建一个支撑每秒十万只读系统并不复杂,无非是经过一致性哈希扩展缓存节点,水平扩展web服务器等。每秒钟数十万数据更新操做,在任何数据库上都是不可能的任务,首先须要对订单表进行分库分表。数据库

在进行数据库操做时,通常会用ID(UID)字段,因此选择以UID进行分库分表。缓存

分库策略咱们选择了“二叉树分库”,所谓“二叉树分库”指:在进行数据库扩容时,以2倍数进行扩容。好比:1台扩容2台,2台扩容4台,以此类推。最后把Order库分了8个库中,每一个库10个表。服务器

根据uid计算数据库编号:微信

分库信息 = (uid / 10) % 8 + 1 
根据uid计算表编号: 
表编号 = uid %10架构

订单ID

订单系统的ID必须具备全局惟一的特征,简单的方式是利用数据库的序列,每操做一次就能得到一个全局惟一的自增ID,若是支持每秒10w订单,那每秒至少须要生成10w订单ID,经过数据库自增ID显然没法完成上述请求。因此经过内存计算获取全局惟一的订单ID。并发

JAVA领域著名的惟一ID应该是UUID了,不过UUID太长且包含字母,不适合作订单ID。

经过反复比较筛选,借鉴Twitter的算法实现全局惟一ID。

三部分组成:

  • 时间戳

    时间戳的粒度是毫秒级,生成订单ID时,使用System.currentTimerMillis()做为时间戳。

  • 机器号

    每一个订单服务器都被分配一个惟一的编号,生成订单ID时,直接使用该惟一编号做为机器便可。

  • 自增序号

    当同一服务器的同一号码中有多个生成订单ID的请求时,会在当前毫秒下自增此序号,下一个毫秒此序号继续同0开始。如同一服务器同一毫秒生成3个订单ID请求,这3个订单ID的自增序号分别是0,1,2。

最终订单结构:

分库分表信息 + 时间戳 + 机器号 + 自增序号

仍是按照第一部分根据uid计算数据库编号和表编号的算法,当uid=9527时,分库信息=1,分表信息=7,将他们进行组合,两位的分库分表信息即为”17”。

最终一致性

咱们经过对order表uid维度的分库分表,实现了order表的超高并发写入与更新,经过uid和订单ID查询订单信息。

上面方案虽然简单,可是保持两个order表机器的数据一致是很麻烦的事情。

两个表集群显然是在不一样的数据库集群中,若是写入与更新中引入强一致性的分布式事务,这无疑会大大下降系统效率,增加服务响应时间,这是咱们所不能接受的,因此引入了消息队列进行异步数据同步,为了实现数据的最终一致性。

固然消息队列的各类异常会形成数据不一致,因此咱们又引入了实时服务监控,实时计算两个集群的数据差别,并进行一致性同步。

数据库高可用

所谓数据库高可用指的是:

当数据库因为各类缘由出现问题时,能实时或快速的恢复数据库并修补数据。

从总体集群角度看,就像没有出任何问题同样,须要注意的是,这里的恢复数据库服务并不必定是指修复原有数据库,也包括将服务切换到另外备用的数据库。

数据库高可用的主要工做是数据恢复月数据修补,通常咱们完成这两项工做的时间长短,做为衡量高可用好坏的标准。

 

咱们认为,数据库运维应该和项目组分开,当数据库出现问题时,应由DBA实现统一恢复,不须要项目组操做服务,这样便于作到自动化,缩短服务恢复时间。

如上图所示,web服务器将再也不直接链接从库DB2和DB3,而是链接LVS负载均衡,由LVS链接从库。

这样作的好处是LVS能自动感知从库是否可用,从库DB2宕机后,LVS将不会把读数据请求再发向DB2。

同时DBA须要增减从库节点时,只需独立操做LVS便可,再也不须要项目组更新配置文件,重启服务器来配合。

再来看主库高可用结构图:

 

如上图所示,web服务器将再也不直接链接主库DB1,而是链接KeepAlive虚拟出的一个虚拟ip,再将此虚拟ip映射到主库DB1上,同时添加DB_bak从库,实时同步DB1中的数据。

正常状况下web仍是在DB1中读写数据,当DB1宕机后,脚本会自动将DB_bak设置成主库,并将虚拟ip映射到DB_bak上,web服务将使用健康的DB_bak做为主库进行读写访问。

这样只需几秒的时间,就能完成主数据库服务恢复。

组合上面的结构,获得主从高可用结构图:

数据库高可用还包含数据修补,因为咱们在操做核心数据时,都是先记录日志再执行更新,加上实现了近乎实时的快速恢复数据库服务,因此修补的数据量都不大,一个简单的恢复脚本就能快速完成数据修复。

数据分级

支付系统除了最核心的支付订单表与支付流水表外,还有一些配置信息表和一些用户相关信息表。若是全部的读操做都在数据库上完成,系统性能将大打折扣,因此咱们引入了数据分级机制。

咱们简单的将支付系统的数据划分红了3级:

  • 第1级:订单数据和支付流水数据;这两块数据对实时性和精确性要求很高,因此不添加任何缓存,读写操做将直接操做数据库。

  • 第2级:用户相关数据;这些数据和用户相关,具备读多写少的特征,因此咱们使用redis进行缓存。

  • 第3级:支付配置信息;这些数据和用户无关,具备数据量小,频繁读,几乎不修改的特征,因此咱们使用本地内存进行缓存。

使用本地内存缓存有一个数据同步问题,由于配置信息缓存在内存中,而本地内存没法感知到配置信息在数据库的修改,这样会形成数据库中数据和本地内存中数据不一致的问题。

为了解决此问题,咱们开发了一个高可用的消息推送平台,当配置信息被修改时,咱们可使用推送平台,给支付系统全部的服务器推送配置文件更新消息,服务器收到消息会自动更新配置信息,并给出成功反馈。

粗细管道

举个简单的例子,咱们目前订单的处理能力是平均10万下单每秒,峰值14万下单每秒,若是同一秒钟有100万个下单请求进入支付系统,毫无疑问咱们的整个支付系统就会崩溃,后续源源不断的请求会让咱们的服务集群根本启动不起来,惟一的办法只能是切断全部流量,重启整个集群,再慢慢导入流量。

咱们在对外的web服务器上加一层“粗细管道”,就能很好的解决上面的问题。

请看上面的结构图,http请求在进入web集群前,会先通过一层粗细管道。入口端是粗口,咱们设置最大能支持100万请求每秒,多余的请求会被直接抛弃掉。出口端是细口,咱们设置给web集群10万请求每秒。

剩余的90万请求会在粗细管道中排队,等待web集群处理完老的请求后,才会有新的请求从管道中出来,给web集群处理。

这样web集群处理的请求数每秒永远不会超过10万,在这个负载下,集群中的各个服务都会高校运转,整个集群也不会由于暴增的请求而中止服务。

如何实现粗细管道?nginx商业版中已经有了支持,相关资料请搜索

nginx max_conns,须要注意的是max_conns是活跃链接数,具体设置除了须要肯定最大TPS外,还需肯定平均响应时间。

微信扫描二维码,关注个人公众号

相关文章
相关标签/搜索