(整理三)高并发架构思路,附十万定时任务执行解决方案

1、什么是高并发html

高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它一般是指,经过设计保证系统可以同时并行处理不少请求。mysql

 

高并发相关经常使用的一些指标有响应时间(Response Time),吞吐量(Throughput),每秒查询率QPS(Query Per Second),并发用户数等。nginx

 

响应时间:系统对请求作出响应的时间。例如系统处理一个HTTP请求须要200ms,这个200ms就是系统的响应时间。程序员

吞吐量:单位时间内处理的请求数量。web

QPS:每秒响应请求数。在互联网领域,这个指标和吞吐量区分的没有这么明显。redis

并发用户数:同时承载正常使用系统功能的用户数量。例如一个即时通信系统,同时在线量必定程度上表明了系统的并发用户数。sql

 

2、如何提高系统的并发能力数据库

互联网分布式架构设计,提升系统并发能力的方式,方法论上主要有两种:垂直扩展(Scale Up)与水平扩展(Scale Out)。json

垂直扩展:提高单机处理能力。垂直扩展的方式又有两种:后端

(1)加强单机硬件性能,例如:增长CPU核数如32核,升级更好的网卡如万兆,升级更好的硬盘如SSD,扩充硬盘容量如2T,扩充系统内存如128G;

(2)提高单机架构性能,例如:使用Cache来减小IO次数,使用异步来增长单服务吞吐量,使用无锁数据结构来减小响应时间;

 

在互联网业务发展很是迅猛的早期,若是预算不是问题,强烈建议使用“加强单机硬件性能”的方式提高系统并发能力,由于这个阶段,公司的战略每每是发展业务抢时间,而“加强单机硬件性能”每每是最快的方法。

 

无论是提高单机硬件性能,仍是提高单机架构性能,都有一个致命的不足:单机性能老是有极限的。因此互联网分布式架构设计高并发终极解决方案仍是水平扩展。

 

水平扩展:只要增长服务器数量,就能线性扩充系统性能。水平扩展对系统架构设计是有要求的,如何在架构各层进行可水平扩展的设计,以及互联网公司架构各层常见的水平扩展实践,是本文重点讨论的内容。

 

3、常见的互联网分层架构

  

  

常见互联网分布式架构如上,分为:

(1)客户端层:典型调用方是浏览器browser或者手机应用APP

(2)反向代理层:系统入口,反向代理

(3)站点应用层:实现核心应用逻辑,返回html或者json

(4)服务层:若是实现了服务化,就有这一层

(5)数据-缓存层:缓存加速访问存储

(6)数据-数据库层:数据库固化数据存储

整个系统各层次的水平扩展,又分别是如何实施的呢?

 

4、分层水平扩展架构实践

反向代理层的水平扩展


反向代理层的水平扩展,是经过“DNS轮询”实现的:dns-server对于一个域名配置了多个解析ip,每次DNS解析请求来访问dns-server,会轮询返回这些ip。

当nginx成为瓶颈的时候,只要增长服务器数量,新增nginx服务的部署,增长一个外网ip,就能扩展反向代理层的性能,作到理论上的无限高并发。

 

站点层的水平扩展


站点层的水平扩展,是经过“nginx”实现的。经过修改nginx.conf,能够设置多个web后端。

当web后端成为瓶颈的时候,只要增长服务器数量,新增web服务的部署,在nginx配置中配置上新的web后端,就能扩展站点层的性能,作到理论上的无限高并发。

 

服务层的水平扩展


服务层的水平扩展,是经过“服务链接池”实现的。

站点层经过RPC-client调用下游的服务层RPC-server时,RPC-client中的链接池会创建与下游服务多个链接,当服务成为瓶颈的时候,只要增长服务器数量,新增服务部署,在RPC-client处创建新的下游服务链接,就能扩展服务层性能,作到理论上的无限高并发。若是须要优雅的进行服务层自动扩容,这里可能须要配置中内心服务自动发现功能的支持。

 

数据层的水平扩展

在数据量很大的状况下,数据层(缓存,数据库)涉及数据的水平扩展,将本来存储在一台服务器上的数据(缓存,数据库)水平拆分到不一样服务器上去,以达到扩充系统性能的目的。

 

互联网数据层常见的水平拆分方式有这么几种,以数据库为例:

按照范围水平拆分


每个数据服务,存储必定范围的数据,上图为例:

user0库,存储uid范围1-1kw

user1库,存储uid范围1kw-2kw

这个方案的好处是:

(1)规则简单,service只需判断一下uid范围就能路由到对应的存储服务;

(2)数据均衡性较好;

(3)比较容易扩展,能够随时加一个uid[2kw,3kw]的数据服务;

不足是:

(1)      请求的负载不必定均衡,通常来讲,新注册的用户会比老用户更活跃,大range的服务请求压力会更大;

 

按照哈希水平拆分


每个数据库,存储某个key值hash后的部分数据,上图为例:

user0库,存储偶数uid数据

user1库,存储奇数uid数据

这个方案的好处是:

(1)规则简单,service只需对uid进行hash能路由到对应的存储服务;

(2)数据均衡性较好;

(3)请求均匀性较好;

不足是:

(1)不容易扩展,扩展一个数据服务,hash方法改变时候,可能须要进行数据迁移;

 

这里须要注意的是,经过水平拆分来扩充系统性能,与主从同步读写分离来扩充数据库性能的方式有本质的不一样。

经过水平拆分扩展数据库性能:

(1)每一个服务器上存储的数据量是总量的1/n,因此单机的性能也会有提高;

(2)n个服务器上的数据没有交集,那个服务器上数据的并集是数据的全集;

(3)数据水平拆分到了n个服务器上,理论上读性能扩充了n倍,写性能也扩充了n倍(其实远不止n倍,由于单机的数据量变为了原来的1/n);

经过主从同步读写分离扩展数据库性能:

(1)每一个服务器上存储的数据量是和总量相同;

(2)n个服务器上的数据都同样,都是全集;

(3)理论上读性能扩充了n倍,写仍然是单点,写性能不变;

 

缓存层的水平拆分和数据库层的水平拆分相似,也是以范围拆分和哈希拆分的方式居多,就再也不展开。

 

5、总结

高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它一般是指,经过设计保证系统可以同时并行处理不少请求。

提升系统并发能力的方式,方法论上主要有两种:垂直扩展(Scale Up)与水平扩展(Scale Out)。前者垂直扩展能够经过提高单机硬件性能,或者提高单机架构性能,来提升并发性,但单机性能老是有极限的,互联网分布式架构设计高并发终极解决方案仍是后者:水平扩展。

互联网分层架构中,各层次水平扩展的实践又有所不一样:

(1)反向代理层能够经过“DNS轮询”的方式来进行水平扩展;

(2)站点层能够经过nginx来进行水平扩展;

(3)服务层能够经过服务链接池来进行水平扩展;

(4)数据库能够按照数据范围,或者数据哈希的方式来进行水平扩展;

各层实施水平扩展后,可以经过增长服务器数量的方式来提高系统的性能,作到理论上的性能无限。

秒杀系统如何进行架构

1、秒杀业务为何难作

1)im系统,例如qq或者微博,每一个人都读本身的数据(好友列表、群列表、我的信息);

2)微博系统,每一个人读你关注的人的数据,一我的读多我的的数据;

3)秒杀系统,库存只有一份,全部人会在集中的时间读和写这些数据,多我的读一个数据。

 

例如:小米手机每周二的秒杀,可能手机只有1万部,但瞬时进入的流量多是几百几千万。

又例如:12306抢票,票是有限的,库存一份,瞬时流量很是多,都读相同的库存。读写冲突,锁很是严重,这是秒杀业务难的地方。那咱们怎么优化秒杀业务的架构呢?

 

2、优化方向

优化方向有两个(今天就讲这两个点):

(1)将请求尽可能拦截在系统上游(不要让锁冲突落到数据库上去)。传统秒杀系统之因此挂,请求都压倒了后端数据层,数据读写锁冲突严重,并发高响应慢,几乎全部请求都超时,流量虽大,下单成功的有效流量甚小。以12306为例,一趟火车其实只有2000张票,200w我的来买,基本没有人能买成功,请求有效率为0。

(2)充分利用缓存,秒杀买票,这是一个典型的读多些少的应用场景,大部分请求是车次查询,票查询,下单和支付才是写请求。一趟火车其实只有2000张票,200w我的来买,最多2000我的下单成功,其余人都是查询库存,写比例只有0.1%,读比例占99.9%,很是适合使用缓存来优化。好,后续讲讲怎么个“将请求尽可能拦截在系统上游”法,以及怎么个“缓存”法,讲讲细节。

 

3、常见秒杀架构

常见的站点架构基本是这样的(绝对不画忽悠类的架构图)


(1)浏览器端,最上层,会执行到一些JS代码

(2)站点层,这一层会访问后端数据,拼html页面返回给浏览器

(3)服务层,向上游屏蔽底层数据细节,提供数据访问

(4)数据层,最终的库存是存在这里的,mysql是一个典型(固然还有会缓存)

这个图虽然简单,但能形象的说明大流量高并发的秒杀业务架构,你们要记得这一张图。

后面细细解析各个层级怎么优化。

 

4、各层次优化细节

第一层,客户端怎么优化(浏览器层,APP层)

问你们一个问题,你们都玩过微信的摇一摇抢红包对吧,每次摇一摇,就会日后端发送请求么?回顾咱们下单抢票的场景,点击了“查询”按钮以后,系统那个卡呀,进度条涨的慢呀,做为用户,我会不自觉的再去点击“查询”,对么?继续点,继续点,点点点。。。有用么?无缘无故的增长了系统负载,一个用户点5次,80%的请求是这么多出来的,怎么整?

(a)产品层面,用户点击“查询”或者“购票”后,按钮置灰,禁止用户重复提交请求;

(b)JS层面,限制用户在x秒以内只能提交一次请求;

APP层面,能够作相似的事情,虽然你疯狂的在摇微信,其实x秒才向后端发起一次请求。这就是所谓的“将请求尽可能拦截在系统上游”,越上游越好,浏览器层,APP层就给拦住,这样就能挡住80%+的请求,这种办法只能拦住普通用户(但99%的用户是普通用户)对于群内的高端程序员是拦不住的。firebug一抓包,http长啥样都知道,js是万万拦不住程序员写for循环,调用http接口的,这部分请求怎么处理?

 

第二层,站点层面的请求拦截

怎么拦截?怎么防止程序员写for循环调用,有去重依据么?ip?cookie-id?…想复杂了,这类业务都须要登陆,用uid便可。在站点层面,对uid进行请求计数和去重,甚至不须要统一存储计数,直接站点层内存存储(这样计数会不许,但最简单)。一个uid,5秒只准透过1个请求,这样又能拦住99%的for循环请求。

5s只透过一个请求,其他的请求怎么办?缓存,页面缓存,同一个uid,限制访问频度,作页面缓存,x秒内到达站点层的请求,均返回同一页面。同一个item的查询,例如车次,作页面缓存,x秒内到达站点层的请求,均返回同一页面。如此限流,既能保证用户有良好的用户体验(没有返回404)又能保证系统的健壮性(利用页面缓存,把请求拦截在站点层了)。

页面缓存不必定要保证全部站点返回一致的页面,直接放在每一个站点的内存也是能够的。优势是简单,坏处是http请求落到不一样的站点,返回的车票数据可能不同,这是站点层的请求拦截与缓存优化。

 

好,这个方式拦住了写for循环发http请求的程序员,有些高端程序员(黑客)控制了10w个肉鸡,手里有10w个uid,同时发请求(先不考虑实名制的问题,小米抢手机不须要实名制),这下怎么办,站点层按照uid限流拦不住了。

 

第三层 服务层来拦截(反正就是不要让请求落到数据库上去)

服务层怎么拦截?大哥,我是服务层,我清楚的知道小米只有1万部手机,我清楚的知道一列火车只有2000张车票,我透10w个请求去数据库有什么意义呢?没错,请求队列!

对于写请求,作请求队列,每次只透有限的写请求去数据层(下订单,支付这样的写业务)

1w部手机,只透1w个下单请求去db

3k张火车票,只透3k个下单请求去db

若是均成功再放下一批,若是库存不够则队列里的写请求所有返回“已售完”。

 

对于读请求,怎么优化?cache抗,无论是memcached仍是redis,单机抗个每秒10w应该都是没什么问题的。如此限流,只有很是少的写请求,和很是少的读缓存mis的请求会透到数据层去,又有99.9%的请求被拦住了。

 

固然,还有业务规则上的一些优化。回想12306所作的,分时分段售票,原来统一10点卖票,如今8点,8点半,9点,...每隔半个小时放出一批:将流量摊匀。

其次,数据粒度的优化:你去购票,对于余票查询这个业务,票剩了58张,仍是26张,你真的关注么,其实咱们只关心有票和无票?流量大的时候,作一个粗粒度的“有票”“无票”缓存便可。

第三,一些业务逻辑的异步:例以下单业务与 支付业务的分离。这些优化都是结合 业务 来的,我以前分享过一个观点“一切脱离业务的架构设计都是耍流氓”架构的优化也要针对业务。

 

好了,最后是数据库层

浏览器拦截了80%,站点层拦截了99.9%并作了页面缓存,服务层又作了写请求队列与数据缓存,每次透到数据库层的请求都是可控的。db基本就没什么压力了,闲庭信步,单机也能扛得住,仍是那句话,库存是有限的,小米的产能有限,透这么多请求来数据库没有意义。

所有透到数据库,100w个下单,0个成功,请求有效率0%。透3k个到数据,所有成功,请求有效率100%。

 

5、总结

上文应该描述的很是清楚了,没什么总结了,对于秒杀系统,再次重复下我我的经验的两个架构优化思路:

(1)尽可能将请求拦截在系统上游(越上游越好);

(2)读多写少的经常使用多使用缓存(缓存抗读压力);

浏览器和APP:作限速

站点层:按照uid作限速,作页面缓存

服务层:按照业务作写请求队列控制流量,作数据缓存

数据层:闲庭信步

而且:结合业务作优化

10w定时任务,如何高效触发超时

1、缘起

不少时候,业务有定时任务或者定时超时的需求,当任务量很大时,可能须要维护大量的timer,或者进行低效的扫描。

 

例如:58到家APP实时消息通道系统,对每一个用户会维护一个APP到服务器的TCP链接,用来实时收发消息,对这个TCP链接,有这样一个需求:“若是连续30s没有请求包(例如登陆,消息,keepalive包),服务端就要将这个用户的状态置为离线”。

 

其中,单机TCP同时在线量约在10w级别,keepalive请求包大概30s一次,吞吐量约在3000qps。

 

通常来讲怎么实现这类需求呢?

 

“轮询扫描法”

1)用一个Map<uid, last_packet_time>来记录每个uid最近一次请求时间last_packet_time

2)当某个用户uid有请求包来到,实时更新这个Map

3)启动一个timer,当Map中不为空时,轮询扫描这个Map,看每一个uid的last_packet_time是否超过30s,若是超过则进行超时处理

 

“多timer触发法”

1)用一个Map<uid, last_packet_time>来记录每个uid最近一次请求时间last_packet_time

2)当某个用户uid有请求包来到,实时更新这个Map,并同时对这个uid请求包启动一个timer,30s以后触发

3)每一个uid请求包对应的timer触发后,看Map中,查看这个uid的last_packet_time是否超过30s,若是超过则进行超时处理

 

方案一:只启动一个timer,但须要轮询,效率较低

方案二:不须要轮询,但每一个请求包要启动一个timer,比较耗资源

 

特别在同时在线量很大时,很容易CPU100%,如何高效维护和触发大量的定时/超时任务,是本文要讨论的问题

 

2、环形队列法

废话很少说,三个重要的数据结构:

1)30s超时,就建立一个index从0到30的环形队列(本质是个数组)

2)环上每个slot是一个Set<uid>,任务集合

3)同时还有一个Map<uid, index>,记录uid落在环上的哪一个slot里

 

同时

1)启动一个timer,每隔1s,在上述环形队列中移动一格,0->1->2->3…->29->30->0…

2)有一个Current Index指针来标识刚检测过的slot

 

当有某用户uid有请求包到达时

1)从Map结构中,查找出这个uid存储在哪个slot里

2)从这个slot的Set结构中,删除这个uid

3)将uid从新加入到新的slot中,具体是哪个slot呢 => Current Index指针所指向的上一个slot,由于这个slot,会被timer在30s以后扫描到

(4)更新Map,这个uid对应slot的index值

 

哪些元素会被超时掉呢?

Current Index每秒种移动一个slot,这个slot对应的Set<uid>中全部uid都应该被集体超时!若是最近30s有请求包来到,必定被放到Current Index的前一个slot了,Current Index所在的slot对应Set中全部元素,都是最近30s没有请求包来到的。

 

因此,当没有超时时,Current Index扫到的每个slot的Set中应该都没有元素。

 

优点

(1)只须要1个timer

(2)timer每1s只须要一次触发,消耗CPU很低

(3)批量超时,Current Index扫到的slot,Set中全部元素都应该被超时掉

 

3、总结

这个环形队列法是一个通用的方法,Set和Map中能够是任何task,本文的uid是一个最简单的举例。

相关文章
相关标签/搜索