若是你看过秒杀系统的流量监控图的话,你会发现它是一条直线,就在秒杀开始那一秒是一条很直很直的线,这是由于秒杀请求在时间上高度集中于某一特定的时间点。这样一来,就会致使一个特别高的流量峰值,它对资源的消耗是瞬时的。算法
可是对秒杀这个场景来讲,最终可以抢到商品的人数是固定的,也就是说100人和10000人发起请求的结果都是同样的,并发度越高,无效请求也越多。数据库
可是从业务上来讲,秒杀活动是但愿更多的人来参与的,也就是开始以前但愿有更多的人来刷页面,可是真正开始下单时,秒杀请求并非越多越好。所以咱们能够设计一些规则,让并发的请求更多地延缓,并且咱们甚至能够过滤掉一些无效请求。浏览器
为何要削峰缓存
为何要削峰呢?或者说峰值会带来哪些坏处?
咱们知道服务器的处理资源是恒定的,你用或者不用它的处理能力都是同样的,因此出现峰值的话,很容易致使忙处处理不过来,闲的时候却又没有什么要处理。可是因为要保证服务质量,咱们的不少处理资源只能按照忙的时候来预估,而这会致使资源的一个浪费。服务器
这就比如由于存在早高峰和晚高峰的问题,因此有了错峰限行的解决方案。微信
削峰的存在,一是可让服务端处理变得更加平稳,二是能够节省服务器的资源成本。网络
针对秒杀这一场景,削峰从本质上来讲就是更多地延缓用户请求的发出,以便减小和过滤掉一些无效请求,它听从“请求数要尽可能少”的原则。并发
今天,我就来介绍一下流量削峰的一些操做思路:排队、答题、分层过滤。
这几种方式都是无损(即不会损失用户的发出请求)的实现方案,固然还有些有损的实现方案,包括咱们后面要介绍的关于稳定性的一些办法,好比限流和机器负载保护等一些强制措施也能达到削峰保护的目的,固然这都是不得已的一些措施,所以就不归类到这里了。异步
排队分布式
要对流量进行削峰,最容易想到的解决方案就是用消息队列来缓冲瞬时流量,把同步的直接调用转换成异步的间接推送,中间经过一个队列在一端承接瞬时的流量洪峰,在另外一端平滑地将消息推送出去。在这里,消息队列就像“水库”同样,拦蓄上游的洪水,削减进入下游河道的洪峰流量,从而达到减免洪水灾害的目的。
用消息队列来缓冲瞬时流量的方案,以下图所示:
l消息队列来缓冲瞬时流量
可是,若是流量峰值持续一段时间达到了消息队列的处理上限,例如本机的消息积压达到了存储空间的上限,消息队列一样也会被压垮,这样虽然保护了下游的系统,可是和直接把请求丢弃也没多大的区别。就像遇到洪水爆发时,即便是有水库恐怕也无济于事。
除了消息队列,相似的排队方式还有不少,例如:
能够看到,这些方式都有一个共同特征,就是把“一步的操做”变成“两步的操做”,其中增长的一步操做用来起到缓冲的做用。
说到这里你可能会说,这样一来增长了访问请求的路径啊,并不符合咱们介绍的“4要1不要”原则。没错,的确看起来不太合理,可是若是不增长一个缓冲步骤,那么在一些场景下系统极可能会直接崩溃,因此最终仍是须要你作出妥协和平衡。
答题
你是否还记得,最先期的秒杀只是纯粹地刷新页面和点击购买按钮,它是后来才增长了答题功能的。那么,为何要增长答题功能呢?
这主要是为了增长购买的复杂度,从而达到两个目的。
第一个目的是防止部分买家使用秒杀器在参加秒杀时做弊。2011年秒杀很是火的时候,秒杀器也比较猖獗,于是没有达到全民参与和营销的目的,因此系统增长了答题来限制秒杀器。增长答题后,下单的时间基本控制在2s后,秒杀器的下单比例也大大降低。答题页面以下图所示。
答题页面
第二个目的其实就是延缓请求,起到对请求流量进行削峰的做用,从而让系统可以更好地支持瞬时的流量高峰。这个重要的功能就是把峰值的下单请求拉长,从之前的1s以内延长到2s~10s。这样一来,请求峰值基于时间分片了。这个时间的分片对服务端处理并发很是重要,会大大减轻压力。
并且,因为请求具备前后顺序,靠后的请求到来时天然也就没有库存了,所以根本到不了最后的下单步骤,因此真正的并发写就很是有限了。这种设计思路目前用得很是广泛,如当年支付宝的“咻一咻”、微信的“摇一摇”都是相似的方式。
这里,我重点说一下秒杀答题的设计思路。
秒杀答题
如上图所示,整个秒杀答题的逻辑主要分为3部分。
其实真正答题的逻辑比较简单,很好理解:当用户提交的答案和题目对应的答案作比较,若是经过了就继续进行下一步的下单逻辑,不然就失败。
咱们能够把问题和答案用下面这样的key来进行MD5加密:
验证的逻辑以下图所示:
答题的验证逻辑
注意,这里面的验证逻辑,除了验证问题的答案之外,还包括用户自己身份的验证,例如是否已经登陆、用户的Cookie是否完整、用户是否重复频繁提交等。
除了作正确性验证,咱们还能够对提交答案的时间作些限制,例如从开始答题到接受答案要超过1s,由于小于1s是人为操做的可能性很小,这样也能防止机器答题的状况。
分层过滤
前面介绍的排队和答题要么是少发请求,要么对发出来的请求进行缓冲,而针对秒杀场景还有一种方法,就是对请求进行分层过滤,从而过滤掉一些无效的请求。分层过滤其实就是采用“漏斗”式设计来处理请求的,以下图所示。
假如请求分别通过CDN、前台读系统(如商品详情系统)、后台系统(如交易系统)和数据库这几层,那么:
这样就像漏斗同样,尽可能把数据量和请求量一层一层地过滤和减小了。
分层过滤的核心思想是:在不一样的层次尽量地过滤掉无效请求,让“漏斗”最末端的才是有效请求。而要达到这种效果,咱们就必须对数据作分层的校验。
分层校验的基本原则是:
分层校验的目的是:
在读系统中,尽可能减小因为一致性校验带来的系统瓶颈,可是尽可能将不影响性能的检查条件提早,如用户是否具备秒杀资格、商品状态是否正常、用户答题是否正确、秒杀是否已经结束、是否非法请求、营销等价物是否充足等;
在写数据系统中,主要对写的数据(如“库存”)作一致性检查,最后在数据库层保证数据的最终准确性(如“库存”不能减为负数)。
总结一下
今天,我介绍了如何在网站面临大流量冲击时进行请求的削峰,并主要介绍了削峰的3种处理方式:
其中,队列缓冲方式更加通用,它适用于内部上下游系统之间调用请求不平缓的场景,因为内部系统的服务质量要求不能随意丢弃请求,因此使用消息队列能起到很好的削峰和缓冲做用。
而答题更适用于秒杀或者营销活动等应用场景,在请求发起端就控制发起请求的速度,由于越到后面无效请求也会越多,因此配合后面介绍的分层拦截的方式,能够更进一步减小无效请求对系统资源的消耗。
分层过滤很是适合交易性的写请求,好比减库存或者拼车这种场景,在读的时候须要知道还有没有库存或者是否还有剩余空座位。可是因为库存和座位又是不停变化的,因此读的数据是否必定要很是准确呢?其实不必定,你能够放一些请求过去,而后在真正减的时候再作强一致性保证,这样既过滤一些请求又解决了强一致性读的瓶颈。
不过,在削峰的处理方式上除了采用技术手段,其实还能够采用业务手段来达到必定效果,例如在零点开启大促的时候因为流量太大致使支付系统阻塞,这个时候能够采用发放优惠券、发起抽奖活动等方式,将一部分流量分散到其余地方,这样也能起到缓冲流量的做用。
若是想学习Java工程化、高性能及分布式、深刻浅出。微服务、Spring,MyBatis,Netty源码分析的朋友能够加个人Java高级交流:787707172,群里有阿里大牛直播讲解技术,以及Java大型互联网技术的视频免费分享给你们。