分布式系统常见问题总结(一)css
参考:html
微信公众号:架构师之路前端
1)im系统,例如qq或者微博,每一个人都读本身的数据(好友列表、群列表、我的信息);mysql
2)微博系统,每一个人读你关注的人的数据,一我的读多我的的数据;nginx
3)秒杀系统,库存只有一份,全部人会在集中的时间读和写这些数据,多我的读一个数据。程序员
例如:小米手机每周二的秒杀,可能手机只有1万部,但瞬时进入的流量多是几百几千万。web
又例如:12306抢票,票是有限的,库存一份,瞬时流量很是多,都读相同的库存。读写冲突,锁很是严重,这是秒杀业务难的地方。那咱们怎么优化秒杀业务的架构呢?redis
优化方向有两个(今天就讲这两个点):算法
(1)将请求尽可能拦截在系统上游(不要让锁冲突落到数据库上去)。传统秒杀系统之因此挂,请求都压倒了后端数据层,数据读写锁冲突严重,并发高响应慢,几乎全部请求都超时,流量虽大,下单成功的有效流量甚小。以12306为例,一趟火车其实只有2000张票,200w我的来买,基本没有人能买成功,请求有效率为0。sql
(2)充分利用缓存,秒杀买票,这是一个典型的读多些少的应用场景,大部分请求是车次查询,票查询,下单和支付才是写请求。一趟火车其实只有2000张票,200w我的来买,最多2000我的下单成功,其余人都是查询库存,写比例只有0.1%,读比例占99.9%,很是适合使用缓存来优化。好,后续讲讲怎么个“将请求尽可能拦截在系统上游”法,以及怎么个“缓存”法,讲讲细节。
常见的站点架构基本是这样的(绝对不画忽悠类的架构图)
(1)浏览器端,最上层,会执行到一些JS代码
(2)站点层,这一层会访问后端数据,拼html页面返回给浏览器
(3)服务层,向上游屏蔽底层数据细节,提供数据访问
(4)数据层,最终的库存是存在这里的,mysql是一个典型(固然还有会缓存)
这个图虽然简单,但能形象的说明大流量高并发的秒杀业务架构,你们要记得这一张图。
后面细细解析各个层级怎么优化。
第一层,客户端怎么优化(浏览器层,APP层)
问你们一个问题,你们都玩过微信的摇一摇抢红包对吧,每次摇一摇,就会日后端发送请求么?回顾咱们下单抢票的场景,点击了“查询”按钮以后,系统那个卡呀,进度条涨的慢呀,做为用户,我会不自觉的再去点击“查询”,对么?继续点,继续点,点点点。。。有用么?无缘无故的增长了系统负载,一个用户点5次,80%的请求是这么多出来的,怎么整?
(a)产品层面,用户点击“查询”或者“购票”后,按钮置灰,禁止用户重复提交请求;
(b)JS层面,限制用户在x秒以内只能提交一次请求;
APP层面,能够作相似的事情,虽然你疯狂的在摇微信,其实x秒才向后端发起一次请求。这就是所谓的“将请求尽可能拦截在系统上游”,越上游越好,浏览器层,APP层就给拦住,这样就能挡住80%+的请求,这种办法只能拦住普通用户(但99%的用户是普通用户)对于群内的高端程序员是拦不住的。firebug一抓包,http长啥样都知道,js是万万拦不住程序员写for循环,调用http接口的,这部分请求怎么处理?
第二层,站点层面的请求拦截
怎么拦截?怎么防止程序员写for循环调用,有去重依据么?ip?cookie-id?…想复杂了,这类业务都须要登陆,用uid便可。在站点层面,对uid进行请求计数和去重,甚至不须要统一存储计数,直接站点层内存存储(这样计数会不许,但最简单)。一个uid,5秒只准透过1个请求,这样又能拦住99%的for循环请求。
5s只透过一个请求,其他的请求怎么办?缓存,页面缓存,同一个uid,限制访问频度,作页面缓存,x秒内到达站点层的请求,均返回同一页面。同一个item的查询,例如车次,作页面缓存,x秒内到达站点层的请求,均返回同一页面。如此限流,既能保证用户有良好的用户体验(没有返回404)又能保证系统的健壮性(利用页面缓存,把请求拦截在站点层了)。
页面缓存不必定要保证全部站点返回一致的页面,直接放在每一个站点的内存也是能够的。优势是简单,坏处是http请求落到不一样的站点,返回的车票数据可能不同,这是站点层的请求拦截与缓存优化。
好,这个方式拦住了写for循环发http请求的程序员,有些高端程序员(黑客)控制了10w个肉鸡,手里有10w个uid,同时发请求(先不考虑实名制的问题,小米抢手机不须要实名制),这下怎么办,站点层按照uid限流拦不住了。
第三层 服务层来拦截(反正就是不要让请求落到数据库上去)
服务层怎么拦截?大哥,我是服务层,我清楚的知道小米只有1万部手机,我清楚的知道一列火车只有2000张车票,我透10w个请求去数据库有什么意义呢?没错,请求队列!
对于写请求,作请求队列,每次只透有限的写请求去数据层(下订单,支付这样的写业务)
1w部手机,只透1w个下单请求去db
3k张火车票,只透3k个下单请求去db
若是均成功再放下一批,若是库存不够则队列里的写请求所有返回“已售完”。
对于读请求,怎么优化?cache抗,无论是memcached仍是redis,单机抗个每秒10w应该都是没什么问题的。如此限流,只有很是少的写请求,和很是少的读缓存mis的请求会透到数据层去,又有99.9%的请求被拦住了。
固然,还有业务规则上的一些优化。回想12306所作的,分时分段售票,原来统一10点卖票,如今8点,8点半,9点,...每隔半个小时放出一批:将流量摊匀。
其次,数据粒度的优化:你去购票,对于余票查询这个业务,票剩了58张,仍是26张,你真的关注么,其实咱们只关心有票和无票?流量大的时候,作一个粗粒度的“有票”“无票”缓存便可。
第三,一些业务逻辑的异步:例以下单业务与 支付业务的分离。这些优化都是结合 业务 来的,我以前分享过一个观点“一切脱离业务的架构设计都是耍流氓”架构的优化也要针对业务。
好了,最后是数据库层
浏览器拦截了80%,站点层拦截了99.9%并作了页面缓存,服务层又作了写请求队列与数据缓存,每次透到数据库层的请求都是可控的。db基本就没什么压力了,闲庭信步,单机也能扛得住,仍是那句话,库存是有限的,小米的产能有限,透这么多请求来数据库没有意义。
所有透到数据库,100w个下单,0个成功,请求有效率0%。透3k个到数据,所有成功,请求有效率100%。
上文应该描述的很是清楚了,没什么总结了,对于秒杀系统,再次重复下我我的经验的两个架构优化思路:
(1)尽可能将请求拦截在系统上游(越上游越好);
(2)读多写少的经常使用多使用缓存(缓存抗读压力);
浏览器和APP:作限速
站点层:按照uid作限速,作页面缓存
服务层:按照业务作写请求队列控制流量,作数据缓存
数据层:闲庭信步
而且:结合业务作优化
问题1、按你的架构,其实压力最大的反而是站点层,假设真实有效的请求数有1000万,不太可能限制请求链接数吧,那么这部分的压力怎么处理?
答:每秒钟的并发可能没有1kw,假设有1kw,解决方案2个:
(1)站点层是能够经过加机器扩容的,最不济1k台机器来呗。
(2)若是机器不够,抛弃请求,抛弃50%(50%直接返回稍后再试),原则是要保护系统,不能让全部用户都失败。
问题2、“控制了10w个肉鸡,手里有10w个uid,同时发请求” 这个问题怎么解决哈?
答:上面说了,服务层写请求队列控制
问题3:限制访问频次的缓存,是否也能够用于搜索?例如A用户搜索了“手机”,B用户搜索“手机”,优先使用A搜索后生成的缓存页面?
答:这个是能够的,这个方法也常常用在“动态”运营活动页,例如短期推送4kw用户app-push运营活动,作页面缓存。
问题4:若是队列处理失败,如何处理?肉鸡把队列被撑爆了怎么办?
答:处理失败返回下单失败,让用户再试。队列成本很低,爆了很难吧。最坏的状况下,缓存了若干请求以后,后续请求都直接返回“无票”(队列里已经有100w请求了,都等着,再接受请求也没有意义了)
问题5:站点层过滤的话,是把uid请求数单独保存到各个站点的内存中么?若是是这样的话,怎么处理多台服务器集群通过负载均衡器将相同用户的响应分布到不一样服务器的状况呢?仍是说将站点层的过滤放到负载均衡前?
答:能够放在内存,这样的话看似一台服务器限制了5s一个请求,全局来讲(假设有10台机器),实际上是限制了5s 10个请求,解决办法:
1)加大限制(这是建议的方案,最简单)
2)在nginx层作7层均衡,让一个uid的请求尽可能落到同一个机器上
问题6:服务层过滤的话,队列是服务层统一的一个队列?仍是每一个提供服务的服务器各一个队列?若是是统一的一个队列的话,需不须要在各个服务器提交的请求入队列前进行锁控制?
答:能够不用统一一个队列,这样的话每一个服务透过更少许的请求(总票数/服务个数),这样简单。统一一个队列又复杂了。
问题7:秒杀以后的支付完成,以及未支付取消占位,如何对剩余库存作及时的控制更新?
答:数据库里一个状态,未支付。若是超过期间,例如45分钟,库存会从新会恢复(你们熟知的“回仓”),给咱们抢票的启示是,开动秒杀后,45分钟以后再试试看,说不定又有票哟~
问题8:不一样的用户浏览同一个商品 落在不一样的缓存实例显示的库存彻底不同 请问老师怎么作缓存数据一致或者是容许脏读?
答:目前的架构设计,请求落到不一样的站点上,数据可能不一致(页面缓存不同),这个业务场景能接受。但数据库层面真实数据是没问题的。
问题9:就算处于业务把优化考虑“3k张火车票,只透3k个下单请求去db”那这3K个订单就不会发生拥堵了吗?
答:(1)数据库抗3k个写请求仍是ok的;(2)能够数据拆分;(3)若是3k扛不住,服务层能够控制透过去的并发数量,根据压测状况来吧,3k只是举例;
问题10;若是在站点层或者服务层处理后台失败的话,需不须要考虑对这批处理失败的请求作重放?仍是就直接丢弃?
答:别重放了,返回用户查询失败或者下单失败吧,架构设计原则之一是“fail fast”。
问题11.对于大型系统的秒杀,好比12306,同时进行的秒杀活动不少,如何分流?
答:垂直拆分
问题12、额外又想到一个问题。这套流程作成同步仍是异步的?若是是同步的话,应该还存在会有响应反馈慢的状况。但若是是异步的话,如何控制可以将响应结果返回正确的请求方?
答:用户层面确定是同步的(用户的http请求是夯住的),服务层面能够同步能够异步。
问题13、秒杀群提问:减库存是在那个阶段减呢?若是是下单锁库存的话,大量恶意用户下单锁库存而不支付如何处理呢?
答:数据库层面写请求量很低,还好,下单不支付,等时间过完再“回仓”,以前提过了。
1、需求缘起
几乎全部的业务系统,都有生成一个记录标识的需求,例如:
(1)消息标识:message-id
(2)订单标识:order-id
(3)帖子标识:tiezi-id
这个记录标识每每就是数据库中的惟一主键,数据库上会创建汇集索引(cluster index),即在物理存储上以这个字段排序。
这个记录标识上的查询,每每又有分页或者排序的业务需求,例如:
(1)拉取最新的一页消息:selectmessage-id/ order by time/ limit 100
(2)拉取最新的一页订单:selectorder-id/ order by time/ limit 100
(3)拉取最新的一页帖子:selecttiezi-id/ order by time/ limit 100
因此每每要有一个time字段,而且在time字段上创建普通索引(non-cluster index)。
咱们都知道普通索引存储的是实际记录的指针,其访问效率会比汇集索引慢,若是记录标识在生成时可以基本按照时间有序,则能够省去这个time字段的索引查询:
select message-id/ (order by message-id)/limit 100
再次强调,能这么作的前提是,message-id的生成基本是趋势时间递增的。
这就引出了记录标识生成(也就是上文提到的三个XXX-id)的两大核心需求:
(1)全局惟一
(2)趋势有序
这也是本文要讨论的核心问题:如何高效生成趋势有序的全局惟一ID。
2、常见方法、不足与优化
【常见方法一:使用数据库的 auto_increment 来生成全局惟一递增ID】
优势:
(1)简单,使用数据库已有的功能
(2)可以保证惟一性
(3)可以保证递增性
(4)步长固定
缺点:
(1)可用性难以保证:数据库常见架构是一主多从+读写分离,生成自增ID是写请求,主库挂了就玩不转了
(2)扩展性差,性能有上限:由于写入是单点,数据库主库的写性能决定ID的生成性能上限,而且难以扩展
改进方法:
(1)增长主库,避免写入单点
(2)数据水平切分,保证各主库生成的ID不重复
如上图所述,由1个写库变成3个写库,每一个写库设置不一样的auto_increment初始值,以及相同的增加步长,以保证每一个数据库生成的ID是不一样的(上图中库0生成0,3,6,9…,库1生成1,4,7,10,库2生成2,5,8,11…)
改进后的架构保证了可用性,但缺点是:
(1)丧失了ID生成的“绝对递增性”:先访问库0生成0,3,再访问库1生成1,可能致使在很是短的时间内,ID生成不是绝对递增的(这个问题不大,咱们的目标是趋势递增,不是绝对递增)
(2)数据库的写压力依然很大,每次生成ID都要访问数据库
为了解决上述两个问题,引出了第二个常见的方案
【常见方法二:单点批量ID生成服务】
分布式系统之因此难,很重要的缘由之一是“没有一个全局时钟,难以保证绝对的时序”,要想保证绝对的时序,仍是只能使用单点服务,用本地时钟保证“绝对时序”。数据库写压力大,是由于每次生成ID都访问了数据库,可使用批量的方式下降数据库写压力。
如上图所述,数据库使用双master保证可用性,数据库中只存储当前ID的最大值,例如0。ID生成服务假设每次批量拉取6个ID,服务访问数据库,将当前ID的最大值修改成5,这样应用访问ID生成服务索要ID,ID生成服务不须要每次访问数据库,就能依次派发0,1,2,3,4,5这些ID了,当ID发完后,再将ID的最大值修改成11,就能再次派发6,7,8,9,10,11这些ID了,因而数据库的压力就下降到原来的1/6了。
优势:
(1)保证了ID生成的绝对递增有序
(2)大大的下降了数据库的压力,ID生成能够作到每秒生成几万几十万个
缺点:
(1)服务仍然是单点
(2)若是服务挂了,服务重启起来以后,继续生成ID可能会不连续,中间出现空洞(服务内存是保存着0,1,2,3,4,5,数据库中max-id是5,分配到3时,服务重启了,下次会从6开始分配,4和5就成了空洞,不过这个问题也不大)
(3)虽然每秒能够生成几万几十万个ID,但毕竟仍是有性能上限,没法进行水平扩展
改进方法:
单点服务的经常使用高可用优化方案是“备用服务”,也叫“影子服务”,因此咱们能用如下方法优化上述缺点(1):
如上图,对外提供的服务是主服务,有一个影子服务时刻处于备用状态,当主服务挂了的时候影子服务顶上。这个切换的过程对调用方是透明的,能够自动完成,经常使用的技术是vip+keepalived,具体就不在这里展开。
【常见方法三:uuid】
上述方案来生成ID,虽然性能大增,但因为是单点系统,总仍是存在性能上限的。同时,上述两种方案,无论是数据库仍是服务来生成ID,业务方Application都须要进行一次远程调用,比较耗时。有没有一种本地生成ID的方法,即高性能,又时延低呢?
uuid是一种常见的方案:string ID =GenUUID();
优势:
(1)本地生成ID,不须要进行远程调用,时延低
(2)扩展性好,基本能够认为没有性能上限
缺点:
(1)没法保证趋势递增
(2)uuid过长,每每用字符串表示,做为主键创建索引查询效率低,常见优化方案为“转化为两个uint64整数存储”或者“折半存储”(折半后不能保证惟一性)
【常见方法四:取当前毫秒数】
uuid是一个本地算法,生成性能高,但没法保证趋势递增,且做为字符串ID检索效率低,有没有一种能保证递增的本地算法呢?
取当前毫秒数是一种常见方案:uint64 ID = GenTimeMS();
优势:
(1)本地生成ID,不须要进行远程调用,时延低
(2)生成的ID趋势递增
(3)生成的ID是整数,创建索引后查询效率高
缺点:
(1)若是并发量超过1000,会生成重复的ID
我去,这个缺点要了命了,不能保证ID的惟一性。固然,使用微秒能够下降冲突几率,但每秒最多只能生成1000000个ID,再多的话就必定会冲突了,因此使用微秒并不从根本上解决问题。
【常见方法五:类snowflake算法】
snowflake是twitter开源的分布式ID生成算法,其核心思想是:一个long型的ID,使用其中41bit做为毫秒数,10bit做为机器编号,12bit做为毫秒内序列号。这个算法单机每秒内理论上最多能够生成1000*(2^12),也就是400W的ID,彻底能知足业务的需求。
借鉴snowflake的思想,结合各公司的业务逻辑和并发量,能够实现本身的分布式ID生成算法。
举例,假设某公司ID生成器服务的需求以下:
(1)单机高峰并发量小于1W,预计将来5年单机高峰并发量小于10W
(2)有2个机房,预计将来5年机房数量小于4个
(3)每一个机房机器数小于100台
(4)目前有5个业务线有ID生成需求,预计将来业务线数量小于10个
(5)…
分析过程以下:
(1)高位取从2016年1月1日到如今的毫秒数(假设系统ID生成器服务在这个时间以后上线),假设系统至少运行10年,那至少须要10年*365天*24小时*3600秒*1000毫秒=320*10^9,差很少预留39bit给毫秒数
(2)每秒的单机高峰并发量小于10W,即平均每毫秒的单机高峰并发量小于100,差很少预留7bit给每毫秒内序列号
(3)5年内机房数小于4个,预留2bit给机房标识
(4)每一个机房小于100台机器,预留7bit给每一个机房内的服务器标识
(5)业务线小于10个,预留4bit给业务线标识
这样设计的64bit标识,能够保证:
(1)每一个业务线、每一个机房、每一个机器生成的ID都是不一样的
(2)同一个机器,每一个毫秒内生成的ID都是不一样的
(3)同一个机器,同一个毫秒内,以序列号区区分保证生成的ID是不一样的
(4)将毫秒数放在最高位,保证生成的ID是趋势递增的
缺点:
(1)因为“没有一个全局时钟”,每台服务器分配的ID是绝对递增的,但从全局看,生成的ID只是趋势递增的(有些服务器的时间早,有些服务器的时间晚)
最后一个容易忽略的问题:
生成的ID,例如message-id/ order-id/ tiezi-id,在数据量大时每每须要分库分表,这些ID常常做为取模分库分表的依据,为了分库分表后数据均匀,ID生成每每有“取模随机性”的需求,因此咱们一般把每秒内的序列号放在ID的最末位,保证生成的ID是随机的。
又若是,咱们在跨毫秒时,序列号老是归0,会使得序列号为0的ID比较多,致使生成的ID取模后不均匀。解决方法是,序列号不是每次都归0,而是归一个0到9的随机数,这个地方。
1、静态页面
静态页面,是指互联网架构中,几乎不变的页面(或者变化频率很低),例如:
首页等html页面
js/css等样式文件
jpg/apk等资源文件
静态页面,有与之匹配的技术架构来加速,例如:
CDN
nginx
squid/varnish
2、动态页面
动态页面,是指互联网架构中,不一样用户不一样场景访问,都不同的页面,例如:
百度搜索结果页
淘宝商品列表页
速运我的订单中心页
这些页面,不一样用户,不一样场景访问,大都会动态生成不一样的页面。
动态页面,有与之匹配的技术架构,例如:
分层架构
服务化架构
数据库,缓存架构
3、互联网动静分离架构
动静分离是指,静态页面与动态页面分开不一样系统访问的架构设计方法。
通常来讲:
静态页面访问路径短,访问速度快,几毫秒
动态页面访问路径长,访问速度相对较慢(数据库的访问,网络传输,业务逻辑计算),几十毫秒甚至几百毫秒,对架构扩展性的要求更高
静态页面与动态页面以不一样域名区分
4、页面静态化
既然静态页面访问快,动态页面生成慢,有没有可能,将本来须要动态生成的站点提早生成好,使用静态页面加速技术来访问呢?
这就是互联网架构中的“页面静态化”优化技术。
举例,以下图,58同城的帖子详情页,本来是须要动态生成的:
浏览器发起http请求,访问/detail/12348888x.shtml 详情页
web-server层从RESTful接口中,解析出帖子id是12348888
service层经过DAO层拼装SQL语句,访问数据库
最终获取数据,拼装html返回浏览器
而“页面静态化”是指,将帖子ID为12348888的帖子12348888x.shtml提早生成好,由静态页面相关加速技术来加速:
这样的话,将极大提高访问速度,减小访问时间,提升用户体验。
5、页面静态化的适用场景
页面静态化优化后速度会加快,那能不能全部的场景都使用这个优化呢?哪些业务场景适合使用这个架构优化方案呢?
一切脱离业务的架构设计都是耍流氓,页面静态化,适用于:总数据量不大,生成静态页面数量很少的业务。例如:
58速运的城市页只有几百个,就能够用这个优化,只需提早生成几百个城市的“静态化页面”便可
一些二手车业务,只有几万量二手车库存,也能够提早生成这几万量二手车的静态页面
像58同城这样的信息模式业务,有几十亿的帖子量,就不太适合于静态化(碎片文件多,反而访问慢)
6、总结
“页面静态化”是一种将本来须要动态生成的站点提早生成静态站点的优化技术。
总数据量不大,生成静态页面数量很少的业务,很是适合于“页面静态化”优化。
RD:单库数据量太大,数据库扛不住了,我要申请一个数据库从库,读写分离。
DBA:数据量多少?
RD:5000w左右。
DBA:读写吞吐量呢?
RD:读QPS约200,写QPS约30左右。
上周在公司听到两个技术同窗讨论,感受对读写分离解决什么问题没有弄清楚,有些奔溃。
另,对于互联网某些业务场景,并非很喜欢数据库读写分离架构,一些浅见见文末。
1、读写分离
什么是数据库读写分离?
答:一主多从,读写分离,主动同步,是一种常见的数据库架构,通常来讲:
主库,提供数据库写服务
从库,提供数据库读服务
主从之间,经过某种机制同步数据,例如mysql的binlog
一个组从同步集群一般称为一个“分组”。
分组架构究竟解决什么问题?
答:大部分互联网业务读多写少,数据库的读每每最早成为性能瓶颈,若是但愿:
线性提高数据库读性能
经过消除读写锁冲突提高数据库写性能
此时可使用分组架构。
一句话,分组主要解决“数据库读性能瓶颈”问题,在数据库扛不住读的时候,一般读写分离,经过增长从库线性提高系统读性能。
2、水平切分
什么是数据库水平切分?
答:水平切分,也是一种常见的数据库架构,通常来讲:
每一个数据库之间没有数据重合,没有相似binlog同步的关联
全部数据并集,组成所有数据
会用算法,来完成数据分割,例如“取模”
一个水平切分集群中的每个数据库,一般称为一个“分片”。
水平切分架构究竟解决什么问题?
答:大部分互联网业务数据量很大,单库容量容易成为瓶颈,若是但愿:
线性下降单库数据容量
线性提高数据库写性能
此时可使用水平切分架构。
一句话总结,水平切分主要解决“数据库数据量大”问题,在数据库容量扛不住的时候,一般水平切分。
3、为何不喜欢读写分离
对于互联网大数据量,高并发量,高可用要求高,一致性要求高,前端面向用户的业务场景,若是数据库读写分离:
数据库链接池须要区分:读链接池,写链接池
若是要保证读高可用,读链接池要实现故障自动转移
有潜在的主库从库一致性问题
若是面临的是“读性能瓶颈”问题,增长缓存可能来得更直接,更容易一点
关于成本,从库的成本比缓存高很多
对于云上的架构,以阿里云为例,主库提供高可用服务,从库不提供高可用服务
因此,上述业务场景下,楼主建议使用缓存架构来增强系统读性能,替代数据库主从分离架构。
固然,使用缓存架构的潜在问题:若是缓存挂了,流量所有压到数据库上,数据库会雪崩。不过幸亏,云上的缓存通常都提供高可用的服务。
4、总结
读写分离,解决“数据库读性能瓶颈”问题
水平切分,解决“数据库数据量大”问题
对于互联网大数据量,高并发量,高可用要求高,一致性要求高,前端面向用户的业务场景,微服务缓存架构,可能比数据库读写分离架构更合适