设计一个缓存系统,不得不要考虑的问题就是:缓存穿透、缓存击穿与失效时的雪崩效应。java
缓存中的某些Key(可能对应用与某个促销商品)对应的value存储在集群中一台机器,使得全部流量涌向同一机器,成为系统的瓶颈,该问题的挑战在于它没法经过增长机器容量来解决。redis
客户端热点key缓存:将热点key对应value并缓存在客户端本地,而且设置一个失效时间。对于每次读请求,将首先检查key是否存在于本地缓存中,若是存在则直接返回,若是不存在再去访问分布式缓存的机器。
将热点key分散为多个子key,而后存储到缓存集群的不一样机器上,这些子key对应的value都和热点key是同样的。当经过热点key去查询数据时,经过某种hash算法随机选择一个子key,而后再去访问缓存机器,将热点分散到了多个子key上。算法
缓存穿透是指查询一个必定不存在的数据,因为缓存是不命中时被动写的,而且出于容错考虑,若是从存储层查不到数据则不写入缓存,这将致使这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。在流量大时,可能DB就挂掉了,要是有人利用不存在的key频繁攻击咱们的应用,这就是漏洞。数据库
有不少种方法能够有效地解决缓存穿透问题,最多见的则是采用布隆过滤器,将全部可能存在的数据哈希到一个足够大的bitmap中,一个必定不存在的数据会被 这个bitmap拦截掉,从而避免了对底层存储系统的查询压力。另外也有一个更为简单粗暴的方法(咱们采用的就是这种),若是一个查询返回的数据为空(不论是数 据不存在,仍是系统故障),咱们仍然把这个空结果进行缓存,但它的过时时间会很短,最长不超过五分钟。后端
缓存雪崩是指在咱们设置缓存时采用了相同的过时时间,致使缓存在某一时刻同时失效,请求所有转发到DB,DB瞬时压力太重雪崩。缓存
缓存失效时的雪崩效应对底层系统的冲击很是可怕。大多数系统设计者考虑用加锁或者队列的方式保证缓存的单线 程(进程)写,从而避免失效时大量的并发请求落到底层存储系统上。这里分享一个简单方案就时讲缓存失效时间分散开,好比咱们能够在原有的失效时间基础上增长一个随机值,好比1-5分钟随机,这样每个缓存的过时时间的重复率就会下降,就很难引起集体失效的事件。安全
对于一些设置了过时时间的key,若是这些key可能会在某些时间点被超高并发地访问,是一种很是“热点”的数据。这个时候,须要考虑一个问题:缓存被“击穿”的问题,这个和缓存雪崩的区别在于这里针对某一key缓存,前者则是不少key。网络
缓存在某个时间点过时的时候,刚好在这个时间点对这个Key有大量的并发请求过来,这些请求发现缓存过时通常都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。并发
从新设计缓存的使用方式,当咱们经过key去查询数据时,首先查询缓存,若是此时缓存中查询不到,就经过分布式锁进行加锁,取得锁的进程查DB并设置缓存,而后解锁;其余进程若是发现有锁就等待,而后等解锁后返回缓存数据或者再次查询DB。异步
业界比较经常使用的作法,是使用mutex。简单地来讲,就是在缓存失效的时候(判断拿出来的值为空),不是当即去load db,而是先使用缓存工具的某些带成功操做返回值的操做(好比Redis的SETNX或者Memcache的ADD)去set一个mutex key,当操做返回成功时,再进行load db的操做并回设缓存;不然,就重试整个get缓存的方法。
SETNX,是「SET if Not eXists」的缩写,也就是只有不存在的时候才设置,能够利用它来实现锁的效果。在redis2.6.1以前版本未实现setnx的过时时间,因此这里给出两种版本代码参考:
最新版本代码:
memcache代码:
在value内部设置1个超时值(timeout1), timeout1比实际的memcache timeout(timeout2)小。当从cache读取到timeout1发现它已通过期时候,立刻延长timeout1并从新设置到cache。而后再从数据库加载数据并设置到cache中。伪代码以下:
这里的“永远不过时”包含两层意思:
(1) 从redis上看,确实没有设置过时时间,这就保证了,不会出现热点key过时问题,也就是“物理”不过时。
(2) 从功能上看,若是不过时,那不就成静态的了吗?因此咱们把过时时间存在key对应的value里,若是发现要过时了,经过一个后台的异步线程进行缓存的构建,也就是“逻辑”过时
从实战看,这种方法对于性能很是友好,惟一不足的就是构建缓存时候,其他线程(非构建缓存的线程)可能访问的是老数据,可是对于通常的互联网功能来讲这个仍是能够忍受。
采用netflix的hystrix,能够作资源的隔离保护主线程池,若是把这个应用到缓存的构建也何尝不可。
四种解决方案:没有最佳只有最合适
解决方案 | 优势 | 缺点 |
简单分布式互斥锁(mutex key) | 1. 思路简单 2. 保证一致性 |
1. 代码复杂度增大 2. 存在死锁的风险 3. 存在线程池阻塞的风险 |
“提早”使用互斥锁 | 1. 保证一致性 | 同上 |
不过时(本文) | 1. 异步构建缓存,不会阻塞线程池 |
1. 不保证一致性。 2. 代码复杂度增大(每一个value都要维护一个timekey)。 3. 占用必定的内存空间(每一个value都要维护一个timekey)。 |
资源隔离组件hystrix(本文) | 1. hystrix技术成熟,有效保证后端。 2. hystrix监控强大。
|
1. 部分访问存在降级策略。 |
四种方案来源网络,详文请连接:http://carlosfu.iteye.com/blog/2269687?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io
针对业务系统,永远都是具体状况具体分析,没有最好,只有最合适。
最后,对于缓存系统常见的缓存满了和数据丢失问题,须要根据具体业务分析,一般咱们采用LRU策略处理溢出,Redis的RDB和AOF持久化策略来保证必定状况下的数据安全。