Redis缓存穿透、缓存雪崩、redis并发问题分析

把redis做为缓存使用已是司空见惯,可是使用redis后也可能会碰到一系列的问题,尤为是数据量很大的时候,经典的几个问题以下:redis

(一)缓存和数据库间数据一致性问题算法

分布式环境下(单机就不用说了)很是容易出现缓存和数据库间的数据一致性问题,针对这一点的话,只能说,若是你的项目对缓存的要求是强一致性的,那么请不要使用缓存。咱们只能采起合适的策略来下降缓存和数据库间数据不一致的几率,而没法保证二者间的强一致性。合适的策略包括 合适的缓存更新策略,更新数据库后要及时更新缓存、缓存失败时增长重试机制,例如MQ模式的消息队列。sql

(二)缓存击穿问题数据库

缓存击穿表示恶意用户模拟请求不少缓存中不存在的数据,因为缓存中都没有,致使这些请求短期内直接落在了数据库上,致使数据库异常。这个咱们在实际项目就遇到了,有些抢购活动、秒杀活动的接口API被大量的恶意用户刷,致使短期内数据库宕机了,好在数据库是多主多从的,hold住了。数组

解决方案的话:缓存

一、使用互斥锁排队bash

业界比价广泛的一种作法,即根据key获取value值为空时,锁上,从数据库中load数据后再释放锁。若其它线程获取锁失败,则等待一段时间后重试。这里要注意,分布式环境中要使用分布式锁,单机的话用普通的锁(synchronized、Lock)就够了。架构

public String getWithLock(String key, Jedis jedis, String lockKey, String uniqueId, long expireTime) {
 // 经过key获取value
 String value = redisService.get(key);
 if (StringUtil.isEmpty(value)) {
 // 分布式锁,详细能够参考https://blog.csdn.net/fanrenxiang/article/details/79803037
 //封装的tryDistributedLock包括setnx和expire两个功能,在低版本的redis中不支持
 try {
 boolean locked = redisService.tryDistributedLock(jedis, lockKey, uniqueId, expireTime);
 if (locked) {
 value = userService.getById(key);
 redisService.set(key, value);
 redisService.del(lockKey);
 return value;
 } else {
 // 其它线程进来了没获取到锁便等待50ms后重试
 Thread.sleep(50);
 getWithLock(key, jedis, lockKey, uniqueId, expireTime);
 }
 } catch (Exception e) {
 log.error("getWithLock exception=" + e);
 return value;
 } finally {
 redisService.releaseDistributedLock(jedis, lockKey, uniqueId);
 }
 }
 return value;
}
复制代码

这样作思路比较清晰,也从必定程度上减轻数据库压力,可是锁机制使得逻辑的复杂度增长,吞吐量也下降了,有点治标不治本。并发

二、布隆过滤器(推荐)分布式

bloomfilter就相似于一个hash set,用于快速判某个元素是否存在于集合中,其典型的应用场景就是快速判断一个key是否存在于某容器,不存在就直接返回。布隆过滤器的关键就在于hash算法和容器大小,下面先来简单的实现下看看效果,我这里用guava实现的布隆过滤器:

<dependencies> 
 <dependency> 
 <groupId>com.google.guava</groupId> 
 <artifactId>guava</artifactId> 
 <version>23.0</version> 
 </dependency> 
</dependencies> 
public class BloomFilterTest {
 
 private static final int capacity = 1000000;
 private static final int key = 999998;
 
 private static BloomFilter<Integer> bloomFilter = BloomFilter.create(Funnels.integerFunnel(), capacity);
 
 static {
 for (int i = 0; i < capacity; i++) {
 bloomFilter.put(i);
 }
 }
 
 public static void main(String[] args) {
 /*返回计算机最精确的时间,单位微妙*/
 long start = System.nanoTime();
 
 if (bloomFilter.mightContain(key)) {
 System.out.println("成功过滤到" + key);
 }
 long end = System.nanoTime();
 System.out.println("布隆过滤器消耗时间:" + (end - start));
 int sum = 0;
 for (int i = capacity + 20000; i < capacity + 30000; i++) {
 if (bloomFilter.mightContain(i)) {
 sum = sum + 1;
 }
 }
 System.out.println("错判率为:" + sum);
 }
}
成功过滤到999998
布隆过滤器消耗时间:215518
错判率为:318
复制代码

能够看到,100w个数据中只消耗了约0.2毫秒就匹配到了key,速度足够快。而后模拟了1w个不存在于布隆过滤器中的key,匹配错误率为318/10000,也就是说,出错率大概为3%,跟踪下BloomFilter的源码发现默认的容错率就是0.03:

public static <T> BloomFilter<T> create(Funnel<T> funnel, int expectedInsertions /* n */) {
 return create(funnel, expectedInsertions, 0.03); // FYI, for 3%, we always get 5 hash functions
}
复制代码

咱们可调用BloomFilter的这个方法显式的指定误判率:

Redis缓存穿透、缓存雪崩、redis并发问题分析

private static BloomFilter<Integer> bloomFilter = BloomFilter.create(Funnels.integerFunnel(), capacity,0.01);
复制代码

咱们断点跟踪下,误判率为0.02和默认的0.03时候的区别:

Redis缓存穿透、缓存雪崩、redis并发问题分析

Redis缓存穿透、缓存雪崩、redis并发问题分析


对比两个出错率能够发现,误判率为0.02时数组大小为8142363,0.03时为7298440,误判率下降了0.01,BloomFilter维护的数组大小也减小了843923,可见BloomFilter默认的误判率0.03是设计者权衡系统性能后得出的值。要注意的是,布隆过滤器不支持删除操做。用在这边解决缓存穿透问题就是:

public String getByKey(String key) {
 // 经过key获取value
 String value = redisService.get(key);
 if (StringUtil.isEmpty(value)) {
 if (bloomFilter.mightContain(key)) {
 value = userService.getById(key);
 redisService.set(key, value);
 return value;
 } else {
 return null;
 }
 }
 return value;
}
复制代码

(三)缓存雪崩问题

缓存在同一时间内大量键过时(失效),接着来的一大波请求瞬间都落在了数据库中致使链接异常。

解决方案:

一、也是像解决缓存穿透同样加锁排队,实现同上;

二、创建备份缓存,缓存A和缓存B,A设置超时时间,B不设值超时时间,先从A读缓存,A没有读B,而且更新A缓存和B缓存;

public String getByKey(String keyA,String keyB) {
 String value = redisService.get(keyA);
 if (StringUtil.isEmpty(value)) {
 value = redisService.get(keyB);
 String newValue = getFromDbById();
 redisService.set(keyA,newValue,31, TimeUnit.DAYS);
 redisService.set(keyB,newValue);
 }
 return value;
}
复制代码

(四)缓存并发问题

这里的并发指的是多个redis的client同时set key引发的并发问题。比较有效的解决方案就是把redis.set操做放在队列中使其串行化,必须的一个一个执行,具体的代码就不上了,固然加锁也是能够的,至于为何不用redis中的事务,留给各位看官本身思考探究。

欢迎工做一到五年的Java工程师朋友们加入Java架构开发:878249276,群内提供免费的Java架构学习资料(里面有高可用、高并发、高性能及分布式、Jvm性能调优、Spring源码,MyBatis,Netty,Redis,Kafka,Mysql,Zookeeper,Tomcat,Docker,Dubbo,Nginx等多个知识点的架构资料)合理利用本身每一分每一秒的时间来学习提高本身,不要再用"没有时间“来掩饰本身思想上的懒惰!趁年轻,使劲拼,给将来的本身一个交代!

相关文章
相关标签/搜索