转:Redis 使用经验总结

转自:Redis 总结精讲 看一篇成高手系统-4程序员

本文围绕如下几点进行阐述面试


一、为何使用redis
二、使用redis有什么缺点
三、单线程的redis为何这么快
四、redis的数据类型,以及每种数据类型的使用场景
五、redis的过时策略以及内存淘汰机制
六、redis和数据库双写一致性问题
七、如何应对缓存穿透和缓存雪崩问题
八、如何解决redis的并发竞争问题redis

 

正文

 

一、为何使用redis

 

分析:博主以为在项目中使用redis,主要是从两个角度去考虑:性能和并发。固然,redis还具有能够作分布式锁等其余功能,可是若是只是为了分布式锁这些其余功能,彻底还有其余中间件(如zookpeer等)代替,并非非要使用redis。所以,这个问题主要从性能和并发两个角度去答。数据库


回答:以下所示,分为两点缓存


(一)性能cookie


以下图所示,咱们在碰到须要执行耗时特别久,且结果不频繁变更的SQL,就特别适合将运行结果放入缓存。这样,后面的请求就去缓存中读取,使得请求可以迅速响应。session



 

题外话:突然想聊一下这个迅速响应的标准。其实根据交互效果的不一样,这个响应时间没有固定标准。不过曾经有人这么告诉我:”在理想状态下,咱们的页面跳转须要在瞬间解决,对于页内操做则须要在刹那间解决。另外,超过一弹指的耗时操做要有进度提示,而且能够随时停止或取消,这样才能给用户最好的体验。”数据结构


那么瞬间、刹那、一弹指具体是多少时间呢?并发


根据《摩诃僧祗律》记载dom

 

一刹那者为一念,二十念为一瞬,二十瞬为一弹指,二十弹指为一罗预,二十罗预为一须臾,一日一晚上有三十须臾。

 

那么,通过周密的计算,一瞬间为0.36 秒,一刹那有 0.018 秒.一弹指长达 7.2 秒。

 

(二)并发

 

以下图所示,在大并发的状况下,全部的请求直接访问数据库,数据库会出现链接异常。这个时候,就须要使用redis作一个缓冲操做,让请求先访问到redis,而不是直接访问数据库。


 

二、使用redis有什么缺点

 

分析:你们用redis这么久,这个问题是必需要了解的,基本上使用redis都会碰到一些问题,常见的也就几个。


回答:主要是四个问题


(一)缓存和数据库双写一致性问题

(二)缓存雪崩问题

(三)缓存击穿问题

(四)缓存的并发竞争问题


这四个问题,我我的是以为在项目中,比较常碰见的,具体解决方案,后文给出。

 

三、单线程的redis为何这么快

 

分析:这个问题实际上是对redis内部机制的一个考察。其实根据博主的面试经验,不少人其实都不知道redis是单线程工做模型。因此,这个问题仍是应该要复习一下的。


回答:主要是如下三点


(一)纯内存操做
(二)单线程操做,避免了频繁的上下文切换
(三)采用了非阻塞I/O多路复用机制

 

题外话:咱们如今要仔细的说一说I/O多路复用机制,由于这个说法实在是太通俗了,通俗到通常人都不懂是什么意思。博主打一个比方:小曲在S城开了一家快递店,负责同城快送服务。小曲由于资金限制,雇佣了一批快递员,而后小曲发现资金不够了,只够买一辆车送快递。


经营方式一


客户每送来一份快递,小曲就让一个快递员盯着,而后快递员开车去送快递。慢慢的小曲就发现了这种经营方式存在下述问题

 

  • 几十个快递员基本上时间都花在了抢车上了,大部分快递员都处在闲置状态,谁抢到了车,谁就能去送快递

  • 随着快递的增多,快递员也愈来愈多,小曲发现快递店里愈来愈挤,没办法雇佣新的快递员了

  • 快递员之间的协调很花时间

 

综合上述缺点,小曲痛定思痛,提出了下面的经营方式


经营方式二


小曲只雇佣一个快递员。而后呢,客户送来的快递,小曲按送达地点标注好,而后依次放在一个地方。最后,那个快递员依次的去取快递,一次拿一个,而后开着车去送快递,送好了就回来拿下一个快递。

 

对比


上述两种经营方式对比,是否是明显以为第二种,效率更高,更好呢。在上述比喻中:

 

  • 每一个快递员——————>每一个线程

  • 每一个快递——————–>每一个socket(I/O流)

  • 快递的送达地点————–>socket的不一样状态

  • 客户送快递请求————–>来自客户端的请求

  • 小曲的经营方式————–>服务端运行的代码

  • 一辆车———————->CPU的核数

 

因而咱们有以下结论


一、经营方式一就是传统的并发模型,每一个I/O流(快递)都有一个新的线程(快递员)管理。


二、经营方式二就是I/O多路复用。只有单个线程(一个快递员),经过跟踪每一个I/O流的状态(每一个快递的送达地点),来管理多个I/O流。

 

下面类比到真实的redis线程模型,如图所示



 

参照上图,简单来讲,就是。咱们的redis-client在操做的时候,会产生具备不一样事件类型的socket。在服务端,有一段I/0多路复用程序,将其置入队列之中。而后,文件事件分派器,依次去队列中取,转发到不一样的事件处理器中。


须要说明的是,这个I/O多路复用机制,redis还提供了select、epoll、evport、kqueue等多路复用函数库,你们能够自行去了解。

 

四、redis的数据类型,以及每种数据类型的使用场景

 

分析:是否是以为这个问题很基础,其实我也这么以为。然而根据面试经验发现,至少百分八十的人答不上这个问题。建议,在项目中用到后,再类比记忆,体会更深,不要硬记。基本上,一个合格的程序员,五种类型都会用到。


回答:一共五种


(一)String


这个其实没啥好说的,最常规的set/get操做,value能够是String也能够是数字。通常作一些复杂的计数功能的缓存。


(二)hash


这里value存放的是结构化的对象,比较方便的就是操做其中的某个字段。博主在作单点登陆的时候,就是用这种数据结构存储用户信息,以cookieId做为key,设置30分钟为缓存过时时间,能很好的模拟出相似session的效果。


(三)list


使用List的数据结构,能够作简单的消息队列的功能。另外还有一个就是,能够利用lrange命令,作基于redis的分页功能,性能极佳,用户体验好。本人还用一个场景,很合适---取行情信息。就也是个生产者和消费者的场景。LIST能够很好的完成排队,先进先出的原则。


(四)set


由于set堆放的是一堆不重复值的集合。因此能够作全局去重的功能。为何不用JVM自带的Set进行去重?由于咱们的系统通常都是集群部署,使用JVM自带的Set,比较麻烦,难道为了一个作一个全局去重,再起一个公共服务,太麻烦了。


另外,就是利用交集、并集、差集等操做,能够计算共同喜爱,所有的喜爱,本身独有的喜爱等功能。


(五)sorted set


sorted set多了一个权重参数score,集合中的元素可以按score进行排列。能够作排行榜应用,取TOP N操做。

 

五、redis的过时策略以及内存淘汰机制

 

分析:这个问题其实至关重要,到底redis有没用到家,这个问题就能够看出来。好比你redis只能存5G数据,但是你写了10G,那会删5G的数据。怎么删的,这个问题思考过么?还有,你的数据已经设置了过时时间,可是时间到了,内存占用率仍是比较高,有思考过缘由么?


回答:


redis采用的是按期删除+惰性删除策略。


为何不用定时删除策略?


定时删除,用一个定时器来负责监视key,过时则自动删除。虽然内存及时释放,可是十分消耗CPU资源。在大并发请求下,CPU要将时间应用在处理请求,而不是删除key,所以没有采用这一策略.


按期删除+惰性删除是如何工做的呢?


按期删除,redis默认每一个100ms检查,是否有过时的key,有过时key则删除。须要说明的是,redis不是每一个100ms将全部的key检查一次,而是随机抽取进行检查(若是每隔100ms,所有key进行检查,redis岂不是卡死)。所以,若是只采用按期删除策略,会致使不少key到时间没有删除。


因而,惰性删除派上用场。也就是说在你获取某个key的时候,redis会检查一下,这个key若是设置了过时时间那么是否过时了?若是过时了此时就会删除。


采用按期删除+惰性删除就没其余问题了么?


不是的,若是按期删除没删除key。而后你也没即时去请求key,也就是说惰性删除也没生效。这样,redis的内存会愈来愈高。那么就应该采用内存淘汰机制。


在redis.conf中有一行配置

 

# maxmemory-policy volatile-lru

 

该配置就是配内存淘汰策略的(什么,你没配过?好好检讨一下本身)

 

1)noeviction:当内存不足以容纳新写入数据时,新写入操做会报错。应该没人用吧。

 

2)allkeys-lru:当内存不足以容纳新写入数据时,在键空间中,移除最近最少使用的key。推荐使用,目前项目在用这种。

 

3)allkeys-random:当内存不足以容纳新写入数据时,在键空间中,随机移除某个key。应该也没人用吧,你不删最少使用Key,去随机删。

 

4)volatile-lru:当内存不足以容纳新写入数据时,在设置了过时时间的键空间中,移除最近最少使用的key。这种状况通常是把redis既当缓存,又作持久化存储的时候才用。不推荐

 

5)volatile-random:当内存不足以容纳新写入数据时,在设置了过时时间的键空间中,随机移除某个key。依然不推荐

 

6)volatile-ttl:当内存不足以容纳新写入数据时,在设置了过时时间的键空间中,有更早过时时间的key优先移除。不推荐

 

ps:若是没有设置 expire 的key, 不知足先决条件(prerequisites); 那么 volatile-lru, volatile-random 和 volatile-ttl 策略的行为, 和 noeviction(不删除) 基本上一致。

 

六、redis和数据库双写一致性问题

 

分析:一致性问题是分布式常见问题,还能够再分为最终一致性和强一致性。数据库和缓存双写,就必然会存在不一致的问题。答这个问题,先明白一个前提。就是若是对数据有强一致性要求,不能放缓存。咱们所作的一切,只能保证最终一致性。另外,咱们所作的方案其实从根本上来讲,只能说下降不一致发生的几率,没法彻底避免。所以,有强一致性要求的数据,不能放缓存。

 

首先,采起正确更新策略,先更新数据库,再删缓存。其次,由于可能存在删除缓存失败的问题,提供一个补偿措施便可,例如利用消息队列。

 

七、如何应对缓存穿透和缓存雪崩问题

 

分析:这两个问题,说句实在话,通常中小型传统软件企业,很难碰到这个问题。若是有大并发的项目,流量有几百万左右。这两个问题必定要深入考虑。

 

回答:以下所示

 

缓存穿透,即黑客故意去请求缓存中不存在的数据,致使全部的请求都怼到数据库上,从而数据库链接异常。

 

解决方案:

 

(一)利用互斥锁,缓存失效的时候,先去得到锁,获得锁了,再去请求数据库。没获得锁,则休眠一段时间重试

 

(二)采用异步更新策略,不管key是否取到值,都直接返回。value值中维护一个缓存失效时间,缓存若是过时,异步起一个线程去读数据库,更新缓存。须要作缓存预热(项目启动前,先加载缓存)操做。

 

(三)提供一个能迅速判断请求是否有效的拦截机制,好比,利用布隆过滤器,内部维护一系列合法有效的key。迅速判断出,请求所携带的Key是否合法有效。若是不合法,则直接返回。

 

缓存雪崩,即缓存同一时间大面积的失效,这个时候又来了一波请求,结果请求都怼到数据库上,从而致使数据库链接异常。

 

解决方案:

 

(一)给缓存的失效时间,加上一个随机值,避免集体失效。

 

(二)使用互斥锁,可是该方案吞吐量明显降低了。

 

(三)双缓存。咱们有两个缓存,缓存A和缓存B。缓存A的失效时间为20分钟,缓存B不设失效时间。本身作缓存预热操做。而后细分如下几个小点

 

  • I 从缓存A读数据库,有则直接返回

  • II A没有数据,直接从B读数据,直接返回,而且异步启动一个更新线程。

  • III 更新线程同时更新缓存A和缓存B。

 

八、如何解决redis的并发竞争key问题

 

分析:这个问题大体就是,同时有多个子系统去set一个key。这个时候要注意什么呢?你们思考过么。须要说明一下,博主提早百度了一下,发现答案基本都是推荐用redis事务机制。博主不推荐使用redis的事务机制。由于咱们的生产环境,基本都是redis集群环境,作了数据分片操做。你一个事务中有涉及到多个key操做的时候,这多个key不必定都存储在同一个redis-server上。所以,redis的事务机制,十分鸡肋。


回答:以下所示


(1)若是对这个key操做,不要求顺序


这种状况下,准备一个分布式锁,你们去抢锁,抢到锁就作set操做便可,比较简单。


(2)若是对这个key操做,要求顺序


假设有一个key1,系统A须要将key1设置为valueA,系统B须要将key1设置为valueB,系统C须要将key1设置为valueC.


指望按照key1的value值按照 valueA–>valueB–>valueC的顺序变化。这种时候咱们在数据写入数据库的时候,须要保存一个时间戳。假设时间戳以下

 

系统A key 1 {valueA  3:00}

系统B key 1 {valueB  3:05}

系统C key 1 {valueC  3:10}

 

那么,假设这会系统B先抢到锁,将key1设置为{valueB 3:05}。接下来系统A抢到锁,发现本身的valueA的时间戳早于缓存中的时间戳,那就不作set操做了。以此类推。

 

其余方法,好比利用队列,将set方法变成串行访问也能够。总之,灵活变通。

相关文章
相关标签/搜索