更多精彩文章,关注公众号【ToBeTopJavaer】,更有以下数万元精品vip资源免费等你来拿!!!
java
今天,我蚍蜉撼树的面试了某大厂的 Java 开发岗位,迎面走来一位风尘仆仆的中年男子,手里拿着屏幕还亮着的 Mac。面试
他冲着我礼貌的笑了笑,而后说了句“很差意思,让你久等了”,而后示意我坐下,说:“咱们开始吧,看了你的简历,以为你对 Redis 应该掌握的不错,咱们今天就来讨论下 Redis……”。redis
我想:“来就来,兵来将挡水来土掩”。算法
面试官:你先来讲下 Redis 是什么吧!spring
我:(这不就是总结下 Redis 的定义和特色嘛)Redis 是 C 语言开发的一个开源的(听从 BSD 协议)高性能键值对(key-value)的内存数据库,能够用做数据库、缓存、消息中间件等。sql
它是一种 NoSQL(not-only sql,泛指非关系型数据库)的数据库。数据库
我顿了一下,接着说,Redis 做为一个内存数据库:express
能够将内存中数据保存在磁盘中,重启时加载。segmentfault
面试官:总结的不错,看来是早有准备啊。刚来听你提到 Redis 支持五种数据类型,那你能简单说下这五种数据类型吗?浏览器
我:固然能够,可是在说以前,我以为有必要先来了解下 Redis 内部内存管理是如何描述这 5 种数据类型的。
说着,我拿着笔给面试官画了一张图:
我:首先 Redis 内部使用一个 redisObject 对象来表示全部的 key 和 value。
redisObject 最主要的信息如上图所示:type 表示一个 value 对象具体是何种数据类型,encoding 是不一样数据类型在 Redis 内部的存储方式。
好比:type=string 表示 value 存储的是一个普通字符串,那么 encoding 能够是 raw 或者 int。
我顿了一下,接着说,下面我简单说下 5 种数据类型:
①String 是 Redis 最基本的类型,能够理解成与 Memcached如出一辙的类型,一个 Key 对应一个 Value。Value 不只是 String,也能够是数字。
String 类型是二进制安全的,意思是 Redis 的 String 类型能够包含任何数据,好比 jpg 图片或者序列化的对象。String 类型的值最大能存储 512M。
②Hash是一个键值(key-value)的集合。Redis 的 Hash 是一个 String 的 Key 和 Value 的映射表,Hash 特别适合存储对象。经常使用命令:hget,hset,hgetall 等。
③List 列表是简单的字符串列表,按照插入顺序排序。能够添加一个元素到列表的头部(左边)或者尾部(右边) 经常使用命令:lpush、rpush、lpop、rpop、lrange(获取列表片断)等。
应用场景:List 应用场景很是多,也是 Redis 最重要的数据结构之一,好比 Twitter 的关注列表,粉丝列表均可以用 List 结构来实现。
数据结构:List 就是链表,能够用来当消息队列用。Redis 提供了 List 的 Push 和 Pop 操做,还提供了操做某一段的 API,能够直接查询或者删除某一段的元素。
实现方式:Redis List 的是实现是一个双向链表,既能够支持反向查找和遍历,更方便操做,不过带来了额外的内存开销。
④Set 是 String 类型的无序集合。集合是经过 hashtable 实现的。Set 中的元素是没有顺序的,并且是没有重复的。经常使用命令:sdd、spop、smembers、sunion 等。
应用场景:Redis Set 对外提供的功能和 List 同样是一个列表,特殊之处在于 Set 是自动去重的,并且 Set 提供了判断某个成员是否在一个 Set 集合中。
⑤Zset 和 Set 同样是 String 类型元素的集合,且不容许重复的元素。经常使用命令:zadd、zrange、zrem、zcard 等。
使用场景:Sorted Set 能够经过用户额外提供一个优先级(score)的参数来为成员排序,而且是插入有序的,即自动排序。
当你须要一个有序的而且不重复的集合列表,那么能够选择 Sorted Set 结构。
和 Set 相比,Sorted Set关联了一个 Double 类型权重的参数 Score,使得集合中的元素可以按照 Score 进行有序排列,Redis 正是经过分数来为集合中的成员进行从小到大的排序。
实现方式:Redis Sorted Set 的内部使用 HashMap 和跳跃表(skipList)来保证数据的存储和有序,HashMap 里放的是成员到 Score 的映射。
而跳跃表里存放的是全部的成员,排序依据是 HashMap 里存的 Score,使用跳跃表的结构能够得到比较高的查找效率,而且在实现上比较简单。
数据类型应用场景总结:
面试官:想不到你平时也下了很多工夫,那 Redis 缓存你必定用过的吧?
我:用过的。
面试官:那你跟我说下你是怎么用的?
我是结合 Spring Boot 使用的。通常有两种方式,一种是直接经过 RedisTemplate 来使用,另外一种是使用 Spring Cache 集成 Redis(也就是注解的方式)。
直接经过 RedisTemplate 来使用,使用 Spring Cache 集成 Redis pom.xml 中加入如下依赖:
spring-boot-starter-data-redis:在 Spring Boot 2.x 之后底层再也不使用 Jedis,而是换成了 Lettuce。
commons-pool2:用做 Redis 链接池,如不引入启动会报错。
spring-session-data-redis:Spring Session 引入,用做共享 Session。
配置文件 application.yml 的配置:
建立实体类 User.java:
publicclass User implements Serializable{ privatestaticfinallong serialVersionUID = 662692455422902539L; private Integer id; private String name; private Integer age; public User() { } public User(Integer id, String name, Integer age) { this.id = id; this.name = name; this.age = age; } public Integer getId() { return id; } public void setId(Integer id) { this.id = id; } public String getName() { return name; } public void setName(String name) { this.name = name; } public Integer getAge() { return age; } public void setAge(Integer age) { this.age = age; } @Override public String toString() { return"User{" + "id=" + id + ", name='" + name + '\\'' + ", age=" + age + '}'; } }
RedisTemplate 的使用方式
默认状况下的模板只能支持 RedisTemplate<String, String>,也就是只能存入字符串,因此自定义模板颇有必要。
添加配置类 RedisCacheConfig.java:
@Configuration @AutoConfigureAfter(RedisAutoConfiguration.class) publicclass RedisCacheConfig { @Bean public RedisTemplate<String, Serializable> redisCacheTemplate(LettuceConnectionFactory connectionFactory) { RedisTemplate<String, Serializable> template = new RedisTemplate<>(); template.setKeySerializer(new StringRedisSerializer()); template.setValueSerializer(new GenericJackson2JsonRedisSerializer()); template.setConnectionFactory(connectionFactory); returntemplate; } }
测试类:
@RestController @RequestMapping("/user") publicclass UserController { public static Logger logger = LogManager.getLogger(UserController.class); @Autowired private StringRedisTemplate stringRedisTemplate; @Autowired private RedisTemplate<String, Serializable> redisCacheTemplate; @RequestMapping("/test") public void test() { redisCacheTemplate.opsForValue().set("userkey", new User(1, "张三", 25)); User user = (User) redisCacheTemplate.opsForValue().get("userkey"); logger.info("当前获取对象:{}", user.toString()); }
而后在浏览器访问,观察后台日志 http://localhost:8082/user/test
使用 Spring Cache 集成 Redis
Spring Cache 具有很好的灵活性,不只可以使用 SPEL(spring expression language)来定义缓存的 Key 和各类 Condition,还提供了开箱即用的缓存临时存储方案,也支持和主流的专业缓存如 EhCache、Redis、Guava 的集成。
定义接口 UserService.java:
publicinterfaceUserService { User save(User user); void delete(int id); User get(Integer id); }
接口实现类 UserServiceImpl.java:
@Service publicclass UserServiceImpl implements UserService{ publicstatic Logger logger = LogManager.getLogger(UserServiceImpl.class); privatestatic Map<Integer, User> userMap = new HashMap<>(); static { userMap.put(1, new User(1, "肖战", 25)); userMap.put(2, new User(2, "王一博", 26)); userMap.put(3, new User(3, "杨紫", 24)); } @CachePut(value ="user", key = "#user.id") @Override public User save(User user) { userMap.put(user.getId(), user); logger.info("进入save方法,当前存储对象:{}", user.toString()); return user; } @CacheEvict(value="user", key = "#id") @Override public void delete(int id) { userMap.remove(id); logger.info("进入delete方法,删除成功"); } @Cacheable(value = "user", key = "#id") @Override public User get(Integer id) { logger.info("进入get方法,当前获取对象:{}", userMap.get(id)==null?null:userMap.get(id).toString()); return userMap.get(id); } }
为了方便演示数据库的操做,这里直接定义了一个 Map<Integer,User> userMap。
这里的核心是三个注解:
测试类:UserController
@RestController @RequestMapping("/user") publicclass UserController { publicstatic Logger logger = LogManager.getLogger(UserController.class); @Autowired private StringRedisTemplate stringRedisTemplate; @Autowired private RedisTemplate<String, Serializable> redisCacheTemplate; @Autowired private UserService userService; @RequestMapping("/test") public void test() { redisCacheTemplate.opsForValue().set("userkey", new User(1, "张三", 25)); User user = (User) redisCacheTemplate.opsForValue().get("userkey"); logger.info("当前获取对象:{}", user.toString()); } @RequestMapping("/add") public void add() { User user = userService.save(new User(4, "李现", 30)); logger.info("添加的用户信息:{}",user.toString()); } @RequestMapping("/delete") public void delete() { userService.delete(4); } @RequestMapping("/get/{id}") public void get(@PathVariable("id") String idStr) throws Exception{ if (StringUtils.isBlank(idStr)) { thrownew Exception("id为空"); } Integer id = Integer.parseInt(idStr); User user = userService.get(id); logger.info("获取的用户信息:{}",user.toString()); } }
用缓存要注意,启动类要加上一个注解开启缓存:
@SpringBootApplication(exclude=DataSourceAutoConfiguration.class) @EnableCaching publicclass Application { public static void main(String\[\] args) { SpringApplication.run(Application.class, args); } }
①先调用添加接口:http://localhost:8082/user/add
②再调用查询接口,查询 id=4 的用户信息:
能够看出,这里已经从缓存中获取数据了,由于上一步 add 方法已经把 id=4 的用户数据放入了 Redis 缓存 三、调用删除方法,删除 id=4 的用户信息,同时清除缓存:
④再次调用查询接口,查询 id=4 的用户信息:
没有了缓存,因此进入了 get 方法,从 userMap 中获取。
缓存注解
①@Cacheable
根据方法的请求参数对其结果进行缓存:
②@CachePut
根据方法的请求参数对其结果进行缓存,和 @Cacheable 不一样的是,它每次都会触发真实方法的调用。参数描述见上。
③@CacheEvict
根据条件对缓存进行清空:
面试官:看了一下你的 Demo,简单易懂。那你在实际项目中使用缓存有遇到什么问题或者会遇到什么问题你知道吗?
我:缓存和数据库数据一致性问题:分布式环境下很是容易出现缓存和数据库间数据一致性问题,针对这一点,若是项目对缓存的要求是强一致性的,那么就不要使用缓存。
咱们只能采起合适的策略来下降缓存和数据库间数据不一致的几率,而没法保证二者间的强一致性。
合适的策略包括合适的缓存更新策略,更新数据库后及时更新缓存、缓存失败时增长重试机制。
面试官:Redis 雪崩了解吗?
我:我了解的,目前电商首页以及热点数据都会去作缓存,通常缓存都是定时任务去刷新,或者查不到以后去更新缓存的,定时任务刷新就有一个问题。
举个栗子:若是首页全部 Key 的失效时间都是 12 小时,中午 12 点刷新的,我零点有个大促活动大量用户涌入,假设每秒 6000 个请求,原本缓存能够抗住每秒 5000 个请求,可是缓存中全部 Key 都失效了。
此时 6000 个/秒的请求所有落在了数据库上,数据库必然扛不住,真实状况可能 DBA 都没反应过来直接挂了。
此时,若是没什么特别的方案来处理,DBA 很着急,重启数据库,可是数据库立马又被新流量给打死了。这就是我理解的缓存雪崩。
我心想:同一时间大面积失效,瞬间 Redis 跟没有同样,那这个数量级别的请求直接打到数据库几乎是灾难性的。
你想一想若是挂的是一个用户服务的库,那其余依赖他的库全部接口几乎都会报错。
若是没作熔断等策略基本上就是瞬间挂一片的节奏,你怎么重启用户都会把你打挂,等你重启好的时候,用户早睡觉去了,临睡以前,骂骂咧咧“什么垃圾产品”。
面试官摸摸了本身的头发:嗯,还不错,那这种状况你都是怎么应对的?
我:处理缓存雪崩简单,在批量往 Redis 存数据的时候,把每一个 Key 的失效时间都加个随机值就行了,这样能够保证数据不会再同一时间大面积失效。
setRedis(key, value, time+Math.random()*10000);
若是 Redis 是集群部署,将热点数据均匀分布在不一样的 Redis 库中也能避免所有失效。
或者设置热点数据永不过时,有更新操做就更新缓存就行了(好比运维更新了首页商品,那你刷下缓存就行了,不要设置过时时间),电商首页的数据也能够用这个操做,保险。
面试官:那你了解缓存穿透和击穿么,能够说说他们跟雪崩的区别吗?
我:嗯,了解,先说下缓存穿透吧,缓存穿透是指缓存和数据库中都没有的数据,而用户(黑客)不断发起请求。
举个栗子:咱们数据库的 id 都是从 1 自增的,若是发起 id=-1 的数据或者 id 特别大不存在的数据,这样的不断攻击致使数据库压力很大,严重会击垮数据库。
我又接着说:至于缓存击穿嘛,这个跟缓存雪崩有点像,可是又有一点不同,缓存雪崩是由于大面积的缓存失效,打崩了 DB。
而缓存击穿不一样的是缓存击穿是指一个 Key 很是热点,在不停地扛着大量的请求,大并发集中对这一个点进行访问,当这个 Key 在失效的瞬间,持续的大并发直接落到了数据库上,就在这个 Key 的点上击穿了缓存。
面试官露出欣慰的眼光:那他们分别怎么解决?
我:缓存穿透我会在接口层增长校验,好比用户鉴权,参数作校验,不合法的校验直接 return,好比 id 作基础校验,id<=0 直接拦截。
面试官:那你还有别的方法吗?
我:我记得 Redis 里还有一个高级用法布隆过滤器(Bloom Filter)这个也能很好的预防缓存穿透的发生。
它的原理也很简单,就是利用高效的数据结构和算法快速判断出你这个 Key 是否在数据库中存在,不存在你 return 就行了,存在你就去查 DB 刷新 KV 再 return。
缓存击穿的话,设置热点数据永不过时,或者加上互斥锁就搞定了。做为暖男,代码给你准备好了,拿走不谢。
public static String getData(String key) throws InterruptedException { //从Redis查询数据 String result = getDataByKV(key); //参数校验 if (StringUtils.isBlank(result)) { try { //得到锁 if (reenLock.tryLock()) { //去数据库查询 result = getDataByDB(key); //校验 if (StringUtils.isNotBlank(result)) { //插进缓存 setDataToKV(key, result); } } else { //睡一会再拿 Thread.sleep(100L); result = getData(key); } finally { //释放锁 reenLock.unlock(); } } return result; }
面试官:嗯嗯,还不错。
面试官:Redis 做为缓存你们都在用,那 Redis 必定很快咯?
我:固然了,官方提供的数据能够达到 100000+ 的 QPS(每秒内的查询次数),这个数据不比 Memcached 差!
面试官:Redis 这么快,它的“多线程模型”你了解吗?(露出邪魅一笑)
我:您是想问 Redis 这么快,为何仍是单线程的吧。Redis 确实是单进程单线程的模型,由于 Redis 彻底是基于内存的操做,CPU 不是 Redis 的瓶颈,Redis 的瓶颈最有多是机器内存的大小或者网络带宽。
既然单线程容易实现,并且 CPU 不会成为瓶颈,那就瓜熟蒂落的采用单线程的方案了(毕竟采用多线程会有不少麻烦)。
面试官:嗯,是的。那你能说说 Redis 是单线程的,为何还能这么快吗?
我:能够这么说吧,总结一下有以下四点:
面试官:嗯嗯,说的很详细。那你为何选择 Redis 的缓存方案而不用 Memcached 呢?
我:缘由有以下四点:
面试官:那你说说你知道的 Redis 的淘汰策略有哪些?
我:Redis 有六种淘汰策略,以下图:
补充一下:Redis 4.0 加入了 LFU(least frequency use)淘汰策略,包括 volatile-lfu 和 allkeys-lfu,经过统计访问频率,将访问频率最少,即最不常用的 KV 淘汰。
面试官:你对 Redis 的持久化机制了解吗?能讲一下吗?
我:Redis 为了保证效率,数据缓存在了内存中,可是会周期性的把更新的数据写入磁盘或者把修改操做写入追加的记录文件中,以保证数据的持久化。
Redis 的持久化策略有两种:
当 Redis 重启的时候,它会优先使用 AOF 文件来还原数据集,由于 AOF 文件保存的数据集一般比 RDB 文件所保存的数据集更完整。你甚至能够关闭持久化功能,让数据只在服务器运行时存。
面试官:那你再说下 RDB 是怎么工做的?
我:默认 Redis 是会以快照"RDB"的形式将数据持久化到磁盘的一个二进制文件 dump.rdb。
工做原理简单说一下:当 Redis 须要作持久化时,Redis 会 fork 一个子进程,子进程将数据写到磁盘上一个临时 RDB 文件中。
当子进程完成写临时文件后,将原来的 RDB 替换掉,这样的好处是能够 copy-on-write。
我:RDB 的优势是:这种文件很是适合用于备份:好比,你能够在最近的 24 小时内,每小时备份一次,而且在每月的每一天也备份一个 RDB 文件。
这样的话,即便赶上问题,也能够随时将数据集还原到不一样的版本。RDB 很是适合灾难恢复。
RDB 的缺点是:若是你须要尽可能避免在服务器故障时丢失数据,那么RDB不合适你。
面试官:那你要再也不说下 AOF?
我:(说就一块儿说下吧)使用 AOF 作持久化,每个写命令都经过 write 函数追加到 appendonly.aof 中,配置方式以下:
appendfsync yes appendfsync always #每次有数据修改发生时都会写入AOF文件。 appendfsync everysec #每秒钟同步一次,该策略为AOF的缺省策略。
AOF 能够作到全程持久化,只须要在配置中开启 appendonly yes。这样 Redis 每执行一个修改数据的命令,都会把它添加到 AOF 文件中,当 Redis 重启时,将会读取 AOF 文件进行重放,恢复到 Redis 关闭前的最后时刻。
我顿了一下,继续说:使用 AOF 的优势是会让 Redis 变得很是耐久。能够设置不一样的 Fsync 策略,AOF的默认策略是每秒钟 Fsync 一次,在这种配置下,就算发生故障停机,也最多丢失一秒钟的数据。
缺点是对于相同的数据集来讲,AOF 的文件体积一般要大于 RDB 文件的体积。根据所使用的 Fsync 策略,AOF 的速度可能会慢于 RDB。
面试官又问:你说了这么多,那我该用哪个呢?
我:若是你很是关心你的数据,但仍然能够承受数分钟内的数据丢失,那么能够额只使用 RDB 持久。
AOF 将 Redis 执行的每一条命令追加到磁盘中,处理巨大的写入会下降Redis的性能,不知道你是否能够接受。
数据库备份和灾难恢复:定时生成 RDB 快照很是便于进行数据库备份,而且 RDB 恢复数据集的速度也要比 AOF 恢复的速度快。
固然了,Redis 支持同时开启 RDB 和 AOF,系统重启后,Redis 会优先使用 AOF 来恢复数据,这样丢失的数据会最少。
面试官:Redis 单节点存在单点故障问题,为了解决单点问题,通常都须要对 Redis 配置从节点,而后使用哨兵来监听主节点的存活状态,若是主节点挂掉,从节点能继续提供缓存功能,你能说说 Redis 主从复制的过程和原理吗?
我有点懵,这个说来就话长了。但幸亏提早准备了:主从配置结合哨兵模式能解决单点故障问题,提升 Redis 可用性。
从节点仅提供读操做,主节点提供写操做。对于读多写少的情况,可给主节点配置多个从节点,从而提升响应效率。
我顿了一下,接着说:关于复制过程,是这样的:
面试官:那你能详细说下数据同步的过程吗?
(我心想:这也问的太细了吧)我:能够。Redis 2.8 以前使用 sync[runId][offset] 同步命令,Redis 2.8 以后使用 psync[runId][offset] 命令。
二者不一样在于,Sync 命令仅支持全量复制过程,Psync 支持全量和部分复制。
介绍同步以前,先介绍几个概念:
从节点在收到主节点发送的命令后,也会增长本身的 offset,并把本身的 offset 发送给主节点。
这样,主节点同时保存本身的 offset 和从节点的 offset,经过对比 offset 来判断主从节点数据是否一致。
主节点发送数据给从节点过程当中,主节点还会进行一些写操做,这时候的数据存储在复制缓冲区中。
从节点同步主节点数据完成后,主节点将缓冲区的数据继续发送给从节点,用于部分复制。
主节点响应写命令时,不但会把命名发送给从节点,还会写入复制积压缓冲区,用于复制命令丢失的数据补救。
上面是 Psync 的执行流程,从节点发送 psync[runId][offset] 命令,主节点有三种响应:
面试官:很好,那你能具体说下全量复制和部分复制的过程吗?
我:能够!
上面是全量复制的流程。主要有如下几步:
关于部分复制有如下几点说明:
①部分复制主要是 Redis 针对全量复制的太高开销作出的一种优化措施,使用 psync[runId][offset] 命令实现。
当从节点正在复制主节点时,若是出现网络闪断或者命令丢失等异常状况时,从节点会向主节点要求补发丢失的命令数据,主节点的复制积压缓冲区将这部分数据直接发送给从节点。
这样就能够保持主从节点复制的一致性。补发的这部分数据通常远远小于全量数据。
②主从链接中断期间主节点依然响应命令,但因复制链接中断命令没法发送给从节点,不过主节点内的复制积压缓冲区依然能够保存最近一段时间的写命令数据。
③当主从链接恢复后,因为从节点以前保存了自身已复制的偏移量和主节点的运行 ID。所以会把它们当作 psync 参数发送给主节点,要求进行部分复制。
④主节点接收到 psync 命令后首先核对参数 runId 是否与自身一致,若是一致,说明以前复制的是当前主节点。
以后根据参数 offset 在复制积压缓冲区中查找,若是 offset 以后的数据存在,则对从节点发送+COUTINUE 命令,表示能够进行部分复制。由于缓冲区大小固定,若发生缓冲溢出,则进行全量复制。
⑤主节点根据偏移量把复制积压缓冲区里的数据发送给从节点,保证主从复制进入正常状态。
面试官:那主从复制会存在哪些问题呢?
我:主从复制会存在如下问题:
此时若是同步不成功,则会进行全量同步,主库执行全量备份的同时,可能会形成毫秒或秒级的卡顿。
面试官:那比较主流的解决方案是什么呢?
我:固然是哨兵啊。
面试官:那么问题又来了。那你说下哨兵有哪些功能?
我:如图,是 Redis Sentinel(哨兵)的架构图。Redis Sentinel(哨兵)主要功能包括主节点存活检测、主从运行状况检测、自动故障转移、主从切换。
Redis Sentinel 最小配置是一主一从。Redis 的 Sentinel 系统能够用来管理多个 Redis 服务器。
该系统能够执行如下四个任务:
面试官:那你能说下哨兵的工做原理吗?
我:话很少说,直接上图:
①每一个 Sentinel 节点都须要按期执行如下任务:每一个 Sentinel 以每秒一次的频率,向它所知的主服务器、从服务器以及其余的 Sentinel 实例发送一个 PING 命令。(如上图)
②若是一个实例距离最后一次有效回复 PING 命令的时间超过 down-after-milliseconds 所指定的值,那么这个实例会被 Sentinel 标记为主观下线。(如上图)
③若是一个主服务器被标记为主观下线,那么正在监视这个服务器的全部 Sentinel 节点,要以每秒一次的频率确认主服务器的确进入了主观下线状态。
④若是一个主服务器被标记为主观下线,而且有足够数量的 Sentinel(至少要达到配置文件指定的数量)在指定的时间范围内赞成这一判断,那么这个主服务器被标记为客观下线。
⑤通常状况下,每一个 Sentinel 会以每 10 秒一次的频率向它已知的全部主服务器和从服务器发送 INFO 命令。
当一个主服务器被标记为客观下线时,Sentinel 向下线主服务器的全部从服务器发送 INFO 命令的频率,会从 10 秒一次改成每秒一次。
⑥Sentinel 和其余 Sentinel 协商客观下线的主节点的状态,若是处于 SDOWN 状态,则投票自动选出新的主节点,将剩余从节点指向新的主节点进行数据复制。
⑦当没有足够数量的 Sentinel 赞成主服务器下线时,主服务器的客观下线状态就会被移除。
当主服务器从新向 Sentinel 的 PING 命令返回有效回复时,主服务器的主观下线状态就会被移除。
面试官:不错,面试前没少下工夫啊,今天 Redis 这关你过了,明天找个时间咱们再聊聊其余的。(露出欣慰的微笑)
我:没问题。
本文在一次面试的过程当中讲述了 Redis 是什么,Redis 的特色和功能,Redis 缓存的使用,Redis 为何能这么快,Redis 缓存的淘汰策略,持久化的两种方式,Redis 高可用部分的主从复制和哨兵的基本原理。
只要功夫深,铁杵磨成针,平时准备好,面试不用慌。虽然面试不必定是这样问的,但万变不离其“宗”。