Redis 的全称是:Remote Dictionary.Server,本质上是一个 Key-Value 类型的内存数据库,很像java
memcached,整个数据库通通加载在内存当中进行操做,按期经过异步操做把数据库数据 flush 到硬盘上进行保存。node
由于是纯内存操做,Redis 的性能很是出色,每秒能够处理超过 10 万次读写操做,是已知性能最快的Key-Value DB。mysql
Redis 的出色之处不只仅是性能,Redis 最大的魅力是支持保存多种数据结构,此外单个 value 的最大限制是 1GB,不像 memcached 只能保存 1MB 的数据,所以 Redis 能够用来实现不少有用的功能。web
比方说用他的 List 来作 FIFO 双向链表,实现一个轻量级的高性 能消息队列服务,用他的 Set 能够作高性能的 tag 系统等等。面试
另外 Redis 也能够对存入的 Key-Value 设置 expire 时间,所以也能够被看成一 个功能增强版的memcached 来用。 Redis 的主要缺点是数据库容量受到物理内存的限制,不能用做海量数据的高性能读写,所以 Redis 适合的场景主要局限在较小数据量的高性能操做和运算上。redis
1.memcached 全部的值均是简单的字符串,redis 做为其替代者,支持更为丰富的数据类型算法
2.redis 的速度比 memcached 快不少 redis 的速度比 memcached 快不少spring
3.redis 能够持久化其数据 redis 能够持久化其数据sql
String、List、Set、Sorted Set、hashes数据库
内存。
1.noeviction:返回错误当内存限制达到,而且客户端尝试执行会让更多内存被使用的命令。
2.allkeys-lru: 尝试回收最少使用的键(LRU),使得新添加的数据有空间存放。
3.volatile-lru: 尝试回收最少使用的键(LRU),但仅限于在过时集合的键,使得新添加的数据有空间存放。
4.allkeys-random: 回收随机的键使得新添加的数据有空间存放。
5.volatile-random: 回收随机的键使得新添加的数据有空间存放,但仅限于在过时集合的键。
6.volatile-ttl: 回收在过时集合的键,而且优先回收存活时间(TTL)较短的键,使得新添加的数据有空间存放。
由于目前 Linux 版本已经至关稳定,并且用户量很大,无需开发 windows 版本,反而会带来兼容性等问题。
512M
Redis 为了达到最快的读写速度将数据都读到内存中,并经过异步的方式将数据写入磁盘。
因此 redis 具备快速和数据持久化的特征,若是不将数据放在内存中,磁盘 I/O 速度为严重影响 redis 的性能。
在内存愈来愈便宜的今天,redis 将会愈来愈受欢迎, 若是设置了最大使用的内存,则数据已有记录数达到内存限值后不能继续插入新值。
1.codis
2.目前用的最多的集群方案,基本和 twemproxy 一致的效果,但它支持在节点数量改变状况下,旧节点数据可恢复到新 hash 节点。
redis cluster3.0 自带的集群,特色在于他的分布式算法不是一致性 hash,而是 hash 槽的概念,以及自身支持节点设置从节点。具体看官方文档介绍。
3.在业务代码层实现,起几个毫无关联的 redis 实例,在代码层,对 key 进行 hash 计算,而后去对应的redis 实例操做数据。这种方式对 hash 层代码要求比较高,考虑部分包括,节点失效后的替代算法方案,数据震荡后的自动脚本恢复,实例的监控,等等。
Java 架构学习资料(里面有高可用、高并发、高性能及分布式、Jvm 性能调优、Spring 源码,MyBatis,Netty,Redis,Kafka,Mysql,Zookeeper,Tomcat,Docker,Dubbo,Nginx 等多个知识点的架构资料)合理利用本身每一分每一秒的时间来学习提高本身,不要再用"没有时间“来掩饰本身思想上的懒惰!趁年轻,使劲拼,给将来的本身一个交代!
有 A,B,C 三个节点的集群,在没有复制模型的状况下,若是节点 B 失败了,那么整个集群就会觉得缺乏5501-11000 这个范围的槽而不可用。
redis 内存数据集大小上升到必定大小的时候,就会施行数据淘汰策略。
其实面试除了考察 Redis,很多公司都很重视高并发高可用的技术,特别是一线互联网公司,分布式、
JVM、spring 源码分析、微服务等知识点已经是面试的必考题。文末分享给你们一线互联网公司最新的技术知识(彩蛋)
(1)会话缓存(Session Cache)
最经常使用的一种使用 Redis 的情景是会话缓存(sessioncache),用 Redis 缓存会话比其余存储(如Memcached)的优点在于:Redis 提供持久化。当维护一个不是严格要求一致性的缓存时,若是用户的购物车信息所有丢失,大部分人都会不高兴的,如今,他们还会这样吗?
幸运的是,随着 Redis 这些年的改进,很容易找到怎么恰当的使用 Redis 来缓存会话的文档。甚至广为人知的商业平台 Magento 也提供 Redis 的插件。
(2)全页缓存(FPC)
除基本的会话 token 以外,Redis 还提供很简便的 FPC 平台。回到一致性问题,即便重启了 Redis 实例,由于有磁盘的持久化,用户也不会看到页面加载速度的降低,这是一个极大改进,相似 PHP 本地FPC。
再次以 Magento 为例,Magento 提供一个插件来使用 Redis 做为全页缓存后端。
此外,对 WordPress 的用户来讲,Pantheon 有一个很是好的插件 wp-redis,这个插件能帮助你以最快速度加载你曾浏览过的页面。
(3)队列
Reids 在内存存储引擎领域的一大优势是提供 list 和 set 操做,这使得 Redis 能做为一个很好的消息队列平台来使用。Redis 做为队列使用的操做,就相似于本地程序语言(如 Python)对 list 的 push/pop操做。
若是你快速的在 Google 中搜索“Redis queues”,你立刻就能找到大量的开源项目,这些项目的目的就是利用 Redis 建立很是好的后端工具,以知足各类队列需求。例如,Celery 有一个后台就是使用Redis 做为 broker,你能够从这里去查看。
(4)排行榜/计数器
Redis 在内存中对数字进行递增或递减的操做实现的很是好。集合(Set)和有序集合(SortedSet)也使得咱们在执行这些操做的时候变的很是简单,Redis 只是正好提供了这两种数据结构。
因此,咱们要从排序集合中获取到排名最靠前的 10 个用户–咱们称之为“user_scores”,咱们只须要像下面同样执行便可:
固然,这是假定你是根据你用户的分数作递增的排序。若是你想返回用户及用户的分数,你须要这样执行:
ZRANGE user_scores 0 10 WITHSCORESAgora Games 就是一个很好的例子,用 Ruby 实现的,它的排行榜就是使用 Redis 来存储数据的,你能够在这里看到。
(5)发布/订阅
最后(但确定不是最不重要的)是 Redis 的发布/订阅功能。发布/订阅的使用场景确实很是多。我已看见人们在社交网络链接中使用,还可做为基于发布/订阅的脚本触发器,甚至用 Redis 的发布/订阅功能来创建聊天系统!
Redisson、Jedis、lettuce 等等,官方推荐使用 Redisson。
Redisson 是一个高级的分布式协调 Redis 客服端,能帮助用户在分布式环境中轻松实现一些 Java 的对象 (Bloom filter, BitSet, Set, SetMultimap, ScoredSortedSet, SortedSet, Map, ConcurrentMap,List, ListMultimap, Queue, BlockingQueue, Deque, BlockingDeque, Semaphore, Lock,ReadWriteLock, AtomicLong, CountDownLatch, Publish / Subscribe, HyperLogLog)。
Jedis 是 Redis 的 Java 实现的客户端,其 API 提供了比较全面的 Redis 命令的支持;
Redisson 实现了分布式和可扩展的 Java 数据结构,和 Jedis 相比,功能较为简单,不支持字符串操做,不支持排序、事务、管道、分区等 Redis 特性。Redisson 的宗旨是促进使用者对 Redis 的关注分离,从而让使用者可以将精力更集中地放在处理业务逻辑上。
Redis 集群没有使用一致性 hash,而是引入了哈希槽的概念,Redis 集群有 16384 个哈希槽,每一个 key 经过 CRC16 校验后对 16384 取模来决定放置哪一个槽,集群的每一个节点负责一部分 hash 槽。
为了使在部分节点失败或者大部分节点没法通讯的状况下集群仍然可用,因此集群使用了主从复制模型,每一个节点都会有 N-1 个复制品.
Redis 并不能保证数据的强一致性,这意味这在实际中集群在特定的条件下可能会丢失写操做。
异步复制
16384 个
Redis 集群目前没法作数据库选择,默认在 0 数据库。
一次请求/响应服务器能实现处理新的请求即便旧的请求还未被响应,这样就能够将多个命令发送到服务器,而不用等待回复,最后在一个步骤中读取该答复。
这就是管道(pipelining),是一种几十年来普遍使用的技术。例如许多 POP3 协议已经实现支持这个功能,大大加快了从服务器下载新邮件的过程。
事务是一个单独的隔离操做:事务中的全部命令都会序列化、按顺序地执行,事务在执行的过程当中,不会被其余客户端发送来的命令请求所打断。事务是一个原子操做:事务中的命令要么所有被执行,要么所有都不执行。
MULTI、EXEC、DISCARD、WATCH
EXPIRE 和 PERSIST 命令
尽量使用散列表(hashes),散列表(是说散列表里面存储的数少)使用的内存很是小,因此你应该尽量的将你的数据模型抽象到一个散列表里面。
好比你的 web 系统中有一个用户对象,不要为这个用户的名称,姓氏,邮箱,密码设置单独的 key,而是应该把这个用户的全部信息存储到一张散列表里面。
一个客户端运行了新的命令,添加了新的数据。Redi 检查内存使用状况,若是大于 maxmemory 的限制, 则根据设定好的策略进行回收。一个新的命令被执行,等等。
因此咱们不断地穿越内存限制的边界,经过不断达到边界而后不断地回收回到边界如下。
若是一个命令的结果致使大量内存被使用(例如很大的集合的交集保存到一个新的键),不用多久内存限制就会被这个内存使用量超越。
我们来看上面那张图,如今某个客户端要加锁。若是该客户端面对的是一个 redis cluster 集群,他首先会根据 hash 节点选择一台机器。这里注意,仅仅只是选择一台机器!这点很关键!紧接着,就会发送一段 lua 脚本到 redis 上,那段 lua 脚本以下所示:
为啥要用 lua 脚本呢?由于一大坨复杂的业务逻辑,能够经过封装在 lua 脚本中发送给 redis,保证这段复杂业务逻辑执行的原子性。
那么,这段 lua 脚本是什么意思呢?这里 KEYS[1]表明的是你加锁的那个 key,好比说:RLock lock = redisson.getLock("myLock");这里你本身设置了加锁的那个锁 key 就是“myLock”。
ARGV[1]表明的就是锁 key 的默认生存时间,默认 30 秒。ARGV[2]表明的是加锁的客户端的 ID,相似于下面这样:8743c9c0-0795-4907-87fd-6c719a6b4586:1给你们解释一下,第一段 if 判断语句,就是用“exists myLock”命令判断一下,若是你要加锁的那个锁 key 不存在的话,你就进行加锁。如何加锁呢?很简单,用下面的命令:hset myLock8743c9c0-0795-4907-87fd-6c719a6b4586:1 1,经过这个命令设置一个 hash 数据结构,这行命令执行后,会出现一个相似下面的数据结构:
上述就表明“8743c9c0-0795-4907-87fd-6c719a6b4586:1”这个客户端对“myLock”这个锁 key 完成了加锁。接着会执行“pexpire myLock 30000”命令,设置 myLock 这个锁 key 的生存时间是 30 秒。好了,到此为止,ok,加锁完成了。
那么在这个时候,若是客户端 2 来尝试加锁,执行了一样的一段 lua 脚本,会咋样呢?很简单,第一个 if 判断会执行“exists myLock”,发现 myLock 这个锁 key 已经存在了。接着第二个 if 判断,判断一下,myLock 锁 key 的 hash 数据结构中,是否包含客户端 2 的 ID,可是明显不是的,由于那里包含的是客户端 1 的 ID。
因此,客户端 2 会获取到 pttl myLock 返回的一个数字,这个数字表明了 myLock 这个锁 key的剩余生存时间。好比还剩 15000 毫秒的生存时间。此时客户端 2 会进入一个 while 循环,不停的尝试加锁。
客户端 1 加锁的锁 key 默认生存时间才 30 秒,若是超过了 30 秒,客户端 1 还想一直持有这把锁,怎么办呢?
简单!只要客户端 1 一旦加锁成功,就会启动一个 watch dog 看门狗,他是一个后台线程,会每隔 10 秒检查一下,若是客户端 1 还持有锁 key,那么就会不断的延长锁 key 的生存时间。
那若是客户端 1 都已经持有了这把锁了,结果可重入的加锁会怎么样呢?好比下面这种代码:
这时咱们来分析一下上面那段 lua 脚本。第一个 if 判断确定不成立,“exists myLock”会显示锁key 已经存在了。第二个 if 判断会成立,由于 myLock 的 hash 数据结构中包含的那个 ID,就是客户端 1 的那个 ID,也就是“8743c9c0-0795-4907-87fd-6c719a6b4586:1”
此时就会执行可重入加锁的逻辑,他会用:
incrby myLock 8743c9c0-0795-4907-87fd-6c71a6b4586:1 1 ,经过这个命令,对客户端 1的加锁次数,累加 1。此时 myLock 数据结构变为下面这样:
你们看到了吧,那个 myLock 的 hash 数据结构中的那个客户端 ID,就对应着加锁的次数
若是执行 lock.unlock(),就能够释放分布式锁,此时的业务逻辑也是很是简单的。其实说白了,就是每次都对 myLock 数据结构中的那个加锁次数减 1。若是发现加锁次数是 0 了,说明这个客户端已经再也不持有锁了,此时就会用:“del myLock”命令,从 redis 里删除这个 key。
而后呢,另外的客户端 2 就能够尝试完成加锁了。这就是所谓的分布式锁的开源 Redisson 框架的实现机制。
通常咱们在生产系统中,能够用 Redisson 框架提供的这个类库来基于 redis 进行分布式锁的加锁与释放锁。
其实上面那种方案最大的问题,就是若是你对某个 redis master 实例,写入了 myLock 这种锁key 的 value,此时会异步复制给对应的 master slave 实例。可是这个过程当中一旦发生 redis master 宕机,主备切换,redis slave 变为了 redis master。
接着就会致使,客户端 2 来尝试加锁的时候,在新的 redis master 上完成了加锁,而客户端 1也觉得本身成功加了锁。此时就会致使多个客户端对一个分布式锁完成了加锁。这时系统在业务语义上必定会出现问题,致使各类脏数据的产生。
因此这个就是 redis cluster,或者是 redis master-slave 架构的主从异步复制致使的 redis 分布式锁的最大缺陷:在 redis master 实例宕机的时候,可能致使多个客户端同时完成加锁。
先拿 setnx 来争抢锁,抢到以后,再用 expire 给锁加一个过时时间防止锁忘记了释放。
若是在 setnx 以后执行 expire 以前进程意外 crash 或者要重启维护了,那会怎么样?
set 指令有很是复杂的参数,这个应该是能够同时把 setnx 和 expire 合成一条指令来用的!
般使用 list 结构做为队列,rpush 生产消息,lpop 消费消息。当 lpop 没有消息的时候,要适当 sleep一会再重试。
缺点:
在消费者下线的状况下,生产的消息会丢失,得使用专业的消息队列如 rabbitmq 等。
能不能生产一次消费屡次呢?
使用 pub/sub 主题订阅者模式,能够实现 1:N 的消息队列。
缓存穿透
通常的缓存系统,都是按照 key 去缓存查询,若是不存在对应的 value,就应该去后端系统查找(好比DB)。一些恶意的请求会故意查询不存在的 key,请求量很大,就会对后端系统形成很大的压力。这就叫作缓存穿透。
如何避免?
1:对查询结果为空的状况也进行缓存,缓存时间设置短一点,或者该 key 对应的数据 insert 了以后清理缓存。
2:对必定不存在的 key 进行过滤。能够把全部的可能存在的 key 放到一个大的 Bitmap 中,查询时经过该 bitmap 过滤。
缓存雪崩
当缓存服务器重启或者大量缓存集中在某一个时间段失效,这样在失效的时候,会给后端系统带来很大压力。致使系统崩溃。
如何避免?
1:在缓存失效后,经过加锁或者队列来控制读数据库写缓存的线程数量。好比对某个 key 只容许一个线程查询数据和写缓存,其余线程等待。
2:作二级缓存,A1 为原始缓存,A2 为拷贝缓存,A1 失效时,能够访问 A2,A1 缓存失效时间设置为短时间,A2 设置为长期
3:不一样的 key,设置不一样的过时时间,让缓存失效的时间点尽可能均匀
37.redis 和 memcached 什么区别?为何高并发下有时单线程的 redis 比多线程的memcached 效率要高?
区别:
1.mc 可缓存图片和视频。rd 支持除 k/v 更多的数据结构;
2.rd 可使用虚拟内存,rd 可持久化和 aof 灾难恢复,rd 经过主从支持数据备份;
3.rd 能够作消息队列。
缘由:
mc 多线程模型引入了缓存一致性和锁,加锁带来了性能损耗。
redis 主从复制如何实现的?redis 的集群模式如何实现?redis 的 key 是如何寻址的?
主从复制实现:主节点将本身内存中的数据作一份快照,将快照发给从节点,从节点将数据恢复到内存中。以后再每次增长新数据的时候,主节点以相似于 mysql 的二进制日志方式将语句发送给从节点,从节点拿到主节点发送过来的语句进行重放。
分片方式:
-客户端分片
-基于代理的分片
● Twemproxy
● codis-路由查询分片
● Redis-cluster(自己提供了自动将数据分散到 Redis Cluster 不一样节点的能力,整个数据集合的某个数据子集存储在哪一个节点对于用户来讲是透明的)
redis-cluster 分片原理:Cluster 中有一个 16384 长度的槽(虚拟槽),编号分别为 0-16383。
每一个 Master 节点都会负责一部分的槽,当有某个 key 被映射到某个 Master 负责的槽,那么这个 Master 负责为这个 key 提供服务,至于哪一个 Master 节点负责哪一个槽,能够由用户指定,也能够在初始化的时候自动生成,只有 Master 才拥有槽的全部权。Master 节点维护着一个 16384/8 字节的位序列,Master 节点用 bit 来标识对于某个槽本身是否拥有。好比对于编号为 1 的槽,Master 只要判断序列的第二位(索引从 0 开始)是否是为 1 便可。
这种结构很容易添加或者删除节点。好比若是我想新添加个节点 D, 我须要从节点 A、B、C 中得部分槽到 D 上。
redis:
1.线程 A setnx(上锁的对象,超时时的时间戳 t1),若是返回 true,得到锁。
2.线程 B 用 get 获取 t1,与当前时间戳比较,判断是是否超时,没超时 false,若超时执行第 3 步;
3.计算新的超时时间 t2,使用 getset 命令返回 t3(该值可能其余线程已经修改过),若是
t1==t3,得到锁,若是 t1!=t3 说明锁被其余线程获取了。
4.获取锁后,处理完业务逻辑,再去判断锁是否超时,若是没超时删除锁,若是已超时,不用处理(防止删除其余线程的锁)。
zk:
1.客户端对某个方法加锁时,在 zk 上的与该方法对应的指定节点的目录下,生成一个惟一的瞬时有序节点 node1;
2.客户端获取该路径下全部已经建立的子节点,若是发现本身建立的 node1 的序号是最小的,就认为这个客户端得到了锁。
3.若是发现 node1 不是最小的,则监听比本身建立节点序号小的最大的节点,进入等待。
4.获取锁后,处理完逻辑,删除本身建立的 node1 便可。
区别:zk 性能差一些,开销大,实现简单。
RDB(Redis DataBase:在不一样的时间点将 redis 的数据生成的快照同步到磁盘等介质上):内存到硬盘的快照,按期更新。缺点:耗时,耗性能(fork+io 操做),易丢失数据。
AOF(Append Only File:将 redis 所执行过的全部指令都记录下来,在下次 redis 重启时,只须要执行指令就能够了):
写日志。缺点:体积大,恢复速度慢。bgsave 作镜像全量持久化,aof 作增量持久化。由于 bgsave 会消耗比较长的时间,不够实时,在停机的时候会致使大量的数据丢失,须要 aof 来配合,在 redis 实例重启时,优先使用 aof 来恢复内存的状态,若是没有 aof 日志,就会使用 rdb 文件来恢复。Redis 会按期作aof 重写,压缩 aof 文件日志大小。Redis4.0 以后有了混合持久化的功能,将 bgsave 的全量和 aof 的增量作了融合处理,这样既保证了恢复的效率又兼顾了数据的安全性。bgsave 的原理,fork 和 cow, fork 是指 redis 经过建立子进程来进行 bgsave 操做,cow 指的是 copy onwrite,子进程建立后,父子进程共享数据段,父进程继续提供读写服务,写脏的页面数据会逐渐和子进程分离开来。
redis 过时策略都有哪些?LRU 算法知道吗?写一下 java 代码实现?
过时策略:
定时过时(一 key 必定时器),惰性过时:只有使用 key 时才判断 key 是否已过时,过时则清除。按期过时:前二者折中。
LRU:new LinkedHashMap<K, V>(capacity, DEFAULT_LOAD_FACTORY, true);//第三个参数置为 true,表明 linkedlist 按访问顺序排序,可做为 LRU 缓存;设为 false 表明按插入顺序排序,可做为 FIFO 缓存
LRU 算法实现:
1.经过双向链表来实现,新数据插入到链表头部;
2.每当缓存命中(即缓存数据被访问),则将数据移到链表头部;
3.当链表满的时候,将链表尾部的数据丢弃。
LinkedHashMap:HashMap 和双向链表合二为一便是 LinkedHashMap。HashMap 是无序的,LinkedHashMap 经过维护一个额外的双向链表保证了迭代顺序。该迭代顺序能够是插入顺序(默认),也能够是访问顺序。
缓存穿透:
指查询一个必定不存在的数据,若是从存储层查不到数据则不写入缓存,这将致使这个不存在的数据每次请求都要到 DB 去查询,可能致使 DB 挂掉。
解决方案:
1.查询返回的数据为空,仍把这个空结果进行缓存,但过时时间会比较短;
2.布隆过滤器:将全部可能存在的数据哈希到一个足够大的 bitmap 中,一个必定不存在的数据会被这个 bitmap 拦截掉,从而避免了对 DB 的查询。
缓存击穿:
对于设置了过时时间的 key,缓存在某个时间点过时的时候,刚好这时间点对这个 Key 有大量的并发请求过来,这些请求发现缓存过时通常都会从后端 DB 加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把 DB 压垮。
解决方案:
1.使用互斥锁:当缓存失效时,不当即去 load db,先使用如 Redis 的 setnx 去设置一个互斥锁,当操做成功返回时再进行 load db 的操做并回设缓存,不然重试 get 缓存的方法。
2.永远不过时:物理不过时,但逻辑过时(后台异步线程去刷新)。
缓存雪崩:设置缓存时采用了相同的过时时间,致使缓存在某一时刻同时失效,请求所有转发到 DB,DB 瞬时压力太重雪崩。与缓存击穿的区别:雪崩是不少 key,击穿是某一个key 缓存。
解决方案:将缓存失效时间分散开,好比能够在原有的失效时间基础上增长一个随机值,好比 1-5 分钟随机,这样每个缓存的过时时间的重复率就会下降,就很难引起集体失效的事件。
选择 redis 的状况:
一、复杂数据结构,value 的数据是哈希,列表,集合,有序集合等这种状况下,会选择redis, 由于 memcache 没法知足这些数据结构,最典型的的使用场景是,用户订单列表,用户消息,帖子评论等。
二、须要进行数据的持久化功能,可是注意,不要把 redis 当成数据库使用,若是 redis挂了,内存可以快速恢复热数据,不会将压力瞬间压在数据库上,没有 cache 预热的过程。对于只读和数据一致性要求不高的场景能够采用持久化存储
三、高可用,redis 支持集群,能够实现主动复制,读写分离,而对于 memcache 若是想要实现高可用,须要进行二次开发。
四、存储的内容比较大,memcache 存储的 value 最大为 1M。
选择 memcache 的场景:
一、纯 KV,数据量很是大的业务,使用 memcache 更合适,缘由是:
a)memcache 的内存分配采用的是预分配内存池的管理方式,可以省去内存分配的时间,redis 是临时申请空间,可能致使碎片化。
b)虚拟内存使用,memcache 将全部的数据存储在物理内存里,redis 有本身的 vm 机制,理论上可以存储比物理内存更多的数据,当数据超量时,引起 swap,把冷数据刷新到磁盘上,从这点上,数据量大时,memcache 更快
c)网络模型,memcache 使用非阻塞的 IO 复用模型,redis 也是使用非阻塞的 IO 复用模型,可是 redis 还提供了一些非 KV 存储以外的排序,聚合功能,复杂的 CPU 计算,会阻塞整个 IO 调度,从这点上因为 redis 提供的功能较多,memcache 更快些
d) 线程模型,memcache 使用多线程,主线程监听,worker 子线程接受请求,执行读写,这个过程可能存在锁冲突。redis 使用的单线程,虽然无锁冲突,可是难以利用多核的特性提高吞吐量。
缓存与数据库不一致怎么办
假设采用的主存分离,读写分离的数据库,
若是一个线程 A 先删除缓存数据,而后将数据写入到主库当中,这个时候,主库和从库同步没有完成,线程 B 从缓存当中读取数据失败,从从库当中读取到旧数据,而后更新至缓存,这个时候,缓存当中的就是旧的数据。
发生上述不一致的缘由在于,主从库数据不一致问题,加入了缓存以后,主从不一致的时间被拉长了
处理思路:在从库有数据更新以后,将缓存当中的数据也同时进行更新,即当从库发生了数据更新以后,向缓存发出删除,淘汰这段时间写入的旧数据。
主从数据库不一致如何解决场景描述,对于主从库,读写分离,若是主从库更新同步有时差,就会致使主从库数据的不一致
一、忽略这个数据不一致,在数据一致性要求不高的业务下,未必须要时时一致性
二、强制读主库,使用一个高可用的主库,数据库读写都在主库,添加一个缓存,提高数据读取的性能。
三、选择性读主库,添加一个缓存,用来记录必须读主库的数据,将哪一个库,哪一个表,哪一个主键,做为缓存的 key,设置缓存失效的时间为主从库同步的时间,若是缓存当中有这个数据,直接读取主库,若是缓存当中没有这个主键,就到对应的从库中读取。
一、master 最好不要作持久化工做,如 RDB 内存快照和 AOF 日志文件
二、若是数据比较重要,某个 slave 开启 AOF 备份,策略设置成每秒同步一次
三、为了主从复制的速度和链接的稳定性,master 和 Slave 最好在一个局域网内
四、尽可能避免在压力大得主库上增长从库
五、主从复制不要采用网状结构,尽可能是线性结构,Master<--Slave1<----Slave2 ....
voltile-lru 从已经设置过时时间的数据集中挑选最近最少使用的数据淘汰
voltile-ttl 从已经设置过时时间的数据库集当中挑选将要过时的数据
voltile-random 从已经设置过时时间的数据集任意选择淘汰数据
allkeys-lru 从数据集中挑选最近最少使用的数据淘汰
allkeys-random 从数据集中任意选择淘汰的数据
no-eviction 禁止驱逐数据
字符串 String、字典 Hash、列表 List、集合 Set、有序集合 SortedSet。若是是高级用户,那么还会有,若是你是 Redis 中高级用户,还须要加上下面几种数据结构 HyperLogLog、Geo、Pub/Sub。
假如 Redis 里面有 1 亿个 key,其中有 10w 个 key 是以某个固定的已知的前缀开头的,若是将它们所有找出来?
使用 keys 指令能够扫出指定模式的 key 列表。
对方接着追问:若是这个 redis 正在给线上的业务提供服务,那使用 keys 指令会有什么问题?
这个时候你要回答 redis 关键的一个特性:redis 的单线程的。keys 指令会致使线程阻塞一段时间,线上服务会停顿,直到指令执行完毕,服务才能恢复。这个时候可使用 scan 指令,scan 指令能够无阻塞的提取出指定模式的 key 列表,可是会有必定的重复几率,在客户端作一次去重就能够了,可是总体所花费的时间会比直接用 keys 指令长。
使用 list 类型保存数据信息,rpush 生产消息,lpop 消费消息,当 lpop 没有消息时,能够 sleep 一段时间,而后再检查有没有信息,若是不想 sleep 的话,可使用 blpop, 在没有信息的时候,会一直阻塞,直到信息的到来。redis 能够经过 pub/sub 主题订阅模式实现一个生产者,多个消费者,固然也存在必定的缺点,当消费者下线时,生产的消息会丢失。
使用 sortedset,使用时间戳作 score, 消息内容做为 key,调用 zadd 来生产消息,消费者使用 zrangbyscore 获取 n 秒以前的数据作轮询处理。
能够加一下Java进阶高级架构:416843702进群便可获取往期BAT资料以及视频。(助你金三银四能跳槽涨薪)
收集了还有你不知道的其它面试题(springboot、mybatis、并发、java中高级面试总结等)