redis中的事务是一组命令的集合,事务中的命令要么所有执行,要么都不执行,Redis 经过 MULTI 、DISCARD 、EXEC 和 WATCH
四个命令来实现事务功能,multi表示事物的开启,exec表示事物的执行,exec执行后返回事务执行的结果,discard表示放弃事务执行,清空事务队列中已有的全部命令并退出队列,watch用于监视给定的键,若是键被其余客户端修改,将不会执行事务。node
127.0.0.1:6379> multi OK 127.0.0.1:6379> set key 1 QUEUED 127.0.0.1:6379> get key QUEUED 127.0.0.1:6379> exec 1) OK 2) "1" 127.0.0.1:6379> multi OK 127.0.0.1:6379> set key1 1 QUEUED 127.0.0.1:6379> discard OK 127.0.0.1:6379> get key1 (nil)
这里我在另外一个客户端修改了被监视的key,致使在这个客户端事务没有执行python
127.0.0.1:6379> set key 1 OK 127.0.0.1:6379> watch key OK 127.0.0.1:6379> multi OK 127.0.0.1:6379> incr key QUEUED 127.0.0.1:6379> incr key #客户端2 (integer) 2 127.0.0.1:6379> exec (nil) 127.0.0.1:6379> get key "2"
因为事务在执行时会独占服务器,因此尽可能避免在事务中执行过多命令,以避免服务器阻塞redis
redis是一个cs模式的tcp server,使用和http相似的请求响应协议。一个client能够经过一个socket链接发起多个请求命令。每一个请求命令发出后client一般会阻塞并等待redis服务处理,redis处理完后请求命令后会将结果经过响应报文返回给client。若是网络延迟较大,那将会花费太多的时间,redis提供了pipline能够解决这个问题,redis能够在pipline中发送多个消息而无需等待每一个消息的答复的过程。
这里我使用python的redis库写了个demo来演示使用pipline的效果算法
from redis import Redis import time conn=Redis(host="60.205.177.100",port="6379") def usepipline(): start_time=time.time() pipline=conn.pipeline() for i in range(300): pipline.incr("key") pipline.execute() print("usepipline:",time.time()-start_time) def withoutpipline(): start_time=time.time() for i in range(300): conn.incr("key1") print("withoutpipline:",time.time()-start_time) usepipline() withoutpipline()
响应结果数据库
usepipline: 1.2412519454956055 withoutpipline: 7.2261717319488525
能够看到使用pipline效果是很明显的vim
Redis经过PUBLISH 、SUBSCRIBE 等命令实现了订阅与发布模式,发布者能够向多个频道发布消息,订阅者能够订阅多个频道,固然一个频道也能够有多个订阅者,发布者和订阅者的这种分离能够容许更大的可伸缩性和更动态的网络拓扑。 安全
publish channel message
返回的是接收到消息的订阅者数量服务器
127.0.0.1:6379> publish CCTV1 worldnews (integer) 0 127.0.0.1:6379> publish CCTV1 chinanews (integer) 0
subscribe channel [channel ...]
127.0.0.1:6379> subscribe CCTV1 Reading messages... (press Ctrl-C to quit) 1) "subscribe" 2) "CCTV1" 3) (integer) 1 1) "message" 2) "CCTV1" 3) "chinanews"
UNSUBSCRIBE [channel [channel ...]]
127.0.0.1:6379> UNSUBSCRIBE CCTV1 CCTV2 1) "unsubscribe" 2) "CCTV1" 3) (integer) 0 4) "unsubscribe" 5) "CCTV2" 6) (integer) 0
redis支持使用glob的方式来一次订阅多个频道网络
PSUBSCRIBE pattern [pattern ...]
127.0.0.1:6379> publish CCTV2 chinanew (integer) 1 127.0.0.1:6379> publish CCTV1 worldnews (integer) 1 127.0.0.1:6379> PSUBSCRIBE CCTV* Reading messages... (press Ctrl-C to quit) 1) "psubscribe" 2) "CCTV*" 3) (integer) 1 1) "pmessage" 2) "CCTV*" 3) "CCTV2" 4) "chinanews" 1) "pmessage" 2) "CCTV*" 3) "CCTV2" 4) "chinanew"
PUNSUBSCRIBE [pattern [pattern ...]]
127.0.0.1:6379> PUNSUBSCRIBE CCTV* 1) "punsubscribe" 2) "CCTV*" 3) (integer) 0
from redis import Redis import time conn=Redis(host="60.205.177.100",port="6379") def publish(): while True: conn.publish("CCTV3","test")
from redis import Redis import time conn=Redis(host="60.205.177.100",port="6379") def subscribe(): subscribe=conn.pubsub() subscribe.subscribe('CCTV3') message=subscribe.parse_response() print(message)
虽然已经有了aof和rdb作持久化了,可是为了防止单点故障,这就须要复制多个数据副原本保证数据安全运维
主服务器后台发送RDB文件给从服务器。从服务器接收rdb数据期间,主服务器会将新数据保存到复制客户端缓冲区,当从服务器接收完rdb文件后,将其保存在磁盘上,而后将其加载到内存中。加载完rdb文件后,若是开启aof,从服务器会进行重写操做。主服务器会把缓冲区的新数据发送给从服务器
当主从链接中断后,从服务器使用psync命令向主服务器发送上次复制的偏移量,以及记录的masterID,若是上次复制的偏移量仍存在主服务器的缓冲区中,而且masterID与主服务器的masterID一致,将会从缓冲区中上次断开的位置开始增量复制,不然将会发生彻底同步
psync masterID offset
当从服务器与主服务器创建链接时,会判断是否是初次复制,若是是的话,将会发送psync ? -1进行彻底同步,若是不是的话,会发送psync masterID offset尝试部分同步,若是发送的masterID与主服务器一致且offset存在于主服务器的复制缓冲区中,将进行部分同步,不然将会进行彻底同步
首先咱们查看主服务器的masterID和offset
而后将masterID和offset复制到从服务器,期间我在主服务器写了两条数据
能够看到从服务器已经有了主服务器的数据
因为主服务器设置了密码,须要在从服务器中指定注定主服务器的密码
vim /etc/redis/6379.conf
masterauth 123456
因为个人redis版本是5.0,因此同步的命令较之前的命令不太同样,但也兼容之前的同步命令
配置文件修改
vim /etc/redis/6379.conf
replicaof masterip port #5.0版本支持的命令 或者 slaveof masterip port
在redis客户端执行命令,在客户端执行的同步命令将在重启后失效
replicaof masterip port #5.0版本支持的命令 或者 slaveof masterip port
配置好以后,主从的masterID信息是同样的,这是主服务器的信息
这是从服务器的信息
主从同步后,从服务器将不能写入数据
当咱们断开当前数据库的链接,与另外一台主服务器创建主从同步后,masterid也发生变化,将从新进行彻底同步
在redis主从模式下,一旦主服务器宕机,须要人工进行干预将某个从服务器转换为主服务器,还须要去监视redis的状态,费事费力,还会形成一段时间内服务不可用,对于某些应用场景,这种处理方法并不可取,redis在2.8版本开始提供了RedisSentinel工具,经过心跳检测的方式监视多个主服务器以及它们属下的全部从服务器,并在某个主服务器下线时自动对其实施故障转移,Sentinel将选择一个从服务器并将其提高为主服务器,其余剩余的从服务器实例将自动从新配置为使用新的主服务器。
192.168.179.131:6379 master 192.168.179.132:6379 slave 192.168.179.134:6379 slave 192.168.179.131:26379 sentinel 192.168.179.132:26379 sentinel 192.168.179.134:26379 sentinel
主从节点配置
#192.168.179.131 port 6379 daemonize yes logfile /var/log/redis_6379.log dbfilename dump.rdb #192.168.179.132 port 6379 daemonize yes logfile /var/log/redis_6379.log dbfilename dump.rdb replicaof 192.168.179.131 6379 #192.168.179.134 port 6379 daemonize yes logfile /var/log/redis_6379.log dbfilename dump.rdb replicaof 192.168.179.131 6379
三个哨兵节点相同配置,最后一句配置的意思是监控192.168.179.131这个主节点,节点名称是mymaster,而且至少须要两个哨兵节点赞成才能断定主节点故障并进行自动迁移
port 26379 daemonize yes sentinel monitor mymaster 192.168.179.131 6379 2
如下两条命令启动均可以,能够看到哨兵已经启动成功
./src/redis-sentinel sentinel.conf ./src/redis-server sentinel.conf --sentinel
这里我将192.168.179.131的redis给关掉,查看从节点的复制信息,能够看到redis的主节点已经切换为192.168.179.132
将192.168.179.131上面的redis再次启动,查看节点状态已经变为从节点了
上面也说到,Redis主从模式中若是主服务器宕掉将没法进行写操做,即便哨兵模式提供了Redis的高可用,但面对数据量比较大的场景,Redis单点就不太能知足这个要求了
Redis 集群是一个分布式、容错的 Redis 实现, 集群可使用的功能是普通单机 Redis 所能使用的功能的一个子集。
Redis 集群是Redis的分布式实现,集群中不存在中心节点或者代理节点, 集群的其中一个主要设计目标是达到线性可扩展性。集群的容错功能是经过使用主节点和从节点两种角色的节点来实现的:主节点和从节点使用彻底相同的服务器实现, 它们的功能也彻底同样, 但从节点一般仅用于替换失效的主节点。若是不须要保证“先写入,后读取”操做的一致性, 那么可使用从节点来执行只读查询。
Redis 集群不像单机 Redis 那样支持多数据库功能, 集群只使用默认的 0 号数据库, 而且不能使用 SELECT index 命令。
Redis 集群的键空间被分割为 16384 个槽(slot), 集群的最大节点数量也是 16384 个。当一个集群处于“稳定”状态时, 集群每一个哈希槽都不会进行移动,当须要添加一个节点的时候,只须要将其余节点的某些哈希槽转移到新节点上,当须要删除一个节点的时候,就把此节点的哈希槽转移到其余节点上就能够了。一个主节点能够有任意多个从节点, 这些从节点用于在主节点发生网络断线或者节点失效时, 对主节点进行替换。
每一个节点在集群中都有一个独一无二的 ID , 该 ID 是一个十六进制表示的 160 位随机数, 在节点第一次启动时由 /dev/urandom 生成。
节点会将它的 ID 保存到配置文件, 只要这个配置文件不被删除, 节点就会一直沿用这个 ID 。
节点 ID 用于标识集群中的每一个节点。 一个节点能够改变它的 IP 和端口号, 而不改变节点 ID 。 集群能够自动识别出 IP/端口号的变化, 并将这一信息经过 Gossip 协议广播给其余节点知道。
如下是每一个节点都有的关联信息, 而且节点会将这些信息发送给其余节点:
以上信息的其中一部分能够经过向集群中的任意节点(主节点或者从节点均可以)发送 CLUSTER NODES 命令来得到。
Redis集群是没法保证数据的强一致性的
每一个集群实例都要开启,以后重启redis实例
cluster-enabled yes cluster-config-file nodes-6379.conf cluster-node-timeout 15000
./redis-cli --cluster create 192.168.179.131:6379 192.168.179.131:6380 192.168.179.134:6379 192.168.179.134:6380 192.168.179.132:6379 192.168.179.132:6380 --cluster-replicas 1
能够查看集群的节点信息,输入集群内任意节点地址便可
./redis-cli --cluster check 192.168.179.132:6379
当咱们set一个key 时,会用CRC16算法来取模获得所属的slot,而后将这个key 分到哈希槽区间的节点上,当get数据的时候,也是经过这种方法去对应的节点上获取数据
./redis-cli -c -h 192.168.179.132 -p 6380 192.168.179.132:6380> set key 1 -> Redirected to slot [12539] located at 192.168.179.132:6379 OK ./redis-cli -c -h 192.168.179.134 -p 6379 192.168.179.134:6379> get key -> Redirected to slot [12539] located at 192.168.179.132:6379 "1"
欢迎关注我的公号“运维开发故事”