在以前的一篇文章已经介绍了Redis Cluster及其部署,下面说下Redis Cluster平常操做命令:html
1、如下命令是Redis Cluster集群所独有的,执行下面命令须要先登陆redis:
[root@manage redis]# redis-cli -c -p 6382 -h 192.168.10.12 (客户端命令:redis-cli -c -p port -h ip)
192.168.10.12:6382> 登陆redis后,在里面能够进行下面命令操做node
集群
cluster info :打印集群的信息
cluster nodes :列出集群当前已知的全部节点( node),以及这些节点的相关信息。
节点
cluster meet <ip> <port> :将 ip 和 port 所指定的节点添加到集群当中,让它成为集群的一份子。
cluster forget <node_id> :从集群中移除 node_id 指定的节点。
cluster replicate <master_node_id> :将当前从节点设置为 node_id 指定的master节点的slave节点。只能针对slave节点操做。
cluster saveconfig :将节点的配置文件保存到硬盘里面。
槽(slot)
cluster addslots <slot> [slot ...] :将一个或多个槽( slot)指派( assign)给当前节点。
cluster delslots <slot> [slot ...] :移除一个或多个槽对当前节点的指派。
cluster flushslots :移除指派给当前节点的全部槽,让当前节点变成一个没有指派任何槽的节点。
cluster setslot <slot> node <node_id> :将槽 slot 指派给 node_id 指定的节点,若是槽已经指派给
另外一个节点,那么先让另外一个节点删除该槽>,而后再进行指派。
cluster setslot <slot> migrating <node_id> :将本节点的槽 slot 迁移到 node_id 指定的节点中。
cluster setslot <slot> importing <node_id> :从 node_id 指定的节点中导入槽 slot 到本节点。
cluster setslot <slot> stable :取消对槽 slot 的导入( import)或者迁移( migrate)。
键
cluster keyslot <key> :计算键 key 应该被放置在哪一个槽上。
cluster countkeysinslot <slot> :返回槽 slot 目前包含的键值对数量。
cluster getkeysinslot <slot> <count> :返回 count 个 slot 槽中的键 。redis
2、集群中Master的下线及恢复
1)Master下线后,其对应的Slaver节点会自动变为Master节点,以下截图:缓存
2)原来的Master重启后变成Slaver节点,并是原来Master节点的Slaver节点bash
三,添加节点服务器
1)新配置二个测试节点 # cd /etc/redis //新增配置 # cp redis-6379.conf redis-6378.conf && sed -i "s/6379/6378/g" redis-6378.conf # cp redis-6382.conf redis-6385.conf && sed -i "s/6382/6385/g" redis-6385.conf //启动 # redis-server /etc/redis/redis-6385.conf > /var/log/redis/redis-6385.log 2>&1 & # redis-server /etc/redis/redis-6378.conf > /var/log/redis/redis-6378.log 2>&1 & 2)添加主节点 # redis-trib.rb add-node 192.168.10.219:6378 192.168.10.219:6379 注释: 192.168.10.219:6378是新增的节点 192.168.10.219:6379集群任一个旧节点 3)添加从节点 # redis-trib.rb add-node --slave --master-id 03ccad2ba5dd1e062464bc7590400441fafb63f2 192.168.10.220:6385 192.168.10.219:6379 注释: --slave,表示添加的是从节点 --master-id 03ccad2ba5dd1e062464bc7590400441fafb63f2,主节点的node id,在这里是前面新添加的6378的node id 192.168.10.220:6385,新节点 192.168.10.219:6379集群任一个旧节点 4)从新分配slot # redis-trib.rb reshard 192.168.10.219:6378 //下面是主要过程 How many slots do you want to move (from 1 to 16384)? 1000 //设置slot数1000 What is the receiving node ID? 03ccad2ba5dd1e062464bc7590400441fafb63f2 //新节点node id Please enter all the source node IDs. Type 'all' to use all the nodes as source nodes for the hash slots. Type 'done' once you entered all the source nodes IDs. Source node #1:all //表示所有节点从新洗牌 Do you want to proceed with the proposed reshard plan (yes/no)? yes //确认从新分 新增长的主节点,是没有slots的, M: 03ccad2ba5dd1e062464bc7590400441fafb63f2 192.168.10.219:6378 slots:0-332,5461-5794,10923-11255 (0 slots) master 主节点若是没有slots的话,存取数据就都不会被选中。 能够把分配的过程理解成打扑克牌,all表示你们从新洗牌;输入某个主节点的node id,而后在输入done的话,就比如从某个节点,抽牌。 5)查看一下,集群状况 [root@slave2 redis]# redis-trib.rb check 192.168.10.219:6379 Connecting to node 192.168.10.219:6379: OK Connecting to node 192.168.10.220:6385: OK Connecting to node 192.168.10.219:6378: OK Connecting to node 192.168.10.220:6382: OK Connecting to node 192.168.10.220:6383: OK Connecting to node 192.168.10.219:6380: OK Connecting to node 192.168.10.219:6381: OK Connecting to node 192.168.10.220:6384: OK >>> Performing Cluster Check (using node 192.168.10.219:6379) M: 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052 192.168.10.219:6379 slots:5795-10922 (5128 slots) master 1 additional replica(s) S: 9c240333476469e8e2c8e80b089c48f389827265 192.168.10.220:6385 slots: (0 slots) slave replicates 03ccad2ba5dd1e062464bc7590400441fafb63f2 M: 03ccad2ba5dd1e062464bc7590400441fafb63f2 192.168.10.219:6378 slots:0-332,5461-5794,10923-11255 (1000 slots) master 1 additional replica(s) M: 19b042c17d2918fade18a4ad2efc75aa81fd2422 192.168.10.220:6382 slots:333-5460 (5128 slots) master 1 additional replica(s) M: b2c50113db7bd685e316a16b423c9b8abc3ba0b7 192.168.10.220:6383 slots:11256-16383 (5128 slots) master 1 additional replica(s) S: 6475e4c8b5e0c0ea27547ff7695d05e9af0c5ccb 192.168.10.219:6380 slots: (0 slots) slave replicates 19b042c17d2918fade18a4ad2efc75aa81fd2422 S: 1ee01fe95bcfb688a50825d54248eea1e6133cdc 192.168.10.219:6381 slots: (0 slots) slave replicates b2c50113db7bd685e316a16b423c9b8abc3ba0b7 S: 9a2a1d75b8eb47e05eee1198f81a9edd88db5aa1 192.168.10.220:6384 slots: (0 slots) slave replicates 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052 [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered.
3、手动改变slave从节点所属的master主节点(一个slave只能属于一个master,而一个master能够有多个slave)网络
//查看一下6378的从节点 # redis-cli -p 6378 cluster nodes | grep slave | grep 03ccad2ba5dd1e062464bc7590400441fafb63f2 //将6385加入到新的master # redis-cli -c -p 6385 -h 192.168.10.220 192.168.10.220:6385> cluster replicate 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052 //新master的node id OK 192.168.10.220:6385> quit //查看新master的slave # redis-cli -p 6379 cluster nodes | grep slave | grep 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052
4、删除节点测试
1)删除从节点 # redis-trib.rb del-node 192.168.10.220:6385 '9c240333476469e8e2c8e80b089c48f389827265' 2)删除主节点 若是主节点有从节点,将从节点转移到其余主节点 若是主节点有slot,去掉分配的slot,而后在删除主节点 # redis-trib.rb reshard 192.168.10.219:6378 //取消分配的slot,下面是主要过程 How many slots do you want to move (from 1 to 16384)? 1000 //被删除master的全部slot数量 What is the receiving node ID? 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052 //接收6378节点slot的master Please enter all the source node IDs. Type 'all' to use all the nodes as source nodes for the hash slots. Type 'done' once you entered all the source nodes IDs. Source node #1:03ccad2ba5dd1e062464bc7590400441fafb63f2 //被删除master的node-id Source node #2:done Do you want to proceed with the proposed reshard plan (yes/no)? yes //取消slot后,reshard 新增master节点后,也进行了这一步操做,当时是分配,如今去掉。反着的。 # redis-trib.rb del-node 192.168.10.219:6378 '03ccad2ba5dd1e062464bc7590400441fafb63f2' 新的master节点被删除了,这样就回到了,就是这篇文章开头,尚未添加节点的状态
5、复制迁移ui
在redis集群中经过"cluster replicate <master_node_id> "命令能够将一个slave节点从新配置为另一个master的slave。 注意:这个只是针对slave节点,即登陆到slave节点的reids中,执行这个命令。 好比172.16.60.204:7003是172.16.60.202:7000主节点的slave节点,也能够把他设置成172.16.60.205:7004主节点的slave节点。 172.16.60.205:7004主节点的ID是48cbab906141dd26241ccdbc38bee406586a8d03 则操做为 [root@redis-new01 ~]# /data/redis-4.0.6/src/redis-cli -h 172.16.60.204 -c -p 7003 172.16.60.204:7003> cluster replicate 48cbab906141dd26241ccdbc38bee406586a8d03 OK 172.16.60.204:7003> 这样172.16.60.204:7003节点就变成了172.16.60.205:7004主节点的slave节点,而再也不是172.16.60.202:7000主节点的slave节点! 这样能够自动的将一个复制节点从一个master下移动到另一个master下。 这种状况下的复制节点的自动重配置被称为复制迁移。 复制迁移能够提高系统的可靠性和抗灾性。 在某种状况下,你想让集群的复制节点从一个master迁移到另外一个master的缘由多是: 集群的抗崩溃能力老是跟集群中master 拥有的平均slave数量成正比。 好比,若是一个集群中每一个master只有一个slave,当master和slave都挂掉的时候这个集群就崩溃了。由于此时有一些哈希槽没法找到了。 虽然网络分裂会把一堆节点从集群中孤立出来(这样你一下就会知道集群出问题了),可是其余的更常见的硬件或者软件的问题并不会在多台机器上同时发生, 因此很 可能在你的这个集群(平均每一个master只有一个slave)有一个slave在早上4点挂掉,而后他的master在随后的早上6点挂掉。这样依然会 致使集群崩溃。 能够经过给每一个master都再多加一个slave节点来改进系统的可靠性,可是这样很昂贵。复制迁移容许只给某些master增长slave。比方说你的集群有20个节点, 10个master,每一个master都有1个slave。而后你增长3个 slave到集群中并把他们分配给某几个master节点,这样某些master就会拥有多于1个slave。 当某个 master失去了slave的时候,复制迁移能够将slave节点从拥有富余slave的master旗下迁移给没有slave的master。因此当 你的slave在早上4点挂掉的时候, 另外一个slave会被迁移过来取代它的位置,这样当master节点在早上5点挂掉的时候,依然有一个slave可 以被选举为master,集群依然能够正常运行。 因此简而言之,关于复制迁移应该注意下面几个方面: - 集群在迁移的时候会尝试去迁移拥有最多slave数量的master旗下的slave。 - 想利用复制迁移特性来增长系统的可用性,你只须要增长一些slave节点给单个master(哪一个master节点并不重要)。 - 复制迁移是由配置项cluster-migration-barrier控制的
6、升级节点spa
升级从服务器节点很简单,由于你只须要中止节点而后用已更新的Redis版本重启。若是有客户端使用从服务器节点分离读请求,它们应该可以在某个节点 不可用时从新链接另外一个从服务器。 升级主服务器要稍微复杂一些,建议的步骤是: 1)使用cluster failover来触发一次手工故障转移主服务器(请看本文档的手工故障转移小节)。 2)等待主服务器变为从服务器。 3)像升级从服务器那样升级这个节点。 4)若是你想让你刚刚升级的节点成为主服务器,触发一次新的手工故障转移,让升级的节点从新变回主服务器。 能够按照这些步骤来一个节点一个节点的升级,直到所有节点升级完毕。
目前redis cluster集群的启动只能空节点启动,当节点有数据时会有err警告,可是只要进行fix就行了 redis-trib.rb fix 用这个命令修复下就OK了。
7、Redis缓存清理
1)登录redis # src/redis-cli -c -h 192.168.1.100 -p 6379 2)执行: 192.168.1.100:6379> dbsize 3) 192.168.1.100:6379> flushall ================================================================ redis集群指定key值得缓存清理: 1)登陆至指定端口的redis服务器 # src/redis-cli -c -h 192.168.1.100 -p 6379 2)查看全部key值 (或者使用info命令也能查看出来) keys * 3)删除指定索引的值 del key