redis运维工具

redis运维工具

1、Redis 集群经常使用命令

1.集群(cluster)

CLUSTER INFO  #打印集群的信息 
CLUSTER NODES #列出集群当前已知的全部节点(node),以及这些节点的相关信息。

2.节点(node)

CLUSTER MEET <ip> <port>    #将 ip 和 port 所指定的节点添加到集群当中,让它成为集群的一份子。 
CLUSTER FORGET <node_id>    #从集群中移除 node_id 指定的节点。 
CLUSTER REPLICATE <node_id> #将当前节点设置为 node_id 指定的节点的从节点。 
CLUSTER SAVECONFIG          #将节点的配置文件保存到硬盘里面。

3.槽(slot)

CLUSTER ADDSLOTS <slot> [slot ...] #将一个或多个槽(slot)指派(assign)给当前节点。 
CLUSTER DELSLOTS <slot> [slot ...] #移除一个或多个槽对当前节点的指派。 
CLUSTER FLUSHSLOTS #移除指派给当前节点的全部槽,让当前节点变成一个没有指派任何槽的节点。 
CLUSTER SETSLOT <slot> NODE <node_id> 
#将槽slot指派给node_id指定的节点,若是槽已经指派给另外一个节点,那么先让另外一个节点删除该槽>,而后再进行指派。 
CLUSTER SETSLOT <slot> MIGRATING <node_id> #将本节点的槽 slot 迁移到 node_id 指定的节点中。 
CLUSTER SETSLOT <slot> IMPORTING <node_id> #从 node_id 指定的节点中导入槽 slot 到本节点。 
CLUSTER SETSLOT <slot> STABLE #取消对槽 slot 的导入(import)或者迁移(migrate)。

4.键 (key)

CLUSTER KEYSLOT <key> #计算键 key 应该被放置在哪一个槽上。 
CLUSTER COUNTKEYSINSLOT <slot> #返回槽 slot 目前包含的键值对数量。 
CLUSTER GETKEYSINSLOT <slot> <count> #返回 count 个 slot 槽中的键。

2、Redis 运维工具

1.数据导入导出工具

需求背景node

刚切换到 redis集群的时候确定会面临数据导入的问题,因此这里推荐使用 redis-migrate-tool 工具来导 入单节点数据到集群里python

官方地址: http://www.oschina.net/p/redis-migrate-toolgit

# 1.安装工具
yum install libtool autoconf automake git bzip2 -y 
cd /opt/
git clone https://github.com/vipshop/redis-migrate-tool.git
cd redis-migrate-tool/
autoreconf -fvi
./configure
make && make install 


# 2.编写配置文件
cat > 6379_to_6380.conf << EOF
[source]
type: single
servers:
- 10.0.0.51:6379

[target]
type: redis cluster
servers:
- 10.0.0.51:6380 

[common]
listen: 0.0.0.0:8888
source_safe: true
EOF


# 3.单节点生成测试数据
redis-server /opt/redis_6379/conf/redis_6379.conf 
cat >input_6379.sh<<EOF 
#!/bin/bash
for i in {1..1000}
do
	redis-cli -c -h db01 -p 6379 set oldzhang_\${i} oldzhang_\${i}
	echo "set oldzhang_\${i} is ok"
done
EOF

sh input_6379.sh

# 4.运行工具迁移单节点数据到集群
redis-migrate-tool -c 6379_to_6380.conf


# 5.运行工具验证数据是否迁移完成
redis-migrate-tool -c 6379_to_6380.conf -C redis_check


# 6.数据平均
redis-cli -c -h 10.0.0.51 -p 6380

db01:6380> 
337) 
db02:6380> 
340)
db03:6380> 
329)

注意主从关系 若是51:6379是从库 测试数据写不进去 从新指向主库github

2.RDB文件迁移到集群

# 1.先把集群的RDB文件都收集起来
- 在从节点上执行bgsave命令生成RDB文件
redis-cli -h 10.0.0.51 -p 6381 BGSAVE
redis-cli -h 10.0.0.52 -p 6381 BGSAVE
redis-cli -h 10.0.0.53 -p 6381 BGSAVE

# 2.把从节点生成的RDB文件拉取过来
mkdir rdb_backup
cd rdb_backup/
scp 10.0.0.51:/data/redis_6381/redis_6381.rdb db01_6381.rdb
scp 10.0.0.52:/data/redis_6381/redis_6381.rdb db02_6381.rdb
scp 10.0.0.53:/data/redis_6381/redis_6381.rdb db03_6381.rdb

# 3.清空数据
redis-cli -c -h 10.0.0.51 -p 6380 flushall
redis-cli -c -h 10.0.0.52 -p 6380 flushall
redis-cli -c -h 10.0.0.53 -p 6380 flushall

# 4.编写配置文件
cat >rdb_to_cluter.conf <<EOF
[source]
type: rdb file
servers:
- /root/rdb_backup/db01_6381.rdb 
- /root/rdb_backup/db02_6381.rdb 
- /root/rdb_backup/db03_6381.rdb 

[target]
type: redis cluster
servers:
- 10.0.0.51:6380 

[common]
listen: 0.0.0.0:8888
source_safe: true
EOF

# 5.使用工具导入
redis-migrate-tool -c rdb_to_cluter.conf 


# 6.运行工具验证数据是否迁移完成
redis-migrate-tool -c 6379_to_6380.conf -C redis_check


# 7.数据平均
redis-cli -c -h 10.0.0.51 -p 6380
db01:6380> 
337) 
db02:6380> 
340)
db03:6380> 
329)

3.分析键值大小

**需求背景 ** redis 的内存使用太大键值太多,不知道哪些键值占用的容量比较大,并且在线分析会影响性能.redis

# 1.安装命令:
[root@db01 ~]# yum install python-pip gcc python-devel -y
[root@db01 ~]# cd /opt/
[root@db01 ~]# git clone https://github.com/sripathikrishnan/redis-rdb-tools
[root@db01 ~]# cd redis-rdb-tools
[root@db01 ~]# pip install python-lzf
[root@db01 ~]# python setup.py install

# 2.生成测试数据:
[root@db01 ~]# vim txt.txt
乱七八糟写进去
[root@db01 ~]# redis-cli -h db01 -p 6379 set txt $(cat txt.txt)

# 3.执行bgsave生成rdb文件
[root@db01 ~]# redis-cli -h db01 -p 6379 BGSAVE

# 4.使用工具分析:
[root@db01 ~]# cd /data/redis_6379/
[root@db01 /data/redis_6379]# rdb -c memory redis_6379.rdb -f redis_6379.rdb.csv
[root@db01 /data/redis_6379]# ll
-rw-r--r-- 1 root root  39010 Jan  3 16:46 redis_6379.rdb.csv

# 5.过滤分析
[root@db01 /data/redis_6379]# awk -F"," '{print $4,$3}' redis_6379.rdb.csv |sort -r
1328 txt

# 6.将结果整理汇报给领导,询问开发这个key是否能够删除

一些其余工具算法

# 使用工具将rdb转换成json
[root@db01 /data/redis_6379]# rdb --command json redis_6379.rdb -f redis_6379.rdb.json
[root@db01 /data/redis_6379]# ll
total 208
-rw-r--r-- 1 root root 103018 Jan  3 16:45 redis_6379.aof
-rw-r--r-- 1 root root  26895 Jan  3 16:45 redis_6379.rdb
-rw-r--r-- 1 root root  39010 Jan  3 16:46 redis_6379.rdb.csv
-rw-r--r-- 1 root root  32852 Jan  3 16:53 redis_6379.rdb.json

# 使用工具对比rdb文件差别
[root@db01 /data/redis_6379]# cd /root/rdb_backup
[root@db01 ~/rdb_backup]# rdb --command diff db01_6381.rdb | sort > dump1.txt
[root@db01 ~/rdb_backup]# rdb --command diff db02_6381.rdb | sort > dump2.txt
[root@db01 ~/rdb_backup]# vimdiff dump1.txt dump2.txt

4.监控过时键

**需求背景 ** 由于开发重复提交,致使电商网站优惠卷过时时间失效 **问题分析 ** 若是一个键已经设置了过时时间,这时候在 set 这个键,过时时间就会取消json

**解决思路 ** 如何在不影响机器性能的前提下批量获取须要监控键过时时间 1.Keys * 查出来匹配的键名。而后循环读取 ttl 时间 2.scan * 范围查询键名。而后循环读取 ttl 时间vim

Keys 重操做,会影响服务器性能,除非是不提供服务的从节点 Scan 负担小,可是须要去屡次才能取完,须要写脚本ruby

脚本内容bash

cat 01get_key.sh  
#!/bin/bash 
key_num=0 
> key_name.log 
for line in $(cat key_list.txt) 
do 
    while true 
    do 
        scan_num=$(redis-cli -h 10.0.0.51 -p 6380 SCAN ${key_num} match ${line}\* count 
1000|awk 'NR==1{print $0}') 
        key_name=$(redis-cli -h 10.0.0.51 -p 6380 SCAN ${key_num} match ${line}\* count 
1000|awk 'NR>1{print $0}') 
        echo ${key_name}|xargs -n 1 >> key_name.log 
        ((key_num=scan_num)) 
        if [ ${key_num} == 0 ] 
           then 
           break 
        fi 
    done 
done

3、内存管理参数

当达到内存使用限制以后redis会出发对应的控制策略

redis支持6种策略:
# 1.noevicition 
默认策略,不会删除任何数据,拒绝全部写入操做并返回客户端错误信息,此时只响应读操做

# 2.volatile-lru	
根据LRU算法删除设置了超时属性的key,直到腾出足够空间为止,若是没有可删除的key,则退回到noevicition策略

# 3.allkeys-lru		
根据LRU算法删除key,无论数据有没有设置超时属性

# 4.allkeys-random	
随机删除全部key

# 5.volatile-random	
随机删除过时key

# 6.volatile-ttl		
根据key的ttl,删除最近要过时的key
# 动态配置
config set maxmemory-policy

# 设置内存最大限制
config set maxmemory 2G
相关文章
相关标签/搜索