咱们每天都在使用 Redis 内置的命令行工具 redis-cli,长此以往觉得它就是一个简单的交互式 Redis 数据结构手工操做程序,可是它背后强大的功能绝大多数同窗可能闻所未闻。本节咱们一块儿来挖掘这些不为人知的有趣用法。redis
平时在访问 Redis 服务器,通常都会使用 redis-cli 进入交互模式,而后一问一答来读写服务器,这种状况下咱们使用的是它的「交互模式」。还有另一种「直接模式」,经过将命令参数直接传递给 redis-cli 来执行指令并获取输出结果。bash
$ redis-cli incrby foo 5
(integer) 5
$ redis-cli incrby foo 5
(integer) 10
复制代码
若是输出的内容较大,还能够将输出重定向到外部文件服务器
$ redis-cli info > info.txt
$ wc -l info.txt
120 info.txt
复制代码
上面的命令指向的服务器是默认服务器地址,若是想指向特定的服务器能够这样微信
// -n 2 表示使用第2个库,至关于 select 2
$ redis-cli -h localhost -p 6379 -n 2 ping
PONG
复制代码
在平时线上的开发过程当中,有时候咱们免不了要手工造数据,而后导入 Redis。一般咱们会编写脚本程序来作这件事。不过还有另一种比较便捷的方式,那就是直接使用 redis-cli 来批量执行一系列指令。网络
$ cat cmds.txt
set foo1 bar1
set foo2 bar2
set foo3 bar3
......
$ cat cmds.txt | redis-cli
OK
OK
OK
...
复制代码
上面的指令使用了 Unix 管道将 cat 指令的标准输出链接到 redis-cli 的标准输入。其实还能够直接使用输入重定向来批量执行指令。数据结构
$ redis-cli < cmds.txt
OK
OK
OK
...
复制代码
若是一个字符串有多行,你但愿将它传入 set 指令,redis-cli 要如何作?可使用 -x 选项,该选项会使用标准输入的内容做为最后一个参数。async
$ cat str.txt
Ernest Hemingway once wrote,
"The world is a fine place and worth fighting for."
I agree with the second part.
$ redis-cli -x set foo < str.txt
OK
$ redis-cli get foo
"Ernest Hemingway once wrote,\n\"The world is a fine place and worth fighting for.\"\nI agree with the second part.\n"
复制代码
redis-cli 还支持重复执行指令屡次,每条指令执行之间设置一个间隔时间,如此即可以观察某条指令的输出内容随时间变化。工具
// 间隔1s,执行5次,观察qps的变化
$ redis-cli -r 5 -i 1 info | grep ops
instantaneous_ops_per_sec:43469
instantaneous_ops_per_sec:47460
instantaneous_ops_per_sec:47699
instantaneous_ops_per_sec:46434
instantaneous_ops_per_sec:47216
复制代码
若是将次数设置为 -1 那就是重复无数次永远执行下去。若是不提供 -i 参数,那就没有间隔,连续重复执行。在交互模式下也能够重复执行指令,形式上比较怪异,在指令前面增长次数ui
127.0.0.1:6379> 5 ping
PONG
PONG
PONG
PONG
PONG
# 下面的指令很可怕,你的屏幕要愤怒了
127.0.0.1:6379> 10000 info
.......
复制代码
redis-cli 不能一次导出整个库的内容为 csv,可是能够导出单条指令的输出为 csv 格式。lua
$ redis-cli rpush lfoo a b c d e f g
(integer) 7
$ redis-cli --csv lrange lfoo 0 -1
"a","b","c","d","e","f","g"
$ redis-cli hmset hfoo a 1 b 2 c 3 d 4
OK
$ redis-cli --csv hgetall hfoo
"a","1","b","2","c","3","d","4"
复制代码
固然这种导出功能比较弱,仅仅是一堆字符串用逗号分割开来。不过你能够结合命令的批量执行来看看多个指令的导出效果。
$ redis-cli --csv -r 5 hgetall hfoo
"a","1","b","2","c","3","d","4"
"a","1","b","2","c","3","d","4"
"a","1","b","2","c","3","d","4"
"a","1","b","2","c","3","d","4"
"a","1","b","2","c","3","d","4"
复制代码
看到这里读者应该明白 --csv 参数的效果就是对输出作了一次转换,用逗号分割,仅此而已。
在 lua 脚本小节,咱们使用 eval 指令来执行脚本字符串,每次都是将脚本内容压缩成单行字符串再调用 eval 指令,这很是繁琐,并且可读性不好。redis-cli 考虑到了这点,它能够直接执行脚本文件。
127.0.0.1:6379> eval "return redis.pcall('mset', KEYS[1], ARGV[1], KEYS[2], ARGV[2])" 2 foo1 foo2 bar1 bar2
OK
127.0.0.1:6379> eval "return redis.pcall('mget', KEYS[1], KEYS[2])" 2 foo1 foo2
1) "bar1"
2) "bar2"
复制代码
下面咱们以脚本的形式来执行上面的指令,参数形式有所不一样,KEY 和 ARGV 之间须要使用逗号分割,而且不须要提供 KEY 的数量参数
$ cat mset.txt
return redis.pcall('mset', KEYS[1], ARGV[1], KEYS[2], ARGV[2])
$ cat mget.txt
return redis.pcall('mget', KEYS[1], KEYS[2])
$ redis-cli --eval mset.txt foo1 foo2 , bar1 bar2
OK
$ redis-cli --eval mget.txt foo1 foo2
1) "bar1"
2) "bar2"
复制代码
若是你的 lua 脚本太长,--eval 将大有用处。
咱们可使用 --stat 参数来实时监控服务器的状态,间隔 1s 实时输出一次。
$ redis-cli --stat
------- data ------ --------------------- load -------------------- - child -
keys mem clients blocked requests connections
2 6.66M 100 0 11591628 (+0) 335
2 6.66M 100 0 11653169 (+61541) 335
2 6.66M 100 0 11706550 (+53381) 335
2 6.54M 100 0 11758831 (+52281) 335
2 6.66M 100 0 11803132 (+44301) 335
2 6.66M 100 0 11854183 (+51051) 335
复制代码
若是你以为间隔太长或是过短,可使用 -i 参数调整输出间隔。
这个功能太实用了,我已经在线上试过无数次了。每次遇到 Redis 偶然卡顿问题,第一个想到的就是实例中是否存在大 KEY,大 KEY的内存扩容以及释放都会致使主线程卡顿。若是知道里面有没有大 KEY,能够本身写程序扫描,不过这太繁琐了。redis-cli 提供了 --bigkeys 参数能够很快扫出内存里的大 KEY,使用 -i 参数控制扫描间隔,避免扫描指令致使服务器的 ops 陡增报警。
$ ./redis-cli --bigkeys -i 0.01
# Scanning the entire keyspace to find biggest keys as well as
# average sizes per key type. You can use -i 0.1 to sleep 0.1 sec
# per 100 SCAN commands (not usually needed).
[00.00%] Biggest zset found so far 'hist:aht:main:async_finish:20180425:17' with 1440 members
[00.00%] Biggest zset found so far 'hist:qps:async:authorize:20170311:27' with 2465 members
[00.00%] Biggest hash found so far 'job:counters:6ya9ypu6ckcl' with 3 fields
[00.01%] Biggest string found so far 'rt:aht:main:device_online:68:{-4}' with 4 bytes
[00.01%] Biggest zset found so far 'machine:load:20180709' with 2879 members
[00.02%] Biggest string found so far '6y6fze8kj7cy:{-7}' with 90 bytes
复制代码
redis-cli 对于每一种对象类型都会记录长度最大的 KEY,对于每一种对象类型,刷新一次最高记录就会当即输出一次。它能保证输出长度为 Top1 的 KEY,可是 Top二、Top3等 KEY 是没法保证能够扫描出来的。通常的处理方法是多扫描几回,或者是消灭了 Top1 的 KEY 以后再扫描确认还有没有次大的 KEY。
如今线上有一台 Redis 服务器的 OPS 过高,有不少业务模块都在使用这个 Redis,如何才能判断出来是哪一个业务致使了 OPS 异常的高。这时能够对线上服务器的指令进行采样,观察采样的指令大体就能够分析出 OPS 占比高的业务点。这时就要使用 monitor 指令,它会将服务器瞬间执行的指令所有显示出来。不过使用的时候要注意即便使用 ctrl+c 中断,不然你的显示器会噼里啪啦太多的指令瞬间让你眼花缭乱。
$ redis-cli --host 192.168.x.x --port 6379 monitor
1539853410.458483 [0 10.100.90.62:34365] "GET" "6yax3eb6etq8:{-7}"
1539853410.459212 [0 10.100.90.61:56659] "PFADD" "growth:dau:20181018" "2klxkimass8w"
1539853410.462938 [0 10.100.90.62:20681] "GET" "6yax3eb6etq8:{-7}"
1539853410.467231 [0 10.100.90.61:40277] "PFADD" "growth:dau:20181018" "2kei0to86ps1"
1539853410.470319 [0 10.100.90.62:34365] "GET" "6yax3eb6etq8:{-7}"
1539853410.473927 [0 10.100.90.61:58128] "GET" "6yax3eb6etq8:{-7}"
1539853410.475712 [0 10.100.90.61:40277] "PFADD" "growth:dau:20181018" "2km8sqhlefpc"
1539853410.477053 [0 10.100.90.62:61292] "GET" "6yax3eb6etq8:{-7}"
复制代码
平时咱们诊断两台机器的时延通常是使用 Unix 的 ping 指令。Redis 也提供了时延诊断指令,不过它的原理不太同样,它是诊断当前机器和 Redis 服务器之间的指令(PING指令)时延,它不只仅是物理网络的时延,还和当前的 Redis 主线程是否忙碌有关。若是你发现 Unix 的 ping 指令时延很小,而 Redis 的时延很大,那说明 Redis 服务器在执行指令时有微弱卡顿。
$ redis-cli --host 192.168.x.x --port 6379 --latency
min: 0, max: 5, avg: 0.08 (305 samples)
复制代码
时延单位是 ms。redis-cli 还能显示时延的分布状况,并且是图形化输出。
$ redis-cli --latency-dist
复制代码
这个图形的含义做者没有描述,读者们能够尝试破解一下。
执行下面的命令就能够将远程的 Redis 实例备份到本地机器,远程服务器会执行一次bgsave操做,而后将 rdb 文件传输到客户端。远程 rdb 备份让咱们有一种“秀才不出门,全知天下事”的感受。
$ ./redis-cli --host 192.168.x.x --port 6379 --rdb ./user.rdb
SYNC sent to master, writing 2501265095 bytes to './user.rdb'
Transfer finished with success.
复制代码
若是你想观察主从服务器之间都同步了那些数据,可使用 redis-cli 模拟从库。
$ ./redis-cli --host 192.168.x.x --port 6379 --slave
SYNC with master, discarding 51778306 bytes of bulk transfer...
SYNC done. Logging commands from master.
...
复制代码
从库连上主库的第一件事是全量同步,因此看到上面的指令卡顿这很正常,待首次全量同步完成后,就会输出增量的 aof 日志。
阅读更多深度技术文章,扫一扫上面的二维码关注微信公众号「码洞」