优势:高性能读写、单一数据类型、支持客户端式分布式集群、一致性hash、多核结构、多线程读写性能高。html
缺点:无持久化、节点故障可能出现缓存穿透、分布式须要客户端实现、跨机房数据同步困难、架构扩容复杂度高mysql
优势:高性能读写、多数据类型支持、数据持久化、高可用架构、支持自定义虚拟内存、支持分布式分片集群、单线程读写性能极高web
缺点:多线程读写较Memcached慢面试
应用企业:新浪、京东、直播类平台、网页游戏redis
优势:高性能读写、支持三种存储引擎(ddb、rdb、ldb)、支持高可用、支持分布式分片集群、支撑了几乎全部淘宝业务的缓存。sql
缺点:单机状况下,读写性能较其余两种产品较慢数据库
memcached:适合多用户访问,每一个用户少许的rwvim
redis :适合少用户访问,每一个用户大量rw缓存
Memcached:多核的缓存服务,更加适合于多用户并发访问次数较少的应用场景安全
Redis:单核的缓存服务,单节点状况下,更加适合于少许用户,屡次访问的应用场景。
Redis通常是单机多实例架构,配合redis集群出现。
1)Redis是一款开源的,ANSI C语言编写的,高级键值(key-value)缓存和支持永久存储NoSQL数据库产品
2)Redis采用内存(In-Memory)数据集(DataSet)
3)支持多种数据类型
4)运行于大多数POSIX系统,如Linux、*BSD、OS X等
5)做者: Salvatore Sanfilippo
主要功能:
1)数据高速缓存
2)web会话缓存(session cache)
3)排行榜应用
4)消息队列
5)发布订阅
1)redis.io
2)download/redis.io
3)redisdoc.com
4)redis.cn
1)下载软件包
[root@redis-master ~]# mkdir /data [root@redis-master ~]# cd /data/ && wget http://download.redis.io/releases/redis-3.2.12.tar.gz
2)解压并重命名
[root@redis-master data]# cd /data [root@redis-master data]# tar xzf redis-3.2.12.tar.gz [root@redis-master data]# mv redis-3.2.12 redis
3)编译安装
[root@redis-master redis]# cd redis/ && make
4)环境变量设置
cat >>/etc/profile<<EOF export PATH=/data/redis/src:$PATH EOF source /etc/profile
5)编辑配置文件
mkdir /data/6379 cat >>/data/6379/redis.conf<<EOF daemonize yes port 6379 logfile /data/redis/redis.log dir /data/redis dbfilename dump.rdb EOF #+++++++++++++++++++++++++++++++++++++++++++++++++++ #配置文件说明 #配置文件路径/data/6379/ daemonize yes #是否后台运行 port 6379 #默认端口 logfile /data/6379/redis.log #日志文件位置 dir /data/6379 #持久化文件存储位置 dbfilename dump.rdb #RDB持久化数据文件
6)指定配置文件启动
[root@redis-master redis]# redis-server /data/6379/redis.conf [root@redis-master redis]# ps -ef|grep redis root 23544 1 0 17:34 ? 00:00:00 redis-server *:6379 root 23549 19597 0 17:34 pts/0 00:00:00 grep --color=auto redis #关闭命令:redis-cli shutdown
7)redis启停脚本
#!/bin/bash #Name:redis_start.sh #Version:V1.0 USAG(){ echo "sh $0 {start|stop|restart|login|ps|tail} PORT" } if [ "$#" = 1 ] then REDIS_PORT='6379' elif [ "$#" = 2 -a -z "$(echo "$2"|sed 's#[0-9]##g')" ] then REDIS_PORT="$2" else USAG exit 0 fi REDIS_IP=$(hostname -I|awk '{print $1}') PATH_DIR=/data/${REDIS_PORT}/ PATH_CONF=${PATH_DIR}/redis.conf PATH_LOG=$PATH_DIR/redis.log PASS=123 CMD_START(){ redis-server ${PATH_CONF} } CMD_SHUTDOWN(){ redis-cli -c -a $PASS -h ${REDIS_IP} -p ${REDIS_PORT} shutdown } CMD_LOGIN(){ redis-cli -c -a $PASS -h ${REDIS_IP} -p ${REDIS_PORT} } CMD_PS(){ ps -ef|grep redis } CMD_TAIL(){ tail -f ${PATH_LOG} } case $1 in start) CMD_START CMD_PS ;; stop) CMD_SHUTDOWN CMD_PS ;; restart) CMD_SHUTDOWN CMD_START CMD_PS ;; login) CMD_LOGIN ;; ps) CMD_PS ;; tail) CMD_TAIL ;; *) USAG esac
当第一次指定ip,端口链接时:
[root@redis-master ~]# redis-cli -h 10.0.0.11 -p 6379 #报错 10.0.0.11:6379> set a 1 (error) DENIED Redis is running in protected mode because protected mode is enabled, no bind address was specified, no authentication password is requested to clients. In this mode connections are only accepted from the loopback interface. If you want to connect from external computers to Redis you may adopt one of the following solutions: 1) Just disable protected mode sending the command 'CONFIG SET protected-mode no' from the loopback interface by connecting to Redis from the same host the server is running, however MAKE SURE Redis is not publicly accessible from internet if you do so. Use CONFIG REWRITE to make this change permanent. 2) Alternatively you can just disable the protected mode by editing the Redis configuration file, and setting the protected mode option to 'no', and then restarting the server. 3) If you started the server manually just for testing, restart it with the '--protected-mode no' option. 4) Setup a bind address or an authentication password. NOTE: You only need to do one of the above things in order for the server to start accepting connections from the outside. #redis默认开启了保护模式,只容许本地回环地址登陆并访问数据库。 禁止protected-mode: è不推荐 protected-mode yes/no (保护模式,是否只容许本地访问)
[root@redis-master ~]# vim /data/6379/redis.conf bind 10.0.0.11 127.0.0.1
2)增长验证requirepass
vim /data/6379/redis.conf requirepass 123456
登陆安全验证:
[root@redis-master ~]# redis-cli shutdown [root@redis-master ~]# redis-server /data/6379/redis.conf #方式一 [root@redis-master ~]# redis-cli -a 123456 127.0.0.1:6379> set a 1 OK #方式二 [root@redis-master ~]# redis-cli 127.0.0.1:6379> auth 123456 OK
CONFIG GET * #查看全部的配置 CONFIG GET requirepass #查看密码 CONFIG SET requirepass 123 #修改密码,实时生效
持久化:将内存数据保存到磁盘
主要有两种持久化的方式:
能够在指定的时间间隔内生成数据集的时间点快照(point-in-time snapshot)。
优势:速度快,适合于用作备份,主从复制也是基于RDB持久化功能实现的。
缺点:会有数据丢失
说明:
#优势 1)RDB是一种表示某个即时点的Redis数据的紧凑文件。RDB文件适合用于备份。例如,你可能想要每小时归档最近24小时的RDB文件,天天保存近30天的RDB快照。这容许你很容易的恢复不一样版本的数据集以容灾。 2)RDB很是适合于灾难恢复,做为一个紧凑的单一文件,能够被传输到远程的数据中心。 3)RDB最大化了Redis的性能,由于Redis父进程持久化时惟一须要作的是启动(fork)一个子进程,由子进程完成全部剩余工做。父进程实例不须要执行像磁盘IO这样的操做。 4)RDB在重启保存了大数据集的实例时比AOF要快。 #缺点 1)当你须要在Redis中止工做(例如停电)时最小化数据丢失,RDB可能不太好。你能够配置不一样的保存点(savepoint)来保存RDB文件(例如,至少5分钟和对数据集100次写以后,可是你能够有多个保存点)。然而,你一般每隔5分钟或更久建立一个RDB快照,因此一旦Redis由于任何缘由没有正确关闭而中止工做,你就得作好最近几分钟数据丢失的准备了。 2)RDB须要常常调用fork()子进程来持久化到磁盘。若是数据集很大的话,fork()比较耗时,结果就是,当数据集很是大而且CPU性能不够强大的话,Redis会中止服务客户端几毫秒甚至一秒。AOF也须要fork(),可是你能够调整多久频率重写日志而不会有损(trade-off)持久性(durability)。
vim /data/6379/redis.conf dir /data/6379 #存放持久化文件的目录 dbfilename dump.rdb #持久化文件 save 900 1 #900秒(15分钟)内有1个更改则持久化 save 300 10 #300秒(5分钟)内有10个更改则持久化 save 60 10000 #60秒内有10000个更改则持久化
stop-writes-on-bgsave-error yes #后台备份进程出错时,主进程停不中止写入? 主进程不中止容易形成数据不一致 rdbcompression yes #导出的rdb文件是否压缩 若是rdb的大小很大的话建议这么作 rdbchecksum yes #导入rbd恢复时数据时,要不要检验rdb的完整性 验证版本是否是一致 dbfilename dump.rdb #导出来的rdb文件名 dir ./ #rdb的放置路径
AOF 持久化(append-only log file)
记录服务器执行的全部写操做命令,并在服务器启动时,经过从新执行这些命令来还原数据集。
AOF 文件中的命令所有以 Redis 协议的格式来保存,新命令会被追加到文件的末尾。
优势:能够最大程度保证数据不丢
缺点:日志记录量级比较大
appendonly yes #开启 #appendfsync always #每次修改完就记录(最多只丢一次操做) appendfsync everysec #每秒记录(最多丢失一秒的数据),使用较多 #appendfsync no #写入工做交给操做系统,由操做系统判断缓冲区大小,统一写入到aof.
no-appendfsync-on-rewrite yes/no #正在导出rdb快照的过程当中,要不要中止同步aof auto-aof-rewrite-percentage 100 #aof文件大小比起上次重写时的大小,增加率100%时重写,缺点:业务开始的时候,会重复重写屡次。 auto-aof-rewrite-min-size 64mb #aof文件,至少超过64M时,重写
在 Redis 2.2 或以上版本,能够在不重启的状况下,从 RDB 切换到 AOF :
一、为最新的 dump.rdb 文件建立一个备份。
二、将备份放到一个安全的地方。
三、执行如下两条命令:
redis-cli> CONFIG SET appendonly yes redis-cli> CONFIG SET save ""
四、确保命令执行以后,数据库的键的数量没有改变。
五、确保写命令会被正确地追加到 AOF 文件的末尾
redis 持久化方式有哪些?有什么区别?
rdb:基于快照的持久化,速度更快,通常用做备份,主从复制也是依赖于rdb持久化功能 aof:以追加的方式记录redis操做日志的文件。能够最大程度的保证redis数据安全,相似于mysql的binlog
redis有5种数据类型:
键 值 key value #字符类型 key col1:value1 col2 value2 #字典类型 key [a,b,c,d] #列表 0 1 2 3 key1 (a,b,c,d) ##集合 10 20 30 40 key1 ( a, b, c, d) ##有序集合 0 1 2 3
KEYS * keys a keys a* #查看已存在全部键的名字 **** TYPE #返回键所存储值的类型 **** EXPIRE\ PEXPIRE #以秒\毫秒设定生存时间 *** TTL\ PTTL #以秒\毫秒为单位返回生存时间 *** PERSIST #取消生存实现设置 *** DEL #删除一个key EXISTS #检查key是否存在 RENAME #变动KEY名 ##########################相关例子################################### 127.0.0.1:6379> set name zhangsan 127.0.0.1:6379> EXPIRE name 60 (integer) 1 127.0.0.1:6379> ttl name (integer) 57 127.0.0.1:6379> set a b ex 60 #设定存活时间 OK 127.0.0.1:6379> ttl a 127.0.0.1:6379> PERSIST a #不过时 (integer) 1 127.0.0.1:6379> ttl a (integer) -1
应用场景:常规计数:微博数,粉丝数等。订阅、礼物、页游
1)设置单个键值
set name zhangsan
2)设置多个键值
MSET id 101 name zhangsan age 20 gender m #等价于如下操做: SET id 101 set name zhangsan set age 20 set gender m
3)计数器
#每点一次关注,都执行如下命令一次 127.0.0.1:6379> incr num #显示粉丝数量: 127.0.0.1:6379> get num #暗箱操做: 127.0.0.1:6379> INCRBY num 10000 #增长 (integer) 10006 127.0.0.1:6379> get num "10006" 127.0.0.1:6379> DECRBY num 10000 #减小 (integer) 6 127.0.0.1:6379> get num "6"
4)其余例子
#增 set mykey "test" #为键设置新值,并覆盖原有值 getset mycounter 0 #设置值,取值同时进行 127.0.0.1:6379> GETSET lll hujinzhong (nil) 127.0.0.1:6379> get lll "hujinzhong" setex mykey 10 "hello" #设置指定 Key 的过时时间为10秒,在存活时间能够获取value 127.0.0.1:6379> setex mykey 10 "hello" OK 127.0.0.1:6379> get mykey "hello" 127.0.0.1:6379> get mykey (nil) setnx mykey "hello" #若该键不存在,则为键设置新值 mset key3 "zyx" key4 "xyz" #批量设置键 ----------------------------------------------------------------------------------------- #删 del mykey 删除已有键 ----------------------------------------------------------------------------------------- 改 append mykey "hello" #若该键并不存在,返回当前 Value 的长度 #该键已经存在,返回追加后 Value的长度 incr mykey #值增长1,若该key不存在,建立key,初始值设为0,增长后结果为1 decrby mykey 5 #值减小5 setrange mykey 20 dd #把第21和22个字节,替换为dd, 超过value长度,自动补0 ----------------------------------------------------------------------------------------- 查 exists mykey #判断该键是否存在,存在返回 1,不然返回0 get mykey #获取Key对应的value strlen mykey #获取指定 Key 的字符长度 ttl mykey #查看一下指定 Key 的剩余存活时间(秒数) getrange mykey 1 20 #获取第2到第20个字节,若20超过value长度,则截取第2个和后面全部的 mget key3 key4 #批量获取键
应用场景:存储部分变动的数据,如用户信息等。最接近mysql表结构的一种类型
1)存数据
hmset stu id 101 name zhangsan age 20 gender m hmset stu1 id 102 name zhangsan1 age 21 gender f
2)取数据
HMGET stu id name age gender HMGET stu1 id name age gender
3)如何将mysql数据导入redis(实际是由应用实现的)?
#使用sql语句生成redis语句 select concat("hmset city_",id," id ",id," name ",name," countrycode ",countrycode," district ",district," population ",population) from city limit 10 into outfile '/tmp/hmset.txt'; #导入redis中 cat /tmp/hmset.txt |redis-cli -a 123
4)更多例子
#增 hset myhash field1 "s" #若字段field1不存在,建立该键及与其关联的Hashes, Hashes中,key为field1 ,并设value为s ,若存在会覆盖原value hsetnx myhash field1 s #若字段field1不存在,建立该键及与其关联的Hashes, Hashes中,key为field1 ,并设value为s, 若字段field1存在,则无效 hmset myhash field1 "hello" field2 "world #一次性设置多个字段 ----------------------------------------------------------------------------------------------------------- #删 hdel myhash field1 #删除 myhash 键中字段名为 field1 的字段 del myhash #删除键 ----------------------------------------------------------------------------------------------------------- #改 hincrby myhash field 1 #给field的值加1 ----------------------------------------------------------------------------------------------------------- #查 hget myhash field1 #获取键值为 myhash,字段为 field1 的值 hlen myhash #获取myhash键的字段数量 hexists myhash field1 #判断 myhash 键中是否存在字段名为 field1 的字段 hmget myhash field1 field2 field3 #一次性获取多个字段 hgetall myhash #返回 myhash 键的全部字段及其值 hkeys myhash #获取myhash 键中全部字段的名字 hvals myhash #获取 myhash 键中全部字段的值
消息队列系统:好比sina微博:在Redis中咱们的最新微博ID使用了常驻缓存,这是一直更新的。可是作了限制不能超过5000个ID,所以获取ID的函数会一直询问Redis。只有在start/count参数超出了这个范围的时候,才须要去访问数据库。系统不会像传统方式那样“刷新”缓存,Redis实例中的信息永远是一致的。SQL数据库(或是硬盘上的其余类型数据库)只是在用户须要获取“很远”的数据时才会被触发,而主页或第一个评论页是不会麻烦到硬盘上的数据库了。
1)示例:朋友圈
127.0.0.1:6379> LPUSH wechat "today is nice day !" 127.0.0.1:6379> LPUSH wechat "today is bad day !" 127.0.0.1:6379> LPUSH wechat "today is good day !" 127.0.0.1:6379> LPUSH wechat "today is rainy day !" 127.0.0.1:6379> LPUSH wechat "today is friday !" 127.0.0.1:6379> lrange wechat 0 0 #最近一次 1) "today is friday !" 127.0.0.1:6379> lrange wechat 0 1 #最近前两次 1) "today is friday !" 2) "today is rainy day !" 127.0.0.1:6379> lrange wechat 0 2 1) "today is friday !" 2) "today is rainy day !" 3) "today is good day !" 127.0.0.1:6379> lrange wechat 0 3 127.0.0.1:6379> lrange wechat -2 -1 1) "today is bad day !" 2) "today is nice day !"
2)其余例子
#增 lpush mykey a b #若key不存在,建立该键及与其关联的List,依次插入a ,b, 若List类型的 #key存在,则插入value中 lpushx mykey2 e #若key不存在,此命令无效, 若key存在,则插入value中 linsert mykey before a a1 #在 a 的前面插入新元素 a1 linsert mykey after e e2 #在e 的后面插入新元素 e2 rpush mykey a b #在链表尾部先插入b,在插入a rpushx mykey e #若key存在,在尾部插入e, 若key不存在,则无效 rpoplpush mykey mykey2 #将mykey的尾部元素弹出,再插入到mykey2 的头部(原子性的操做) ----------------------------------------------------------------------------------------- #删 del mykey #删除已有键 lrem mykey 2 a #从头部开始找,按前后顺序,值为a的元素,删除数量为2个,若存在第3个,则不删 ltrim mykey 0 2 #从头开始,索引为0,1,2的3个元素,其他所有删除 ----------------------------------------------------------------------------------------- #改 lset mykey 1 e 从头开始, 将索引为1的元素值,设置为新值 e,若索引越界,则返回错误信息 rpoplpush mykey mykey 将 mykey 中的尾部元素移到其头部 ----------------------------------------------------------------------------------------- #查 lrange mykey 0 -1 #取链表中的所有元素,其中0表示第一个元素,-1表示最后一个元素。 lrange mykey 0 2 #从头开始,取索引为0,1,2的元素 lrange mykey 0 0 #从头开始,取第一个元素,从第0个开始,到第0个结束 lpop mykey #获取头部元素,而且弹出头部元素,出栈 lindex mykey 6 #从头开始,获取索引为6的元素 若下标越界,则返回nil
案例:在微博应用中,能够将一个用户全部的关注人存在一个集合中,将其全部粉丝存在一个集合。Redis还为集合提供了求交集、并集、差集等操做,能够很是方便的实现如共同关注、共同喜爱、二度好友等功能,对上面的全部集合操做,你还可使用不一样的命令选择将结果返回给客户端仍是存集到一个新的集合中。
1)示例
127.0.0.1:6379> sadd lxl pg1 jnl baoqiang gsy alexsb #设置集合 (integer) 5 127.0.0.1:6379> sadd jnl baoqiang ms bbh yf wxg (integer) 5 127.0.0.1:6379> SUNION lxl jnl #求并集 1) "gsy" 2) "pg1" 3) "bbh" 4) "alexsb" 5) "yf" 6) "baoqiang" 7) "jnl" 8) "ms" 9) "wxg" 127.0.0.1:6379> SINTER lxl jnl #求交集 1) "baoqiang" 127.0.0.1:6379> SDIFF jnl lxl #求差集(至关于左链接) 1) "bbh" 2) "yf" 3) "ms" 4) "wxg" 127.0.0.1:6379> SDIFF lxl jnl 1) "alexsb" 2) "gsy" 3) "jnl" 4) "pg1" 127.0.0.1:6379>
2)其余例子
#增 sadd myset a b c #若key不存在,建立该键及与其关联的set,依次插入a ,b,若key存在,则插入value中,若a 在myset中已经存在,则插入了 d 和 e 两个新成员。 --------------------------------------------------------------------------------------- #删 spop myset #尾部的b被移出,事实上b并非以前插入的第一个或最后一个成员 srem myset a d f #若f不存在, 移出 a、d ,并返回2 --------------------------------------------------------------------------------------- #改 smove myset myset2 a #将a从 myset 移到 myset2 --------------------------------------------------------------------------------------- #查 sismember myset a #判断 a 是否已经存在,返回值为 1 表示存在。 smembers myset #查看set中的内容 scard myset #获取Set 集合中元素的数量 srandmember myset #随机的返回某一成员 sdiff myset1 myset2 myset3 #1和2获得一个结果,拿这个集合和3比较,得到每一个独有的值 sdiffstore diffkey myset myset2 myset3 #3个集和比较,获取独有的元素,并存入diffkey 关联的Set中 sinter myset myset2 myset3 #得到3个集合中都有的元素 sinterstore interkey myset myset2 myset3 #把交集存入interkey 关联的Set中 sunion myset myset2 myset3 #获取3个集合中的成员的并集 sunionstore unionkey myset myset2 myset3 #把并集存入unionkey 关联的Set中
排行榜应用,取TOP N操做:这个需求与上面需求的不一样之处在于,前面操做以时间为权重,这个是以某个条件为权重,好比按顶的次数排序,这时候就须要咱们的sorted set出马了,将你要排序的值设置成sorted set的score,将具体的数据设置成相应的value,每次只须要执行一条ZADD命令便可。
1)示例:
127.0.0.1:6379> zadd topN 0 smlt 0 fskl 0 fshkl 0 lzlsfs 0 wdhbx 0 wxg (integer) 6 127.0.0.1:6379> ZINCRBY topN 100000 smlt "100000" 127.0.0.1:6379> ZINCRBY topN 10000 fskl "10000" 127.0.0.1:6379> ZINCRBY topN 1000000 fshkl "1000000" 127.0.0.1:6379> ZINCRBY topN 100 lzlsfs "100" 127.0.0.1:6379> ZINCRBY topN 10 wdhbx "10" 127.0.0.1:6379> ZINCRBY topN 100000000 wxg "100000000" 127.0.0.1:6379> ZREVRANGE topN 0 2 1) "wxg" 2) "fshkl" 3) "smlt" 127.0.0.1:6379> ZREVRANGE topN 0 2 withscores 1) "wxg" 2) "100000000" 3) "fshkl" 4) "1000000" 5) "smlt" 6) "100000" 127.0.0.1:6379>
2)其余例子
#增 zadd myzset 2 "two" 3 "three" #添加两个分数分别是 2 和 3 的两个成员 ---------------------------------------------------------------------------- #删 zrem myzset one two #删除多个成员变量,返回删除的数量 ---------------------------------------------------------------------------- #改 zincrby myzset 2 one #将成员 one 的分数增长 2,并返回该成员更新后的分数 ---------------------------------------------------------------------------- #查 zrange myzset 0 -1 WITHSCORES #返回全部成员和分数,不加WITHSCORES,只返回成员 zrank myzset one #获取成员one在Sorted-Set中的位置索引值。0表示第一个位置 zcard myzset #获取 myzset 键中成员的数量 zcount myzset 1 2 #获取分数知足表达式 1 <= score <= 2 的成员的数量 zscore myzset three #获取成员 three 的分数 zrangebyscore myzset 1 2 #获取分数知足表达式 1 < score <= 2 的成员 zrangebyscore myzset -inf +inf limit 2 3 返回索引是2和3的成员 #-inf 表示第一个成员,+inf最后一个成员 #limit限制关键字 #2 3 是索引号 zremrangebyscore myzset 1 2 #删除分数 1<= score <= 2 的成员,并返回实际删除的数量 zremrangebyrank myzset 0 1 #删除位置索引知足表达式 0 <= rank <= 1 的成员 zrevrange myzset 0 -1 WITHSCORES #按位置索引从高到低,获取全部成员和分数 #原始成员:位置索引从小到大 one 0 two 1 #执行顺序:把索引反转 位置索引:从大到小 one 1 two 0 #输出结果: two one zrevrange myzset 1 3 #获取位置索引,为1,2,3的成员 #相反的顺序:从高到低的顺序 zrevrangebyscore myzset 3 0 #获取分数 3>=score>=0的成员并以相反的顺序输出 zrevrangebyscore myzset 4 0 limit 1 2 #获取索引是1和2的成员,并反转位置索引
Redis发布消息一般有两种模式:
任务队列的好处:
其实从Pub/Sub的机制来看,它更像是一个广播系统,多个Subscriber能够订阅多个Channel,多个Publisher能够往多个Channel中发布消息。能够这么简单的理解:
1)一个Publisher,多个Subscriber模型
以下图所示,能够做为消息队列或者消息管道。主要应用:通知、公告
2)多个Publisher,一个Subscriber模型
能够将PubSub作成独立的HTTP接口,各应用程序做为Publisher向Channel中发送消息,Subscriber端收到消息后执行相应的业务逻辑,好比写数据库,显示等等。
主要应用:排行榜、投票、计数。
3)多个Publisher,多个Subscriber模型
能够向不一样的Channel中发送消息,由不一样的Subscriber接收。
主要应用:群聊、聊天。
客户端在执行订阅命令以后进入了订阅状态,只能接收 SUBSCRIBE 、PSUBSCRIBE、 UNSUBSCRIBE 、PUNSUBSCRIBE 四个命令。 开启的订阅客户端,没法收到该频道以前的消息,由于 Redis 不会对发布的消息进行持久化。 和不少专业的消息队列系统(例如Kafka、RocketMQ)相比,Redis的发布订阅略显粗糙,例如没法实现消息堆积和回溯。但胜在足够简单,若是当前场景能够容忍的这些缺点,也不失为一个不错的选择。
#发布订阅例子: #订阅单频道: #窗口1: 127.0.0.1:6379> SUBSCRIBE baodi #窗口2: 127.0.0.1:6379> PUBLISH baodi "jin tian zhen kaixin!" #订阅多频道: #窗口1: 127.0.0.1:6379> PSUBSCRIBE wang* #窗口2: 127.0.0.1:6379> PUBLISH wangbaoqiang "jintian zhennanshou "
1)redis的事务是基于队列实现的。mysql的事务是基于事务日志实现的。
2)redis中的事务跟关系型数据库中的事务是一个类似的概念,可是有不一样之处。关系型数据库事务执行失败后面的sql语句不在执行,而redis中的一条命令执行失败,其他的命令照常执行。
3)redis中开启一个事务是使用multi,至关于begin\start transaction,exec提交事务,discard取消队列命令(非回滚操做)。
#开启事务功能时(multi) multi command1 command2 command3 command4 #4条语句做为一个组,并无真正执行,而是被放入同一队列中。若是,这是执行discard,会直接丢弃队列中全部的命令,而不是作回滚。 #当执行exec时,对列中全部操做,要么全成功要么全失败
DISCARD #取消事务,放弃执行事务块内的全部命令。 EXEC #执行全部事务块内的命令。 MULTI #标记一个事务块的开始。 UNWATCH #取消 WATCH 命令对全部 key 的监视。 WATCH key [key ...] #监视一个(或多个) key ,若是在事务执行以前这个(或这些) key 被其余命令所改动,那么事务将被打断。
Info Client list Client kill ip:port config get * CONFIG RESETSTAT #重置统计 CONFIG GET/SET #动态修改 Dbsize #查看键的个数 FLUSHALL #清空全部数据 select 1 #切换到redis不一样库(16个) FLUSHDB #清空当前库 MONITOR #监控实时指令 redis-cli -a 123 monitor >>/tmp/m.log & SHUTDOWN #关闭服务器 #关闭数据库: redis-cli -a root shutdown
1)设置redis最大内存
config set maxmemory 102400000