Redis 简介
Remote Dictionary Server(Redis)是一个开源的使用 ANSI C 语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value 数据库,并提供多种语言的 API。前端
它一般被称为数据结构服务器,由于值(value)能够是
字符串(String), 哈希(Map), 列表(list), 集合(sets) 和 有序集合(sorted sets)等类型。node
优势:mysql
- 支持多种数据结构,如 string(字符串)、 list(双向链表)、dict(hash 表)、set(集合)、zset(排序 set)、hyperloglog(基数估算)
- 支持持久化操做,能够进行 aof 及 rdb 数据持久化到磁盘,从而进行数据备份或数据恢复等操做,较好的防止数据丢失的手段。
- 支持经过 Replication 进行数据复制,经过 master-slave 机制,能够实时进行数据的同步复制,支持多级复制和增量复制,master-slave 机制是 Redis 进行 HA 的重要手段。
- 单进程请求,全部命令串行执行,并发状况下不须要考虑数据一致性问题。
安装 Redis 单机版
第一步 须要在 linux 系统中安装 gcc
命令:yum install -y gcc-c++linux
第二步 须要将下载好的 redis 压缩包添加到 linux 服务器中
版本:redis-3.0.0.tar.gz
redis 的版本:副版本号奇数版本号是测试版,不建议在生产环境中使用。
偶数版本时稳定版建议在生产环境中使用。
3.0 版本更新比较大。集成了集群技术c++
第三步 解压压缩包
命令:tar -zxvf redis…redis
第四步 编译 redis
命令:进入 redis 的解压完毕的根目录下 执行命令:make算法
第五步 安装 redis
命 令 : 进 入 redis 的 解 压 完 毕 的 根 目 录 下 ,
执 行 命 令 : make installPREFIX=/usr/local/redissql
第六步:启动 redis
1,前端启动
在 bin 目录下执行命令: ./redis-server (ctrl+c)退出 redismongodb
2.后端启动
(1)先将 redis 解压目录下的 redis.conf 文件拷贝到 安装好的 redis 的 bin 目录下
命令:cp redis.conf /usr/local/redis/bin数据库
(2)修改拷贝过来的 redis.conf 配置文件
命令:vim redis.conf
将 daemonize no 改成 yes
(3)启动 redis
在 bin 目录下执行命令:./redis-server redis.conf
(4)查看 redis 启动是否成功
输入命令:ps aux|grep redis
(5) 关闭 redis 的命令
./redis-cli shutdown
第七步:测试 redis
在 bin 目录下启动 redis 自带的客户端 ./redis-cli
常见 redis 命令:
ping—>pong
Redis 数据类型
1 String(字符串)
Redis 字符串是字节序列。Redis 字符串是二进制安全的,这意味着他们有一个已知的长度没有任何特殊字符终止,因此你能够存储任何东西,512 兆为上限
示例:
redis 127.0.0.1:6379> SET name kevin
OK
redis 127.0.0.1:6379> GET name
“kevin”
incr 让当前键值以 1 的数量递增,并返回递增后的值
incrby 能够指定参数一次增长的数值,并返回递增后的值
decr 让当前键值以 1 的数量递减 并返回递减后的值
decrby 能够指定参数一次递减的数值,并返回递减后的值
incrbyfloat 能够递增一个双精度浮点数
append 做用是向键值的末尾追加 value。若是键不存在则将该键的值设置为 value。返回值是追加后字符串的总长度。
mget/mset 做用与 get/set 类似,不过 mget/mset 能够同时得到/设置多个键的键值
del 根据 key 来删除 value
flushdb 清除当前库的全部数据
Redis 的哈希是键值对的集合。 Redis 的哈希值是字符串字段和字符串值之间的映射,所以它们被用来表示对象。
示例:
redis 127.0.0.1:6379> HSET key field value
OK
redis 127.0.0.1:6379> HGET key field
value
hset 存储一个哈希键值对的集合
hset key field value
hget 获取一个哈希键的值
hget key field
hmset 存储一个或多个哈希是键值对的集合
hmset key field1 value1 …fieldN keyN
hmget 获取多个指定的键的值
hmget key field1 … fieldN
hexists 判断哈希表中的字段名是否存在 若是存在返回 1 不然返回 0
hexists key field
hdel 删除一个或多个字段
hdel key field
hgetall 获取一个哈希是键值对的集合
hgetall key
hvals 只返回字段值
hvals key
hkeys 只返回字段名
hkeys key
hlen 返回 key 的 hash 的元素个数
hlen key
Redis 的链表是简单的字符串列表,排序插入顺序。您能够添加元素到 Redis 的列表的头部或尾部
示例:
redis 127.0.0.1:6379> lpush tutoriallist redis
(integer) 1
redis 127.0.0.1:6379> lpush tutoriallist mongodb
(integer) 2
redis 127.0.0.1:6379> lpush tutoriallist rabitmq
(integer) 3
redis 127.0.0.1:6379> lrange tutoriallist 0 10
- “rabitmq”
- “mongodb”
- "redis
lpush key value 向链表左侧添加
rpush key value 向链表右侧添加
lpop key 从左边移出一个元素
rpop key 从右边移出一个元素
llen key 返回链表中元素的个数 至关于关系型数据库中 select count(*)
lrange key start end lrange 命令将返回索引从 start 到 stop 之间的全部元素。Redis 的列表起始索引为 0。
lrange 也支持负索引 lrange nn -2 -1 如 -1 表示最右边第一个元素 -2 表示最右边第二个元素,依次类推。
lindex key indexnumber 若是要将列表类型当作数组来用,lindex 命令是必不可少的。
lindex 命令用来返回指定索引的元素,索引从 0 开始若是是负数表示从右边开始计算的索引,最右边元素的索引是-1。
Lset key indexnumber value 是另外一个经过索引操做列表的命令,它会将索引为 index的元素赋值为 value。
Redis 的集合是字符串的无序集合。
示例:
redis 127.0.0.1:6379> sadd tutoriallist redis
(integer) 1
redis 127.0.0.1:6379> sadd tutoriallist mongodb
(integer) 1
redis 127.0.0.1:6379> sadd tutoriallist rabitmq
(integer) 1
redis 127.0.0.1:6379> sadd tutoriallist rabitmq
(integer) 0
redis 127.0.0.1:6379> smembers tutoriallist
- “rabitmq”
- “mongodb”
- “redis”
sadd key value 添加一个 string 元素到,key 对应的 set 集合中,成功返回 1,若是元素已经在集合中返回 0
scard key 返回 set 的元素个数,若是 set 是空或者 key 不存在返回 0
smembers key 返回 key 对应 set 的全部元素,结果是无序的
sismember key value 判断 value 是否在 set 中,存在返回 1,0 表示不存在或者 key 不存
在
srem key value 从 key 对应 set 中移除给定元素,成功返回 1,若是 value 在集合中不存
在或者 key 不存在返回 0
SortedSet(有序集合)zset
Redis 的有序集合相似于 Redis 的集合,字符串不重复的集合。
示例:
redis 127.0.0.1:6379> zadd tutoriallist 0 redis
(integer) 1
redis 127.0.0.1:6379> zadd tutoriallist 0 mongodb
(integer) 1
redis 127.0.0.1:6379> zadd tutoriallist 0 rabitmq
(integer) 1
redis 127.0.0.1:6379> zadd tutoriallist 0 rabitmq
(integer) 0
redis 127.0.0.1:6379> ZRANGEBYSCORE tutoriallist 0 1000
- “redis”
- “mongodb”
- “rabitmq”
zadd key score value 将一个或多个 value 及其 socre 加入到 set 中
zrange key start end 0 和-1 表示从索引为 0 的元素到最后一个元素(同 LRANGE 命令类似)
zrange key 0 -1 withscores 也能够连同 score 一块输出,使用 WITHSCORES 参数
zremrangebyscore key start end 可用于范围删除操做
Redis 中的其余命令
ping 测试 redis 是否连接 若是已连接返回 PONG
echo value 测试 redis 是否连接 若是已连接返回 echo 命令后给定的值
keys * 返回全部的 key 能够加*通配
exists key 判断 string 类型一个 key 是否存在 若是存在返回 1 不然返回 0
expire key time(s) 设置一个 key 的过时时间 单位秒。时间到达后会删除 key 及 value
ttl key 查询已设置过时时间的 key 的剩余时间 若是返回-2 表示该键值对已经被删除
persist 移除给定 key 的过时时间
select dbindex 选择数据库(0-15)
move key dbIndex 将当前数据库中的 key 转移到其余数据库中
dbsize 返回当前数据库中的 key 的数目
info 获取服务器的信息和统计
flushdb 删除当前选择的数据库中的 key
flushall 删除全部数据库中的全部 key
quit 退出链接
Redis 的配置以及持久化方案
redis.conf 文件:
#redis.conf # Redis configuration file example. # ./redis-server /path/to/redis.conf ################################## INCLUDES ################################### #这在你有标准配置模板可是每一个 redis 服务器又须要个性设置的时候颇有用。 # include /path/to/local.conf # include /path/to/other.conf ################################ GENERAL ##################################### #是否在后台执行,yes:后台运行;no:不是后台运行(老版本默认) daemonize yes #3.2 里的参数,是否开启保护模式,默认开启。要是配置里没有指定 bind 和密码。开启该参数后,redis 只会本地进行访问,拒绝外部访问。要是开启了密码 和 bind,能够开启。否 则最好关闭,设置为 no。 protected-mode yes #redis 的进程文件 pidfile /var/run/redis/redis-server.pid #redis 监听的端口号。 port 6379 #此参数肯定了 TCP 链接中已完成队列(完成三次握手以后)的长度, 固然此值必须不大于 Linux 系统定 义的/proc/sys/net/core/somaxconn 值,默认是 511,而 Linux 的默认参数值是 128。当系统并 发量大而且客户端速度缓慢的时候,能够将这二个参数一块儿参考设定。该内核参数默认值通常是 128,对 于负载很大的服务程序来讲大大的不够。通常会将它修改成 2048 或者更大。在/etc/sysctl.conf 中 添加:net.core.somaxconn = 2048,而后在终端中执行 sysctl -p。 tcp-backlog 511 #指定 redis 只接收来自于该 IP 地址的请求,若是不进行设置,那么将处理全部请求 #bind 127.0.0.1 #配置 unix socket 来让 redis 支持监听本地链接。 # unixsocket /var/run/redis/redis.sock #配置 unix socket 使用文件的权限 # unixsocketperm 700 # 此参数为设置客户端空闲超过 timeout,服务端会断开链接,为 0 则服务端不会主动断开链接,不能 小于 0。 timeout 0 #tcp keepalive 参数。若是设置不为 0,就使用配置 tcp 的 SO_KEEPALIVE 值,使用 keepalive 有 两个好处:检测挂掉的对端。下降中间设备出问题而致使网络看似链接却已经与对端端口的问题。在 Linux 内核中,设置了 keepalive,redis 会定时给对端发送 ack。检测到对端关闭须要两倍的设置值。 tcp-keepalive 0 #指定了服务端日志的级别。级别包括:debug(不少信息,方便开发、测试),verbose(许多有用的 信息,可是没有 debug 级别信息多),notice(适当的日志级别,适合生产环境),warn(只有很是重 要的信息) loglevel notice #指定了记录日志的文件。空字符串的话,日志会打印到标准输出设备。后台运行的 redis 标准输出是 /dev/null。 logfile /var/log/redis/redis-server.log #是否打开记录 syslog 功能 # syslog-enabled no #syslog 的标识符。 # syslog-ident redis #日志的来源、设备 # syslog-facility local0 #数据库的数量,默认使用的数据库是 DB 0。能够经过”SELECT “命令选择一个 db databases 16 ################################ SNAPSHOTTING ################################ # 快照配置 # 注释掉“save”这一行配置项就可让保存数据库功能失效 # 设置 sedis 进行数据库镜像的频率。 # 900 秒(15 分钟)内至少 1 个 key 值改变(则进行数据库保存--持久化) # 300 秒(5 分钟)内至少 10 个 key 值改变(则进行数据库保存--持久化) # 60 秒(1 分钟)内至少 10000 个 key 值改变(则进行数据库保存--持久化) save 900 1 save 300 10 save 60 10000 #当 RDB 持久化出现错误后,是否依然进行继续进行工做,yes:不能进行工做,no:能够继续进行工做, 能够经过 info 中的 rdb_last_bgsave_status 了解 RDB 持久化是否有错误 stop-writes-on-bgsave-error yes #使用压缩 rdb 文件,rdb 文件压缩使用 LZF 压缩算法,yes:压缩,可是须要一些 cpu 的消耗。no:不 压缩,须要更多的磁盘空间 rdbcompression yes #是否校验 rdb 文件。从 rdb 格式的第五个版本开始,在 rdb 文件的末尾会带上 CRC64 的校验和。这跟 有利于文件的容错性,可是在保存 rdb 文件的时候,会有大概 10%的性能损耗,因此若是你追求高性能, 能够关闭该配置。 rdbchecksum yes #rdb 文件的名称 dbfilename dump.rdb #数据目录,数据库的写入会在这个目录。rdb、aof 文件也会写在这个目录 dir /root/temp ################################# REPLICATION ################################# #复制选项,slave 复制对应的 master。 # slaveof <masterip> <masterport> #若是 master 设置了 requirepass,那么 slave 要连上 master,须要有 master 的密码才行。 masterauth 就是用来配置 master 的密码,这样能够在连上 master 后进行认证。 # masterauth <master-password> #当从库同主机失去链接或者复制正在进行,从机库有两种运行方式:1) 若是 slave-serve-stale-data 设置为 yes(默认设置),从库会继续响应客户端的请求。2) 若是 slave-serve-stale-data 设置为 no,除去 INFO 和 SLAVOF 命令以外的任何请求都会返回一个错 误”SYNC with master in progress”。 slave-serve-stale-data yes #做为从服务器,默认状况下是只读的(yes),能够修改为 NO,用于写(不建议)。 slave-read-only yes #是否使用 socket 方式复制数据。目前 redis 复制提供两种方式,disk 和 socket。若是新的 slave 连上来或者重连的 slave 没法部分同步,就会执行全量同步,master 会生成 rdb 文件。有 2 种方式: disk 方式是 master 建立一个新的进程把 rdb 文件保存到磁盘,再把磁盘上的 rdb 文件传递给 slave。 socket 是 master 建立一个新的进程,直接把 rdb 文件以 socket 的方式发给 slave。disk 方式的时 候,当一个 rdb 保存的过程当中,多个 slave 都能共享这个 rdb 文件。socket 的方式就的一个个 slave 顺序复制。在磁盘速度缓慢,网速快的状况下推荐用 socket 方式。 repl-diskless-sync no #diskless 复制的延迟时间,防止设置为 0。一旦复制开始,节点不会再接收新 slave 的复制请求直到 下一个 rdb 传输。因此最好等待一段时间,等更多的 slave 连上来。 repl-diskless-sync-delay 5 #slave 根据指定的时间间隔向服务器发送 ping 请求。时间间隔能够经过 repl_ping_slave_period 来设置,默认 10 秒。 # repl-ping-slave-period 10 #复制链接超时时间。master 和 slave 都有超时时间的设置。master 检测到 slave 上次发送的时间超 过 repl-timeout,即认为 slave 离线,清除该 slave 信息。slave 检测到上次和 master 交互的时 间超过 repl-timeout,则认为 master 离线。须要注意的是 repl-timeout 须要设置一个比 repl-ping-slave-period 更大的值,否则会常常检测到超时。 # repl-timeout 60 #是否禁止复制 tcp 连接的 tcp nodelay 参数,可传递 yes 或者 no。默认是 no,即便用 tcp nodelay。 若是 master 设置了 yes 来禁止 tcp nodelay 设置,在把数据复制给 slave 的时候,会减小包的数量 和更小的网络带宽。可是这也可能带来数据的延迟。默认咱们推荐更小的延迟,可是在数据量传输很大的 场景下,建议选择 yes。 repl-disable-tcp-nodelay no #复制缓冲区大小,这是一个环形复制缓冲区,用来保存最新复制的命令。这样在 slave 离线的时候,不 须要彻底复制 master 的数据,若是能够执行部分同步,只须要把缓冲区的部分数据复制给 slave,就能 恢复正常复制状态。缓冲区的大小越大,slave 离线的时间能够更长,复制缓冲区只有在有 slave 链接 的时候才分配内存。没有 slave 的一段时间,内存会被释放出来,默认 1m。 # repl-backlog-size 5mb #master 没有 slave 一段时间会释放复制缓冲区的内存,repl-backlog-ttl 用来设置该时间长度。 单位为秒。 # repl-backlog-ttl 3600 #当 master 不可用,Sentinel 会根据 slave 的优先级选举一个 master。最低的优先级的 slave,当 选 master。而配置成 0,永远不会被选举。 slave-priority 100 #redis 提供了可让 master 中止写入的方式,若是配置了 min-slaves-to-write,健康的 slave 的个数小于 N,mater 就禁止写入。master 最少得有多少个健康的 slave 存活才能执行写命令。这个配 置虽然不能保证 N 个 slave 都必定能接收到 master 的写操做,可是能避免没有足够健康的 slave 的时 候,master 不能写入来避免数据丢失。设置为 0 是关闭该功能。 # min-slaves-to-write 3 #延迟小于 min-slaves-max-lag 秒的 slave 才认为是健康的 slave。 # min-slaves-max-lag 10 # 设置 1 或另外一个设置为 0 禁用这个特性。 # Setting one or the other to 0 disables the feature. # By default min-slaves-to-write is set to 0 (feature disabled) and # min-slaves-max-lag is set to 10. ################################## SECURITY ################################### #requirepass 配置可让用户使用 AUTH 命令来认证密码,才能使用其余命令。这让 redis 可使用 在不受信任的网络中。为了保持向后的兼容性,能够注释该命令,由于大部分用户也不须要认证。使用 requirepass 的时候须要注意,由于 redis 太快了,每秒能够认证 15w 次密码,简单的密码很容易被 攻破,因此最好使用一个更复杂的密码。 # requirepass foobared #把危险的命令给修改为其余名称。好比 CONFIG 命令能够重命名为一个很难被猜到的命令,这样用户不 能使用,而内部工具还能接着使用。 # rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52 #设置成一个空的值,能够禁止一个命令 # rename-command CONFIG "" ################################### LIMITS #################################### # 设置能连上 redis 的最大客户端链接数量。默认是 10000 个客户端链接。因为 redis 不区分链接是客 户端链接仍是内部打开文件或者和 slave 链接等,因此 maxclients 最小建议设置到 32。若是超过了 maxclients,redis 会给新的链接发送’max number of clients reached’,并关闭链接。 # maxclients 10000 #redis 配置的最大内存容量。当内存满了,须要配合 maxmemory-policy 策略进行处理。注意 slave 的输出缓冲区是不计算在 maxmemory 内的。因此为了防止主机内存使用完,建议设置的 maxmemory 需 要更小一些。 # maxmemory <bytes> #内存容量超过 maxmemory 后的处理策略。 #volatile-lru:利用 LRU 算法移除设置过过时时间的 key。 #volatile-random:随机移除设置过过时时间的 key。 #volatile-ttl:移除即将过时的 key,根据最近过时时间来删除(辅以 TTL) #allkeys-lru:利用 LRU 算法移除任何 key。 #allkeys-random:随机移除任何 key。 #noeviction:不移除任何 key,只是返回一个写错误。 #上面的这些驱逐策略,若是 redis 没有合适的 key 驱逐,对于写命令,仍是会返回错误。redis 将不 再接收写请求,只接收 get 请求。写命令包括:set setnx setex append incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby getset mset msetnx exec sort。 # maxmemory-policy noeviction #lru 检测的样本数。使用 lru 或者 ttl 淘汰算法,从须要淘汰的列表中随机选择 sample 个 key,选出 闲置时间最长的 key 移除。 # maxmemory-samples 5 ############################## APPEND ONLY MODE ############################### #默认 redis 使用的是 rdb 方式持久化,这种方式在许多应用中已经足够用了。可是 redis 若是中途宕 机,会致使可能有几分钟的数据丢失,根据 save 来策略进行持久化,Append Only File 是另外一种持 久化方式,能够提供更好的持久化特性。Redis 会把每次写入的数据在接收后都写入 appendonly.aof 文件,每次启动时 Redis 都会先把这个文件的数据读入内存里,先忽略 RDB 文件。 appendonly no #aof 文件名 appendfilename "appendonly.aof" #aof 持久化策略的配置 #no 表示不执行 fsync,由操做系统保证数据同步到磁盘,速度最快。 #always 表示每次写入都执行 fsync,以保证数据同步到磁盘。 #everysec 表示每秒执行一次 fsync,可能会致使丢失这 1s 数据。 appendfsync everysec # 在 aof 重写或者写入 rdb 文件的时候,会执行大量 IO,此时对于 everysec 和 always 的 aof 模式 来讲,执行 fsync 会形成阻塞过长时间,no-appendfsync-on-rewrite 字段设置为默认设置为 no。 若是对延迟要求很高的应用,这个字段能够设置为 yes,不然仍是设置为 no,这样对持久化特性来讲这是 更安全的选择。设置为 yes 表示 rewrite 期间对新写操做不 fsync,暂时存在内存中,等 rewrite 完成 后再写入,默认为 no,建议 yes。Linux 的默认 fsync 策略是 30 秒。可能丢失 30 秒数据。 no-appendfsync-on-rewrite no #aof 自动重写配置。当目前 aof 文件大小超过上一次重写的 aof 文件大小的百分之多少进行重写,即当 aof 文件增加到必定大小的时候 Redis 可以调用 bgrewriteaof 对日志文件进行重写。当前 AOF 文件大 小是上第二天志重写获得 AOF 文件大小的二倍(设置为 100)时,自动启动新的日志重写过程。 auto-aof-rewrite-percentage 100 #设置容许重写的最小 aof 文件大小,避免了达到约定百分比但尺寸仍然很小的状况还要重写 auto-aof-rewrite-min-size 64mb #aof 文件可能在尾部是不完整的,当 redis 启动的时候,aof 文件的数据被载入内存。重启可能发生在 redis 所在的主机操做系统宕机后,尤为在 ext4 文件系统没有加上 data=ordered 选项(redis 宕机 或者异常终止不会形成尾部不完整现象。)出现这种现象,能够选择让 redis 退出,或者导入尽量多的 数据。若是选择的是 yes,当截断的 aof 文件被导入的时候,会自动发布一个 log 给客户端而后 load。 若是是 no,用户必须手动 redis-check-aof 修复 AOF 文件才能够。 aof-load-truncated yes ################################ LUA SCRIPTING ############################### # 若是达到最大时间限制(毫秒),redis 会记个 log,而后返回 error。当一个脚本超过了最大时限。 只有 SCRIPT KILL 和 SHUTDOWN NOSAVE 能够用。第一个能够杀没有调 write 命令的东西。要是已经 调用了 write,只能用第二个命令杀。 lua-time-limit 5000 ################################ REDIS CLUSTER ############################### #集群开关,默认是不开启集群模式。 # cluster-enabled yes #集群配置文件的名称,每一个节点都有一个集群相关的配置文件,持久化保存集群的信息。这个文件并不需 要手动配置,这个配置文件有 Redis 生成并更新,每一个 Redis 集群节点须要一个单独的配置文件,请确 保与实例运行的系统中配置文件名称不冲突 # cluster-config-file nodes-6379.conf #节点互连超时的阀值。集群节点超时毫秒数 # cluster-node-timeout 15000 #在进行故障转移的时候,所有 slave 都会请求申请为 master,可是有些 slave 可能与 master 断开连 接一段时间了,致使数据过于陈旧,这样的 slave 不该该被提高为 master。该参数就是用来判断 slave 节点与 master 断线的时间是否过长。判断方法是: #比较 slave 断开链接的时间和(node-timeout * slave-validity-factor) + repl-ping-slave-period #若是节点超时时间为三十秒, 而且 slave-validity-factor 为 10,假设默认的 repl-ping-slave-period 是 10 秒,即若是超过 310 秒 slave 将不会尝试进行故障转移 # cluster-slave-validity-factor 10 #master 的 slave 数量大于该值,slave 才能迁移到其余孤立 master 上,如这个参数若被设为 2,那 么只有当一个主节点拥有 2 个可工做的从节点时,它的一个从节点会尝试迁移。 # cluster-migration-barrier 1 #默认状况下,集群所有的 slot 有节点负责,集群状态才为 ok,才能提供服务。设置为 no,能够在 slot 没有所有分配的时候提供服务。不建议打开该配置,这样会形成分区的时候,小分区的 master 一直在接 受写请求,而形成很长时间数据不一致。 # cluster-require-full-coverage yes ################################## SLOW LOG ################################### ###slog log 是用来记录 redis 运行中执行比较慢的命令耗时。当命令的执行超过了指定时间,就记录 在 slow log 中,slog log 保存在内存中,因此没有 IO 操做。 #执行时间比 slowlog-log-slower-than 大的请求记录到 slowlog 里面,单位是微秒,因此 1000000 就是 1 秒。注意,负数时间会禁用慢查询日志,而 0 则会强制记录全部命令。 slowlog-log-slower-than 10000 #慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。这个长度没有限制。只 要有足够的内存就行。你能够经过 SLOWLOG RESET 来释放内存。 slowlog-max-len 128 ################################ LATENCY MONITOR ############################## #延迟监控功能是用来监控 redis 中执行比较缓慢的一些操做,用 LATENCY 打印 redis 实例在跑命令时 的耗时图表。只记录大于等于下边设置的值的操做。0 的话,就是关闭监视。默认延迟监控功能是关闭的, 若是你须要打开,也能够经过 CONFIG SET 命令动态设置。 latency-monitor-threshold 0 ############################# EVENT NOTIFICATION ############################## #键空间通知使得客户端能够经过订阅频道或模式,来接收那些以某种方式改动了 Redis 数据集的事件。 由于开启键空间通知功能须要消耗一些 CPU ,因此在默认配置下,该功能处于关闭状态。 #notify-keyspace-events 的参数能够是如下字符的任意组合,它指定了服务器该发送哪些类型的通 知: ##K 键空间通知,全部通知以 __keyspace@__ 为前缀 ##E 键事件通知,全部通知以 __keyevent@__ 为前缀 ##g DEL 、 EXPIRE 、 RENAME 等类型无关的通用命令的通知 ##$ 字符串命令的通知 ##l 列表命令的通知 ##s 集合命令的通知 ##h 哈希命令的通知 ##z 有序集合命令的通知 ##x 过时事件:每当有过时键被删除时发送 ##e 驱逐(evict)事件:每当有键由于 maxmemory 政策而被删除时发送 ##A 参数 g$lshzxe 的别名 #输入的参数中至少要有一个 K 或者 E,不然的话,无论其他的参数是什么,都不会有任何 通知被分发。 详细使用能够参考 http://redis.io/topics/notifications notify-keyspace-events "" ############################### ADVANCED CONFIG ############################### #数据量小于等于 hash-max-ziplist-entries 的用 ziplist,大于 hash-max-ziplist-entries 用 hash hash-max-ziplist-entries 512#value 大小小于等于 hash-max-ziplist-value 的用 ziplist,大于 hash-max-ziplist-value 用 hash。 hash-max-ziplist-value 64 #数据量小于等于 list-max-ziplist-entries 用 ziplist,大于 list-max-ziplist-entries 用 list。 list-max-ziplist-entries 512#value 大小小于等于 list-max-ziplist-value 的用 ziplist,大于 list-max-ziplist-value 用 list。 list-max-ziplist-value 64 #数据量小于等于 set-max-intset-entries 用 iniset,大于 set-max-intset-entries 用 set。 set-max-intset-entries 512 #数据量小于等于 zset-max-ziplist-entries 用 ziplist,大于 zset-max-ziplist-entries 用 zset。 zset-max-ziplist-entries 128#value 大小小于等于 zset-max-ziplist-value 用 ziplist, 大于 zset-max-ziplist-value 用 zset。 zset-max-ziplist-value 64 #value 大小小于等于 hll-sparse-max-bytes 使用稀疏数据结构(sparse),大于 hll-sparse-max-bytes 使用稠密的数据结构(dense)。一个比 16000 大的 value 是几乎没用的, 建议的 value 大概为 3000。若是对 CPU 要求不高,对空间要求较高的,建议设置到 10000 左右。 hll-sparse-max-bytes 3000 #Redis 将在每 100 毫秒时使用 1 毫秒的 CPU 时间来对 redis 的 hash 表进行从新 hash,能够下降内存 的使用。当你的使用场景中,有很是严格的实时性须要,不可以接受 Redis 时不时的对请求有 2 毫秒的延 迟的话,把这项配置为 no。若是没有这么严格的实时性要求,能够设置为 yes,以便可以尽量快的释放 内存。activerehashing yes ##对客户端输出缓冲进行限制能够强迫那些不从服务器读取数据的客户端断开链接,用来强制关闭传输缓 慢的客户端。 #对于 normal client,第一个 0 表示取消 hard limit,第二个 0 和第三个 0 表示取消 soft limit, normal client 默认取消限制,由于若是没有寻问,他们是不会接收数据的。 client-output-buffer-limit normal 0 0 0#对于 slave client 和 MONITER client,若是 client-output-buffer 一旦超过 256mb,又或者超过 64mb 持续 60 秒,那么服务器就会当即断开客 户端链接。 client-output-buffer-limit slave 256mb 64mb 60#对于 pubsub client,若是 client-output-buffer 一旦超过 32mb,又或者超过 8mb 持续 60 秒,那么服务器就会当即断开客户 端链接。 client-output-buffer-limit pubsub 32mb 8mb 60 #redis 执行任务的频率为 1s 除以 hz。 hz 10 #在 aof 重写的时候,若是打开了 aof-rewrite-incremental-fsync 开关,系统会每 32MB 执行一 次 fsync。这对于把文件写入磁盘是有帮助的,能够避免过大的延迟峰值。 aof-rewrite-incremental-fsync yes
Redis 的数据持久化
RDB 方式
对内存中数据库状态进行快照
RDB 方式:将 Redis 在内存中的数据库状态保存到磁盘里面,RDB 文件是一个通过压缩的二进制文件,经过该文件能够还原生成 RDB 文件时的数据库状态(默认下,持久化到dump.rdb 文件,而且在 redis 重启后,自动读取其中文件,据悉,一般状况下一千万的字符串类型键,1GB 的快照文件,同步到内存中的 时间是 20-30 秒)
RDB 的生成方式:
1)执行命令手动生成
有两个 Redis 命令能够用于生成 RDB 文件,一个是 SAVE,另外一个是 BGSAVE SAVE命令会阻塞 Redis 服务器进程,直到 RDB 文件建立完毕为止,在服务器进程阻塞期间,服务器不能处理任何命令请求,BGSAVE 命令会派生出一个子进程,而后由子进程负责建立RDB 文件,服务器进程(父进程)继续处理命令请求,建立 RDB 文件结束以前,客户端发送的 BGSAVE 和 SAVE 命令会被服务器拒绝
2)经过配置自动生成
能够设置服务器配置的 save 选项,让服务器每隔一段时间自动执行一次 BGSAVE 命令,能够经过 save 选项设置多个保存条件,但只要其中任意一个条件被知足,服务器就会执行 BGSAVE 命令
例如:
save 900 1
save 300 10
save 60 10000
那么只要知足如下三个条件中的任意一个,BGSAVE 命令就会被执行
服务器在 900 秒以内,对数据库进行了至少 1 次修改
服务器在 300 秒以内,对数据库进行了至少 10 次修改
服务器在 60 秒以内,对数据库进行了至少 10000 次修改
AOF 方式
AOF 持久化方式在 redis 中默认是关闭的,须要修改配置文件开启该方式。
AOF:把每条命令都写入文件,相似 mysql 的 binlog 日志
AOF 方式:是经过保存 Redis 服务器所执行的写命令来记录数据库状态的文件。
AOF 文件刷新的方式,有三种:
appendfsync always - 每提交一个修改命令都调用 fsync 刷新到 AOF 文件,很是很是慢,但也很是安全
appendfsync everysec - 每秒钟都调用 fsync 刷新到 AOF 文件,很快,但可能会丢失一秒之内的数据
appendfsync no - 依靠 OS 进行刷新,redis 不主动刷新 AOF,这样最快,但安全性就差默认并推荐每秒刷新,这样在速度和安全上都作到了兼顾AOF 数据恢复方式,服务器在启动时,经过载入和执行 AOF 文件中保存的命令来还原服务器关闭以前的数据库状态,具体过程:
载入 AOF 文件
建立模拟客户端
从 AOF 文件中读取一条命令
使用模拟客户端执行命令
循环读取并执行命令,直到所有完成
若是同时启用了 RDB 和 AOF 方式,AOF 优先,启动时只加载 AOF 文件恢复数据
安装 Redis 集群
Redis 集群介绍
Redis3.0 版本以后支持 Cluster。集群要求集群节点中必需要支持主备模式,也就说集中的主节点(Master)至少要有一个从节点(Slave)每个蓝色的圈都表明着一个 redis 集群中的主节点。它们任何两个节点之间都是相互连通的。客户端能够与任何一个节点相链接,而后就能够访问集群中的任何一个节点。对其进行存取和其余操做
Redis-Cluster 选举:容错
Redis 之间经过互相的 ping-pong 判断是否节点能够链接上。若是有一半以上的节点去ping 一个节点的时候没有回应,集群就认为这个节点宕机了,而后去链接它的从节点。若是某个节点和全部从节点所有挂掉,咱们集群就进入 fail 状态。还有就是若是有一半以上的主节点宕机,那么咱们集群一样进入 fail 了状态。这就是咱们的 redis 的投票机制,具体原理以下图所示:
投票过程是集群中全部 master 参与,若是半数以上 master 节点与 master 节点通讯超时(cluster-node-timeout),认为当前 master 节点挂掉.
何时整个集群不可用(cluster_state:fail)?
1) 若是集群任意 master 挂掉,且当前 master 没有 slave。此时集群进入 fail 状态,也能够理解成集群的 slot 映射[0-16383]不完整时进入 fail 状态。
2) 若是集群超过半数以上 master 挂掉,不管是否有 slave,集群进入 fail 状态.
Redis-Cluster 数据存储
当咱们的存取的 key 到达的时候,redis 会根据 crc16 的算法得出一个结果,而后把结果对 16384 求余数,这样每一个 key 都会对应一个编号在 0-16383 之间的哈希槽,经过这个值,去找到对应的插槽所对应的节点,而后直接自动跳转到这个对应的节点上进行存取操做。
在 Node1 执行 set name kevin
- 使用 CRC16 算法对 key 进行计算,获得一个数字,而后对数字进行取余。
CRC16 : name = 26384
26384%16384 = 10000 - 查找到包含 10000 插槽的节点,好比是 node2,自动跳转到 node2
- 在 node2 上执行 set name kevin 命令完成数据的插入
- 若是在 node1 上执行 get name,先使用 CRC16 算法对 key 进行计算,在使用16384 取余,获得插槽的下标,而后跳到拥有该插槽的 node2 中执行 get name 命令,并返回结果。
安装集群
需求:
搭建一个 Redis 的最小集群,使用伪集群方式。Redis 中最小的集群三对主从。在 192.168.70.145 中安装 6 个 redis 实例。
若是使用已经使用过的单机版建立集群时,须要删除 dump.rdb 与 apeendonly.aof 文件。
6 个 redis 实例的端口分配:800一、800二、800三、800四、800五、8006
集群步骤:
redis 集群时须要使用一个 ruby 的脚原本完成集群。
第一步 安装 ruby 环境
命令: yum install ruby
第二步 安装 ruby 的包管理器
命令:yum install rubygems
第三步 进入到 redis 的安装目录下的 src 目录下找到到 redis-trib.rb 这个文件 这是集群时须要的脚本
第四步 这个脚本的执行须要依赖于一些其余的 ruby 包 因此咱们还要下载一个
redis-3.0.0.gem
将这个文件上传到 linux 服务器中
第五步 安装这个 ruby 包
命令:gem install redis-3.0.0.gem
第六步 先启动 redis 的 6 个实例
先在 local 目录下建立一个目录名称为:redis-cluster
命令:mkdir redis-cluster
第七步 将安装好的 redis 下的 bin 目录拷贝到 redis-cluster 目录下 并起名为 redis01
命令:进入到 redis 目录下执行:cp -r bin …/redis-cluster/redis01
第九步 修改 redis.conf 配置文件
命令:vim redis.conf
(1)修改端口:默认的为 6379 将六个 redis 实例的端口改为从 7001-7006 在配置文件的 port 属性中。
(2)修改开启集群 在配置文件中搜索 cluster 找到后 将默认为注释的 cluster-enabled yes 去掉注释
第十步 将这个 redis01 拷贝 6 份到当前这个目录下
命令:
cp -r redis01/ redis02
cp -r redis01/ redis03
cp -r redis01/ redis04
cp -r redis01/ redis05
cp -r redis01/ redis06
第十一步 修改拷贝的这些 redis 的端口
命令:
[root@localhost redis-cluster]# vim redis02/redis.conf
[root@localhost redis-cluster]# vim redis03/redis.conf
[root@localhost redis-cluster]# vim redis04/redis.conf
[root@localhost redis-cluster]# vim redis05/redis.conf
[root@localhost redis-cluster]# vim redis06/redis.conf
第十二步 把建立集群的 ruby 脚本复制到 redis-cluster 中
命令:*cp .rb /usr/local/redis-cluster
第十二步 建立一个可以批量启动的脚本程序
命令:vim startall.sh
第十三步 在脚本文件中添加命令
命令:
cd redis01
./redis.server redis.conf
cd …
cd redis02
./redis.server redis.conf
cd …
cd redis03
./redis.server redis.conf
cd …
cd redis04
./redis.server redis.conf
cd …
cd redis05
./redis.server redis.conf
cd …
cd redis06
./redis.server redis.conf
cd …
第十四步 将批量启动脚本设置为可执行权限
命令:chmod +x startall.sh
第十五步 执行这个批量启动的脚本
命令: ./startall.sh
第十六步 查看 redis 是否启动成功
命令:ps aux|grep redis
第十七步 建立集群
命令: ./redis-trib.rb create --replicas 1 192.168.70.145:8001 192.168.70.145:8002
192.168.70.145:8003 192.168.70.145:8004 192.168.70.145:8005 192.168.70.145:8006
控制台会显示以下信息 输入 yes
Creating cluster
Connecting to node 192.168.10.128:7001: OK
Connecting to node 192.168.10.128:7002: OK
Connecting to node 192.168.10.128:7003: OK
Connecting to node 192.168.10.128:7004: OK
Connecting to node 192.168.10.128:7005: OK
Connecting to node 192.168.10.128:7006: OKPerforming hash slots allocation on 6 nodes…
Using 3 masters:
192.168.10.128:7001
192.168.10.128:7002
192.168.10.128:7003
Adding replica 192.168.10.128:7004 to 192.168.10.128:7001
Adding replica 192.168.10.128:7005 to 192.168.10.128:7002
Adding replica 192.168.10.128:7006 to 192.168.10.128:7003
M: 8cf30cb6141b5d5db1fce2c8bdabe32666bbb1e7 192.168.10.128:7001
slots:0-5460 (5461 slots) master
M: e8038d0965377ff0793911a10984174b57ddbaaf 192.168.10.128:7002
slots:5461-10922 (5462 slots) master
M: be58583284fd2f26f03f2fce6c4e38de240eb841 192.168.10.128:7003
slots:10923-16383 (5461 slots) master
S: e66b85a7e72913f1ca4657600a0113d2cb0ece8e 192.168.10.128:7004
replicates 8cf30cb6141b5d5db1fce2c8bdabe32666bbb1e7
S: 9f1897cb9c570487685c467b7b4b53f4c0c9f556 192.168.10.128:7005
replicates e8038d0965377ff0793911a10984174b57ddbaaf
S: 1966b2674ce141da372438a29e9e84bfad266da3 192.168.10.128:7006
replicates be58583284fd2f26f03f2fce6c4e38de240eb841
Can I set the above configuration? (type ‘yes’ to accept):
若是控制台输出以下信息表集群成功Nodes configuration updated
Assign a different config epoch to each node
Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join…Performing Cluster Check (using node 192.168.10.128:7001)
M: 8cf30cb6141b5d5db1fce2c8bdabe32666bbb1e7 192.168.10.128:7001
slots:0-5460 (5461 slots) master
M: e8038d0965377ff0793911a10984174b57ddbaaf 192.168.10.128:7002
slots:5461-10922 (5462 slots) master
M: be58583284fd2f26f03f2fce6c4e38de240eb841 192.168.10.128:7003
slots:10923-16383 (5461 slots) master
M: e66b85a7e72913f1ca4657600a0113d2cb0ece8e 192.168.10.128:7004
slots: (0 slots) master
replicates 8cf30cb6141b5d5db1fce2c8bdabe32666bbb1e7
M: 9f1897cb9c570487685c467b7b4b53f4c0c9f556 192.168.10.128:7005
slots: (0 slots) master
replicates e8038d0965377ff0793911a10984174b57ddbaaf
M: 1966b2674ce141da372438a29e9e84bfad266da3 192.168.10.128:7006
slots: (0 slots) master
replicates be58583284fd2f26f03f2fce6c4e38de240eb841
[OK] All nodes agree about slots configuration.Check for open slots…
Check slots coverage…
[OK] All 16384 slots covered.
测试 Redis 集群
测试 Redis 集群:能够链接集群中的任意一个节点进行测试 注意必定要有-c 参数,不然能连上,可是没法操做 redis 集群
命令 ./redis01/redis-cli -h 192.168.10.128 -p 7001 -c
关闭 Redis 集群
命令:bin/redis-cli -p 7001 shutdown
也能够编写一个批量关闭的脚本
命令:
vim shutdown.sh redis01/redis-cli -p 7001 shutdown redis01/redis-cli -p 7002 shutdown redis01/redis-cli -p 7003 shutdown redis01/redis-cli -p 7004 shutdown redis01/redis-cli -p 7005 shutdown redis01/redis-cli -p 7006 shutdown