1、安装redisphp
一、下载redis包html
wget http://download.redis.io/releases/redis-3.2.1.tar.gz
二、解压redis包到/opt下node
tar -zxvf /home/redis-3.2.1.tar.gz -C /opt
三、安装并测试redismysql
cd /opt/redis-3.2.1/src make && make install make test
备注:若make test报错,提示安装tcl,则进行tcl的安装;程序员
若是想要安装到制定的目录,能够在src下Makefile中修改 prefix? 的值.下面的脚本要一块儿修改web
2、配置redisredis
一、复制并修改配置文档算法
cp /opt/redis-3.2.1/redis.conf /etc/ vi /etc/redis.conf
#开启redis远程访问 #将 bind 127.0.0.1改成 bind 0.0.0.0 #开启redis守护进程 #根据需求,可配置redis是否进行持久化:修改save策略 (save "" 不持久化) #添加密码访问 requirepass password
二、将redis配置进系统服务sql
vi /etc/init.d/redis
/etc/init.d/redis内容以下数据库
#chkconfig: 2345 90 10 # description: Redis is a persistent key-value database ########################### PATH=/usr/local/bin:/sbin:/usr/bin:/bin REDISPORT=6379 EXEC=/usr/local/bin/redis-server REDIS_CLI=/usr/local/bin/redis-cli PIDFILE=/var/run/redis_6379.pid CONF="/etc/redis.conf" PASSWORD=password case "$1" in start) if [ -f $PIDFILE ] then echo "$PIDFILE exists, process is already running or crashed" else echo "Starting Redis server..." $EXEC $CONF fi if [ "$?"="0" ] then echo "Redis is running..." fi ;; stop) if [ ! -f $PIDFILE ] then echo "$PIDFILE does not exist, process is not running" else PID=$(cat $PIDFILE) echo "Stopping ..." $REDIS_CLI -p $REDISPORT SHUTDOWN #如有密码则加上密码 #$REDIS_CLI -a $PASSWORD -p $REDISPORT SHUTDOWN while [ -x ${PIDFILE} ] do echo "Waiting for Redis to shutdown ..." sleep 1 done echo "Redis stopped" fi ;; restart|force-reload) ${0} stop ${0} start ;; *) echo "Usage: /etc/init.d/redis {start|stop|restart|force-reload}" >&2 exit 1 esac ##############################
#给redis文件加上执行权限 chmod +x /etc/init.d/redis
三、设置redis服务开机启动
chkconfig redis on
四、在防火墙中开放redis端口
vi /etc/sysconfig/iptables #加入下面的端口配置 -A INPUT -p tcp -m state --state NEW -m tcp --dport 6379 -j ACCEPT #重启防火墙 service iptables restart
五、启动、关闭和重启redis服务
service redis start service redis stop service redis restart
3、使用redis
#进入redis命令行 redis-cli -a password
四.基本命令
在线版:http://doc.redisfans.com/
下载地址html版:http://media.readthedocs.org/htmlzip/redis/latest/redis.zip
五.配置详解
==基本配置
daemonize no 是否之后台进程启动
databases 16 建立database的数量(默认选中的是database 0)
save 900 1 #刷新快照到硬盘中,必须知足二者要求才会触发,即900秒以后至少1个关键字发生变化。
save 300 10 #必须是300秒以后至少10个关键字发生变化。
save 60 10000 #必须是60秒以后至少10000个关键字发生变化。
stop-writes-on-bgsave-error yes #后台存储错误中止写。
rdbcompression yes #使用LZF压缩rdb文件。
rdbchecksum yes #存储和加载rdb文件时校验。
dbfilename dump.rdb #设置rdb文件名。
dir ./ #设置工做目录,rdb文件会写入该目录。
==主从配置
slaveof <masterip> <masterport> 设为某台机器的从服务器
masterauth <master-password> 链接主服务器的密码
slave-serve-stale-data yes # 当主从断开或正在复制中,从服务器是否应答
slave-read-only yes #从服务器只读
repl-ping-slave-period 10 #从ping主的时间间隔,秒为单位
repl-timeout 60 #主从超时时间(超时认为断线了),要比period大
slave-priority 100 #若是master不能再正常工做,那么会在多个slave中,选择优先值最小的一个slave提高为master,优先值为0表示不能提高为master。
repl-disable-tcp-nodelay no #主端是否合并数据,大块发送给slave
slave-priority 100 从服务器的优先级,当主服挂了,会自动挑slave priority最小的为主服
===安全
requirepass foobared # 须要密码
rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52 #若是公共环境,能够重命名部分敏感命令 如config
===限制
maxclients 10000 #最大链接数
maxmemory <bytes> #最大使用内存
maxmemory-policy volatile-lru #内存到极限后的处理
volatile-lru -> LRU算法删除过时key
allkeys-lru -> LRU算法删除key(不区分过不过时)
volatile-random -> 随机删除过时key
allkeys-random -> 随机删除key(不区分过不过时)
volatile-ttl -> 删除快过时的key
noeviction -> 不删除,返回错误信息
#解释 LRU ttl都是近似算法,能够选N个,再比较最适宜T踢出的数据
maxmemory-samples 3
====日志模式
appendonly no #是否仅要日志
appendfsync no # 系统缓冲,统一写,速度快
appendfsync always # 系统不缓冲,直接写,慢,丢失数据少
appendfsync everysec #折衷,每秒写1次
no-appendfsync-on-rewrite no #为yes,则其余线程的数据放内存里,合并写入(速度快,容易丢失的多)
auto-AOF-rewrite-percentage 100 当前aof文件是上次重写是大N%时重写
auto-AOF-rewrite-min-size 64mb aof重写至少要达到的大小
====慢查询
slowlog-log-slower-than 10000 #记录响应时间大于10000微秒的慢查询
slowlog-max-len 128 # 最多记录128条
====服务端命令
time 返回时间戳+微秒
dbsize 返回key的数量
bgrewriteaof 重写aof
bgsave 后台开启子进程dump数据
save 阻塞进程dump数据
lastsave
slaveof host port 作host port的从服务器(数据清空,复制新主内容)
slaveof no one 变成主服务器(原数据不丢失,通常用于主服失败后)
flushdb 清空当前数据库的全部数据
flushall 清空全部数据库的全部数据(误用了怎么办?)
shutdown [save/nosave] 关闭服务器,保存数据,修改AOF(若是设置)
slowlog get 获取慢查询日志
slowlog len 获取慢查询日志条数
slowlog reset 清空慢查询
info []
config get 选项(支持*通配)
config set 选项 值
config rewrite 把值写到配置文件
config restart 更新info命令的信息
debug object key #调试选项,看一个key的状况
debug segfault #模拟段错误,让服务器崩溃
object key (refcount|encoding|idletime)
monitor #打开控制台,观察命令(调试用)
client list #列出全部链接
client kill #杀死某个链接 CLIENT KILL 127.0.0.1:43501
client getname #获取链接的名称 默认nil
client setname "名称" #设置链接名称,便于调试
====链接命令===
auth 密码 #密码登录(若是有密码)
ping #测试服务器是否可用
echo "some content" #测试服务器是否正常交互
select 0/1/2... #选择数据库
quit #退出链接
Redis is an open source, BSD licensed, advanced key-value store. It is often referred to as a data structure server since keys can contain strings, hashes, lists, sets and sorted sets.
redis是开源,BSD许可,高级的key-value存储系统.
能够用来存储字符串,哈希结构,链表,集合,所以,经常使用来提供数据结构服务.
1: redis能够用来作存储(storge), 而memccached是用来作缓存(cache)
这个特色主要由于其有”持久化”的功能.
2: 存储的数据有”结构”,对于memcached来讲,存储的数据,只有1种类型--”字符串”,
而redis则能够存储字符串,链表,哈希结构,集合,有序集合.
make PREFIX=/usr/local/redis install
注: PREFIX要大写
redis-benchmark 性能测试工具
redis-check-aof 日志文件检测工(好比断电形成日志损坏,能够检测并修复)
redis-check-dump 快照文件检测工具,效果类上
redis-cli 客户端
redis-server 服务端
/path/to/redis/bin/redis-server ./path/to/conf-file
例:[root@localhost redis]# ./bin/redis-server ./redis.conf
#/path/to/redis/bin/redis-cli [-h localhost -p 6379 ]
编辑conf配置文件,修改以下内容;
daemonize yes
做用: 删除1个或多个键
返回值: 不存在的key忽略掉,返回真正删除的key的数量
做用: 给key赋一个新的key名
注:若是newkey已存在,则newkey的原值被覆盖
做用: 把key更名为newkey
返回: 发生修改返回1,未发生修改返回0
注: nx--> not exists, 即, newkey不存在时,做更名动做
redis 127.0.0.1:6379[1]> select 2
OK
redis 127.0.0.1:6379[2]> keys *
(empty list or set)
redis 127.0.0.1:6379[2]> select 0
OK
redis 127.0.0.1:6379> keys *
1) "name"
2) "cc"
3) "a"
4) "b"
redis 127.0.0.1:6379> move cc 2
(integer) 1
redis 127.0.0.1:6379> select 2
OK
redis 127.0.0.1:6379[2]> keys *
1) "cc"
redis 127.0.0.1:6379[2]> get cc
"3"
(注意: 一个redis进程,打开了不止一个数据库, 默认打开16个数据库,从0到15编号,
若是想打开更多数据库,能够从配置文件修改)
在redis里,容许模糊查询key
有3个通配符 *, ? ,[]
*: 通配任意多个字符
?: 通配单个字符
[]: 通配括号内的某1个字符
redis 127.0.0.1:6379> flushdb
OK
redis 127.0.0.1:6379> keys *
(empty list or set)
redis 127.0.0.1:6379> mset one 1 two 2 three 3 four 4
OK
redis 127.0.0.1:6379> keys o*
1) "one"
redis 127.0.0.1:6379> key *o
(error) ERR unknown command 'key'
redis 127.0.0.1:6379> keys *o
1) "two"
redis 127.0.0.1:6379> keys ???
1) "one"
2) "two"
redis 127.0.0.1:6379> keys on?
1) "one"
redis 127.0.0.1:6379> set ons yes
OK
redis 127.0.0.1:6379> keys on[eaw]
1) "one"
判断key是否存在,返回1/0
返回key存储的值的类型
有string,link,set,order set, hash
做用: 查询key的生命周期
返回: 秒数
注:对于不存在的key或已过时的key/不过时的key,都返回-1
Redis2.8中,对于不存在的key,返回-2
做用: 设置key的生命周期,以秒为单位
同理:
pexpire key 毫秒数, 设置生命周期
pttl key, 以毫秒返回生命周期
做用: 把指定key置为永久有效
如: set a 1 ex 10 , 10秒有效
Set a 1 px 9000 , 9秒有效
注: 若是ex,px同时写,之后面的有效期为准
如 set a 1 ex 100 px 9000, 实际有效期是9000毫秒
nx: 表示key不存在时,执行操做
xx: 表示key存在时,执行操做
例: mset key1 v1 key2 v2 ....
做用:获取key的值
做用:获取多个key的值
做用:把字符串的offset偏移字节,改为value
redis 127.0.0.1:6379> set greet hello
OK
redis 127.0.0.1:6379> setrange greet 2 x
(integer) 5
redis 127.0.0.1:6379> get greet
"hexlo"
注意: 若是偏移量>字符长度, 该字符自动补0x00
redis 127.0.0.1:6379> setrange greet 6 !
(integer) 7
redis 127.0.0.1:6379> get greet
"heyyo\x00!"
做用: 把value追加到key的原值上
做用: 是获取字符串中 [start, stop]范围的值
注意: 对于字符串的下标,左数从0开始,右数从-1开始
redis 127.0.0.1:6379> set title 'chinese'
OK
redis 127.0.0.1:6379> getrange title 0 3
"chin"
redis 127.0.0.1:6379> getrange title 1 -2
"hines"
注意:
1: start>=length, 则返回空字符串
2: stop>=length,则截取至字符结尾
3: 若是start 所处位置在stop右边, 返回空字符串
做用: 获取并返回旧值,设置新值
redis 127.0.0.1:6379> set cnt 0
OK
redis 127.0.0.1:6379> getset cnt 1
"0"
redis 127.0.0.1:6379> getset cnt 2
"1"
做用: 指定的key的值加1,并返回加1后的值
注意:
1:不存在的key当成0,再incr操做
2: 范围为64有符号
redis 127.0.0.1:6379> incrby age 90
(integer) 92
redis 127.0.0.1:6379> incrbyfloat age 3.5
"95.5"
redis 127.0.0.1:6379> set age 20
OK
redis 127.0.0.1:6379> decr age
(integer) 19
redis 127.0.0.1:6379> decrby age 3
(integer) 16
做用:获取值的二进制表示,对应位上的值(从左,从0编号)
redis 127.0.0.1:6379> set char A
OK
redis 127.0.0.1:6379> getbit char 1
(integer) 1
redis 127.0.0.1:6379> getbit char 2
(integer) 0
redis 127.0.0.1:6379> getbit char 7
(integer) 1
设置offset对应二进制位上的值
返回: 该位上的旧值
注意:
1:若是offset过大,则会在中间填充0,
2: offset最大大到多少
3:offset最大2^32-1,可推出最大的的字符串为512M
对key1,key2..keyN做operation,并将结果保存到 destkey 上。
operation 能够是 AND 、 OR 、 NOT 、 XOR
redis 127.0.0.1:6379> setbit lower 7 0
(integer) 0
redis 127.0.0.1:6379> setbit lower 2 1
(integer) 0
redis 127.0.0.1:6379> get lower
" "
redis 127.0.0.1:6379> set char Q
OK
redis 127.0.0.1:6379> get char
"Q"
redis 127.0.0.1:6379> bitop or char char lower
(integer) 1
redis 127.0.0.1:6379> get char
"q"
注意: 对于NOT操做, key不能多个
做用: 把值插入到连接头部
做用: 返回并删除链表尾元素
做用: 返回链表中[start ,stop]中的元素
规律: 左数从0开始,右数从-1开始
做用: 从key链表中删除 value值
注: 删除count的绝对值个value后结束
Count>0 从表头删除
Count<0 从表尾删除
做用: 剪切key对应的连接,切[start,stop]一段,并把该段从新赋给key
做用: 返回index索引上的值,
如 lindex key 2
做用:计算连接表的元素个数
redis 127.0.0.1:6379> llen task
(integer) 3
redis 127.0.0.1:6379>
做用: 在key链表中寻找’search’,并在search值以前|以后,.插入value
注: 一旦找到一个search后,命令就结束了,所以不会插入多个value
做用: 把source的尾部拿出,放在dest的头部,
并返回 该单元值
场景: task + bak 双链表完成安全队列
Task列表 bak列表
|
|
|
|
|
|
业务逻辑:
1:Rpoplpush task bak
2:接收返回值,并作业务处理
3:若是成功,rpop bak 清除任务. 如不成功,下次从bak表里取任务
做用:等待弹出key的尾/头元素,
Timeout为等待超时时间
若是timeout为0,则一直等待
场景: 长轮询Ajax,在线聊天时,可以用到
场景: 1亿个用户, 每一个用户 登录/作任意操做 ,记为 今天活跃,不然记为不活跃
每周评出: 有奖活跃用户: 连续7天活动
每个月评,等等...
思路:
Userid dt active
1 2013-07-27 1
1 2013-0726 1
若是是放在表中, 1:表急剧增大,2:要用group ,sum运算,计算较慢
用: 位图法 bit-map
Log0721: ‘011001...............0’
......
log0726 : ‘011001...............0’
Log0727 : ‘0110000.............1’
1: 记录用户登录:
天天按日期生成一个位图, 用户登录后,把user_id位上的bit值置为1
2: 把1周的位图 and 计算,
位上为1的,便是连续登录的用户
redis 127.0.0.1:6379> setbit mon 100000000 0
(integer) 0
redis 127.0.0.1:6379> setbit mon 3 1
(integer) 0
redis 127.0.0.1:6379> setbit mon 5 1
(integer) 0
redis 127.0.0.1:6379> setbit mon 7 1
(integer) 0
redis 127.0.0.1:6379> setbit thur 100000000 0
(integer) 0
redis 127.0.0.1:6379> setbit thur 3 1
(integer) 0
redis 127.0.0.1:6379> setbit thur 5 1
(integer) 0
redis 127.0.0.1:6379> setbit thur 8 1
(integer) 0
redis 127.0.0.1:6379> setbit wen 100000000 0
(integer) 0
redis 127.0.0.1:6379> setbit wen 3 1
(integer) 0
redis 127.0.0.1:6379> setbit wen 4 1
(integer) 0
redis 127.0.0.1:6379> setbit wen 6 1
(integer) 0
redis 127.0.0.1:6379> bitop and res mon feb wen
(integer) 12500001
如上例,优势:
1: 节约空间, 1亿人天天的登录状况,用1亿bit,约1200WByte,约10M 的字符就能表示
2: 计算方便
集合的性质: 惟一性,无序性,肯定性
注: 在string和link的命令中,能够经过range 来访问string中的某几个字符或某几个元素
但,由于集合的无序性,没法经过下标或范围来访问部分元素.
所以想看元素,要么随机先一个,要么全选
做用: 往集合key中增长元素
做用: 删除集合中集为 value1 value2的元素
返回值: 忽略不存在的元素后,真正删除掉的元素的个数
做用: 返回并删除集合中key中1个随机元素
随机--体现了无序性
做用: 返回集合key中,随机的1个元素.
做用: 判断value是否在key集合中
是返回1,否返回0
做用: 返回集中中全部的元素
做用: 返回集合中元素的个数
做用:把source中的value删除,并添加到dest集合中
做用: 求出key1 key2 key3 三个集合中的交集,并返回
redis 127.0.0.1:6379> sadd s1 0 2 4 6
(integer) 4
redis 127.0.0.1:6379> sadd s2 1 2 3 4
(integer) 4
redis 127.0.0.1:6379> sadd s3 4 8 9 12
(integer) 4
redis 127.0.0.1:6379> sinter s1 s2 s3
1) "4"
redis 127.0.0.1:6379> sinter s3 s1 s2
1) "4"
做用: 求出key1 key2 key3 三个集合中的交集,并赋给dest
做用: 求出key1 key2 keyn的并集,并返回
做用: 求出key1与key2 key3的差集
即key1-key2-key3
zadd key score1 value1 score2 value2 ..
添加元素
redis 127.0.0.1:6379> zadd stu 18 lily 19 hmm 20 lilei 21 lilei
(integer) 3
做用: 删除集合中的元素
做用: 按照socre来删除元素,删除score在[min,max]之间的
redis 127.0.0.1:6379> zremrangebyscore stu 4 10
(integer) 2
redis 127.0.0.1:6379> zrange stu 0 -1
1) "f"
做用: 按排名删除元素,删除名次在[start,end]之间的
redis 127.0.0.1:6379> zremrangebyrank stu 0 1
(integer) 2
redis 127.0.0.1:6379> zrange stu 0 -1
1) "c"
2) "e"
3) "f"
4) "g"
查询member的排名(升续 0名开始)
查询 member的排名(降续 0名开始)
把集合排序后,返回名次[start,stop]的元素
默认是升续排列
Withscores 是把score也打印出来
做用:把集合降序排列,取名字[start,stop]之间的元素
做用: 集合(升续)排序后,取score在[min,max]内的元素,
并跳过 offset个, 取出N个
redis 127.0.0.1:6379> zadd stu 1 a 3 b 4 c 9 e 12 f 15 g
(integer) 6
redis 127.0.0.1:6379> zrangebyscore stu 3 12 limit 1 2 withscores
1) "c"
2) "4"
3) "e"
4) "9"
返回元素个数
返回[min,max] 区间内元素的数量
[WEIGHTS weight [weight ...]]
[AGGREGATE SUM|MIN|MAX]
求key1,key2的交集,key1,key2的权重分别是 weight1,weight2
聚合方法用: sum |min|max
聚合的结果,保存在dest集合内
注意: weights ,aggregate如何理解?
答: 若是有交集, 交集元素又有socre,score怎么处理?
Aggregate sum->score相加 , min 求最小score, max 最大score
另: 能够经过weigth设置不一样key的权重, 交集时,socre * weights
详见下例
redis 127.0.0.1:6379> zadd z1 2 a 3 b 4 c
(integer) 3
redis 127.0.0.1:6379> zadd z2 2.5 a 1 b 8 d
(integer) 3
redis 127.0.0.1:6379> zinterstore tmp 2 z1 z2
(integer) 2
redis 127.0.0.1:6379> zrange tmp 0 -1
1) "b"
2) "a"
redis 127.0.0.1:6379> zrange tmp 0 -1 withscores
1) "b"
2) "4"
3) "a"
4) "4.5"
redis 127.0.0.1:6379> zinterstore tmp 2 z1 z2 aggregate sum
(integer) 2
redis 127.0.0.1:6379> zrange tmp 0 -1 withscores
1) "b"
2) "4"
3) "a"
4) "4.5"
redis 127.0.0.1:6379> zinterstore tmp 2 z1 z2 aggregate min
(integer) 2
redis 127.0.0.1:6379> zrange tmp 0 -1 withscores
1) "b"
2) "1"
3) "a"
4) "2"
redis 127.0.0.1:6379> zinterstore tmp 2 z1 z2 weights 1 2
(integer) 2
redis 127.0.0.1:6379> zrange tmp 0 -1 withscores
1) "b"
2) "5"
3) "a"
4) "7"
做用: 把key中 filed域的值设为value
注:若是没有field域,直接添加,若是有,则覆盖原field域的值
做用: 设置field1->N 个域, 对应的值是value1->N
(对应PHP理解为 $key = array(file1=>value1, field2=>value2 ....fieldN=>valueN))
做用: 返回key中field域的值
做用: 返回key中field1 field2 fieldN域的值
做用:返回key中,全部域与其值
做用: 删除key中 field域
做用: 返回key中元素的数量
做用: 判断key中有没有field域
做用: 是把key中的field域的值增加整型值value
做用: 是把key中的field域的值增加浮点值value
做用: 返回key中全部的field
做用: 返回key中全部的value
Redis支持简单的事务
Redis与 mysql事务的对比
|
Mysql |
Redis |
开启 |
start transaction |
muitl |
语句 |
普通sql |
普通命令 |
失败 |
rollback 回滚 |
discard 取消 |
成功 |
commit |
exec |
注: rollback与discard 的区别
若是已经成功执行了2条语句, 第3条语句出错.
Rollback后,前2条的语句影响消失.
Discard只是结束本次事务,前2条语句形成的影响仍然还在
注:
在mutil后面的语句中, 语句出错可能有2种状况
1: 语法就有问题,
这种,exec时,报错, 全部语句得不到执行
2: 语法自己没错,但适用对象有问题. 好比 zadd 操做list对象
Exec以后,会执行正确的语句,并跳过有不适当的语句.
(若是zadd操做list这种事怎么避免? 这一点,由程序员负责)
思考:
我正在买票
Ticket -1 , money -100
而票只有1张, 若是在我multi以后,和exec以前, 票被别人买了---即ticket变成0了.
我该如何观察这种情景,并再也不提交
悲观的想法:
世界充满危险,确定有人和我抢, 给 ticket上锁, 只有我能操做. [悲观锁]
乐观的想法:
没有那么人和我抢,所以,我只须要注意,
--有没有人更改ticket的值就能够了 [乐观锁]
Redis的事务中,启用的是乐观锁,只负责监测key没有被改动.
具体的命令---- watch命令
例:
redis 127.0.0.1:6379> watch ticket
OK
redis 127.0.0.1:6379> multi
OK
redis 127.0.0.1:6379> decr ticket
QUEUED
redis 127.0.0.1:6379> decrby money 100
QUEUED
redis 127.0.0.1:6379> exec
(nil) // 返回nil,说明监视的ticket已经改变了,事务就取消了.
redis 127.0.0.1:6379> get ticket
"0"
redis 127.0.0.1:6379> get money
"200"
做用:监听key1 key2..keyN有没有变化,若是有变, 则事务取消
做用: 取消全部watch监听
使用办法:
订阅端: Subscribe 频道名称
发布端: publish 频道名称 发布内容
客户端例子:
redis 127.0.0.1:6379> subscribe news
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "news"
3) (integer) 1
1) "message"
2) "news"
3) "good good study"
1) "message"
2) "news"
3) "day day up"
服务端例子:
redis 127.0.0.1:6379> publish news 'good good study'
(integer) 1
redis 127.0.0.1:6379> publish news 'day day up'
(integer) 1
save 900 1 // 900内,有1条写入,则产生快照
save 300 1000 // 若是300秒内有1000次写入,则产生快照
save 60 10000 // 若是60秒内有10000次写入,则产生快照
(这3个选项都屏蔽,则rdb禁用)
stop-writes-on-bgsave-error yes // 后台备份进程出错时,主进程停不中止写入?
rdbcompression yes // 导出的rdb文件是否压缩
Rdbchecksum yes // 导入rbd恢复时数据时,要不要检验rdb的完整性
dbfilename dump.rdb //导出来的rdb文件名
dir ./ //rdb的放置路径
appendonly no # 是否打开 aof日志功能 appendfsync always # 每1个命令,都当即同步到aof. 安全,速度慢 appendfsync everysec # 折衷方案,每秒写1次 appendfsync no # 写入工做交给操做系统,由操做系统判断缓冲区大小,统一写入到aof. 同步频率低,速度快, no-appendfsync-on-rewrite yes: # 正在导出rdb快照的过程当中,要不要中止同步aof auto-aof-rewrite-percentage 100 #aof文件大小比起上次重写时的大小,增加率100%时,重写 auto-aof-rewrite-min-size 64mb #aof文件,至少超过64M时,重写
注: 在dump rdb过程当中,aof若是中止同步,会不会丢失?
答: 不会,全部的操做缓存在内存的队列里, dump完成后,统一操做.
注: aof重写是指什么?
答: aof重写是指把内存中的数据,逆化成命令,写入到.aof日志里.以解决 aof日志过大的问题.
问: 若是rdb文件,和aof文件都存在,优先用谁来恢复数据?
答: aof
问: 2种是否能够同时用?
答: 能够,并且推荐这么作
问: 恢复时rdb和aof哪一个恢复的快
答: rdb快,由于其是数据的内存映射,直接载入到内存,而aof是命令,须要逐条执行
redis 服务器端命令
redis 127.0.0.1:6380> time ,显示服务器时间 , 时间戳(秒), 微秒数
1) "1375270361"
2) "504511"
redis 127.0.0.1:6380> dbsize // 当前数据库的key的数量
(integer) 2
redis 127.0.0.1:6380> select 2
OK
redis 127.0.0.1:6380[2]> dbsize
(integer) 0
redis 127.0.0.1:6380[2]>
BGREWRITEAOF 后台进程重写AOF
BGSAVE 后台保存rdb快照
SAVE 保存rdb快照
LASTSAVE 上次保存时间
Slaveof master-Host port , 把当前实例设为master的slave
Flushall 清空全部库全部键
Flushdb 清空当前库全部键
Showdown [save/nosave]
注: 若是不当心运行了flushall, 当即 shutdown nosave ,关闭服务器
而后 手工编辑aof文件, 去掉文件中的 “flushall ”相关行, 而后开启服务器,就能够导入回原来数据.
若是,flushall以后,系统刚好bgrewriteaof了,那么aof就清空了,数据丢失.
Slowlog 显示慢查询
注:多慢才叫慢?
答: 由slowlog-log-slower-than 10000 ,来指定,(单位是微秒)
服务器储存多少条慢查询的记录?
答: 由 slowlog-max-len 128 ,来作限制
Info [Replication/CPU/Memory..]
查看redis服务器的信息
Config get 配置项
Config set 配置项 值 (特殊的选项,不容许用此命令设置,如slave-of, 须要用单独的slaveof命令来设置)
1: 内存
# Memory
used_memory:859192 数据结构的空间
used_memory_rss:7634944 实占空间
mem_fragmentation_ratio:8.89 前2者的比例,1.N为佳,若是此值过大,说明redis的内存的碎片化严重,能够导出再导入一次.
2: 主从复制
# Replication
role:slave
master_host:192.168.1.128
master_port:6379
master_link_status:up
3:持久化
# Persistence
rdb_changes_since_last_save:0
rdb_last_save_time:1375224063
4: fork耗时
#Status
latest_fork_usec:936 上次导出rdb快照,持久化花费微秒
注意: 若是某实例有10G内容,导出须要2分钟,
每分钟写入10000次,致使不断的rdb导出,磁盘始处于高IO状态.
5: 慢日志
config get/set slowlog-log-slower-than
CONFIG get/SET slowlog-max-len
slowlog get N 获取慢日志
运行时更改master-slave
修改一台slave(设为A)为new master
1) 命令该服务不作其余redis服务的slave
命令: slaveof no one
2) 修改其readonly为yes
其余的slave再指向new master A
1) 命令该服务为new master A的slave
命令格式 slaveof IP port
监控工具 sentinel
Sentinel不断与master通讯,获取master的slave信息.
监听master与slave的状态
若是某slave失效,直接通知master去除该slave.
若是master失效,,是按照slave优先级(可配置), 选取1个slave作 new master,把其余slave--> new master
疑问: sentinel与master通讯,若是某次由于master IO操做频繁,致使超时,此时,认为master失效,很武断.
解决: sentnel容许多个实例看守1个master, 当N台(N可设置)sentinel都认为master失效,才正式失效.
Sentinel选项配置
port 26379 # 端口
sentinel monitor mymaster 127.0.0.1 6379 2 ,
给主机起的名字(不重便可),
当2个sentinel实例都认为master失效时,正式失效
sentinel down-after-milliseconds mymaster 30000 多少毫秒后链接不到master认为断开
sentinel can-failover mymaster yes #是否容许sentinel修改slave->master. 如为no,则只能监控,无权修改./
sentinel parallel-syncs mymaster 1 , 一次性修改几个slave指向新的new master.
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh ,# 在从新配置new master,new slave过程,能够触发的脚本
create table book (
bookid int,
title char(20)
)engine myisam charset utf8;
insert into book values
(5 , 'PHP圣经'),
(6 , 'ruby实战'),
(7 , 'mysql运维')
(8, 'ruby服务端编程');
create table tags (
tid int,
bookid int,
content char(20)
)engine myisam charset utf8;
insert into tags values
(10 , 5 , 'PHP'),
(11 , 5 , 'WEB'),
(12 , 6 , 'WEB'),
(13 , 6 , 'ruby'),
(14 , 7 , 'database'),
(15 , 8 , 'ruby'),
(16 , 8 , 'server');
# 既有web标签,又有PHP,同时还标签的书,要用链接查询
select * from tags inner join tags as t on tags.bookid=t.bookid
where tags.content='PHP' and t.content='WEB';
用kv 来存储
set book:5:title 'PHP圣经'
set book:6:title 'ruby实战'
set book:7:title 'mysql运难'
set book:8:title ‘ruby server’
sadd tag:PHP 5
sadd tag:WEB 5 6
sadd tag:database 7
sadd tag:ruby 6 8
sadd tag:SERVER 8
查: 既有PHP,又有WEB的书
Sinter tag:PHP tag:WEB #查集合的交集
查: 有PHP或有WEB标签的书
Sunin tag:PHP tag:WEB
查:含有ruby,不含WEB标签的书
Sdiff tag:ruby tag:WEB #求差集
1: 把表名转换为key前缀 如, tag:
2: 第2段放置用于区分区key的字段--对应mysql中的主键的列名,如userid
3: 第3段放置主键值,如2,3,4...., a , b ,c
4: 第4段,写要存储的列名
用户表 user , 转换为key-value存储 |
|||
userid |
username |
passworde |
|
9 |
Lisi |
1111111 |
lisi@163.com |
set user:userid:9:username lisi
set user:userid:9:password 111111
set user:userid:9:email lisi@163.com
keys user:userid:9*
2 注意:
在关系型数据中,除主键外,还有可能其余列也步骤查询,
如上表中, username 也是极频繁查询的,每每这种列也是加了索引的.
转换到k-v数据中,则也要相应的生成一条按照该列为主的key-value
Set user:username:lisi:uid 9
这样,咱们能够根据username:lisi:uid ,查出userid=9,
再查user:9:password/email ...
完成了根据用户名来查询用户信息
php-redis扩展编译
1: 到pecl.php.net 搜索redis
2: 下载stable版(稳定版)扩展
3: 解压,
4: 执行/php/path/bin/phpize (做用是检测PHP的内核版本,并为扩展生成相应的编译配置)
5: configure --with-php-config=/php/path/bin/php-config
6: make && make install
引入编译出的redis.so插件
1: 编辑php.ini
2: 添加
// get instance
$redis = new Redis();
// connect to redis server
$redis->open('localhost',6380);
$redis->set('user:userid:9:username','wangwu');
var_dump($redis->get('user:userid:9:username'));
微博项目的key设计
全局相关的key:
表名 |
global |
|
列名 |
操做 |
备注 |
Global:userid |
incr |
产生全局的userid |
Global:postid |
Incr |
产生全局的postid |
用户相关的key(表)
表名 |
user |
||
Userid |
Username |
Password |
Authsecret |
3 |
Test3 |
1111111 |
#U*Q(%_ |
在redis中,变成如下几个key
Key前缀 |
user |
||
User:Userid:* |
User:userid:*Username |
User:userid:*Password |
User:userid:*:Authsecret |
User:userid:3 |
User:userid:3:Test3 |
User:userid:3:1111111 |
User:userid:3:#U*Q(%_ |
微博相关的表设计
表名 |
post |
|
|
|
Postid |
Userid |
Username |
Time |
Content |
4 |
2 |
Lisi |
1370987654f |
测试内容 |
微博在redis中,与表设计对应的key设计
Key前缀 |
post |
|
|
|
Post:Postid:* |
Post:postid:*Userid |
Post:postid:*:Username |
Post:postid:*:Time |
Post:postid:*:Content |
4 |
2 |
Lisi |
1370987654f |
测试内容 |
关注表: following
Following:$userid -->
粉丝表
Follower:$userid --->
推送表:revicepost
3 |
4 |
7 |
|
|
|
=================拉模型,改进=====================
拉取表
3 |
4 |
7 |
|
|
|
问: 上次我拉取了 A->5,67,三条微博, 下次刷新home.php, 从>7的微博开始拉取
解决: 拉取时,设定一个lastpull时间点, 下次拉取时,取>lastpull的微博
问: 有不少关注人,如何取?
解决: 循环本身的关注列表,逐个取他们的新微博
问: 取出来以后放在哪儿?
答: pull:$userid的连接里
问: 若是我的中心,只有前1000条
答: ltrim,只取前1000条
问: 若是我关注 A,B两人, 从2人中,各取3条最新信息
,这3+3条信息, 从时间上,是交错的, 如何按时间排序?
答: 咱们发布时, 是发布的hash结构, 不能按时间来排序.
解决: 同步时,取微博后,记录本次取的微博的最大id,
下次同步时,只取比最大id更大的微博
Time taken for tests: 32.690 seconds
Complete requests: 20000
Failed requests: 0
Write errors: 0
Non-2xx responses: 20000
Total transferred: 13520000 bytes
Total POSTed: 5340000
HTML transferred: 9300000 bytes
Requests per second: 611.80 [#/sec] (mean)
Time per request: 81.726 [ms] (mean)
Time per request: 1.635 [ms] (mean, across all concurrent requests)
Transfer rate: 403.88 [Kbytes/sec] received
159.52 kb/s sent
563.41 kb/s total
Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 0 0.9 0 19
Processing: 14 82 8.4 81 153
Waiting: 4 82 8.4 80 153
Total: 20 82 8.2 81 153
Percentage of the requests served within a certain time (ms)
50% 81
66% 84
75% 86
80% 88
90% 93
95% 96
98% 100
99% 103
100% 153 (longest request)
测试结果:
50个并发, 20000次请求, 虚拟下,未作特殊优化
每次请求redis写操做6次.
30+秒左右完成.
平均每秒发布700条微博, 4000次redis写入.
后台定时任务,回归冷数据入mysql
Redis配置文件
daemonize yes # redis是否之后台进程运行
Requirepass 密码 # 配置redis链接的密码
注:配置密码后,客户端连上服务器,须要先执行受权命令
# auth 密码