redis配置文件详解

Redis示例配置文件

注意单位问题:当须要设置内存大小的时候,可使用相似1k、5GB、4M这样的常见格式:


# 1k => 1000 byteshtml

# 1kb => 1024 bytesredis

# 1m => 1000000 bytes算法

# 1mb => 1024*1024 bytes数据库

# 1g => 1000000000 bytes缓存

# 1gb => 1024*1024*1024 bytes安全

#服务器

# 单位是大小写不敏感的,因此1GB 1Gb 1gB的写法都是彻底同样的。网络

 

# Redis默认是不做为守护进程来运行的。你能够把这个设置为"yes"让它做为守护进程来运行。并发

# 注意,看成为守护进程的时候,Redis会把进程ID写到 /var/run/redis.pidapp

daemonize no

 

# 当以守护进程方式运行的时候,Redis会把进程ID默认写到 /var/run/redis.pid。你能够在这里修改路径。

pidfile /var/run/redis.pid

 

# 接受链接的特定端口,默认是6379。

# 若是端口设置为0,Redis就不会监听TCP套接字。

port 6379

 

# 若是你想的话,你能够绑定单一接口;若是这里没单独设置,那么全部接口的链接都会被监听。

#

# bind 127.0.0.1

 

# 指定用来监听链接的unxi套接字的路径。这个没有默认值,因此若是你不指定的话,Redis就不会经过unix套接字来监听。

#

# unixsocket /tmp/redis.sock

# unixsocketperm 755

 

#一个客户端空闲多少秒后关闭链接。(0表明禁用,永不关闭)

timeout 0

 

# 设置服务器调试等级。

# 可能值:

# debug (不少信息,对开发/测试有用)

# verbose (不少精简的有用信息,可是不像debug等级那么多)

# notice (适量的信息,基本上是你生产环境中须要的程度)

# warning (只有很重要/严重的信息会记录下来)

loglevel verbose

 

# 指明日志文件名。也可使用"stdout"来强制让Redis把日志信息写到标准输出上。

# 注意:若是Redis以守护进程方式运行,而你设置日志显示到标准输出的话,那么日志会发送到 /dev/null

logfile stdout

 

# 要使用系统日志记录器很简单,只要设置 "syslog-enabled" 为 "yes" 就能够了。

# 而后根据须要设置其余一些syslog参数就能够了。

# syslog-enabled no

 

# 指明syslog身份

# syslog-ident redis

 

# 指明syslog的设备。必须是一个用户或者是 LOCAL0 ~ LOCAL7 之一。

# syslog-facility local0

 

# 设置数据库个数。默认数据库是 DB 0,你能够经过SELECT <dbid> WHERE dbid(0~'databases' - 1)来为每一个链接使用不一样的数据库。

databases 16

 

################################ 快照 #################################

 

#

# 把数据库存到磁盘上:

#

#   save <seconds> <changes>

#  

#   会在指定秒数和数据变化次数以后把数据库写到磁盘上。

#

#   下面的例子将会进行把数据写入磁盘的操做:

#   900秒(15分钟)以后,且至少1次变动

#   300秒(5分钟)以后,且至少10次变动

#   60秒以后,且至少10000次变动

#

#   注意:你要想不写磁盘的话就把全部 "save" 设置注释掉就好了。

 

save 900 1

save 300 10

save 60 10000

 

# 当导出到 .rdb 数据库时是否用LZF压缩字符串对象。

# 默认设置为 "yes",因此几乎老是生效的。

# 若是你想节省CPU的话你能够把这个设置为 "no",可是若是你有可压缩的key的话,那数据文件就会更大了。

rdbcompression yes

 

# 数据库的文件名

dbfilename dump.rdb

 

# 工做目录

#

# 数据库会写到这个目录下,文件名就是上面的 "dbfilename" 的值。

#

# 累加文件也放这里。

#

# 注意你这里指定的必须是目录,不是文件名。

dir ./

 

################################# 同步 #################################

 

#

# 主从同步。经过 slaveof 配置来实现Redis实例的备份。

# 注意,这里是本地从远端复制数据。也就是说,本地能够有不一样的数据库文件、绑定不一样的IP、监听不一样的端口。

#

# slaveof <masterip> <masterport>

 

# 若是master设置了密码(经过下面的 "requirepass" 选项来配置),那么slave在开始同步以前必须进行身份验证,不然它的同步请求会被拒绝。

#

# masterauth <master-password>

 

# 当一个slave失去和master的链接,或者同步正在进行中,slave的行为有两种可能:

#

# 1) 若是 slave-serve-stale-data 设置为 "yes" (默认值),slave会继续响应客户端请求,多是正常数据,也多是还没得到值的空数据。

# 2) 若是 slave-serve-stale-data 设置为 "no",slave会回复"正在从master同步(SYNC with master in progress)"来处理各类请求,除了 INFO 和 SLAVEOF 命令。

#

slave-serve-stale-data yes

 

# slave根据指定的时间间隔向服务器发送ping请求。

# 时间间隔能够经过 repl_ping_slave_period 来设置。

# 默认10秒。

#

# repl-ping-slave-period 10

 

# 下面的选项设置了大块数据I/O、向master请求数据和ping响应的过时时间。

# 默认值60秒。

#

# 一个很重要的事情是:确保这个值比 repl-ping-slave-period 大,不然master和slave之间的传输过时时间比预想的要短。

#

# repl-timeout 60

 

################################## 安全 ###################################

 

# 要求客户端在处理任何命令时都要验证身份和密码。

# 这在你信不过来访者时颇有用。

#

# 为了向后兼容的话,这段应该注释掉。并且大多数人不须要身份验证(例如:它们运行在本身的服务器上。)

#

# 警告:由于Redis太快了,因此居心不良的人能够每秒尝试150k的密码来试图破解密码。

# 这意味着你须要一个高强度的密码,不然破解太容易了。

#

# requirepass foobared

 

# 命令重命名

#

# 在共享环境下,能够为危险命令改变名字。好比,你能够为 CONFIG 改个其余不太容易猜到的名字,这样你本身仍然可使用,而别人却无法作坏事了。

#

# 例如:

#

# rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52

#

# 甚至也能够经过给命令赋值一个空字符串来彻底禁用这条命令:

#

# rename-command CONFIG ""

 

################################### 限制 ####################################

 

#

# 设置最多同时链接客户端数量。

# 默认没有限制,这个关系到Redis进程可以打开的文件描述符数量。

# 特殊值"0"表示没有限制。

# 一旦达到这个限制,Redis会关闭全部新链接并发送错误"达到最大用户数上限(max number of clients reached)"

#

# maxclients 128

 

# 不要用比设置的上限更多的内存。一旦内存使用达到上限,Redis会根据选定的回收策略(参见:maxmemmory-policy)删除key。

#

# 若是由于删除策略问题Redis没法删除key,或者策略设置为 "noeviction",Redis会回复须要更多内存的错误信息给命令。

# 例如,SET,LPUSH等等。可是会继续合理响应只读命令,好比:GET。

#

# 在使用Redis做为LRU缓存,或者为实例设置了硬性内存限制的时候(使用 "noeviction" 策略)的时候,这个选项仍是满有用的。

#

# 警告:当一堆slave连上达到内存上限的实例的时候,响应slave须要的输出缓存所需内存不计算在使用内存当中。

# 这样当请求一个删除掉的key的时候就不会触发网络问题/从新同步的事件,而后slave就会收到一堆删除指令,直到数据库空了为止。

#

# 简而言之,若是你有slave连上一个master的话,那建议你把master内存限制设小点儿,确保有足够的系统内存用做输出缓存。

# (若是策略设置为"noeviction"的话就不无所谓了)

#

# maxmemory <bytes>

 

# 内存策略:若是达到内存限制了,Redis如何删除key。你能够在下面五个策略里面选:

#

# volatile-lru -> 根据LRU算法生成的过时时间来删除。

# allkeys-lru -> 根据LRU算法删除任何key。

# volatile-random -> 根据过时设置来随机删除key。

# allkeys->random -> 无差异随机删。

# volatile-ttl -> 根据最近过时时间来删除(辅以TTL)

# noeviction -> 谁也不删,直接在写操做时返回错误。

#

# 注意:对全部策略来讲,若是Redis找不到合适的能够删除的key都会在写操做时返回一个错误。

#

#       这里涉及的命令:set setnx setex append

#       incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd

#       sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby

#       zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby

#       getset mset msetnx exec sort

#

# 默认值以下:

#

# maxmemory-policy volatile-lru

 

# LRU和最小TTL算法的实现都不是很精确,可是很接近(为了省内存),因此你能够用样例作测试。

# 例如:默认Redis会检查三个key而后取最旧的那个,你能够经过下面的配置项来设置样本的个数。

#

# maxmemory-samples 3

 

############################## 纯累加模式 ###############################

 

# 默认状况下,Redis是异步的把数据导出到磁盘上。这种状况下,当Redis挂掉的时候,最新的数据就丢了。

# 若是不但愿丢掉任何一条数据的话就该用纯累加模式:一旦开启这个模式,Redis会把每次写入的数据在接收后都写入 appendonly.aof 文件。

# 每次启动时Redis都会把这个文件的数据读入内存里。

#

# 注意,异步导出的数据库文件和纯累加文件能够并存(你得把上面全部"save"设置都注释掉,关掉导出机制)。

# 若是纯累加模式开启了,那么Redis会在启动时载入日志文件而忽略导出的 dump.rdb 文件。

#

# 重要:查看 BGREWRITEAOF 来了解当累加日志文件太大了以后,怎么在后台从新处理这个日志文件。

 

appendonly no

 

# 纯累加文件名字(默认:"appendonly.aof")

# appendfilename appendonly.aof

 

# fsync() 请求操做系统立刻把数据写到磁盘上,不要再等了。

# 有些操做系统会真的把数据立刻刷到磁盘上;有些则要磨蹭一下,可是会尽快去作。

#

# Redis支持三种不一样的模式:

#

# no:不要马上刷,只有在操做系统须要刷的时候再刷。比较快。

# always:每次写操做都马上写入到aof文件。慢,可是最安全。

# everysec:每秒写一次。折衷方案。

#

# 默认的 "everysec" 一般来讲能在速度和数据安全性之间取得比较好的平衡。

# 若是你真的理解了这个意味着什么,那么设置"no"能够得到更好的性能表现(若是丢数据的话,则只能拿到一个不是很新的快照);

# 或者相反的,你选择 "always" 来牺牲速度确保数据安全、完整。

#

# 若是拿不许,就用 "everysec"

 

# appendfsync always

appendfsync everysec

# appendfsync no

 

# 若是AOF的同步策略设置成 "always" 或者 "everysec",那么后台的存储进程(后台存储或写入AOF日志)会产生不少磁盘I/O开销。

# 某些Linux的配置下会使Redis由于 fsync() 而阻塞好久。

# 注意,目前对这个状况尚未完美修正,甚至不一样线程的 fsync() 会阻塞咱们的 write(2) 请求。

#

# 为了缓解这个问题,能够用下面这个选项。它能够在 BGSAVE 或 BGREWRITEAOF 处理时阻止 fsync()。

#

# 这就意味着若是有子进程在进行保存操做,那么Redis就处于"不可同步"的状态。

# 这其实是说,在最差的状况下可能会丢掉30秒钟的日志数据。(默认Linux设定)

#

# 若是你有延迟的问题那就把这个设为 "yes",不然就保持 "no",这是保存持久数据的最安全的方式。

no-appendfsync-on-rewrite no

 

# 自动重写AOF文件

#

# 若是AOF日志文件大到指定百分比,Redis可以经过 BGREWRITEAOF 自动重写AOF日志文件。

#

# 工做原理:Redis记住上次重写时AOF日志的大小(或者重启后没有写操做的话,那就直接用此时的AOF文件),

#           基准尺寸和当前尺寸作比较。若是当前尺寸超过指定比例,就会触发重写操做。

#

# 你还须要指定被重写日志的最小尺寸,这样避免了达到约定百分比但尺寸仍然很小的状况还要重写。

#

# 指定百分比为0会禁用AOF自动重写特性。

 

auto-aof-rewrite-percentage 100

auto-aof-rewrite-min-size 64mb

 

################################## 慢查询日志 ###################################

 

# Redis慢查询日志能够记录超过指定时间的查询。运行时间不包括各类I/O时间。

# 例如:链接客户端,发送响应数据等。只计算命令运行的实际时间(这是惟一一种命令运行线程阻塞而没法同时为其余请求服务的场景)

#

# 你能够为慢查询日志配置两个参数:一个是超标时间,单位为微妙,记录超过个时间的命令。

# 另外一个是慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。

#

# 下面的时间单位是微秒,因此1000000就是1秒。注意,负数时间会禁用慢查询日志,而0则会强制记录全部命令。

slowlog-log-slower-than 10000

 

# 这个长度没有限制。只要有足够的内存就行。你能够经过 SLOWLOG RESET 来释放内存。(译者注:日志竟然是在内存里的Orz)

slowlog-max-len 128

 

################################ 虚拟内存 ###############################

 

### 警告!虚拟内存在Redis 2.4是反对的。

### 很是不鼓励使用虚拟内存!!

 

# 虚拟内存可使Redis在内存不够的状况下仍然能够将全部数据序列保存在内存里。

# 为了作到这一点,高频key会调到内存里,而低频key会转到交换文件里,就像操做系统使用内存页同样。

#

# 要使用虚拟内存,只要把 "vm-enabled" 设置为 "yes",并根据须要设置下面三个虚拟内存参数就能够了。

 

vm-enabled no

# vm-enabled yes

 

# 这是交换文件的路径。估计你猜到了,交换文件不能在多个Redis实例之间共享,因此确保每一个Redis实例使用一个独立交换文件。

#

# 最好的保存交换文件(被随机访问)的介质是固态硬盘(SSD)。

#

# *** 警告 *** 若是你使用共享主机,那么默认的交换文件放到 /tmp 下是不安全的。

# 建立一个Redis用户可写的目录,并配置Redis在这里建立交换文件。

vm-swap-file /tmp/redis.swap

 

# "vm-max-memory" 配置虚拟内存可用的最大内存容量。

# 若是交换文件还有空间的话,全部超标部分都会放到交换文件里。

#

# "vm-max-memory" 设置为0表示系统会用掉全部可用内存。

# 这默认值不咋地,只是把你能用的内存全用掉了,留点余量会更好。

# 例如,设置为剩余内存的60%-80%。

vm-max-memory 0

 

# Redis交换文件是分红多个数据页的。

# 一个可存储对象能够被保存在多个连续页里,可是一个数据页没法被多个对象共享。

# 因此,若是你的数据页太大,那么小对象就会浪费掉不少空间。

# 若是数据页过小,那用于存储的交换空间就会更少(假定你设置相同的数据页数量)

#

# 若是你使用不少小对象,建议分页尺寸为64或32个字节。

# 若是你使用不少大对象,那就用大一些的尺寸。

# 若是不肯定,那就用默认值 :)

vm-page-size 32

 

# 交换文件里数据页总数。

# 根据内存中分页表(已用/未用的数据页分布状况),磁盘上每8个数据页会消耗内存里1个字节。

#

# 交换区容量 = vm-page-size * vm-pages

#

# 根据默认的32字节的数据页尺寸和134217728的数据页数来算,Redis的数据页文件会占4GB,而内存里的分页表会消耗16MB内存。

#

# 为你的应验程序设置最小且够用的数字比较好,下面这个默认值在大多数状况下都是偏大的。

vm-pages 134217728

 

# 同时可运行的虚拟内存I/O线程数。

# 这些线程能够完成从交换文件进行数据读写的操做,也能够处理数据在内存与磁盘间的交互和编码/解码处理。

# 多一些线程能够必定程度上提升处理效率,虽然I/O操做自己依赖于物理设备的限制,不会由于更多的线程而提升单次读写操做的效率。

#

# 特殊值0会关闭线程级I/O,并会开启阻塞虚拟内存机制。

vm-max-threads 4

 

############################### 高级配置 ###############################

 

# 当有大量数据时,适合用哈希编码(须要更多的内存),元素数量上限不能超过给定限制。

# 你能够经过下面的选项来设定这些限制:

hash-max-zipmap-entries 512

hash-max-zipmap-value 64

 

# 与哈希相相似,数据元素较少的状况下,能够用另外一种方式来编码从而节省大量空间。

# 这种方式只有在符合下面限制的时候才能够用:

list-max-ziplist-entries 512

list-max-ziplist-value 64

 

# 还有这样一种特殊编码的状况:数据全是64位无符号整型数字构成的字符串。

# 下面这个配置项就是用来限制这种状况下使用这种编码的最大上限的。

set-max-intset-entries 512

 

# 与第1、第二种状况类似,有序序列也能够用一种特别的编码方式来处理,可节省大量空间。

# 这种编码只适合长度和元素都符合下面限制的有序序列:

zset-max-ziplist-entries 128

zset-max-ziplist-value 64

 

# 哈希刷新,每100个CPU毫秒会拿出1个毫秒来刷新Redis的主哈希表(顶级键值映射表)。

# redis所用的哈希表实现(见dict.c)采用延迟哈希刷新机制:你对一个哈希表操做越多,哈希刷新操做就越频繁;

# 反之,若是服务器很是不活跃那么也就是用点内存保存哈希表而已。

#

# 默认是每秒钟进行10次哈希表刷新,用来刷新字典,而后尽快释放内存。

#

# 建议:

# 若是你对延迟比较在乎的话就用 "activerehashing no",每一个请求延迟2毫秒不太好嘛。

# 若是你不太在乎延迟而但愿尽快释放内存的话就设置 "activerehashing yes"。

activerehashing yes

 

################################## 包含 ###################################

 

# 包含一个或多个其余配置文件。

# 这在你有标准配置模板可是每一个redis服务器又须要个性设置的时候颇有用。

# 包含文件特性容许你引人其余配置文件,因此好好利用吧。

#

# include /path/to/local.conf

# include /path/to/other.conf



来自于http://www.4byte.cn/learning/37582.html

相关文章
相关标签/搜索