redis 持久化

介绍

  1. 首先,咱们应该明确持久化的数据有什么用,答案是用于重启后的数据恢复。
  2. Redis是一个内存数据库,不管是RDB仍是AOF,都只是其保证数据恢复的措施。
  3. 因此Redis在利用RDB和AOF进行恢复的时候,都会读取RDB或AOF文件,从新加载到内存中。

Redis持久化的方式

  1. RDB
  2. AOF

RDB

  1. RDB就是Snapshot快照存储,是默认的持久化方式。
    可理解为半持久化模式,即按照必定的策略周期性的将数据保存到磁盘。
    对应产生的数据文件为dump.rdb,经过配置文件中的save参数来定义快照的周期。
  2. 下面是默认的快照设置:
    • save 900 1 #当有一条Keys数据被改变时,900秒刷新到Disk一次
    • save 300 10 #当有10条Keys数据被改变时,300秒刷新到Disk一次
    • save 60 10000#当有10000条Keys数据被改变时,60秒刷新到Disk一次

Redis的RDB文件不会坏掉,由于其写操做是在一个新进程中进行的。当生成一个新的RDB文件时,Redis生成的子进程会先将数据写到一个临时文件中,而后经过原子性rename系统调用将临时文件重命名为RDB文件。这样在任什么时候候出现故障,Redis的RDB文件都老是可用的。同时,Redis的RDB文件也是Redis主从同步内部实现中的一环。git

第一次Slave向Master同步的实现是:redis

  • Slave向Master发出同步请求,Master先dump出rdb文件,而后将rdb文件全量传输给slave,而后Master把缓存的命令转发给Slave,初次同步完成。

第二次以及之后的同步实现是:数据库

  • Master将变量的快照直接实时依次发送给各个Slave。但无论什么缘由致使Slave和Master断开重连都会重复以上两个步骤的过程。

Redis的主从复制是创建在内存快照的持久化基础上的,只要有Slave就必定会有内存快照发生。vim

能够很明显的看到,RDB有它的不足,就是一旦数据库出现问题,那么咱们的RDB文件中保存的数据并非全新的。api

从上次RDB文件生成到Redis停机这段时间的数据所有丢掉了。缓存

AOF

AOF(Append-Only File)比RDB方式有更好的持久化性。安全

因为在使用AOF持久化方式时,Redis会将每个收到的写命令都经过Write函数追加到文件中,相似于MySQL的binlog。bash

当Redis重启是会经过从新执行文件中保存的写命令来在内存中重建整个数据库的内容。服务器

对应的设置参数为:$ vim /opt/redis/etc/redis_6379.conf微信

  • appendonly yes 启用AOF持久化方式
  • appendfilename appendonly.aof #AOF文件的名称,默认为appendonly.aof
  • appendfsync always 每次收到写命令就当即强制写入磁盘,是最有保证的彻底的持久化,但速度也是最慢的,通常不推荐使用。
  • appendfsync everysec 每秒钟强制写入磁盘一次,在性能和持久化方面作了很好的折中,是受推荐的方式。
  • appendfsync no #彻底依赖OS的写入,通常为30秒左右一次,性能最好可是持久化最没有保证,不被推荐。

AOF的彻底持久化方式同时也带来了另外一个问题,持久化文件会变得愈来愈大。

好比咱们调用INCR test命令100次,文件中就必须保存所有的100条命令,但其实99条都是多余的。

由于要恢复数据库的状态其实文件中保存一条SET test 100就够了。

为了压缩AOF的持久化文件,Redis提供了bgrewriteaof命令。

收到此命令后Redis将使用与快照相似的方式将内存中的数据以命令的方式保存到临时文件中,最后替换原来的文件,以此来实现控制AOF文件的增加。

因为是模拟快照的过程,所以在重写AOF文件时并无读取旧的AOF文件,而是将整个内存中的数据库内容用命令的方式重写了一个新的AOF文件。

对应的设置参数为:$ vim /opt/redis/etc/redis_6379.conf

  • no-appendfsync-on-rewrite yes

在日志重写时,不进行命令追加操做,而只是将其放在缓冲区里,避免与命令的追加形成DISK IO上的冲突。auto-aof-rewrite-percentage 100

当前AOF文件大小是上第二天志重写获得AOF文件大小的二倍时,自动启动新的日志重写过程。auto-aof-rewrite-min-size 64mb #当前AOF文件启动新的日志重写过程的最小值,避免刚刚启动Reids时因为文件尺寸较小致使频繁的重写。

选择

到底选择什么呢?下面是来自官方的建议:

  • 一般,若是你要想提供很高的数据保障性,那么建议你同时使用两种持久化方式。
    若是你能够接受灾难带来的几分钟的数据丢失,那么你能够仅使用RDB。
    不少用户仅使用了AOF,可是咱们建议,既然RDB能够时不时的给数据作个完整的快照,而且提供更快的重启,因此最好仍是也使用RDB。
    所以,咱们但愿能够在将来(长远计划)统一AOF和RDB成一种持久化模式。

在数据恢复方面

RDB的启动时间会更短,缘由有两个:

  • 是RDB文件中每一条数据只有一条记录,不会像AOF日志那样可能有一条数据的屡次操做记录。因此每条数据只须要写一次就好了。
    另外一个缘由是RDB文件的存储格式和Redis数据在内存中的编码格式是一致的,不须要再进行数据编码工做,因此在CPU消耗上要远小于AOF日志的加载。
  • 灾难恢复模拟
    既然持久化的数据的做用是用于重启后的数据恢复,那么咱们就很是有必要进行一次这样的灾难恢复模拟了。
    据称若是数据要作持久化又想保证稳定性,则建议留空一半的物理内存。由于在进行快照的时候,fork出来进行dump操做的子进程会占用与父进程同样的内存,真正的copy-on-write,对性能的影响和内存的耗用都是比较大的。
    目前,一般的设计思路是利用Replication机制来弥补aof、snapshot性能上的不足,达到了数据可持久化。

即Master上Snapshot和AOF都不作,来保证Master的读写性能,而Slave上则同时开启Snapshot和AOF来进行持久化,保证数据的安全性。

  1. 首先,修改Master上的以下配置:
    • sudo vim /opt/redis/etc/redis_6379.conf
    • save 900 1 #禁用Snapshot
    • save 300 10
    • save 60 10000
* appendonly no #禁用AOF
2. 接着,修改Slave上的以下配置:
    * sudo vim /opt/redis/etc/redis_6379.conf
    * save 900 1 #启用Snapshot
    * save 300 10
    * save 60 10000复制代码

appendonly yes #启用AOF

appendfilename appendonly.aof #AOF文件的名称

appendfsync always

appendfsync everysec #每秒钟强制写入磁盘一次

appendfsync no

no-appendfsync-on-rewrite yes #在日志重写时,不进行命令追加操做

auto-aof-rewrite-percentage 100 #自动启动新的日志重写过程

auto-aof-rewrite-min-size 64mb #启动新的日志重写过程的最小值

分别启动Master与Slave

$ /etc/init.d/redis start

启动完成后在Master中确认未启动Snapshot参数

redis 127.0.0.1:6379> CONFIG GET save

1) "save"2) ""

而后经过如下脚本在Master中生成25万条数据:

dongguo@redis:/opt/redis/data/6379$ cat redis-cli-generate.temp.sh

#!/bin/bash复制代码
REDISCLI="redis-cli -a slavepass -n 1 SET"
    ID=1复制代码
while(($ID<50001))
    do
      INSTANCE_NAME="i-2-$ID-VM"
      UUID=`cat /proc/sys/kernel/random/uuid`
      PRIVATE_IP_ADDRESS=10.`echo "$RANDOM % 255 + 1" | bc`.`echo "$RANDOM % 255 + 1" | bc`.`echo "$RANDOM % 255 + 1" | bc`\
      CREATED=`date "+%Y-%m-%d %H:%M:%S"`复制代码
$REDISCLI vm_instance:$ID:instance_name "$INSTANCE_NAME"
      $REDISCLI vm_instance:$ID:uuid "$UUID"
      $REDISCLI vm_instance:$ID:private_ip_address "$PRIVATE_IP_ADDRESS"
      $REDISCLI vm_instance:$ID:created "$CREATED"复制代码
$REDISCLI vm_instance:$INSTANCE_NAME:id "$ID"复制代码
ID=$(($ID+1))
    done
dongguo@redis:/opt/redis/data/6379$ ./redis-cli-generate.temp.sh复制代码

在数据的生成过程当中,能够很清楚的看到Master上仅在第一次作Slave同步时建立了dump.rdb文件,以后就经过增量传输命令的方式给Slave了。dump.rdb文件没有再增大。

dongguo@redis:/opt/redis/data/6379$ ls -lh

total 4.0K

-rw-r--r-- 1 root root 10 Sep 27 00:40 dump.rdb

而Slave上则能够看到dump.rdb文件和AOF文件在不断的增大,而且AOF文件的增加速度明显大于dump.rdb文件。

dongguo@redis-slave:/opt/redis/data/6379$ ls -lh

total 24M

-rw-r--r-- 1 root root 15M Sep 27 12:06 appendonly.aof

-rw-r--r-- 1 root root 9.2M Sep 27 12:06 dump.rdb

等待数据插入完成之后,首先确认当前的数据量。

redis 127.0.0.1:6379> info

redis_version:2.4.17
        redis_git_sha1:00000000
        redis_git_dirty:0
        arch_bits:64
        multiplexing_api:epoll
        gcc_version:4.4.5
        process_id:27623
        run_id:e00757f7b2d6885fa9811540df9dfed39430b642
        uptime_in_seconds:1541
        uptime_in_days:0
        lru_clock:650187
        used_cpu_sys:69.28
        used_cpu_user:7.67
        used_cpu_sys_children:0.00
        used_cpu_user_children:0.00
        connected_clients:1
        connected_slaves:1
        client_longest_output_list:0
        client_biggest_input_buf:0
        blocked_clients:0
        used_memory:33055824
        used_memory_human:31.52M
        used_memory_rss:34717696
        used_memory_peak:33055800
        used_memory_peak_human:31.52M
        mem_fragmentation_ratio:1.05
        mem_allocator:jemalloc-3.0.0
        loading:0
        aof_enabled:0
        changes_since_last_save:250000
        bgsave_in_progress:0
        last_save_time:1348677645
        bgrewriteaof_in_progress:0
        total_connections_received:250007
        total_commands_processed:750019
        expired_keys:0
        evicted_keys:0
        keyspace_hits:0
        keyspace_misses:0
        pubsub_channels:0
        pubsub_patterns:0
        latest_fork_usec:246
        vm_enabled:0
        role:master
        slave0:10.6.1.144,6379,online
        db1:keys=250000,expires=0复制代码

当前的数据量为25万条key,占用内存31.52M。

而后咱们直接Kill掉Master的Redis进程,模拟灾难。

dongguo@redis:/opt/redis/data/6379$ sudo killall -9 redis-server

咱们到Slave中查看状态:

redis 127.0.0.1:6379> info

redis_version:2.4.17
    redis_git_sha1:00000000
    redis_git_dirty:0
    arch_bits:64
    multiplexing_api:epoll
    gcc_version:4.4.5
    process_id:13003
    run_id:9b8b398fc63a26d160bf58df90cf437acce1d364
    uptime_in_seconds:1627
    uptime_in_days:0
    lru_clock:654181
    used_cpu_sys:29.69
    used_cpu_user:1.21
    used_cpu_sys_children:1.70
    used_cpu_user_children:1.23
    connected_clients:1
    connected_slaves:0
    client_longest_output_list:0
    client_biggest_input_buf:0
    blocked_clients:0
    used_memory:33047696
    used_memory_human:31.52M
    used_memory_rss:34775040
    used_memory_peak:33064400
    used_memory_peak_human:31.53M
    mem_fragmentation_ratio:1.05
    mem_allocator:jemalloc-3.0.0
    loading:0
    aof_enabled:1
    changes_since_last_save:3308
    bgsave_in_progress:0
    last_save_time:1348718951
    bgrewriteaof_in_progress:0
    total_connections_received:4
    total_commands_processed:250308
    expired_keys:0
    evicted_keys:0
    keyspace_hits:0
    keyspace_misses:0
    pubsub_channels:0
    pubsub_patterns:0
    latest_fork_usec:694
    vm_enabled:0
    role:slave
    aof_current_size:17908619
    aof_base_size:16787337
    aof_pending_rewrite:0
    aof_buffer_length:0
    aof_pending_bio_fsync:0
    master_host:10.6.1.143
    master_port:6379
    master_link_status:down
    master_last_io_seconds_ago:-1
    master_sync_in_progress:0
    master_link_down_since_seconds:25
    slave_priority:100
    db1:keys=250000,expires=0复制代码

能够看到masterlinkstatus的状态已是down了,Master已经不可访问了。

而此时,Slave依然运行良好,而且保留有AOF与RDB文件。

下面咱们将经过Slave上保存好的AOF与RDB文件来恢复Master上的数据。

首先,将Slave上的同步状态取消,避免主库在未完成数据恢复前就重启,进而直接覆盖掉从库上的数据,致使全部的数据丢失。

redis 127.0.0.1:6379> SLAVEOF NO ONE

OK

确认一下已经没有了master相关的配置信息:

redis 127.0.0.1:6379> INFO

redis_version:2.4.17
    redis_git_sha1:00000000
    redis_git_dirty:0
    arch_bits:64
    multiplexing_api:epoll
    gcc_version:4.4.5
    process_id:13003
    run_id:9b8b398fc63a26d160bf58df90cf437acce1d364
    uptime_in_seconds:1961
    uptime_in_days:0
    lru_clock:654215
    used_cpu_sys:29.98
    used_cpu_user:1.22
    used_cpu_sys_children:1.76
    used_cpu_user_children:1.42
    connected_clients:1
    connected_slaves:0
    client_longest_output_list:0
    client_biggest_input_buf:0
    blocked_clients:0
    used_memory:33047696
    used_memory_human:31.52M
    used_memory_rss:34779136
    used_memory_peak:33064400
    used_memory_peak_human:31.53M
    mem_fragmentation_ratio:1.05
    mem_allocator:jemalloc-3.0.0
    loading:0
    aof_enabled:1
    changes_since_last_save:0
    bgsave_in_progress:0
    last_save_time:1348719252
    bgrewriteaof_in_progress:0
    total_connections_received:4
    total_commands_processed:250311
    expired_keys:0
    evicted_keys:0
    keyspace_hits:0
    keyspace_misses:0
    pubsub_channels:0
    pubsub_patterns:0
    latest_fork_usec:1119
    vm_enabled:0
    role:master
    aof_current_size:17908619
    aof_base_size:16787337
    aof_pending_rewrite:0
    aof_buffer_length:0
    aof_pending_bio_fsync:0
    db1:keys=250000,expires=0复制代码

在Slave上复制数据文件:

dongguo@redis-slave:/opt/redis/data/6379$ tar cvf /home/dongguo/data.tar *

appendonly.aof

dump.rdb

将data.tar上传到Master上,尝试恢复数据:

能够看到Master目录下有一个初始化Slave的数据文件,很小,将其删除。

dongguo@redis:/opt/redis/data/6379$ ls -l

total 4

-rw-r--r-- 1 root root 10 Sep 27 00:40 dump.rdb

dongguo@redis:/opt/redis/data/6379$ sudo rm -f dump.rdb

而后解压缩数据文件:

dongguo@redis:/opt/redis/data/6379$ sudo tar xf /home/dongguo/data.tar

dongguo@redis:/opt/redis/data/6379$ ls -lh

total 29M

-rw-r--r-- 1 root root 18M Sep 27 01:22 appendonly.aof

-rw-r--r-- 1 root root 12M Sep 27 01:22 dump.rdb

启动Master上的Redis;

dongguo@redis:/opt/redis/data/6379$ sudo /etc/init.d/redis start

Starting Redis server...

查看数据是否恢复:

redis 127.0.0.1:6379> INFO

redis_version:2.4.17
    redis_git_sha1:00000000
    redis_git_dirty:0
    arch_bits:64
    multiplexing_api:epoll
    gcc_version:4.4.5
    process_id:16959
    run_id:6e5ba6c053583414e75353b283597ea404494926
    uptime_in_seconds:22
    uptime_in_days:0
    lru_clock:650292
    used_cpu_sys:0.18
    used_cpu_user:0.20
    used_cpu_sys_children:0.00
    used_cpu_user_children:0.00
    connected_clients:1
    connected_slaves:0
    client_longest_output_list:0
    client_biggest_input_buf:0
    blocked_clients:0
    used_memory:33047216
    used_memory_human:31.52M
    used_memory_rss:34623488
    used_memory_peak:33047192
    used_memory_peak_human:31.52M
    mem_fragmentation_ratio:1.05
    mem_allocator:jemalloc-3.0.0
    loading:0
    aof_enabled:0
    changes_since_last_save:0
    bgsave_in_progress:0
    last_save_time:1348680180
    bgrewriteaof_in_progress:0
    total_connections_received:1
    total_commands_processed:1
    expired_keys:0
    evicted_keys:0
    keyspace_hits:0
    keyspace_misses:0
    pubsub_channels:0
    pubsub_patterns:0
    latest_fork_usec:0
    vm_enabled:0
    role:master
    db1:keys=250000,expires=0复制代码

能够看到25万条数据已经完整恢复到了Master上。

此时,能够放心的恢复Slave的同步设置了。

redis 127.0.0.1:6379> SLAVEOF 10.6.1.143 6379

OK

查看同步状态:

redis 127.0.0.1:6379> INFO

redis_version:2.4.17
    redis_git_sha1:00000000
    redis_git_dirty:0
    arch_bits:64
    multiplexing_api:epoll
    gcc_version:4.4.5
    process_id:13003
    run_id:9b8b398fc63a26d160bf58df90cf437acce1d364
    uptime_in_seconds:2652
    uptime_in_days:0
    lru_clock:654284
    used_cpu_sys:30.01
    used_cpu_user:2.12
    used_cpu_sys_children:1.76
    used_cpu_user_children:1.42
    connected_clients:2
    connected_slaves:0
    client_longest_output_list:0
    client_biggest_input_buf:0
    blocked_clients:0
    used_memory:33056288
    used_memory_human:31.52M
    used_memory_rss:34766848
    used_memory_peak:33064400
    used_memory_peak_human:31.53M
    mem_fragmentation_ratio:1.05
    mem_allocator:jemalloc-3.0.0
    loading:0
    aof_enabled:1
    changes_since_last_save:0
    bgsave_in_progress:0
    last_save_time:1348719252
    bgrewriteaof_in_progress:1
    total_connections_received:6
    total_commands_processed:250313
    expired_keys:0
    evicted_keys:0
    keyspace_hits:0
    keyspace_misses:0
    pubsub_channels:0
    pubsub_patterns:0
    latest_fork_usec:12217
    vm_enabled:0
    role:slave
    aof_current_size:17908619
    aof_base_size:16787337
    aof_pending_rewrite:0
    aof_buffer_length:0
    aof_pending_bio_fsync:0
    master_host:10.6.1.143
    master_port:6379
    master_link_status:up
    master_last_io_seconds_ago:0
    master_sync_in_progress:0
    slave_priority:100
    db1:keys=250000,expires=0复制代码

masterlinkstatus显示为up,同步状态正常。

在这次恢复的过程当中,咱们同时复制了AOF与RDB文件,那么究竟是哪个文件完成了数据的恢复呢?

实际上,当Redis服务器挂掉时,重启时将按照如下优先级恢复数据到内存:

  • 若是只配置AOF,重启时加载AOF文件恢复数据;
  • 若是同时 配置了RDB和AOF,启动是只加载AOF文件恢复数据;
  • 若是只配置RDB,启动是将加载dump文件恢复数据。

也就是说,AOF的优先级要高于RDB,这也很好理解,由于AOF自己对数据的完整性保障要高于RDB。

在这次的案例中,咱们经过在Slave上启用了AOF与RDB来保障了数据,并恢复了Master。

但在咱们目前的线上环境中,因为数据都设置有过时时间,采用AOF的方式会不太实用,过于频繁的写操做会使AOF文件增加到异常的庞大,大大超过了咱们实际的数据量,这也会致使在进行数据恢复时耗用大量的时间。所以,能够在Slave上仅开启Snapshot来进行本地化,同时能够考虑将save中的频率调高一些或者调用一个计划任务来进行按期bgsave的快照存储,来尽量的保障本地化数据的完整性。

在这样的架构下,若是仅仅是Master挂掉,Slave完整,数据恢复可达到100%。若是Master与Slave同时挂掉的话,数据的恢复也能够达到一个可接受的程度。

如但愿了解更多,请关注微信公众号
相关文章
相关标签/搜索