数据导出不彻底等于数据备份:java
- 数据导出是指将数据库中的数据逆向成SQL语句进行导出,因此导出的是SQL文件。一般用做把数据从一个系统迁移到另外一个系统,目的是屏蔽系统之间的差别性
- 数据备份是指将数据库中数据存储的相关文件进行拷贝,用于保存一个数据库的所有物理数据,因此备份后的数据与本来数据在细节及状态上都是彻底一致的。不会像SQL那样在使用了一些函数的状况下,可能会在不一样的时间点或不一样的系统上产生不同的结果
冷备份与热备份:node
- 冷备份:在数据库已经关闭的状况下,对数据的备份称做冷备份
- 热备份:与冷备份相反,在数据库节点不停机的状态下进行的备份被称做热备份
冷备份的限制:mysql
- 数据库必须停机备份,这对一些线上数据库是没法接受的
- 备份的数据文件很是占用存储空间,而且不支持增量备份
- 冷备份是备份全部的数据文件和日志文件,因此没法单独备份某个逻辑库和数据表
联机冷备份:spring
单节点的数据库在冷备份时须要停机,这就会对业务系统产生影响。为了解决这个问题,咱们能够组建集群而后挑选集群中的一个节点进行停机冷备份。因为集群中还有其余节点在运行,因此没必要担忧影响正在运行的系统。等备份结束以后再启动该节点,这样就能解决停机备份带来的影响sql
热备份的限制:shell
- 数据库在热备份的时候会全局加读锁,备份期间节点只能读取数据不能写入数据
联机热备份:数据库
一样的方式,为了不全局加锁,咱们能够挑选集群中的一个节点与其余节点解除数据同步关系后进行热备份。等待备份完成后,再去恢复与集群中其余节点的数据同步关系。这样在备份过程当中就只有该节点会加读锁,其余节点不会受到影响编程
联机热备份与联机冷备份该如何选择:bootstrap
建议选择联机热备份,由于热备份能够选择全量备份或增量备份。而冷备份只能选择全量备份,当后期数据量很大的时候,冷备份须要耗费不少的时间,而且因为是全量备份也须要占用更多的存储空间。热备份只有在第一次备份的时候须要选择全量备份,后续备份只须要增量备份新数据便可。 所以,热备份在存储空间的占用及备份耗费的时间上都优于冷备份vim
上一小节提到了数据备份是指将数据库中数据存储的相关文件进行拷贝,而这些文件有不少,因此让咱们来简单认识下MySQL中与数据相关的文件。
首先是组成逻辑库的文件,在MySQL中一个逻辑库实际由多个文件组成,其结构以下:
OPT
文件:定义字符集和字符集的排序规则,该文件是一个文本文件FRM
文件:这是数据表的定义文件,包含了数据表的结构信息。不管数据表使用的什么存储引擎,每个数据表的定义文件必定是FRM
文件ISL
文件:该文件只有建立了表分区才会出现,它存储着表分区数据文件所在的路径MYD
文件:MyISAM的数据文件MYI
文件:MyISAM的索引文件IBD
文件:InnoDB的索引及数据文件,该文件是一个二进制文件FRM
文件在不少状况下都会被用到,例如数据库在执行SQL语句以前,先会审查SQL语句中用到的一些字段是否在FRM
文件中定义了。或者数据库在优化SQL语句时,经过FRM
文件判断where
子句中的字段是不是主键列或索引列等。由于FRM
文件常常会被使用,因此该文件是一个二进制文件
MySQL中的其余文件:
auto.cnf
文件:该文件存储MySQL实例的UUID,即server-uuid
,在集群中能够做为节点的惟一标识grastate.dat
文件:该文件保存的是PXC的同步信息gvwstate.dat
文件:该文件保存的是PXC集群中其余节点的信息.pem
:该文件存储的是加解密用的证书和密钥信息.sock
:套接字文件,用于本地链接MySQL.err
:错误日志文件,MySQL全部错误信息都会保存在该文件中.pid
:MySQL进程id文件ib_buffer_pool
:InnoDB缓存文件ib_logfile
:InnoDB事务日志(redo)ibdata
:InnoDB共享表空间文件logbin
:日志文件(binlog)index
:日志索引文件ibtmp
:临时表空间文件数据文件中的碎片是什么:
MySQL的数据文件一直存在着碎片化问题,MySQL之因此不会自动整理碎片缩减数据文件的体积,是由于这个整理过程是会锁表的。若是每删除一条数据就锁表整理碎片,那么势必会对数据表的读写形成很大的影响。不过MySQL在写入新数据时,会优先将其写入碎片空间,因此数据文件中的碎片空间对平常运行没有什么影响。
可是对于数据库备份这个场景来讲,若是数据文件中存在着大量的碎片,就会致使实际有意义的数据没多少,而数据文件的体积又很大。这对备份来讲就很占用存储空间和传输带宽,因此在进行备份以前,须要对数据文件的碎片进行一个整理,尽可能缩减数据文件的体积。
MySQL中整理数据文件碎片的SQL语句以下:
alter table ${table_name} engine=InnoDB;
须要注意的是,在执行该SQL以前,记得先将用于备份的数据库节点的binlog给关掉。避免binlog中记录了该SQL,致使在节点备份完成恢复到集群后,其余节点同步了该SQL出现整个集群锁表的状况。因此须要注释掉MySQL配置文件中的如下两个参数,在备份完成后再打开:
# log_bin # log_slave_updates
在前面介绍了一些前置知识后,本小节就逐步演示一下如何实践联机冷备份。我这里事先准备了一个由三个节点组成的PXC集群:
首先挑选集群中的任意一个节点做为备份节点,而后中止该节点:
[root@PXC-Node3 ~]# systemctl stop mysqld
编辑配置文件,注释binlog相关参数:
[root@PXC-Node3 ~]# vim /etc/percona-xtradb-cluster.conf.d/mysqld.cnf [mysqld] ... #log-bin #log_slave_updates
而后注释PXC集群相关参数:
[root@PXC-Node3 ~]# vim /etc/percona-xtradb-cluster.conf.d/wsrep.cnf [mysqld] #wsrep_provider=/usr/lib64/galera3/libgalera_smm.so #wsrep_cluster_address=gcomm://192.168.190.132,192.168.190.133,192.168.190.134 #wsrep_slave_threads=8 #wsrep_log_conflicts #wsrep_cluster_name=pxc-cluster #wsrep_node_name=pxc-node-03 #pxc_strict_mode=DISABLED #wsrep_sst_method=xtrabackup-v2 #wsrep_node_address=192.168.190.134 #wsrep_sst_auth=admin:Abc_123456
修改完毕后,启动MySQL服务,此时该节点就退出了PXC集群:
[root@PXC-Node3 ~]# systemctl start mysqld
该节点的数据文件有1.1个G:
[root@PXC-Node3 ~]# du -h /var/lib/* |grep /var/lib/mysql$ 1.1G /var/lib/mysql [root@PXC-Node3 ~]#
本示例中是对test
库进行备份,因此在进行备份以前,须要对test
库下全部的表进行碎片整理。因为表比较多,我这里编写了一个简单的Java程序来实现:
import com.mysql.jdbc.Driver; import java.sql.*; import java.util.ArrayList; /** * 数据表碎片整理 * * @author 01 * @date 2020-01-25 **/ public class CleanFragments { public static void main(String[] args) throws SQLException { DriverManager.registerDriver(new Driver()); String url = "jdbc:mysql://192.168.190.134:3306/test?useSSL=false"; String username = "admin"; String password = "Abc_123456"; try (Connection connection = DriverManager.getConnection(url, username, password); PreparedStatement pst = connection.prepareStatement("show tables;")) { ResultSet resultSet = pst.executeQuery(); ArrayList<String> tableNames = new ArrayList<>(); while (resultSet.next()) { tableNames.add(resultSet.getString(1)); } for (String tableName : tableNames) { if ("t_range_1".equals(tableName)) { continue; } System.out.println("整理 " + tableName + " 表碎片..."); pst.execute("alter table " + tableName + " engine=InnoDB;"); } } System.out.println("整理完毕..."); } }
碎片整理完成后,中止MySQL服务,由于冷备份须要停机:
[root@PXC-Node3 ~]# systemctl stop mysqld
而后就能够开始备份了,其实备份的过程也很简单,没用到啥高大上的特殊技术,就是使用tar
命令将MySQL数据目录打成一个压缩包便可。例如我这里的数据目录是/var/lib/mysql
,因此执行的命令以下:
# 先进入到/var/lib/目录下 [root@PXC-Node3 ~]# cd /var/lib/ # 而后对数据目录进行打包,mysql.tar.gz是打包后的文件名,存放在/home目录下 [root@PXC-Node3 /var/lib]# tar -zcvf /home/mysql.tar.gz ./mysql
datadir
参数定义的若是建立了表分区,而且将表分区映射到了其余目录上,那么就还须要对表分区进行打包。例如我这里有两个表分区,分别映射到了/mnt/p0/data/
和/mnt/p1/data/
目录,因此执行的命令以下:
[root@PXC-Node3 ~]# cd /mnt/ [root@PXC-Node3 /mnt]# tar -zcvf /home/p0.tar.gz ./p0/data/ [root@PXC-Node3 /mnt]# tar -zcvf /home/p1.tar.gz ./p1/data/
到此备份完成后,恢复配置文件中所注释的配置项,而后重启节点让该节点从新加入到PXC集群中便可。因为没啥须要特殊说明的,因此这里就不演示了。
演示了如何冷备份后,接下来则演示如何将备份文件冷还原到其余的PXC节点上。首先将备份文件传输到须要还原的节点上,可使用scp
或rsync
命令在Linux系统之间传输文件,以下示例:
[root@PXC-Node3 /home]# scp ./mysql.tar.gz 192.168.190.133:/home/mysql.tar.gz [root@PXC-Node3 /home]# scp ./p0.tar.gz 192.168.190.133:/home/p0.tar.gz [root@PXC-Node3 /home]# scp ./p1.tar.gz 192.168.190.133:/home/p1.tar.gz
还原节点接收到的备份文件以下:
[root@PXC-Node2 ~]# cd /home/ [root@PXC-Node2 /home]# ls mysql.tar.gz p0.tar.gz p1.tar.gz [root@PXC-Node2 /home]#
除此以外还须要进行一些准备工做,由于备份节点是存在表分区的,而且映射了相应的数据目录,若还原节点不存在则须要建立。以下示例:
[root@PXC-Node2 ~]# mkdir /mnt/p0/ [root@PXC-Node2 ~]# mkdir /mnt/p1/
因为是冷还原,因此和冷备份同样也须要先中止还原节点:
[root@PXC-Node2 ~]# systemctl stop mysqld
还原MySQL的数据目录,命令以下:
# 先备份本来的数据目录,以防万一 [root@PXC-Node2 ~]# mv /var/lib/mysql /var/lib/mysql-backup # 将压缩文件解压到/var/lib/目录下 [root@PXC-Node2 /home]# tar -zxvf mysql.tar.gz -C /var/lib/
而后是还原表分区数据目录:
[root@PXC-Node2 /home]# tar -zxvf p0.tar.gz -C /mnt/ [root@PXC-Node2 /home]# tar -zxvf p1.tar.gz -C /mnt/
删除auto.cnf
文件,否则uuid重复的话,该节点是没法启动的:
[root@PXC-Node2 ~]# rm -rf /var/lib/mysql/auto.cnf
若是你是使用PXC集群中的首节点做为备份节点,那么就还须要将grastate.dat
文件中的safe_to_bootstrap
参数修改成0,普通节点则不须要。以下示例:
[root@PXC-Node2 ~]# vim /var/lib/mysql/grastate.dat ... safe_to_bootstrap: 0
到此就算是还原完成了,启动MySQL服务便可:
[root@PXC-Node2 ~]# systemctl start mysqld
剩下就是自行验证下该节点的数据是否正确还原了,可否与集群中其余节点进行数据同步等。以及最后清理掉以前备份的旧数据目录:
[root@PXC-Node2 ~]# rm -rf /var/lib/mysql-backup
冷备份的实际用途:
通过以上小节,如今咱们已经了解了冷备份和冷还原,从本节开始咱们来学习热备份。热备份是数据库运行的状态下备份数据,也是难度最大的备份。PXC集群常见的热备份有LVM和XtraBackup两种方案。
利用Linux的LVM技术来实现热备份,将MySQL的数据目录放到LVM逻辑卷上,而后经过LVM快照技术备份逻辑卷的内容。第一次备份是全量备份,以后的备份都是增量备份。在还原时,将快照中的数据目录恢复到ySQL的数据目录便可。
使用LVM这种技术不只能够备份MySQL还能够备份MongoDB等其余数据库,但使用LVM作热备份方案也比较麻烦,由于须要手动建立逻辑卷、迁移数据目录、建立快照以及给数据库加锁等等,因此LVM并非经常使用的热备份方案。
由于LVM的麻烦,因此人们都但愿使用专业的工具去作热备份,这个工具就是XtraBackup。XtraBackup是由Percona开源的免费数据库热备份工具,它能对InnoDB数据库和XtraDB存储引擎的数据库非阻塞地备份。由于XtraBackup在备份过程当中不会打断正在执行的事务,而事务日志中记录了哪些是备份前写入的数据哪些是备份后写入的数据,因此无需加锁。
另外,XtraBackup提供了对备份数据的压缩功能,能够节约备份文件占用的磁盘空间及网络带宽。但XtraBackup在备份使用MyISAM做为存储引擎的表时会加读锁,即表中的数据可读但不可写,不过这也不是问题,以前提到了可使用联机热备份的方式来解决加读锁的问题。一样,XtraBackup支持全量备份和增量备份,由于XtraBackup的方便性,因此通常都是采用XtraBackup来作热备份方案。
系统中一般会同时存在全量备份和增量备份,以防其中一个备份出了问题,还有另外一个备份可使用。因为全量热备份比较耗时,因此通常不会常常执行,会间隔一段时间才执行一次。例如,每月一号零点执行或每周一零点执行等。
在Linux中有一个crontab
命令,能够在固定的间隔时间执行指定的系统指令或shell脚本。使用crontab
命令结合shell脚本能够实现定时的全量热备份。
这里就举例演示一下,首先编写执行全量热备份的shell脚本以下:
[root@PXC-Node3 ~]# vim full-backup.sh #!/bin/bash time=`date "+%Y-%m-%d %H:%M:%S"` echo '执行全量热备份 '$time innobackupex --defaults-file=/etc/my.cnf --host=192.168.190.134 --user=admin --password=Abc_123456 --port=3306 --no-timestamp --stream=xbstream --encrypt=AES256 --encrypt-threads=10 --encrypt-chunk-size 512 --encrypt-key='1K!cNoq&RUfQsY&&LAczTjco' -> /home/backup/fullBackupOfMysql.xbstream
赋予该脚本执行权限:
[root@PXC-Node3 ~]# chmod -R 777 full-backup.sh
最后配置一下crontab
便可,例如我这里定义每周一零点执行,这样就实现了定时全量热备份:
[root@PXC-Node3 ~]# crontab -e # 每周一零点执行 0 0 * * 1 /root/full-backup.sh > /home/backup/full-backup.log 2>&1
上面介绍了全量热备份后,咱们来看下如何将XtraBackup备份的文件进行还原。在还原这块只能冷还原,不存在热还原,由于对一个正在运行中的数据库进行在线还原操做,而同时用户又在读写数据,这就有可能致使数据互相覆盖,使得数据库的数据发生错乱。
所以,还原这块就只能是冷还原,以前也介绍过冷还原,只不过使用XtraBackup进行冷还原会更加简单,没有还原冷备份时那么麻烦。
首先关闭MySQL服务:
[root@PXC-Node3 ~]# systemctl stop mysqld
清空数据目录及表分区的数据目录:
[root@PXC-Node3 ~]# rm -rf /var/lib/mysql/* [root@PXC-Node3 ~]# rm -rf /mnt/p0/data/* [root@PXC-Node3 ~]# rm -rf /mnt/p1/data/*
rm
删除了,若是是实际的运行环境,建议先使用mv
重命名须要删除的目录,最后还原完备份文件并验证没有问题后,再使用rm
删除,以免删库跑路的悲剧发生备份文件是通过压缩的,因此须要建立一个临时目录来存放解压后的文件:
[root@PXC-Node3 ~]# mkdir /home/backup/temp
而后使用xbstream
命令将备份文件解压至该目录下:
[root@PXC-Node3 ~]# xbstream -x < /home/backup/fullBackupOfMysql.xbstream -C /home/backup/temp/
由于备份文件时进行了加密,因此解压后的文件都是加密的,须要解密备份文件:
[root@PXC-Node3 ~]# innobackupex --decrypt=AES256 --encrypt-key='1K!cNoq\&RUfQsY\&\&LAczTjco' /home/backup/temp
&
是特殊字符,因此须要使用\
转义一下因为是热备份,因此事务日志中可能会存在一些未完成的事务,这就须要回滚没有提交的事务,以及同步已经提交的事务到数据文件。执行以下命令:
[root@PXC-Node3 ~]# innobackupex --apply-log /home/backup/temp
完成以上步骤后,就可使用如下命令对备份文件进行还原:
[root@PXC-Node3 ~]# innobackupex --defaults-file=/etc/my.cnf --copy-back /home/backup/temp
接着给还原后的目录文件赋予mysql
用户权限:
[root@PXC-Node3 ~]# chown -R mysql:mysql /var/lib/mysql/*
到此为止就完成了冷还原,最后启动MySQL服务并自行验证下数据是否正常便可:
[root@PXC-Node3 ~]# systemctl start mysqld
增量热备份必须以全量热备份为基础进行备份,因此在了解了XtraBackup的全量热备份和全量冷还原后,接下来就能够实践XtraBackup的增量热备份了。
注意事项:
以前演示冷还原的时候已经对全量备份的文件进行了解压缩和内容解密,因此这里以/home/backup/temp/
备份目录为例,增量热备份命令以下:
[root@PXC-Node3 ~]# innobackupex --defaults-file=/etc/my.cnf --host=192.168.190.134 --user=admin --password=Abc_123456 --port=3306 --incremental-basedir=/home/backup/temp/ --incremental /home/backup/increment
--incremental-basedir
:指定全量备份文件所存储的目录,即基于哪一个全量备份进行增量备份--incremental
:指定采用增量备份/home/backup/increment
:增量备份文件所存放的目录增量备份的文件目录以下:
[root@PXC-Node3 ~]# ls /home/backup/increment/ 2020-01-26_17-02-21 [root@PXC-Node3 ~]# ls /home/backup/increment/2020-01-26_17-32-41/ backup-my.cnf ibdata1.delta mysql sys tpcc xtrabackup_checkpoints xtrabackup_logfile ib_buffer_pool ibdata1.meta performance_schema test xtrabackup_binlog_info xtrabackup_info [root@PXC-Node3 ~]#
可使用du
命令对比一下全量热备份与增量热备份的目录大小:
[root@PXC-Node3 ~]# du -sh /home/backup/temp/ 1.6G /home/backup/temp/ # 全量热备份的目录大小 [root@PXC-Node3 ~]# du -sh /home/backup/increment/2020-01-26_17-32-41/ 92M /home/backup/increment/2020-01-26_17-32-41/ # 增量热备份的目录大小 [root@PXC-Node3 ~]#
以后的第二次增量备份就能够不基于全量备份,而是基于第一次的增量备份,以下示例:
[root@PXC-Node3 ~]# innobackupex --defaults-file=/etc/my.cnf --user=admin --password=Abc_123456 --incremental-basedir=/home/backup/increment/2020-01-26_17-32-41/ --incremental /home/backup/increment
若是增量备份时须要使用流式压缩和内容加密,则添加相关参数便可。以下示例:
[root@PXC-Node3 ~]# innobackupex --defaults-file=/etc/my.cnf --user=admin --password=Abc_123456 --incremental-basedir=/home/backup/increment/2020-01-26_17-32-41/ --incremental --stream=xbstream --encrypt=AES256 --encrypt-threads=10 --encrypt-chunk-size 512 --encrypt-key='1K!cNoq&RUfQsY&&LAczTjco' ./ > /home/backup/increment
./
表示将增量备份全部的内容都写到流式压缩文件里,压缩文件则存放在/home/backup/increment
目录下一般咱们会让增量热备份做为定时任务自动进行,从而避免人工定点去操做,以节省没必要要的工做量。在全量热备份时介绍了使用Linux的crontab
命令来实现shell脚本的定时执行,而一些主流的编程语言也都基本具有实现定时任务的框架或类库。
这里以Java为例,在Java的生态中,有Quartz和Spring框架能够实现定时任务,一样也是使用Cron表达式语法。但Java的Cron表达式能够精确到秒,这一点与Linux的Cron表达式有所不一样。
因为Quartz稍微复杂些,为了简单起见这里就以Spring为例。首先建立一个Spring Boot工程,pom.xml
中的依赖项以下:
<dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter</artifactId> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <optional>true</optional> </dependency> </dependencies>
在引导类上添加@EnableScheduling
注解,以开启定时调度功能:
@EnableScheduling @SpringBootApplication public class IncrementBackupApplication { ... }
在Linux上建立一个文件,用于记录每次增量热备份时基于哪一个目录去备份。例如在第一次增量热备份时是基于全量热备份的目录进行备份的,而在这以后的增量热备份则是基于上一次增量热备份的目录进行备份:
[root@PXC-Node3 ~]# echo '/home/backup/temp/' > /home/backup/increment-backup.cnf
而后编写实现定时执行增量热备份的Java类:
package com.example.incrementbackup.task; import lombok.extern.slf4j.Slf4j; import org.springframework.scheduling.annotation.Scheduled; import org.springframework.stereotype.Component; import java.io.*; import java.time.LocalDateTime; import java.time.format.DateTimeFormatter; /** * 增量热备份定时任务 * * @author 01 * @date 2020-01-26 **/ @Slf4j @Component public class IncrementBackupTask { /** * 每分钟执行一次增量热备份 * 固然实际状况不会设置这么短的间隔时间 */ @Scheduled(cron = "0 */1 * * * *") public void backup() { DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyy-MM-dd_HH_mm_ss"); String folderName = LocalDateTime.now().format(formatter); String configPath = "/home/backup/increment-backup.cnf"; try (FileReader fileReader = new FileReader(configPath); BufferedReader bufferedReader = new BufferedReader(fileReader)) { String basedir = bufferedReader.readLine(); String cmd = getCmd(basedir, folderName); log.info("开始进行增量热备份. 执行的命令:{}", cmd); // 执行增量热备份命令 Process process = Runtime.getRuntime().exec(cmd); // 等待命令执行完成 process.waitFor(); try (FileWriter fileWriter = new FileWriter(configPath); BufferedWriter bufferedWriter = new BufferedWriter(fileWriter)) { // 更新下次增量备份所使用的basedir路径 bufferedWriter.write("/home/backup/increment/" + folderName); log.info("增量热备份结束"); } } catch (IOException | InterruptedException e) { log.error("", e); } } /** * 拼装 innobackupex 命令参数 */ private String getCmd(String basedir, String folderName) { String cmd = "innobackupex --defaults-file=/etc/my.cnf " + "--user=admin --password=Abc_123456 " + "--incremental-basedir=%s --no-timestamp " + "--incremental /home/backup/increment/%s"; return String.format(cmd, basedir, folderName); } }
完成以上代码的编写后,使用maven
将项目打成jar包,而后将该jar包上传到Linux中,经过java -jar
命令执行。以下:
[root@PXC-Node3 ~]# java -jar increment-backup-0.0.1-SNAPSHOT.jar
执行过程当中输出的日志信息以下:
等待备份结束后,能够看到increment-backup.cnf
文件的内容也更新了:
[root@PXC-Node3 ~]# cat /home/backup/increment-backup.cnf /home/backup/increment/2020-01-26_21_06_00 [root@PXC-Node3 ~]#
生成的备份目录结构也是正常的:
[root@PXC-Node3 ~]# ls /home/backup/increment/2020-01-26_21_12_00 backup-my.cnf ibdata1.delta mysql sys tpcc xtrabackup_checkpoints xtrabackup_logfile ib_buffer_pool ibdata1.meta performance_schema test xtrabackup_binlog_info xtrabackup_info [root@PXC-Node3 ~]#
到此为止,咱们就使用Java语言实现了定时增量热备份数据库。之因此介绍如何使用编程语言来实现,是由于实际企业应用中,可能会有一些较为复杂或个性化的需求,单纯使用shell脚本是没法实现的。例如要求备份完成后发送邮件或短信通知相关人员,又或者要求能够在UI上控制定时执行的间隔时间等等。这种需求都得使用编程语言去定制化开发才能实现。
通过以上小节能够得知增量热备份仅备份新数据,而且生成的备份目录体积也要比全量热备份生成的目录体积要小不少。那么XtraBackup要如何将增量备份的数据还原到数据库呢?其实也很简单,就是先将增量热备份的数据与全量热备份的数据合并,而后基于合并后的备份数据去还原便可。
增量热备份能够有不少个备份点,由于除第一次增量热备份外,其他的增量热备份都是基于上一次增量热备份进行的。因此在还原的时候也能够选择任意一个备份点去还原,但事务日志的处理步骤与全量冷还原不同。
在以前演示全量冷还原的时候,有一个处理事务日志的步骤,一样增量冷还原也有这个步骤,可是有些差别。上面提到增量热备份是能够有多个备份点的,那么在还原某一个备份点时就须要处理该备份点及其以前备份点的事务日志,不然就会出现数据混乱的状况。以下图,有三个备份点:
例如,当还原“增量备份1”时,须要先处理其前一个备份点的事务日志,即图中的“全量热备份”。接着再处理“增量备份1”这个备份点的事务日志,而后合并“增量备份1”的数据到“全量热备份”中。这样才能保证多个备份点合并到全量备份点后的数据是一致的,最后还原“全量热备份”中的数据便可。
再例如,要还原的是“增量备份2”,那么就得先处理“全量热备份”,而后处理“增量备份1”,接着处理“增量备份2”,按从前日后的顺序依次将这三个备份点的事务日志都给处理了后,才能合并备份点的数据到全量备份中,最后还原“全量热备份”中的数据。其他则以此类推......
接下来实操一下增量冷还原,这里有三个与上图对应的备份点目录:
/home/backup/temp/ # 全量热备份 /home/backup/increment/2020-01-27_10-11-24/ # 增量备份1 /home/backup/increment/2020-01-27_10-15-11/ # 增量备份2
由于是冷还原,因此得先关闭MySQL服务:
[root@PXC-Node3 ~]# systemctl stop mysqld
在本例中要还原的是“增量备份2”这个备份点的数据,按照以前的说明,首先处理全量备份点的事务日志,执行以下命令:
[root@PXC-Node3 ~]# innobackupex --apply-log --redo-only /home/backup/temp/
--redo-only
:指定不回滚未提交的事务,由于下个备份点的事务日志里可能会提交该备份点未提交的事务。若是回滚了就会致使下个备份点没法正常提交而后处理“增量备份1”的事务日志,并将"增量备份1"的数据合并到全量备份点上:
[root@PXC-Node3 ~]# innobackupex --apply-log --redo-only /home/backup/temp/ --incremental-dir=/home/backup/increment/2020-01-27_10-11-24/
--incremental-dir
:指定要合并到全量备份的增量备份目录接着处理“增量备份2”的事务日志,并将"增量备份2"的数据合并到全量备份点上。因为只还原到“增量备份2”这个备份点,因此就不须要加上--redo-only
参数了,由于没有下个备份点了:
[root@PXC-Node3 ~]# innobackupex --apply-log /home/backup/temp/ --incremental-dir=/home/backup/increment/2020-01-27_10-15-11/
与全量冷还原同样,也需清空数据目录及表分区的数据目录:
[root@PXC-Node3 ~]# rm -rf /var/lib/mysql/* [root@PXC-Node3 ~]# rm -rf /mnt/p0/data/* [root@PXC-Node3 ~]# rm -rf /mnt/p1/data/*
完成以上步骤后,就可使用以下命令完成备份文件的还原了:
[root@PXC-Node3 ~]# innobackupex --defaults-file=/etc/my.cnf --copy-back /home/backup/temp/ # 注意这里指定的是全量备份点的目录
接着给还原后的目录文件赋予mysql
用户权限:
[root@PXC-Node3 ~]# chown -R mysql:mysql /var/lib/mysql/* [root@PXC-Node3 ~]# chown -R mysql:mysql /mnt/p0/data/* [root@PXC-Node3 ~]# chown -R mysql:mysql /mnt/p1/data/*
到此为止还原就完成了,最后启动MySQL服务并自行验证下数据是否正常便可:
[root@PXC-Node3 ~]# systemctl start mysqld