1 快照的概念
通常对快照的理解就是可以将系统还原到某个瞬间,这就是快照的做用。
快照针对要保存的数据分为内存快照和磁盘快照,内存快照就是保存当前内存的数据,磁盘快照就是保存硬盘的数据。
快照针对保存方式又分为内部快照和外部快照。
内部快照:是指快照信息和虚拟机存在同一个qcow2镜像中,使用单个的 qcow2 的文件来保存快照和快照以后的改动。这种快照是 libvirt 的默认行为,如今的支持很完善(建立、回滚和删除),可是只能针对 qcow2 格式的磁盘镜像文件,并且其过程较慢等。
外部快照:是指作快照时原虚拟机的disk将变为readonly的模板镜像,而后会新建一个qcow2文件来记录与原模板镜像的差别数据,外部快照的结果是造成一个qcow2文件链:original <- snap1 <- snap2 <- snap3api
2 主流libvirt快照实现介绍工具
2.1 libvirt的内部快照操做
如下是利用libvirt的virsh工具来建立一些内置快照:
建立虚拟机快照:spa
virsh snapshot-create-as --name test001 --description 'abc' instance-00000001
列出虚拟机的快照:3d
virsh snapshot-list instance-00000001
查看某个快照信息:rest
virsh snapshot-dumpxml instance-00000001 test001
回滚到某个快照:code
virsh snapshot-revert instance-00000001 test001
删除某个快照:xml
virsh snapshot-delete instance-00000001 test001
其实这些其实现的本质是在镜像内作一些标记,内存状态数据则保存到某一个磁盘镜像文件内,使用如下命令能够看到在该镜像作的标记:blog
qemu-img info /var/lib/nova/instances/87985777-f83d-4fff-9723-025c2b889895/disk
2.2 libvirt的外部快照操做
可使用 “--memspec” 和 “--diskspec” 参数来给内存和磁盘外部快照。这时候,在获取内存状态以前须要 Pause 虚机,就会产生服务的 downtime。
好比:virsh snapshot-create-as instance-00000001 livesnap2 --memspec /home/livesnap2mem,snapshot=external --diskspec vda,snapshot=external
virsh snapshot-dumpxml instance-00000001 livesnap2能够看到具体外置存放位置信息
可是libvirt如今还不支持回滚和删除外置快照,以下
virsh snapshot-revert instance-00000001 livesnap2
error: unsupported configuration: revert to external snapshot not supported yet接口
3 OpenStack原生虚拟机快照和备份
OpenStack中对虚拟机的快照实际上是生成一个完整的镜像,保存在glance服务中,而且能够利用这个快照镜像生成新的虚拟机,与本来的虚拟机并无什么关系。而比较主流的快照实现应该是有快照链的,且包含内存快照和磁盘快照。
OpenStack中的备份其实跟快照没啥区别,调用的都是同一个生成镜像的接口,更多的备份是cinder对磁盘的备份,没有对整个虚拟机进行备份的接口。ip
4 使用ceph实现OpenStack虚拟机快照功能
(1)首先是配置OpenStack的存储环境是Ceph存储,由于咱们要借助ceph的一些特性来实现快照
(2)从上面咱们能够知道作快照,主要是对磁盘作快照和对内存数据进行保存,若是是ceph环境,那么OpenStack虚拟机的根磁盘和磁盘在ceph下就是一个块设备,好比根磁盘通常就是保存在vms池中,其路径是vms/<instance_id>_disk,而磁盘通常就是保存在volumes池中,其路径是volumes/volume-<volume_id>;对于块设备,ceph可使用rbd命令来对块设备作快照,好比咱们对虚拟机根磁盘作快照:
rbd snap create vms/<instance_id>_disk@<snapshot_name>
snapshot_name是快照名
回滚时则执行:
rbd snap rollback vms/<instance_id>_disk@<snapshot_name>
这其实能够理解为是块设备的内部快照方式
(3)对于内存数据,咱们可使用libvirt的save接口将内存状态数据保存到一个文件中,为了保存到块设备中,咱们能够这样作:
<1>新建一个块设备(这里假设在snapshots池中建立1G大小的名为test的块设备):
rbd create --size 1024 snapshos/test
<2>将块设备map到物理主机中
rbd map snapshos/test
/dev/rbd0
能够看到会输出一个磁盘设备符,使用lsblk命令则能看到该设备
<3>格式化该设备并挂载到某个目录下
mkfs.xfs /dev/rbd0 mkdir test_dir mount /dev/rbd0 test_dir
而后咱们就能够向save接口传入test_dir目录下的一个文件名,其会将内存状态数据保存到该文件中,接着umount掉该块设备:
umount -f /dev/rbd0 rbd unmap /dev/rbd0
这样内存数据也同样保存到块设备中了,要使用时再挂载该块设备访问便可,回滚内存对应的是向libvirt的restore接口传入该内存数据文件
注意点:
(1)libvirt的save接口调用保存完内存状态数据后,虚拟机会关闭,这时能够执行restore接口虚拟机回滚回去
(2)回滚虚拟机时,先将该虚拟机的vm_state状态置为ACTIVE,不然回滚会不成功
5 使用ceph实现OpenStack虚拟机增量备份功能
这里说两个备份名词,全量备份和增量备份。
全量备份:保存的是整个虚拟机的完整的数据
增量备份:保存的只是跟上一次相比有改动的数据
须要先作一次全量备份后,后续才能作增量备份
5.1 建立备份
这里以虚拟机的根磁盘 vms/<instance_id>_disk为例子作增量备份的操做演示:
(1)作一次全量备份
先对该块设备作一次快照:
rbd snap create vms/<instance_id>_disk@time1
而后导出差别数据:
rbd export-diff vms/<instance_id>_disk@time1 time1_diff_file
(2)再作一次增量备份
先对该块设备作一次快照:
rbd snap create vms/<instance_id>_disk@time2
导出time1到time2之间这段时间该磁盘的差别数据:
rbd export-diff vms/<instance_id>_disk@time2 --from-snap vms/<instance_id>_disk@time1 time2_diff_file
5.2 恢复备份
(1)若是该磁盘还存在,则直接用rbd snap rollback回滚就能够了,好比要回滚到time1这个时间点:
rbd snap rollback vms/<instance_id>_disk@time1
(2)该磁盘已经被删掉了,要恢复该磁盘到time2的时间点:
<1>建立一个块设备(大小跟删除的那块同样大小,这里以1G为例子)
rbd create --size 1024 vms/restore_disk
<2>导入差别数据,注意这里的导入顺序,先恢复到time1,再恢复到time2
rbd import-diff time1_diff_file vms/restore_disk rbd import-diff time2_diff_file vms/restore_disk
这时这块块设备就恢复回time2的状态了
友情经验点:
(1)上面的操做都是本身建立一个块设备而后进行回滚,那怎么把这块给到OpenStack的虚拟机使用呢?在OpenStack中添加一个磁盘是先调用api.cinder.volume_create接口建立一个卷,而后调用api.nova.instance_volume_attach将该卷链接到虚拟机中,其实咱们只要将它建立的块设备替换成咱们的就能够了,好比它生成的是volumes/volume-123,咱们本身回滚好的是volumes/restore_disk,则先删掉它的块设备,而后重命名咱们的块设备:
rbd rm volumes/volume-123 rbd rename volumes/restore_disk volumes/volume-123
(2)同理,若是咱们要从备份文件中恢复到一个新的虚拟机,那么就先建立一个虚拟机,而后将它的根磁盘替换为咱们恢复过数据的根磁盘,而后接着是替换硬盘,这样咱们便从备份文件中恢复到一个新的虚拟机了