OpenStack虚拟机冷迁移与热迁移

 1、虚拟机迁移分析node

openstacvk虚拟机迁移分为冷迁移和热迁移两种方式。python

1.1冷迁移数据库

冷迁移(cold migration),也叫静态迁移。关闭电源的虚拟机进行迁移。经过冷迁移,能够选择将关联的磁盘从一个数据存储移动到另外一个数据存储。ubuntu

好处:虚拟机不须要位于共享存储器上,数据丢失率小。后端

缺点:须要关闭电源,业务中断。跨域

 

1.2热迁移:网络

热迁移(Live Migration),又叫动态迁移、实时迁移,即虚拟机保存/恢复,一般是将整个虚拟机的运行状态完整保存下来,同时能够快速的恢复到原有硬件平台甚至是不一样硬件平台上。恢复之后,虚拟机仍旧平滑运行,用户不会察觉到任何差别。tcp

好处:软件和硬件系统的维护升级,不会影响用户的关键服务,提升了服务的高可用性和 用户的满意度。测试

缺点:过程不可中断,操做复杂。ui

 

1.3虚拟机迁移的场景:

场景 1:物理机器硬件系统的维护,故障修复和升级(upgrade),但运行在这台物理机器上的虚拟机不能关机,由于用户重要的服务跑在上面。

场景 2:物理机器软件系统升级,打补丁(patch),为了避免影响上面跑的虚拟机,在升级和打补丁以前,须要把虚拟机迁移到别的物理机器上。

场景 3:一个物理机器上的负载过重,须要减小一些虚拟机来释放资源。

场景 4跨域环境下,有的域里有的物理机上的虚拟机太多,有的域里物理机上虚拟机太少,作一下资源平衡。

 

1.4虚拟机迁移中数据处理

虚拟机的迁移,就是数据的转移,若是计算节点之间没有共享存储,因此要转移的数据包括两部分:

一、静态数据:存储在本地的虚拟机的镜像文件,包括后端镜像(libvirt Base)和虚拟机单独的增量镜像文件(libvirt instance disks)

二、动态数据:内存里虚拟机的运行时数据,内存里的数据是动态变化的数据,虚拟机里运行的负载的大小直接影响迁移的时间长短。

 

1.5虚拟机迁移中存储

共享存储与非共享存储

虚拟机的数据存在共享磁盘上(Shared storage-based live migration),迁移只须要完成内存数据的迁移。

 

虚拟机的数据存在本地磁盘(block migration),须要对镜像文件和内存数据同时迁移。

 

注意:本文使用的系统是ubuntu18.04,OpenStack版本是Pike。其余系统略有出入

 

2、冷迁移

冷迁移实现方法有多种,例若有快照来迁移实例、实例文件迁移。以文件迁移为例,完成冷迁移。

2.1虚拟机文件冷迁移步骤:

一、关闭虚拟机

二、找到虚拟机位于/var/lib/nova/instances下文件

三、将虚拟机的文件所有copy到目标主机的相同位置下

四、修改用户组

五、更新数据库中host,node字段为目标主机的名字

六、重启目标主机的nova-compute服务

 

2.2操做记录

显示运行的虚机

 

关闭虚机

 

将文件copy到目标主机的对应位置下

 

 

修改权限

  

 

修改数据库中的字段

update instances set host='compute15', node='compute15' where uuid='3483d9f1-4015-48d9-9837-b67ca82dd54d';

 

 

查询虚机所在的主机

 

启动虚机

 

3、热迁移

热迁移是在不停机的状况下完成迁移,步骤比起冷迁移要复杂。

 

3.1热迁移步骤:

一、迁移前的条件检查

二、迁移前的预处理

三、迁移过程

四、迁移后的处理

 

3.1.1迁移前的条件检查

动态迁移要成功执行,一些条件必须知足,因此在执行迁移前必须作一些条件检查。

一、权限检查,执行迁移的用户是否有足够的权限执行动态迁移。

二、参数检查,传递给 API 的参数是否足够和正确,如是否指定了 block-migrate 参数。

三、检查目标物理主机是否存在。

四、检查被迁移的虚拟机是不是 running 状态。

五、检查源和目的物理主机上的 nova-compute service 是否正常运行。

六、检查目的物理主机和源物理主机是不是同一台机器。

七、检查目的物理主机是否有足够的内存(memory)

八、检查目的和源物理主机器 hypervisor hypervisor 的版本是否相同。

 

3.1.2迁移前的预处理

在真正执行迁移前,作一些准备工做

一、在目的物理主机上得到和准备虚拟机挂载的块设备(volume)

二、在目的物理主机上设置虚拟机的网络(networks)

三、目的物理主机上设置虚拟机的防火墙(fireware)

 

3.1.3迁移过程

条件知足而且作完了预处理工做后,就能够执行动态迁移了。主要步骤以下:

一、调用 libvirt python 接口 migrateToURI,来把源主机迁移到目的主机。

二、以必定的时间间隔(0.5)循环调用 wait_for_live_migration 方法,来检测虚拟机迁移 的状态,一直到虚拟机成功迁移为止。

 

3.1.4迁移后的处理

当虚拟机迁移完成后,要作一些善后工做。

一、在源物理主机上 detach volume

二、在源物理主机上释放 security group ingress rule

三、在目的物理主机上更新数据库里虚拟机的状态。

四、在源物理主机上删除虚拟机。

上面四步正常完成后,虚拟机就成功的从源物理主机成功地迁移到了目的物理主机了。

 

3.2热迁移配置:

热迁移须要libvirt远程登陆和传输,因此开启libvirtTCP链接方式

virsh -c qemu+tcp://172.171.8.14/system

例如:qemu+tcp://172.16.0.15/system,服务端只须要配置

 

修改/etc/libvirt/libvirtd.conf:

listen_tls = 0          listen_tcp = 1          tcp_port = "16509"       listen_addr = "0.0.0.0" auth_tcp = "none"

 

  

 修改libvirtd的配置文件/etc/default/libvirtd:

# Start libvirtd to handle qemu/kvm: start_libvirtd="yes" # options passed to libvirtd, add "-l" to listen on tcp libvirtd_opts="-d -l --config /etc/libvirt/libvirtd.conf"

 

 

以上修改后,执行

service libvirt-bin restart netstat -anpt | grep libvirt

 

能够看到libvirtd监听在TCP 16509端口。

 

配置nova.conf

计算节点的/etc/nova/nova.conf文件中添加以下的内容,使得compute服务支持热迁移。

live_migration_flag=VIR_MIGRATE_UNDEFINE_SOURCE,VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE

 

重启nova-compute

service nova-compute restart

 

修改用户组

查看目标主机的用户组信息

id nova

 

 修改全部计算节点为相同的用户组id

usermod -u *** nova usermod -u *** libvirt-qemu groupmod -g *** nova groupmod -g *** kvm

  

openstack迁移命令

查看全部实例

nova list

 

查看须要迁移虚拟机实例

nova show [实例id]

 

查看可用的计算节点

nova-manage service list

  

查看目标节点资源

nova-manage service describe_resource computer1

 

开始迁移,正常无任何回显

nova live-migration  [实例id]  [计算节点] 

 

3.3操做记录

查看虚拟机

 

 

查看虚拟机所在计算节点

 

 

迁移

 

 

查看迁移后的虚拟机所在节点

 

 

在迁移过程当中,dashboard中会出现正在迁移的任务

 

3.4 大型镜像测试

OpenLab平台镜像迁移

建立虚拟机,镜像是ubuntu1.8G

 

 

迁移以前ubuntu所在的主机为compute14

 

 

迁移中 

 

迁移以后ubuntu所在的主机为compute15

 

 

运行测试

建立虚拟机ubuntu_two,所在主机为compute14

 

迁移以前的界面

 

迁移过程

 

  

迁移以后的虚拟机所在的主机为compute15

 

 

迁移过程很快,2min左右,迁移以后界面仍然是以前的界面

 

相关文章
相关标签/搜索