KVM 全称 Kernel-Based Virtual Machine。也就是说 KVM 是基于 Linux 内核实现的,这就使得linux内核自己就至关于一个Hypervisor。html
Hypervisor是一种运行在物理服务器和操做系统之间的中间软件层,可容许多个操做系统和应用共享一套基础物理硬件,所以也能够看做是虚拟环境中的“元”操做系统,它能够协调访问服务器上的全部物理设备和虚拟机,也叫虚拟机监视器(Virtual Machine Monitor),即vmm。主要功能就是用来控制生成vm,并管理多个vm的运行,不一样的vm中能够安装不一样的操做系统,这些操做系统共用一台硬件主机,linux
由于直接使用linux内核的调度器进行管理,因此比xen的代码少不少api
虚拟化是云计算的基础之一,而不管是在部署,仍是在研发、测试方面,kvm都是排在第一位的Hypervisor(即vmm,虚拟机监视器)。安全
kvm以高性能,可扩展性、高安全性,以及低成本而深受用户喜好,这一切也与他基于linux内核实现有关。服务器
kvm用一个个进程来运行虚拟机。网络
按照Hypervisor的实现方式和位置不一样,常见的形式分两种。(详细见虚拟化介绍)数据结构
物理机上首先安装常规的操做系统( Redhat、Ubuntu 和 Centos等),而后在操做系统上安装kvm,kvm即Hypervisor,它会 做为 OS 上的一个程序模块运行,并对管理虚拟机进行管理。除此以外:VirtualBox 和 VMWare Workstation 都属于这个类型。架构
Hypervisor 直接安装在物理机上,多个虚拟机在 Hypervisor 上运行。Hypervisor 实现方式通常是一个特殊定制的 Linux 系统。Xen 和 VMWare 的 ESXi 都属于这个类型。ssh
openstack能够兼容不少虚拟化解决方案,其中最主要的就是针对x86平台的kvm。函数
KVM 全称 Kernel-Based Virtual Machine。也就是说 KVM 是基于 Linux 内核实现的,这就使得linux内核自己就至关于一个Hypervisor。
基于kvm建立的vm就是一个普通的linux进程,由linux内核调度程序进行调度,vm所以可使用linux内核已有的功能。vm的执行本质就是vm中cpu的执行,所以vm的每一个cpu就是普通的linux进程。
KVM有一个内核模块叫 kvm.ko,只提供 CPU 和内存的虚拟化,而针对于IO及其余硬件设备(网络及存储等)的虚拟化,则是交给qemu实现,qemu运行在用户态经过/dev/kvm接口设置一个客户机虚拟机服务器的地址空间,向kvm提供模拟的I/O,而且将它的视频显示映射回宿主的显示屏。
其实qemu自己就是一种虚拟化技术,它与kvm的区别以下:
kqemu是经过kqemu模块实现内核态的加速,在用户态的qemu经过访问/dev/kqemu设备文件接口调用改进加速。不过,此类模式主要针对Guest os与Host os属于统一cpu架构(好比都是x86的架构)。一个明显的缺点是性能低下。
具体的,KVM并不能算是一个完整的虚拟化解决方案,kvm只是Linux标准内核加载了一个听说有几万行代码的模块kvm.ko。也就是说KVM仅能够在VT技术的基础上,提供虚拟的处理器和虚拟内存,至于IO硬件的模仿都交给qemu去作。
(1)标准的Linux内核中加入KVM的模块kvm.ko变身成为一个VMM(VMM Virtual MachineMonitor)
(2)在原有的用户模式(工做在ring3)和内核模式(工做在ring0)两种模式的基础上增长了新的客户模式。客户模式存在的特权级别与ring0-3正交。(也就是说客户模式也存在4个特权级别)
(3)用户建立虚拟机,经过调用用户模式的qemu程序,qemu与kvm提供的libkvm库为接口,传递建立指令。
(4)打开/dev/kvm文件并得到文件描述符fd后,经过ioctl指令写入KVM_CREATE_KVM,便可建立一个虚拟机,并返回一个fd_vm的虚拟机文件描述符。
(5)得到fd_vm后,经过ioctl调用KVM_CREATE_VCPU指令,能够对fd_vm所对应的虚拟机建立vCPU,并对vCPU作初始化操做。
(6)而后经过KVM_RUN指令对fd_vcpus操做,启动运行虚拟机。
1)Guest OS(此处vm1的linux os):客户机系统,包括CPU(vCPU)、内存、驱动(Console、网卡、I/O 设备驱动等),被 KVM 置于一种受限制的 CPU 模式下运行。
2)KVM:运行在内核空间,提供CPU 和内存的虚级化,以及客户机的 I/O 拦截。Guest 的 I/O 被 KVM 拦截后,交给 QEMU 处理。
3)QEMU:修改过的为 KVM 虚机使用的 QEMU 代码,运行在用户空间,提供硬件 I/O 虚拟化,经过 IOCTL /dev/kvm 设备和 KVM 交互。
其实 QEMU 本来不是 KVM 的一部分,它本身就是一个纯软件实现的虚拟化系统,因此其性能低下。可是,QEMU 代码中包含整套的虚拟机实现,包括处理器虚拟化,内存虚拟化,以及 KVM须要使用到的虚拟设备模拟(网卡、显卡、存储控制器和硬盘等)。
为了简化代码,KVM 在 QEMU 的基础上作了修改。VM 运行期间,QEMU 会经过 KVM 模块提供的系统调用进入内核,由 KVM 负责将虚拟机置于处理的特殊模式运行。遇到虚机进行 I/O 操做,KVM 会从上次的系统调用出口处返回 QEMU,由 QEMU 来负责解析和模拟这些设备。
从 QEMU 的角度看,也能够说是 QEMU 使用了 KVM 模块的虚拟化功能,为本身的虚机提供了硬件虚拟化加速。除此之外,虚机的配置和建立、虚机运行说依赖的虚拟设备、虚机运行时的用户环境和交互,以及一些虚机的特定技术好比动态迁移,都是 QEMU 本身实现的。
KVM 内核模块在运行时按需加载进入内核空间运行。KVM 自己不执行任何设备模拟,须要 QEMU 经过 /dev/kvm 接口设置一个 GUEST OS 的地址空间,向它提供模拟的 I/O 设备,并将它的视频显示映射回宿主机的显示屏。它是KVM 虚机的核心部分,其主要功能是初始化 CPU 硬件,打开虚拟化模式,而后将虚拟客户机运行在虚拟机模式下,并对虚机的运行提供必定的支持。以在 Intel 上运行为例,KVM 模块被加载的时候,它:
Libvirt:简单说就是 KVM 的管理工具。而且Libvirt 除了能管理 KVM 这种 Hypervisor,还能同时管理 vmware,XEN,Hyper-v, LXC,QEMU 等多种Hypervisor。
Libvirt 本质就是一组API,一般部署完libvirt后,都会包含 3 样东西:一个API 库,一个后台守护进程libvirtd和一个命令行工具virsh。
libvirt期初是专门为Xen设计的一种管理API,后来被扩展为可支持多个VMM,libvirt以一组API的形式存在,负责与每一个vmm通讯,完成API请求
左图是没有引入libvirt时,一台机器只能运行一个Hypervisor/vmm,右图是引入了libvirt时,一台机器能够同时运行多个Hypervisor/vmm,此时须要注意的是,libvirt把物理主机称做节点,将来宾操做系统(guest os)称为域Domain,而libvirt及其应用程序在宿主机Domain 0中运行。
libvirt 已经为表 1 所列举出来的的虚拟机监控程序实现了驱动程序。随着新的虚拟机监控程序在开源社区出现,其余驱动程序无疑也将可用。
启动、中止、暂停、保存、恢复和迁移。支持多种涉笔类型的热插拔,如磁盘、网卡、内存和cpu。
见图2,只要在一台主机上运行libvirtd守护进程,全部的libvirt功能就均可以访问和使用。支持多种网络远程传播,使用最简单的SSH,不须要额外的配置工做,好比example.com物理机运行了libvirtd,并且容许SSH访问,下面命令就能够在远程的主机上使用virsh命令:virsh -connect qemu+ssh://root@example.com/system
任何运行了libvirtd的主机均可以用来管理不一样类型的存储,如建立不一样格式的文件映像(qcow2,vmdk,raw等),挂接NFS共享、列出现有的LVM卷组、建立新的LVM卷组和逻辑卷、对未处理过的磁盘设备分区、挂在iSCSI共享等等,由于libvirt能够远程工做,全部这些均可以经过远程主机来使用。
任何运行了libvirtd的主机均可用来管理物理和逻辑的网络接口,能够列出现有的接口、配置参数、桥接、VLAN和关联设备等,也能够建立新的网络接口。
任何运行了libvirtd的主机均可以用来管理和建立虚拟网络。libvirt虚拟网络使用防火墙规则做为路由器,让虚拟机能够透明访问主机的网络。
ps:libvirt使用 C 语言编写,能够由 Python,Ruby, Perl, PHP, Java 等语言调用,OpenStack 底层也使用 libvirt。更详细见:Libvirt 虚拟化库剖析
除此以外还包含下列工具:
virt-v2v:虚机格式迁移工具
virt-* 工具:包括 virt-install(建立KVM虚机的命令行工具),virt-viewer(链接到虚机屏幕的工具),virt-clone(虚机克隆工具),virt-top 等
sVirt:安全工具
https://www.cnblogs.com/linhaifeng/p/6411174.html