Xen,VMwareESXi,Hyper-V和KVM等虚拟化技术的原理解析XEN与VMwareESXi,Hyper-V以及KVM特点比较:XEN有简化虚拟模式,不需要设备驱动,能够保证每个虚拟用户系统相互独立,依赖于servicedomains来完成一些功能;VmwareESXI与XEN比较类似,包含设备驱动以及管理栈等基本要素,硬件支持依赖于VMware创建的驱动;Hyper-V是基于XEN管理栈的修改;KVM与XEN方式不同,KVM是以Linux内核作为管理工具得。虚拟机的体系结构XEN体系结构图3.XEN体系结构图一个XEN虚拟机环境主要由以下几部分组成:XENHypervisor;Domain0——DomainManagementandControl(XENDM&C);DomainUGuest(DomU)下图4显示除了各部分之间的关系:图4.Xen三部分组成之间关系图XENHypervisor:XENHypervisor是介于操作系统和硬件之间的一个软件描述层。它负责在各个虚拟机之间进行CPU调度和内存分配。XENHypervisor不仅抽象出虚拟机的硬件,同时还控制着各个虚拟机的执行。XENHypervisor不会处理网络、存储设备、视频以及其他I/O.Domain0:Domain0是一个修改过的Linuxkernel,是唯一运行在XenHypervisor之上的虚拟机,它拥有访问物理I/O资源的权限,同时和系统上运行的其他虚拟机进行交互。Domain0需要在其它Domain启动之前启动。DomainU:运行在XenHypervisor上的所有半虚拟化(paravirtualized)虚拟机被称为“DomainUPVGuests”,其上运行着被修改过内核的操作系统,如Linux、Solaris、FreeBSD等其它UNIX操作系统。所有的全虚拟化虚拟机被称为“DomainUHVMGuests”,其上运行着不用修改内核的操作系统,如Windows等。2.Hyper-V体系结构图5.Hyper-V体系结构图Hyper-V是微软提出的一种系统管理程序虚拟化技术,采用微内核的架构,兼顾了安全性和性能的要求。Hyper-V底层的Hypervisor运行在最高的特权级别下,微软将其称为ring-1(而Intel则将其称为rootmode),而虚机的OS内核和驱动运行在ring0,应用程序运行在ring3下,这种架构就不需要采用复杂的BT(二进制特权指令翻译)技术,可以进一步提高安全性。从架构上讲Hyper-V只有“硬件-Hyper-V-虚拟机”三层,本身非常小巧,代码简单,且不包含任何第三方驱动,所以安全可靠、执行效率高,能充分利用硬件资源,使虚拟机系统性能更接近真实系统性能。Hyper-V支持分区层面的隔离。分区是逻辑隔离单位,受虚拟机监控程序支持,并且操作系统在其中执行。Microsoft虚拟机监控程序必须至少有一个父/根分区,用于运行64位版本的WindowsServer2008操作系统。虚拟化堆栈在父分区中运行,并且可以直接访问硬件设备。随后,根分区会创建子分区用于承载来宾操作系统。根分区使用虚拟化调用应用程序编程接口(API)来创建子分区。分区对物理处理器没有访问权限,也不能处理处理器中断。相反,它们具有处理器的虚拟视图,并运行于每个来宾分区专用的虚拟内存地址区域。虚拟机监控程序负责处理处理器中断,并将其重定向到相应的分区。Hyper-V还可以通过输入输出内存管理单元(IOMMU)利用硬件加速来加快各个来宾虚拟地址空间相互之间的地址转换。IOMMU独立于CPU使用的内存管理硬件运行,并用于将物理内存地址重新映射到子分区使用的地址。从系统的结构图,我们可以看出来Hyper-V与Xen的架构很相似。图6.VmwareESXI体系结构图由上图我们可以看出来管理工具也是直接嵌入到了ESXivmKernel中,没有再分化出单独的管理工具,这一点与Xen是相区别的。图7.KVM体系结构图KVM是一个独特的管理程序,通过将KVM作为一个内核模块实现,在虚拟环境下Linux内核集成管理程序将其作为一个可加载的模块可以简化管理和提升性能。在这种模式下,每个虚拟机都是一个常规的Linux进程,通过Linux调度程序进行调度。通过以上四种虚拟机的体系结构图,我们可以看出他们在整个系统中的位置,以及相互之间的区别。回页首XEN工作原理上面我们针对Xen的体系结构进行了简单的描述,我们知道Xen主要由XenHypervisor,Domain0,DomainU三部分组成。下面通过Domain0与DomainU的通信以及这三部分的交互来探讨一下Xen的工作原理。之前我们已经提到过DomainU分为PV客户系统和HVM客户系统两种,我们首先讨论一下PV客户系统,也就是半虚拟化操作系统工作原理。首先我们需要知道在Domain0中有两个驱动NetworkBackendDriver和BlockBackendDriver,它们分别用来处理来自DomainU的网络和本地磁盘请求。由于XenHypervisor不会支持网络和磁盘请求的,因此一个PV(半虚拟化)客户系统必须通过和XenHypervisor、Domain0通信,从而来实现网络和磁盘请求。由于Xen文档中已经探讨过PV客户系统如何将一个数据写到本地硬盘,下面我们就来讨论一下PV客户系统如何将一个数据发送到网络中去。在这之前我们首先要了解到一点,那就是DomainUPVGuest中也包括两个驱动“PVNetworkDriver”和“PVBlockDriver”,它们分别也是用来处理发送网络和本地磁盘请求用的,这与Domain0中的两个驱动是相对应的。当一个PV客户系统的网络设备驱动程序接收到一个发送数据请求的时候,并且通过XenHypervisor发送数据到本地网络设备(网卡之类的设备)中,这个网络设备是和Domain0共享的。在Domain0和DomainU之间存在一个事件通道(eventchannel),通过该通道二者进行异步的域间中断通信。Domain0会接收到一个来自XenHypervisor的中断,触发PVNetworkBackendDriver访问上述网络设备,读取来自PV客户系统的数据,然后将这些数据发送出去。下图中事件通道表示为连接Domain0与DomainU的一个区域,这是系统工作流的一个简化。事实上事件通道运行在XenHypervisor中,通过Xenstored(Xenstored维护一个信息档案,包括内存和建立在Domain0与DomainU之间的事件通道。Domain0通过改变这个档案来设置和其他虚拟机的设备通道)中的特定中断实现,提供Domain0与DomainU之间的快速共享网络设备,见图8。图8.Domain0与DomainUPVGuest通信示意图上面我们已经分析了PV客户系统的工作原理,下面我们再简要的介绍一下HVM客户系统的工作原理。由于一个HVMGuests虚拟机中没有上面提到得PVdriver,所以Xen在Domain0中为每一个HVMGuest都启动一个守护进程Qemu-dm处理来自客户系统的网络和磁盘请求,所以当一个HVMGuest有相应的网络和I/O请求的时候,它就会直接与Domain0中和它相对应的Qemu-dm来进行交互,通过Domain0最终达到访问网络设备或者磁盘的目的。见下图9:图9.Domain0与DomainUHVMGuest通信示意图结束语通过这一部分的介绍,我们了解了Xen目前的发展及现状,另外我们详细的说明了如何在Fedora13下安装Xen,以及Xen下一些基本操作,再这之后我们又讨论了一下Xen与VMwareESXi,Hyper-V以及KVM异同点,最后我们通过示例来讲解了一下Xen的工作原理。本系列的第二部分我们将阐述如何搭建Xen的开发环境、Xen下开发需要具备的相关技术以及Xen下的如何利用XenAPI做开发,最后通过一个例子来演示。