Xen Live跨networking存储迁移

如果您有两个networking存储盒(特别是iSCSI),您是否可以跨存储单元迁移(使用Xen或XenServer),还是只需要在VM处于暂停/closures状态时由于存储位于不同的物理机器?

目前,所有的可视化hyper-visors可以迁移(xen,kvm,vmware,openvz,hyper-v)。 但为此,您需要共享存储。 你有3个选项:

  • SAN(FC或iSCSI),但是您需要一个集群文件系统(ocfs2,gfs,vmware,…)。 节点数限于文件系统初始化的参数(至less有ocfs2)。
  • NAS(NFS)。 我用Netapp FAS2020成功testing了这个解决scheme,性能与iSCSI相当。 但是我没有足够的testing来检查主机发生故障时的行为,以及数据的完整性。 文章: http : //thesantechnologist.com/?p = 52有一个链接,真正显示nfs的优秀结果。 我testing了一下,并且可以确认NFS对于几个并发虚拟机来说和iSCSI一样快。
  • DRBD(主动 – 主动):这个解决scheme与SAN非常相似,但是主动 – 主动DRBD集群是最近的,我不知道可靠性。 我过去使用了DRBD,但是在其之上使用了nbd,因为主动 – 主动尚未可用。 我也使用NFS在节点之间共享。 两种解决scheme都可以工作(主动 – 被动+ NFS)和(主动 – 被动+ NBD + OCFS2)。

简而言之 :

  • SAN是最经过validation的解决scheme,尤其是如果您使用FC,则最为昂贵。
  • NFS是最简单的解决scheme。
  • DRBD是最便宜的解决scheme,限于2个活动节点。

我不是最有经验的,但是我认为这是: – 除非你有很多€€€€,否则FC是无用的。 随着虚拟化速度的放慢,当你有很多的随机读取时,真正的带宽就会降低,iSCI可以很好地处理这个问题。 iSCSI是最具可扩展性的。 这将适用于入门系统,通过转向专用的iSCSI控制器可以获得更多的性能,如果仍然不足以将存储更改为更快的存储, 如果您确实需要一些令人印象深刻的产品,戴尔可以向您推销与SSD(SLC技术)兼容的存储设备。 价格昂贵,但性能价格比还是很高的。 NFS也可能是一个非常好的解决scheme,但是我错过了经验,唯一的担心就是数据丢失。 (而其他技术也可能会导致数据丢失) – DRBD将以SMI /非常低成本的解决scheme带来满意的结果。

我对Netapp非常满意,我推荐2个Netapp FAS-2020和2个控制器用于虚拟化和CIFS文件服务器。 NFS也很好。 我对NetApp重复数据删除也非常满意。 所以,如果您有一些虚拟化的资金,那就从2个NetApp 2020盒(15krpm驱动器)开始。 (你必须计算20k – 30k€这个)

关于虚拟化技术,我主要使用xen,kvm和openvz。 作为虚拟化解决scheme,我现在在生产中使用OracleVM已经有5年了,但是由于存储效率不高(我只是用OracleVM的原始格式),所以我对更改感兴趣。 我认为今天最好的开源赝品是Proxmox ve。

如果我不得不从开始重新开始虚拟化项目,我还会仔细看看英特尔模块化服务器(您可以在www.thomas-krenn.com上获得价格和演示)。

希望能帮助到你。

不与开源的Xen。 我不知道XenServer,虽然我怀疑不是。

实时迁移只能移动内存和状态,而不是磁盘。 你应该closures它来移动它。

如果这个问题与你的关于l2arc的zfs问题有任何关系,那么我只想指出,如果你在两台主机上使用zfs,你可以做的一件事情是在你有一个存储服务器到另一个。

如果每个虚拟机拥有自己的zfs文件系统,则可以利用zfs来帮助加快使用快照和zfs send和zfs receive的计划迁移。 zfs send可以有效地将文件系统或快照从一个存储服务器移动到另一个存储服务器。 因此,只要您正在处理计划的迁移,您就可以创build快照,然后使用zfs send / receive将该虚拟机文件系统的快照发送到其他存储服务器。 一旦你完成closures虚拟机,然后再次运行zfs发送/接收,它只需要发送上一个快照的变化,这应该是非常快的。 更新虚拟机的configuration文件以指向新的存储位置并将其重新启动。 我敢打赌,大部分可以使用几个脚本自动化。