我们目前的200用户基础设施是基于XenServer和StarWind iSCSI SAN。 虚拟服务器操作系统的C:驱动器安装在XenServer SR卷中,而这些卷又是StarWind SAN上的虚拟硬盘。 但是,虚拟机(比如我们的文件服务器)的数据驱动器是使用虚拟操作系统内的Microsoft iSCSI启动器装入的。 因此,大部分的I / O都是通过iSCSI直接(可以通过pipe理程序NIC堆栈)进出SAN。 我们不受限于XenServer中的2TB磁盘限制。 精简configuration由StarWind SAN提供。
我们正在转向Hyper-V 2012环境,因为我们可以通过第二个VHDX挂载E:驱动器(现在移除了相同的2TB大小限制),情况就不那么明显了。 VHDX还提供精简configuration。 但是,它仍然需要从Hyper-V服务器跨越iSCSI到同一个SAN,所以感觉就像VHDX路由必须添加一个额外的层,因此会提供更低的性能。
任何关于直接iSCSI还是通过VHDX的言论都是“更好”的赞赏。
这两种策略同样昂贵。 VHDX部分确实添加了一个非常薄的层,但是从Hyper-V父分区进行networking连接与从客户端进行连接相比,要稍微便宜些,因为您没有对iSCSIstream量进行networking虚拟化。
但是,VHDX策略更容易pipe理。 就我个人而言,我会selectpipe理的方便。