我是VCP 4,所以我知道vSphere 4中LUN / RDM / VMDK的最大configuration,但是我想创build一个逻辑驱动器大于2TB的虚拟机。 我能想到的唯一方法是:
在不同的LUN上使用多个VMDK(每个小于2TB)创buildVM,并在客户机操作系统中跨越或软件RAID。
在多个LUN之间创buildVMFS扩展区,并在来宾操作系统中创build多个VMDK并跨越或软件RAID(仅略微改变#1)。
在来宾操作系统中使用多个2TB或更小的RDM并跨越或软件RAID。
从客户机操作系统挂载一个大于2TB的iSCSI LUN。
所有这些方法都依赖于来宾操作系统的跨越/软件RAID。 这是相当多的还是有其他的可能性?
更新 TomTom指出了第四个选项。
更新2汤姆的硬件有一个有趣的文章关于一个PB级的存储设备。 他们在vSphere 4.1中有一个通过NFS挂载的屏幕截图。 至于JakeRobinson对NFS的build议,天空是这些types的数据存储的限制!

这几乎是在4.x.
vSphere 5.0允许传递RDM的规模更大(大约60 TB),但VMDK和非直通RDM仍具有2 TB的限制。 ( 参考 ) 。 Pass-Thru(物理)RDM和非直通(虚拟)RDM根据vSphere虚拟化SCSI命令的程度来区分。 直通RDM将直接发送除REPORT_LUN以外的所有SCSI命令,而非直通RDM则隐藏所有硬件特性,并且VMKernel仅将READ和WRITE命令传递给设备操作系统与VMFS卷上的其他VMDK一样(请参阅KB2009226 )。
如果你可以升级到5.0并使用RDM,那么很好; 否则,你会被困在VMDKs或<2TB RDM一起在LVM或软件RAID的客户操作系统。
不要忘记networking连接的存储types协议(例如NFS,CIFS)。 也就是说,如果您的SAN / NAS支持服务他们。 显然,提供这两者中的一个虚拟机将有点失败的目的。
Linux guest虚拟机可以使用多个VMDK作为LVM,这不是完全跨越而不完全是RAID。
您可以跨越多个范围。 这将在虚拟机pipe理程序级别,而不是来宾操作系统级别。 客人不知道。