我们刚刚将旧光纤SAN存储迁移到具有24个SAS 600GB磁盘的IBM v3700 Storwize。
该存储直接连接到两台IBM ESXi 5.5服务器,每台服务器配有两个6Gbps多pathSAS控制器。
直到现在,我已经将我用过的存储configuration到了多个RAID5组中。 每个组将用于不同的服务器/目的。 主要的RAID组是OracleDB,Oracle归档,SQL Server和其余的(文件服务器,邮件等)。 最关键的应用程序是Oracle和SQL Server。
我首先关心的是应用程序的安全性和性能。 所以我决定用RAID6 +备用。
我现在主要关心的是,由于我们使用的是ESXi,我应该将整个存储configuration为一个RAID,节省空间,并为每个服务器从ESXi创build数据存储卷,或者这不是一个好的做法,最好是单独创build硬件RAID组?
每个供应商都有自己的build议,所以首先要问IBM。 通常,您可以打开一张票,寻求configurationbuild议,而不需要额外的支持。 那个或谁卖给你可以。
简单地使用Google,我发现了这本红皮书 。 你可能想要基本的raid 6,这意味着1个备用和一个驱动器每arrays目标12。这将意味着两个袭击,其中一个12,11之一。我不会推荐突袭10,因为你失去了一半容量。 它确实避免了平价,但这是您只需要担心低端或内部存储的问题。 您的存储将隐藏caching后面的随机覆盖的奇偶校验开销。 我的商店使用Raid 6专门用于半个PB的VMWare 5.5,并没有问题。
你应该阅读这本书,了解他们如何做mdisk和池。 一旦你的团队组build立起来,你想创build一个游戏池来横跨所有的主轴。
免责声明 – 这是高度意见的基础上,并已标记这样的问题,但我会试图提供一个答案,因为我最近configuration几乎完全相同的设置。
我非常怀疑任何types的数据库在RAID5或6arrays上都能很好地运行。 大多数供应商都积极地劝阻 (甚至在来临的情况下禁止)由于重build时间较长而使用不兼容的基于奇偶校验的RAID级别,这导致在重build期间风险增加或URE。
我个人将其分成两个不同的组 – 一个用于高IO负载(如数据库)的RAID10,另一个用于数据的RAID50。 您为每个arrays专用的磁盘数量取决于您需要存储多less数据。
例如,对于24磁盘arrays,可以丢失两个磁盘作为机箱备件,并创build4个2磁盘跨度(总共8个磁盘)以获得大约2.4TB的逻辑RAID10。 这为您的RAID50留下了14个磁盘,每个跨度有7个磁盘,大约有7.2TB的可用空间。 当然,您可以调整跨度的数量,但请记住RAID10需要2的倍数。
至于数据存储,如果您不使用Storage vMotion和DRS等奇特function来混洗资源,那么它并没有真正地带来巨大的差异。
此外,为了阐明最后一段: 更重要的是,较小的磁盘通常比较less的较大的磁盘更可取,因为重build发生故障的磁盘需要花费的时间,重build过程中负载会放在其他磁盘上。
对于数据库风格的工作负载,我永远不会为RAID6,甚至是5。 由于它们是基于平等的,所以招致很高的写入罚款,重build时间可能会很长。
RAID 10将为您提供最佳性能,您可以在arrays的每一侧出现一次故障,并且可以分配一两个热备份,以确保arrays在驱动器发生故障时快速恢复冗余。
在存储划分和展示方面…我通常遵循每个RAID组1个LUN的scheme,每个LUN包含多个VM磁盘。