对于EMC VNX 5100存储单元上的900 GB 10K SAS SFF磁盘中的16个,您推荐使用哪种types的RAID来存储单个存储段? 磁盘17是一个热备份。 RAID 10,RAID 50还是别的? 未格式化的容量是14.4 TB,但我们不会使用超过4 TB的空间。 存储将主要用于Hyper-V VHD。
我一直看到描述RAID 1(和RAID 10)的RAID IOPS写入惩罚的文章为2.当然,RAID 0的惩罚是1,因为每个写入都被简单地写入磁盘。 RAID 1被描述为“需要两次写入”,因此惩罚2。 但不应该是1,因为数据是同时写入的? 从使用磁盘的应用程序或服务器的angular度来看,RAID 1arrays应该作为一个单元同时写入两个磁盘。 一个磁盘可能落在另一个磁盘之后,但是实际的硬件RAID控制器应该能够同时开始写入,并且在较慢的磁盘已经完成时报告写入操作完成,这应当仅比在RAID中略高-0,如果有的话。 所以对于RAID 1,IOPS的惩罚应该是1,或者最大为1.2。 我知道有两个写操作,所以有2个“IOPS”,但它们在内部是RAID控制器。 我在这里错过了什么?
如果我在Raid10中有24个小驱动器与4个大驱动器,会影响性能吗? 问题的根源在于,如果我使用更多的驱动器来填充所有24个托架,或者只是使用4个驱动器或8个驱动器,而是使用更大的磁盘,那么它是否具有任何性能或冗余优势?
我们在性能计数器上使用“ 磁盘读取/秒”和“ 磁盘写入/秒 ”为每个服务器configuration了4个15k 146GB SAS驱动器的RAID10 磁盘写入/秒 (物理盒,无虚拟化),并设置每1个检查和logging数据第二次,并在停止报告之前24小时logging。 这些是我们得到的结果: Server1最大磁盘读取次数/秒:4249.437最大磁盘写入次数/秒数:4178.946 Server2最大磁盘读取数/秒:2550.140最大磁盘写入数/秒:5177.821 Server3最大磁盘读取次数/秒:1903.300最大磁盘写入次数/秒:5299.036 Server4最大磁盘读取数/秒:8453.572最大磁盘写入数/秒:11584.653 每秒平均磁盘读取和写入量通常较低。 也就是说,对于一个特定的服务器来说,就像平均每秒33次写入一样,但是在实时监控时,通常会达到数百个,有时甚至达到数千个。 有人可以向我解释为什么这些数字显着高于理论计算,假设每个驱动器可以做180 IOPs? 其他详细信息(RAID卡):HP Smart Array P410i,总caching大小为1GB,禁用写caching,arrays加速器caching比例为25%,写入为75%
我有一台带有板载AIC-7901的Tyan服务器。 RAID10arrays中的一个驱动器被标记为降级。 我关机,popup违规驱动器,放入一个好的驱动器,重新启动并进入Adaptec Storage Manager。 但是,当我尝试使新驱动器成为热备用于重buildarrays时,会出现错误。 结果代码:RC:-5 API:2 IOCTL:0 SenseKey:3 ASC:49 ASCQ:1“无法创build热备用驱动器控制器1,通道0,设备ID 0。 有什么build议么?
TL; DR版本 RAID10arrays工作正常 重新启动服务器作为维护的一部分 arrays无法操作(无法访问) 控制器日志说一个驱动器是坏的 移除驱动器和testing – 没有发现坏道 谨慎小心,更换已知好的驱动器 控制器不会将arrays重build到新驱动器上 即使只有一个驱动器故障,控制器也使整个RAID10arrays无法访问 而现在这个漫长而详细的版本: 我在Ubuntu 1110服务器上运行的3ware 9690卡上有一个RAID10(8x1TB)arrays。 有一个内核更新,所以我安排重新启动之后,数组是无法访问。 我检查了一个驱动器已经在arrays中死亡的状态,但是控制器已经把整个arrays置于“不可操作”的状态,而不是简单的降级(RAID现在有什么用处);-)。 在取出“死亡”驱动器后,我运行了一个快速testing,发现它没有坏扇区的function。 我试图重新把驱动器,但数组仍然标记为降级磁盘(记住序列号或东西??),整个arrays不能操作… 所以我把它换成一个已知的工作驱动器(不是相同的容量,但更高的 – 应该仍然工作),并开始一个新的驱动器作为一个替代重build。 如果错误“(0x0B:0x0033):单元繁忙:单元0重新启动失败”,则立即失败。 该单元不应该是繁忙的,因为它没有安装(卡本身与lshw列出,但它提供的数组不是)。 我现在几乎陷入僵局,我不明白如何在RAID10上出现单个驱动器故障,使整个arrays无法访问,降级,我可以理解,但无法访问? 我不认为控制器是有问题的,因为在重新启动之前,它是完全正常的。 > info c0 Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache AVrfy —————————————————————————— u0 RAID-10 INOPERABLE – – 256K 3725.25 Ri ON VPort Status Unit Size Type Phy […]
基于这个问题,我得到的信息为什么df只显示RAID10arrays的一半大小? ,我应该如何在亚马逊上使用EBS卷来创build一个RAID10arrays,而这种方式不会是多余的? 正如链接的问题所示,我正在使用10gen公司(创buildmongodb)的指导,了解如何使用EBS创buildraid10arrays。 我遇到了创build的数组大小的问题,并得到了响应,我应该使用不同的方法来处理脚本的MDADM使用情况。 由于这是我第一次遇到RAID,所以我似乎无法完全理解脚本的作用和LVM的build议方式之间的区别(我也不知道该怎么做)。 我是一名程序员,我认为自己非常适合使用linux机器,这是我在完成我所需要完成的任务时所学到的。 现在到了我知道RAID分期的时候了。 相关信息: 实例是m1.large Ubuntu 11.10。 这里是链接的问题,为了舒适的原因: #!/bin/sh disk1="/dev/xvdh1" disk2="/dev/xvdh2" disk3="/dev/xvdh3" disk4="/dev/xvdh4" echo "*** Verifying existence of 4 volumes $disk1, $disk2, $disk3 and $disk4" if [ -b "$disk1" -a -b "$disk2" -a -b "$disk3" -a -b "$disk4" ]; then echo "# Found expected block devices." else echo "!!! Did not […]
今天,我正在用四个磁盘解决突袭失败的问题。 一个硬盘出现故障,另一个硬盘重新启动后不能重新添加。 mdadm -D报告它是干净的,只有四个磁盘中有两个运行。 当我尝试读取使用dd = / dev / md1 = / dev / null的md数组时,读取在1.5MB后出现错误,dmesg中的“设备md1,逻辑块XXX上的缓冲区I / O错误”。 假设我使用了默认的512KB块,那么就会发生不可避免的事情:根据raid10-FAR http://goo.gl/5Xl7k中的块分布,位于两个缺失磁盘之一上的每个块都不可用。 它是否有一定的目的,数组可以组装得如此糟糕,还是它在md-raid10-far实现中的缺陷? Raid10-near可以在某些情况下以这种方式进行组装,所以也许开发人员忘记修改代码来决定是否可以组装? 我使用Ubuntu Server 12.04,内核3.2.0-26-generic,mdadm v3.2.3
我是一个当地非营利组织的志愿者助理IT人员。 整个周末,我们的主服务器出现故障,需要重启。 重启后,我们被通知“正在进行卷初始化”。 以下是关于我们系统的一些数据:Windows Server 2003 RAID 10 4驱动器2个备份驱动器Intel Matrix RAID存储控制台 我最初的调查表明,2个备份驱动器目前没有被使用,这似乎表明,无论驱动器失败,系统决定只是重build实际的驱动器。 问题是,如何确定哪个驱动器实际上失败? 当我看到英特尔matrix计划,每个驱动器似乎正常运行。 有没有办法来嗅探潜在的坏驱动器,或者我们只是等待另一个故障,希望使用热备份驱动器之一,并确定故障驱动器的方式? 你可能会说,我对这个东西很陌生。 我感谢您可以提供的任何帮助。
我一直在研究从RAID 5到RAID 10的实时迁移的可能性,我很好奇为什么大多数RAID控制器(尤其是戴尔的PERC控制器)不支持从实时迁移的概念RAID 5到RAID 10。 我制作了一个快速电子表格,显示出这不仅是一个相对简单的过程,而且可以在迁移的任何部分都不会丢失容错的情况下完成。 由于存储效率的降低,至less需要1个额外的驱动器… 3个驱动器的RAID 5成为4个驱动器的RAID 10,4个驱动器的RAID 5成为6个驱动器的RAID 10等等。 将3个驱动器的RAID 5(在磁盘A,B和C上组成)迁移到4个驱动器的RAID 10(在磁盘D中添加)可以容错方式进行4次。 (这个过程大概可以做得更有效率,可能会有一些容错性的损失,但是我的目标只是为了certificate它是可以做到的) 从虚拟数据块开始,看起来像这样: ABCD – – – – 1 2 p 3 p 4 p 5 6 (p=parity; repeats every 6 blocks) 第一步然后变成填充D,就好像它是RAID 0中的第二个驱动器一样: ABCD – – – – 1 2 p 2 3 p 4 4 p 5 6 6 […]