我最近读过这篇文章: http://www.standalone-sysadmin.com/blog/2012/08/i-come-not-to-praise-raid-5/ tldr; 基本上说,RAID系统的错误率是与硬件相关的,而你需要URE较高的硬盘才能使RAID更加稳定。 我们用这些细节运行RAID 5: 6 x 2TB驱动器= 10TB可用 URE <10 ^ 14(每个驱动器) 了解上面的文章我想检查我的号码与其他人 10 ^ 14位给我一个URE的机会是12,500GB 12,500GB / 10TB = 1.25 这是否意味着如果我的一个驱动器出现故障(在过去3个月内丢了2个),我将其replace,我有1.25的机会在其中一个驱动器上获得URE? 我不是专家,所以请随时撕下这一个,帮助我学习。 谢谢
控制器是否识别它,并保存数据? 或者它开始重buildRAID,就像它是一个新的磁盘?
我只是在NAS RAIDarrays上做一些testing,看看我们是否想部署它。 为了看看究竟是什么,我决定看看在重buildRAID-5arrays时,我们得到了什么样的networking性能。 我注意到networking连接已经下降到大约7MB / s,大概是60Mbps。 1Gb连接对networking有很大的影响。 当它不是重新构build它接近70Mb / s(与巨型帧)。 你会期望重build时这种大幅度的下降吗? 目前,它已经安装了三个750Gb 7200RPM SATA驱动器。
我将在几天内获得新的小型企业数据库服务器。 它配备了一个硬盘,但是我打算先安装一个3磁盘RAID 5系统。 不幸的是,额外的驱动器将不会在我得到服务器后的几天。 我正在使用硬件RAID控制器。 我想要在configuration上取得先机。 在这个意义上,RAID是多么“聪明”? 如果我在单个驱动器上安装和configuration操作系统,然后再添加其他两个驱动器,以便在3个磁盘上重build我的数据? 如果这是可能的,是否有任何我需要遵循的特殊程序?
上周末我搭build了一台W2K8 R2服务器,并使用磁盘pipe理,5个1TB硬盘构build了一个R5arrays。 在接下来的60个小时里,状态表示“重新同步(X%)”,因为它build立了arrays。 在这段时间,我读写驱动器(缓慢),一旦重build完成,速度非常快。 我一夜之间从USB硬盘上复制了一些数据,并且机器崩溃了(查看错误信息,我相信它是usb驱动的驱动程序),所以RAID5返回重新同步,因为机器没有正常closures。 问题是,从开始到现在已经过去大概48个小时了,我很高兴地说大概需要大约60个小时来重新同步,但是所有这一次在磁盘pipe理中,状态只是说'重新同步',而不是'重新同步(X%)“。 硬盘指示灯正在发生变化,读/写又慢了,所以我认为它实际上是重新同步的。 问题是 – 这是一个正确的假设吗? 为什么磁盘pipe理不告诉我它已经完成了多less年? 这是一个不正常的closuresr5arrays的正常行为?
我有一个带有6个磁盘的戴尔2950,我想每个arrays中有2个RAID 5arrays3个磁盘。 RAIDpipe理器只允许我创build一个数组,创build数组后,我不能创build另一个。 为什么会这样? PS我要在这个盒子上安装Exchange 2010,欢迎任何关于磁盘设置的build议。 感谢S
我正在计划安装一个新的NAS系统,决定是否使用Openfiler或类似的东西。 我一直在检查一些RAID卡,并考虑硬件故障或替代,我怀疑是否可以直接从软件RAID5进行系统启动,而不必先从另一个卷启动。 这会给我灵活的代替我的硬件的情况下,没有任何问题,没有问题,知道该软件正在处理我的RAID,我不依赖任何品牌或型号,特别是…
我在RAID 5中格式化了6个500Gb驱动器。我已经在20Gb上安装了Windows Server 2003 R2,并且希望将其余的格式化为备份驱动器(2.2Tb)。 我发现以下http://www.microsoft.com/whdc/device/storage/LUN_SP1.mspx ,我认为这是可能的SP1,但现在我不确定。 我知道我现在已经安装了SP2,磁盘pipe理工具显示我的未分配的磁盘空间分为两个卡盘,2027.97Gb和278.25Gb,但是我想将这两个块用作一个驱动器。 有人能解释我怎么能做到这一点? 谢谢
我只是将我的RAID1arrays转换为RAID5arrays,并添加了第三个磁盘。 我想添加第四个磁盘,而不用等待十四个小时来完成第一个重塑。 我只是这样做了: mdadm /dev/md0 –add /dev/sdf1 mdadm –grow /dev/md0 –raid-devices=3 –backup-file=/root/md0_n3.bak / proc / mdstat中的条目如下所示: md0 : active raid5 sdf1[2] sda1[0] sdb1[1] 976759936 blocks super 0.91 level 5, 64k chunk, algorithm 2 [3/3] [UUU] [>………………..] reshape = 1.8% (18162944/976759936) finish=834.3min speed=19132K/sec 现在我想这样做: mdadm /dev/md0 –add /dev/sdd1 mdadm –grow /dev/md0 –raid-devices=4 –backup-file=/root/md8_n4.bak 这是安全的,还是必须等待第一次重塑操作才能完成? PS:我知道我应该首先添加两个磁盘,然后从2到4个设备进行重新devise,但是有点晚了。
我再一次提出了如何最佳地优化磁盘结构的问题。 在我的组织中,我们有一个14TB Linux软件RAIDarrays,专用于存储使用Symantec Backup Exec所做的备份。 这些是大文件,每个大小为10GB-100GB,并且有一些支持的元数据文件大小为几KB。 长话短说,我们必须重新创build数组,我想知道这个用例的最佳数组块大小。 我们的设置细节: 一个Netgear ReadyNAS Pro,运行一个干净和更新的CentOS 6.4安装。 6 x 3TB消费者(SATA II,7200 RPM)硬盘驱动器(相同尺寸)。 每个驱动器有3个相同的分区,形成3个软件RAID设备: / dev / md0:在RAID6中为6 x 32GB / dev / md1:6个4GB交换RAID10 / dev / md2:RAID5中的6 x 2.7TB存储,总共有效存储量为14TB 此外,还有一个集成的128MB闪存设备设置为/ boot / dev / md2是我关注的数组。 通过两台机器上的双千兆位NIC上的多pathiSCSI(也运行9k巨型帧),将其作为驱动器“R:”提供给运行Symantec Backup Exec的Windows Server 2008 R2盒。 在Server 2008中,R:被格式化为具有64k簇大小的NTFS,并且专用于存储备份文件。 平均文件大小通常在40MB到5GB之间,取决于目前的完整版本与增量版本/差异版本的比例。 磁盘使用率在读取和写入之间大约是50/50,因为我们也将这个驱动器的备份镜像到磁带。 总的来说,考虑到硬件,我认为优化这个设置相当好,但我不是一个存储专家,RAID块的大小的影响稍微超过了我。 我知道默认的mdadm块大小是512KB。 这是最适合我的情况吗? 我应该调整这个以匹配NTFS簇的大小吗? 还是有一些我错过的魔法配方? […]