Articles of raid10

完全冗余,高可用性的iscsi SAN(由n台机器组成)与集群文件系统一起使用

基础设施如何可能是一个简短的例子: 4个服务器作为iSCSI目标,并且每个服务器都暴露1x2TB(每个服务器都有一个raid10用于存储,因此2TB的可用容量) 需要具有8TB(上面暴露的磁盘:4x2TB)磁盘的n台服务器,并发写入是必要的。 所有的服务器真的共享存储。 现在,如何实现? 我没有任何关于群集fs的偏好。 问候,帕特里克

更新RAID 10 NAS存储

我在RAID 10中有一个4x500GB硬盘的NAS。我想将实际的硬盘转换为1TB容量的硬盘,但是我希望(如果可能的话)保存数据,而不必将其复制到NAS之外。 我正在使用的NAS是Synology DS411。 现在这应该是布局: HDD#1(500GB) = A1 HDD#2(500GB) = A1 HDD#3(500GB) = A2 HDD#4(500GB) = A2 这个想法正在改变新的1TB硬盘的硬盘#2和硬盘#4 ,所以硬盘#1和硬盘#3将数据复制到新的硬盘,然后当RAID是rebuilded。 这是可能的,或者我应该备份所有的数据到外部来源,然后用新的硬盘从头开始重buildRAID?

强制RAID 1 + 0惠普智能arrays重build

我有一个RAID10的状态“准备重build”,但我怎么能强制重build? # hpacucli ctrl all show config Smart Array E200 in Slot 0 (Embedded) (sn: PA6C90N9SW82IU) array A (SAS, Unused Space: 0 MB) logicaldrive 1 (68.3 GB, RAID 1, OK) physicaldrive 2I:1:1 (port 2I:box 1:bay 1, SAS, 72 GB, OK) physicaldrive 2I:1:2 (port 2I:box 1:bay 2, SAS, 72 GB, OK) array B (SATA, Unused Space: […]

IBM System x3650 M3 – 如何扩展RAID 10arrays

我的IBM System x3650 M3服务器上有RAID 10arrays – 四个驱动器IBM 146GB 10K 6Gbps SAS 2.5“。我购买了四个新驱动器(也是146GB 10K 6Gbps),因为很快我可能会遇到可用空间问题。 我可以扩展RAID 10而不丢失数据吗? 我的RAID控制器是:LSI Logic / Symbios Logic MegaRAID SAS 2108 [Liberator](rev 03)。 我听说唯一的select是备份arrays数据,重新创buildarrays(添加磁盘),然后从备份中恢复数据。 这是真的吗?

糟糕的软件raid10在Linux上读取性能

我最近build立了新的基于Linux的文件服务器。 我使用的是Ubuntu 10.10。 我创build了两个软件RAID设备,如下所示: mc@vmr:~$ cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sdf1[1] sdh1[3] sde1[0] sdg1[2] 19530688 blocks [4/4] [UUUU] md1 : active raid10 sdh3[3] sdf3[1] sde3[0] sdg3[2] 1912461184 blocks 64K chunks 2 near-copies [4/4] [UUUU] / dev / md0(raid1)安装在“/”上,/ dev / md1(raid10)安装在“/ home”上。 不幸的是,我的raid10的performance令人深感不满。 以下是每个硬盘的性能: […]

Raid-10 – 我应该读多less个磁盘来读取性能?

我们使用DAS硬件来pipe理一个中等大小的图像arrays(4kb – > 1mb左右),这些硬件是NFS导出到各种networking服务器的。 我们传统上使用raid5作为安全网和存储增益,而不是为了更好的速度使用raid而丢失容量10。 我们已经达到了我们的16TBarrays正在遭受痛苦的地步,读取速度正在放缓,对最终用户来说变得明显。 我正在考虑购买一个新的arrays来testing各种raid10configuration,但在我能得到批准之前,我将需要能够规定新系统的大致能力,这导致了我的最终问题: 如何跨越N个驱动器影响磁盘性能? 我知道写/读perf是不同的,所以为了这个对话,我们将其限制为读取。 例如,RAID-10中的4个驱动器是否优于RAID-10中的6个驱动器等 有没有build立这个指标,或已知的约束考虑? 我知道世界上没有银弹,但我希望有一些最佳实践的想法。 谢谢你帮我把这个包裹起来

较小的fdisk分区,mdadm RAID10,LVM和KVM的缺点?

我正在用KVM和LVMbuild立一个新的虚拟化服务器。 KVM主机和所有客人将安装在SSD驱动器上。 每位访客都可以访问由4x3TB SATA驱动器组成的RAID10arrays,用于数据和存储。 我的问题是,我有很多空间(6TB可用),我现在不需要。 一种方法是首先用mdadm创build一个大的6TB空间,然后创build一个大的LVM卷组,然后通过创build逻辑卷来“分割”它们。 另一种方法是,首先将每个硬盘驱动器(3TB)拆分为四个0.75TB的主分区(sdx1,sdx2,sdx3,sdx4,x = a,b,c,d)和fdisk。 然后我可以使用 mdadm –verbose –create / dev / md1 –level = 10 –chunk = 256 –raid-devices = 4 / dev / sda1 / dev / sdb1 / dev / sdc1 / dev / sdd1 在这种情况下,/ dev / md1将是1.5TB的RAID10arrays,可以形成一个LVM卷组,然后创build逻辑卷。 如果我将来需要更多的空间,我可以创build/ dev / md2等等。 / dev / md1,/ dev […]

在RAID10arrays中失败的驱动器; 哪个退化状态对性能影响最小?

在LSi 9260-16i上运行,配有16个SAS驱动器(希捷Savvio 15k.2)。 一个驱动器正在获取媒体读取错误,所以我们将RMA出来。 在新驱动器在一两天内到达这里之前,哪一个是性能最低的选项呢? 将驱动器保持在位,忽略介质错误,并在新驱动器到达一周后将其交换出来。 这不是一个真正的select,但它是值得列出来涵盖所有的可能性。 老板,我同意我们不会这样做。 在pipe理软件中使驱动器脱机,并让arrays作为降级设备。 我从来没有这样做过,所以我不确定我们可能会有什么样的performance。 可以理解的是,这种方式是有风险的。 我们有一个非常类似于另一个(未使用的)服务器的驱动器,与其他15个驱动器类似,但是3Gbps而不是6Gbps。 这是我的问题来了, 这个性能会比离线驾驶更多还是更less? 所有16个驱动器都以一个大容量的RAID10arrays一起工作。 我倾向于把3Gbps放在一边,并且受到打击,但我想知道其他人认为在这里最好。

如何修复zpool detach悬挂整个池?

当试图在FreeBSD 10.3-RELEASE-p20系统中的zpool中replace一个磁盘时,在发出zpool detach srv gpt/d0命令后,zfs文件系统变得没有响应。 服务器充当NFS服务器,WebDAV服务器和iSCSI目标,并且在执行zpool detach所有iSCSI客户端都开始出现超时。 这显然导致整个ZFS子系统locking。 zpool status或任何其他命令只会挂起并不产生任何输出。 dmesg中没有显示任何内容, top没有显示任何消耗大量CPU的进程。 最后,我们无法find任何解决scheme,并被迫重新启动系统(包括使用硬重启,因为在停止所有服务后软重启无法重启系统),以使iSCSI目标重新联机。 是什么原因造成这种情况,我们该如何避免呢? 在FreeBSD下更换ZFS池中的设备时,我们如何防止zpool detach挂起?

grub2在RAID1 md0设备上找不到/ boot

我有4个分区(sda2,sdb2,sdc2,sdd2)组成的/ boot的RAID1 md0。 我在2TB硬盘上使用GPT,所以每个磁盘(sda1,…)上的第一个分区是1兆字节的bios_grub分区。 我也有用于LVM的RAID10 md1(包含/)和用于交换的RAID0 md2,它们都是从所有4个驱动器上的分区构build的。 mdadm持久超级版本是0.9。 Grub在所有4个驱动器(hd0,hd1,hd2,hd3)上安装了类似grub-install –modules="mdraid lvm" '(hd0)'东西。 问题。 重新启动时,grub2失败,出现“error:no such disk”,并显示“grub rescue>”提示。 ls命令只显示4个磁盘及其分区 – 但没有md*设备。 尝试insmod normal再给出“错误:没有这样的磁盘”。 检查“根”和“前缀”显示“(md0)/ grub”,这是正确的。 set prefix=(hd0,2)/grub然后insmod normal允许insmod normal启动。 这个问题。 为什么grub2没有看到md0? 到目前为止,我能看到的唯一解决scheme是用硬编码工作前缀(grub-mkimage –prefix ='(hd0,2)/ grub')手动构buildgrub映像,然后使用grub-setup将映像写入每个磁盘。 但是,这个解决scheme很难看,而且容易出错(为了避免错误,需要调查grub-install如何调用这两个命令)。 我会欣赏更好的解决scheme。 (注意:这是一个远程服务器,所以不能真正做'重新启动debugging'。)