我的RAID1降级了,我需要更换/ dev / sdb。 但是,我可以将/ dev / sdb5(在/ dev / md1)标记为失败并将其删除,但是我无法对/ dev / sdb1(/ dev / md0挂载在/上)执行相同的操作: root@kes:~# mdadm /dev/md0 –fail /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md0 root@kes:~# mdadm –detail /dev/md0 /dev/md0: Version : 00.90 Creation Time : Wed Apr 7 03:00:39 2010 Raid Level : raid1 Array Size : 975185536 (930.01 GiB 998.59 […]
我试图找出设置在RAID10arrays上的正确的预读值,而且我想知道RAID条带大小是否应该纳入考虑范围。 过去我听到有关这个信息的矛盾。 我曾经听说您应该始终将您的预读值设置为RAID条带大小的倍数,并且从不低于条带大小,因为这是RAID控制器一次尝试读取的最小数据量。 然而,有人告诉我,在条带大小下面设置预读是可以的,事实上,可以增加arrays中设备间并行读取的数量,从而提高性能并降低arrays上的负载。 那是哪个呢? 预读设置不是条带大小的倍数是否有意义?
我的Ubuntu 12.04 LTS有一个RAID1arrays,我的/ SDDA硬盘已经在几天前被replace了。 我用这个命令来replace: # go to superuser sudo bash # see RAID state mdadm -Q -D /dev/md0 # State should be "clean, degraded" # remove broken disk from RAID mdadm /dev/md0 –fail /dev/sda1 mdadm /dev/md0 –remove /dev/sda1 # see partitions fdisk -l # shutdown computer shutdown now # physically replace old disk by […]
我有Linux软件RAID( RAID10 ), md2 : active raid10 sda6[4](F) sdd5[3] sdc5[2] sdb6[1] 390620160 blocks 64K chunks 2 near-copies [4/3] [_UUU] 这已经退化了 。 我可以开始恢复操作而不删除和添加数组的失败项目? 我已经尝试启动重新同步操作, echo 'repair' >/sys/block/md2/md/sync_action 但它没有效果… 我已经阅读过文档 echo 'recover' >/sys/block/md2/md/sync_action 使用热备份磁盘replace失败的项目。 但是它是做什么的,如果我没有这个数组的热备份分区?
只要我们清楚发生了什么: 我买了4个新的sata 2驱动器,目的是在raid5中使用它们 所有的驱动器都被我的BIOS和我的Linux机器(gentoo)完全认可, 我创build了一个raid5数组,用它来弄清楚它是如何工作的,如何监视等等。 在某些情况下,即使arrays是全新的,也会触发一个降级arrays事件。 我试图停止arrays,并使用相同的驱动器重新创build一个新的arrays,但新arrays也开始退化。 这是我用来创build它的: mdadm –create -l5 -n4 /dev/md/md0-r5 /dev/sdb /dev/sdd /dev/sde /dev/sdf 这里是我的/ proc / mdstat和mdadm –detail –scan的输出mdadm –detail –scan : **mdstat** Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md127 : active raid5 sdf[4] sde[2] sdd[1] sdb[0] 4395415488 blocks level 5, 64k chunk, algorithm 2 [4/3] [UUU_] [>………………..] recovery […]
我有一个带有4个SATA磁盘的Ubuntu(9.10)机器。 每个磁盘的分区都是相同的,前几个GB用于引导卷的RAID 1arrays( /dev/md0 ),其余用于RAID 5( /dev/md1 )。 最近,我根据这里的说明,通过反复故障和卸下驱动器升级到更大的驱动器,将其replace为更大的驱动器,将其分割并重build。 这一切都成功完成。 但是,升级后第一次重新启动,Ubuntu踢我到一个initfsshell,声称它找不到根设备。 在检查/proc/mdstat ,我发现它以某种方式将整个驱动器( /dev/sda , /dev/sdb等)组装到/dev/md1下的单个RAID 5卷中,而不是将分区组装到它们自己的arrays中。 做mdadm –stop /dev/md1; mdadm –assemble –scan mdadm –stop /dev/md1; mdadm –assemble –scan修复它,并且两个卷都正确组装(并且无需挂载)。 出了什么问题,我该如何解决?
我已经在Windows Server 2008的DELL服务器上重新插入了一个RAID磁盘。驱动器状态指示灯在绿灯和黄灯之间变化,监视器显示以下消息: There are offline or missing virtual drives with preserved cache. Please check the cables and ensure that all drives are present. Press any key to enter the configuration utility. 我按了一个键,PERC 6 / I集成BIOSconfiguration实用程序显示该磁盘的RAID状态为脱机。 重新插入磁盘后,显示器显示以下消息: Foreign configuration(s) found on adapter. Press any key to continue or 'C' load the configuration utility, or press […]
我们正在为我们合理繁忙的网站提供新的生产服务器。 我们select的主机有一个LSI 9260-8i卡的6驱动器configuration。 我最初的想法是用固态硬盘(英特尔520 256GB)填满所有六个海湾,并将其设置为RAID。 好,坏,或可怕的主意? 卡可以处理吗? 我们应该使用RAID 5,6或10吗? 这将是供应商第一次为SSD上架所有六个插槽,所以他们有点犹豫。 我想知道是否有人使用此卡在生产环境中做了类似的事情。 我们每天做大约43GB的写入,目前使用大约300GB的存储。 该服务器充当约100万个文件的networking服务器,数据库和映像存储。 计划是将固态硬盘的供应量降低约10%到20%,以增加其整体寿命和性能。 回退选项是RAID 1中的2x480gb SSD和RAID 1中的另一个2×1 TB HDD。 这背后的动机是2xSSD和6xSSD之间的服务器租赁成本差异是最小的(与租赁的总体成本相比)。 我们没有任何特殊的高IOP要求。 但是,如果知道这个configuration是可行的,我不会看到一个不使用它的好理由,也不必担心分开的“快速和小型”和“慢速和大型”磁盘。 – 编辑10/09/2012:安迪(谁在下面评论)build议在IRC JBOD与RAID 1可能是一个好主意。 我赞成这个: 这是一个不那么“复杂”的解决scheme 我不需要RAID 0或RAID 5提供的额外IOPS和吞吐量 但我确实需要他们提供的额外空间 这样可以确保磁盘不均匀磨损,从而降低并发故障的风险(尽pipeRAID 1中两个从属设备的风险仍然存在)
我在“不支持”的硬件上安装了ESXi 3.5服务器 – SuperMicro主板,Adaptec 9410 3405 RAID控制器(哎呀,9410是没有用于RAID的板载控制器) – 我开始怀疑RAID的重点是什么,因为我们没有任何监控。 除了100%兼容系统/使用像vSphere这样的付费产品之外,是否有可能在ESXi上监控RAID?还是应该切换到“认可的”硬件系统或SAN? 更新:我发现这个Adaptec知识库文章说ESXi没有监视支持: ESXi Server 3.5中embedded了AACRAID驱动程序(请参阅VMwareauthentication兼容性指南),但不提供pipe理软件(ASM或ARCCONF)。 然而,卡片有诊断指示灯,所以我猜想某种硬件破解可能是最后的手段。
我有一个服务器与三个500GB驱动器,我的大部分数据在RAID5configuration跨越三个。 我刚刚购买并安装了四个1TB硬盘,目的是从旧硬盘移到新硬盘。 我有足够的SATA端口和电源连接器一次为我所有的七个驱动器供电,所以我一直在保持旧的RAID运行,而我找出如何处理新的驱动器。 我的问题是:我应该在1TB驱动器上创build一个全新的arrays,然后移动一切,重新configurationLinux从新的MDarrays启动? 或者我应该扩大arrays,用1TBreplace三个500GB中的每一个,然后添加最终驱动器? 我已经阅读了mdadm扩展驱动器设置,这是有道理的,但我想我会使用其中一个驱动器作为完整备份,而我移动的东西,然后添加该驱动器回到数组中,一旦事情发生了运行在三个1TB的硬盘上,所以在这条路上也有一些复杂的情况,我只是不确定哪个更安全/推荐。