我正在构build一个基于Linux的NAS服务器。 我的硬件由两个3ware 9500S-8 RAID卡和10个2TB硬盘组成。 (每卡5张)10个驱动器将纯粹用于数据(操作系统安装在不同的驱动器上),并使用XFS文件系统进行格式化。 我的select是: 有3ware将驱动器导出为JBOD,在linux中设置RAID6(〜16G的可用空间,两个驱动器可以失败) 在每个卡上设置5个磁盘的RAID5arrays,将两个生成的物理卷添加到XFS(〜16G可用,每个arrays1个驱动器可能会失败) 在3ware中安装9个磁盘的RAID5arrays+ 1个热备份(〜16G可用,两个驱动器可能会失败) 在性能testing中,我在一个5硬盘RAID5和60Mb / s软件RAID5上写了大约70Mb / s,所以出于性能方面的考虑,我宁愿让RAID卡处理RAID。 我担心RAID 5arrays虽然大。 我的问题: 跨2个3ware卡的RAID5arrays是否有问题? 重build9个磁盘的RAID5所需的时间会否定有热备份驱动器的好处? 操作系统将在Compact-Flash驱动器上运行,没有SWAP分区。 (8G的RAM)。 一个16TB的RAID6软件arrays能够有效地发挥这个约束吗?
旧的Windows 2003服务器运行在4个磁盘(每个250GB)的RAID 5arrays上,连接到3Ware 9500S-4LP单元。 今天早上,我从控制器得到两个警报: – 0x04:0x0025 Cache flush failed; some data lost: unit=0 – 0x04:0x000A Drive error detected: unit=0, port=1 我想更换驱动器,但是我错过了正确的程序。 我应该只closures机器,更换有问题的驱动器,并重新启动? 控制器会自动重buildarrays吗?
我在Raid 5中有一个带有3ware RAID卡的服务器,目前我正在转换到raid 6。 我的问题很简单:如果某个问题像电源故障一样出现,其中一个磁盘破坏或IO错误发生在一个会发生什么样的突袭?
我有一个3磁盘9750-8i设置与22磁盘RAID 10.我们需要扩大单位的能力,所以我已经用两个通过更换一个更大的单位的每个驱动器。 目前单位显示一切正常,但仍然显示每个子单位是274.729千兆字节,而不是931.51千兆字节的新驱动器大小。 我试图将单位迁移到相同的团队级别,但唉,它只是拒绝这样做。 我的问题是,我怎样才能将单元/子单元扩展到额外的可用空间? 非常感谢!
我有一个RAID控制器(9650SE-4LPML)我不幸在一个相当糟糕的情况: Unit UnitType Status %RCmpl %V/I/M Stripe Size(GB) Cache AVrfy —————————————————————————— u0 RAID-1 OK – – – 139.688 Ri ON u1 RAID-1 DEGRADED – – – 1862.63 Ri ON u2 RAID-1 INOPERABLE – – – 1862.63 Ri ON VPort Status Unit Size Type Phy Encl-Slot Model —————————————————————————— p0 OK u0 139.73 GB SATA 0 – […]
我从Ebay购买了一台使用过的3Ware 9500s-4LP RAID控制器(旧的3ware 8506-4lp不支持超过2TB的RAIDarrays,但它工作正常),将它安装在我的服务器上,并用我的3个2TB连接到SATA背板WD红色驱动器。 我通过RAID BIOS(启动时ALT + 3)将RAIDconfiguration为RAID 0/1和5 – 我试了一下。 回到Windows,我安装了驱动程序和3DM2(从http://www.lsi.com/support/Pages/download-results.aspx?productcode=P00258&assettype=0&component=Storage%20Component&productfamily=Legacy%20RAID%20Controllers&productname=3ware %209500S%20series ) 当我在磁盘pipe理中查找RAID驱动器时,只有系统硬盘可见。 怎么可能? 我也尝试了Windows Server 2008 R2上的一切,没有改变。 我正在使用的服务器是具有Intel SE7320EP2主板的Maxdata Platinum Server 520。 最新的BIOS安装。
我正在使用一个3ware 9690SA-8I控制器,在我的团队中有一个驱动器,现在这个团队正在重build。 同时我注意到我有一个不幸的组合愚蠢的程序,我需要重新启动操作系统。 当我重新启动操作系统,控制器将不断重build或将重新启动中断重build过程? 如果它中断了重build,它会在重启后离开它的位置,还是从0开始?
我们有一个3ware RAID控制器的服务器,由于ext4日志被中止,所以今天进入只读模式。 我检查了RAID状态,发现以下奇怪的configuration: //host> /c3/u1 show Unit UnitType Status %RCmpl %V/I/M Port Stripe Size(GB) ———————————————————————— u1 RAID-5 INOPERABLE – – – 64K 11175.8 u1-0 DISK OK – – p0 – 1862.63 u1-1 DISK DEGRADED – – – – 1862.63 u1-2 DISK DEGRADED – – – – 1862.63 u1-3 DISK DEGRADED – – – – 1862.63 […]
我有一个3Ware 9650 SE RAID控制器的服务器(Debian 6 LTS)。 有两个arrays,一个RAID1,一个RAID6。 它运行Xen 4.0,大约有18个DomU。 问题是我经历过IO任务很容易饿死对方。 当一个DomU产生大量的IO,一次只能阻止其他的IO,但是也发生在dd'ing之后。 要将DomU从繁忙的RAIDarrays中移出,我使用了dd。 在这样做的时候,我的Nagios不仅报告其他虚拟机没有响应,我在Dom0上得到了这个通知: [2015-01-14 00:38:07] INFO: task kdmflush:1683 blocked for more than 120 seconds. [2015-01-14 00:38:07] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. [2015-01-14 00:38:07] kdmflush D 0000000000000002 0 1683 2 0x00000000 [2015-01-14 00:38:07] ffff88001fd37810 0000000000000246 ffff88001f742a00 ffff8800126c4680 [2015-01-14 00:38:07] ffff88000217e400 00000000aae72d72 000000000000f9e0 ffff88000e65bfd8 [2015-01-14 […]
我在RAID1设置的同一台服务器上有一个损坏的服务器和一个损坏的磁盘。 我需要设置这个相同的RAID单元,现在在一个新的服务器上,并从只有一个驱动器(因为另一个坏了)。 我把驱动器移动到一个新的服务器,也与3ware控制器,它被认为是“U?” 我当然可以创build一个单元,但是恐怕磁盘上的一些数据可能被覆盖,我不想冒这个风险。 侧面的问题:我可以访问文件系统(ext4)的数据,只需将磁盘插入普通的SATA控制器,或RAID控制器添加一些元数据,使得它在这样一个简单的设置不可读? (我还没有尝试过)