Centos 5.9 – 2.6.18-348.3.1.el5 i686 Raid5 – 4磁盘+ 1备用(全部WD RED 3TB) 是否可以在同一VP内创build多个LV,并将它们configuration为不同的文件系统: Example: LV1: ext4 – photo backup – so lots of smaller files LV2: xfs – server backups – so lots of large-to-massive files LV3: ext4 – other data backups – mixture of small-to-medium sized files 我以如下方式创buildRAID: mdadm –create –verbose /dev/md0 –metadata=1.2 –chunk=128 –level=5 […]
我有一个磁盘死在我的RAID级别5 RAID中,在我replace之前,我的RAID在拷贝一些数据的时候被废弃了。 在RAID恢复上读取RAID内核维基我试过强制安装没有成功: # mdadm –assemble –force /dev/md1 /dev/sda1 /dev/sdc1 mdadm: /dev/md1 assembled from 1 drive – not enough to start the array. mdadm –examine的结果是: /dev/sda1: Magic : a92b4efc Version : 1.2 Feature Map : 0x1 Array UUID : 2f3274a9:e3975c44:43e0066f:3c4e819d Name : Jupiter:1 Creation Time : Sun Aug 26 17:41:46 2012 Raid Level : raid5 […]
我们的Smart Array P800configuration工作正常(RAID5)。 在物理上,我们有一个磁盘机箱(像这样 )连接到一个Linux服务器。 这是发生了什么事情: 此服务器意外重新启动。 在服务器上运行的hpacucli实用程序(命令行)立即重新启动,出现了一些奇怪的磁盘故障,逻辑驱动器处于“失败”状态。 我们重新启动了磁盘盒,然后重新启动服务器。 我们在重启过程中得到了这个 Drive positions appear to have changed. Run Array Diagnostics Utility (ADU) if previous positions are unknown. hpacucli现在看到所有的磁盘都可以,但是列出它们为“未分配”。 我们如何重新创build数据丢失的逻辑驱动器? 我们可以运行一些实用程序/命令来解决这个问题吗?
祝你有个好日子,我准备好读这个RAID 5检测写错误了吗? 我已经在“3 ware”控制器上search了5个问题,我想问一下: – 我是否需要不时运行validation时间表,还是只能使用智能testing? – 你多久运行一次或第二次? – 我理解是否正确,validation将检查硬件错误和RAIDarrays一致性? – 我应该使用AutoVerify选项吗? 请告诉我,如果我错了。
我有一个OWC水星Pro精英Qx2 。 我有4个4TB日立驱动器安装在RAID 5上。 有一天,红灯亮起,表示我的C盘出现故障。 我把它拿出来放在我的基座上。 使用OSX Disk Utility和SMART Utility进行一些诊断。 重新格式化驱动器,驱动器通过validation和修复。 当我把它重新放在OWC框中时,“重buildarrays”指示灯亮起,一分钟后,它给了我相同的红灯,表示出现故障。 我不知道为什么它说驱动器有问题。 我已经testing了这个驱动器非常彻底的RAID设置,它似乎很好。 所有四个驱动器都是相同的型号和固件。 他们同时购买,所以它们很可能在同一批中出现。 任何想法,为什么发生这种情况? 我不愿意购买一个新的4TB硬盘,只是为了让RAID变得时髦,把另一个不同的固件/模型驱动器。 任何帮助表示赞赏。
我在Debian上安装了一个带有5个3TB硬盘的RAID 5(几个星期8个)。 它只有一个ext4分区,使用所有可用的空间。 实际上,由于RAID(4个驱动器)的起源,ext4 fs的条带宽度被设置为384.但是对于5个驱动器,这并不好。 那么,是否可以在未挂载的ext4分区上使用tune2fs( tune2fs -E stripe-width = 512 )更新stripe-width,而不会丢失数据? 谢谢
我想重build我的arrays(RAID 5)进行扩展。 在目前的configuration中,我有3x320GB的硬盘给我600GB左右的空间。 我想用3x1TB硬盘replace这些硬盘,使我可以使用大约2TB的硬盘。 我想知道的是,有没有办法将硬盘RAID5中的硬盘从服务器移动到我的电脑没有RAID控制器,并暂时访问它的信息? 此外,我想知道如果我得到我的当前系统的图像,是否有可能将图像恢复到更新的RAIDconfiguration相同的服务器? 请回答我的两个上面的问题…帮我在这个问题上。
我们有一个从以前的系统pipe理员inheritance的服务器。 现在RAID-5(基于IBM ServeRAID的H / W)现在无法使用,说没有足够的磁盘来操作。 在ServeRAID Manager上,我可以看到三个物理磁盘和一个逻辑卷。 逻辑卷属性说: Data space: 698GB和Parity space: 232GB ,从中我猜应该有四个磁盘。 我对吗? 在服务器中有三个物理磁盘。 (每个都是250GB的磁盘。) 那么现在我应该确定逻辑卷是从你或者四个磁盘创build的? 怎么能确定呢? 我不确定Data space和Parity space在这个术语中的正确含义,如果我必须总结它们,这意味着四个磁盘应该在那里。
我有三个相同的硬盘。 使用ROM工具,我将其中的每一个的90%configuration为RAID 5arrays,另外10%configuration为RAID 0arrays。 也就是说,每个arrays都使用三个磁盘上的某个区域。 我试图在这台机器上安装Kubuntu 14.04,但安装分区select器/操纵器似乎只注意到小的RAID 0(条纹)分区,而不是更大的RAID 5(奇偶校验)分区。 我该怎么办?
我们在我们的数据中心得到了带有固件版本3.8.1 Build 20121205的QNAP TS-859U +。 它具有Intel(R)Atom(TM)CPU D525 @ 1.80GHz处理器和1GB RAM,8个3TB(Seagate ST33000651AS CC44)驱动器,它们构成一个7个驱动器的RAID5arrays。 另一个磁盘是全球备件。 我的意图是尽可能多的收集数据。 发生电源故障后,有这个日志消息: [RAID5磁盘卷:驱动器1 2 8 4 5 6 7]文件系统不干净。 build议您运行“检查磁盘”。 该RAID5逻辑卷仍然挂载,我们有机会从QNAP Web GUI启动文件系统检查。 但是我们决定在工作时间之后这样做,不会给用户带来不便。 但是我们再也没有机会了,因为设备重新启动,RAID5逻辑卷变成了“Unmounted”,所以不再需要从GUI开始文件系统检查,因为“CHECK NOW”button变为不活动状态。 我开始为所有驱动器“坏块扫描”,他们都成功完成。 他们都说SMART信息“GOOD”。 然后我尝试通过SSH手动安装该卷,这是输出: [~] # mount /dev/md0 /share/MD0_DATA -t ext4 wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or other error 这个安装尝试对dmesg的反思: [ […]