我有一个软件RAID 10arrays,我最近注意到进入退化状态。 操作系统是CentOS 5.8。 它有3个不同arrays的4个500GB驱动器: / dev / md0是RAID 1并挂载到/ boot(200MB ext3) / dev / md1是RAID 10并且是交换(4GB交换) / dev / md2是RAID 10,是主系统和数据设备(895GB ext3) 其中一个驱动器出现故障,但只有/ dev / md2(主系统和数据arrays)降级。 以下是完整的mdadm和/ proc / mdstat输出… http://pastebin.com/VL0uYdU9 问题似乎是其中一个驱动器上的扇区失败 Dec 9 04:25:37 hostname smartd[3199]: Device: /dev/sdb, 1 Currently unreadable (pending) sectors Dec 9 04:25:37 hostname smartd[3199]: Device: /dev/sdb, 1 Offline uncorrectable […]
首先,我必须说,我完全不服务于服务器pipe理。 我租了一台装有8x3TB HD和RAID10的服务器。 在“磁盘pipe理”部分(我使用Windows服务器),我看到两个未分配的2Tbs和10TB的块。 我想这是正常的,因为RAID10给我只有我租用磁盘空间的一半。 所以,现在我的问题是…如果我创build一个分区,该分区将自动重复的数据或我必须做更多的东西? 提前感谢任何帮助/提示。
我有这个configuration(节选)为我的preseed di partman-auto/method string raid di partman-auto/disk string /dev/sda /dev/sdb /dev/sdc /dev/sdd di partman-auto/expert_recipe string \ multiraid:: \ 512 10 512 raid \ $primary{ } \ method{ raid } \ . \ 2000 20 3000 raid \ method{ raid } \ . \ 10000 30 4000000 raid \ method { raid } \ . \ […]
我有兴趣如何在Windows SBS 2011机器上增长RAID 10arrays? 基本上我已经添加了两个额外的磁盘,扩大arrays,现在我想增长我的C:文件系统利用新的空间? 它是硬件RAID,控制器是HP服务器上的Smart Array P410i 512Mb。 此举是从RAID1(2个磁盘,300Gb)到RAID10(4个磁盘,600Gb) 谢谢
我试图通过这个命令将一个RAID10固态盘caching添加到VD: [root@livecd storcli]# ./storcli64 /c0 add vd cachecade type=r10 drives=252:4,252:5,252:6,252:7 assignvds=0 Controller = 0 Status = Failure Description = Unsupported RAID level 在这个storcli命令的参考中,它说raid10是可能的,但是它不允许我为caching创build一个RAID10arrays。 storcli /cx add VD cachecade|cc Type=[0,1,10] drives=[e:]s|[e:]sx|[e:]sx,y [ < WT| WB> ] [assignvds=0,1,2] 有任何想法吗?
我刚刚在我的DC上安装了一个新的SolusVM Xen节点。 我要求他们安装软件RAID 10和100GB的CentOS6,然后将其余部分安装到Xen的LVM组。 全部在软件RAID 10中。服务器有4x1Tb驱动器。 当我运行cat /proc/mdstat我得到这个: Personalities : [raid10] [raid1] md0 : active raid1 sdb1[1] sda1[0] sdc1[2](S) sdd1[3](S) 255936 blocks super 1.0 [2/2] [UU] md2 : active raid1 sdb3[1] sdc3[2](S) sdd3[3](S) sda3[0] 4192192 blocks super 1.1 [2/2] [UU] md1 : active raid10 sdc2[2](S) sdd2[3](S) sdb2[1] sda2[0] 104791552 blocks super 1.1 2 near-copies [2/2] […]
我有一个有趣的问题,我希望你们都可以帮助我。 我有一个运行两个RAID10虚拟驱动器的IBM 5014(相当于LSI 9260-8i)。 首先是4个WD RE4,每个2TB,总共4TB的驱动器 – 我们称之为VD1。 另一个是4个WD RE4-GP,每个2TB,另一个4TB的总驱动器 – 我们称之为VD0。 在这种情况下,该卡运行在具有3个风扇的Norco机箱中(每个4个驱动器上各有1个,技嘉MB,16GB RAM和IBM卡上有1个),还有一个IBM5015在RAID10中运行4个256GB SSD )。 我使用一系列虚拟机使用ESXi5.5进行了虚拟化。 5014卡以直通模式运行到WHS2011主机,而5015卡则包含虚拟机本身。 VD0运行良好,没有问题。 这是我的主要文件存储。 但是,包含我所有video的VD1会周期性地丢弃一个驱动器,导致降级状态,然后几乎是瞬间(通常具有完全相同的时间戳,但偶尔会持续1秒的延迟),从而导致其余驱动器它要离线。 控制器本身一直运行良好近6个月,所以虽然它可能是控制器相关的,这感觉就像会造成两个虚拟驱动器的问题,而不只是其中之一。 我面临的挑战是,驱动器不会以相同的顺序一直退出(至less根据日志) – 所以我不知道哪个驱动器导致了问题。 我已经包含了下面日志的摘录。 正如你将会看到的那样,它会丢弃驱动器,然后重新添加驱动器。 任何关于如何解决哪个驱动器的build议都是非常受欢迎的 – 我不能相信他们都不好,我也不能相信MSM日志本身中包含的信息很less。 谢谢大家! 道格 ID = 248 SEQUENCE NUMBER = 382617 TIME = 07-07-2015 08:14:46 LOCALIZED MESSAGE = Controller ID: 0 Device removed Device Type: Disk Device […]
我刚刚在我的Ubuntu 14.04中创build了一个btrfs RAID10arrays,使用命令: mkfs.btrfs -d raid10 -m raid10 /dev/sda /dev/sdb /dev/sdc /dev/sdd 我的4个硬盘都是2TB硬盘。 在RAID10下,我预计总共可以看到约3.6TB的可用空间。 然而,出于某种原因,我看到总共可用7.3TB(请参阅下面的/dev/sda ): Filesystem Size Used Avail Use% Mounted on /dev/sde1 42G 1.7G 38G 5% / none 4.0K 0 4.0K 0% /sys/fs/cgroup udev 7.8G 12K 7.8G 1% /dev tmpfs 1.6G 1.2M 1.6G 1% /run none 5.0M 0 5.0M 0% /run/lock none 7.9G […]
在两个驱动器上使用缺less驱动器的情况下运行3个副本MD RAID10arrays,而不是在两个驱动器上的2个副本MD RAID10arrays上运行以允许未来添加第三个驱动器,这是不好的做法吗? 我们正在迁移服务器,我将在新的服务器上build立一个新的arrays。 计划是build立一个缺less驱动器的3个拷贝arrays,并且可能在几个月内这样做,以允许将来增加第三个驱动器。 这相当于运行一个2复制数组或有这样的警告? 我们目前的arrays是两个驱动器上的2个副本MD RAID10arrays。 我们想增加另一层次的冗余,但是我们还没有第三个驱动器,或者没有托盘,也没有任何事情迫使我们立即采购。
我正在使用固件版本2.130.353-1819(Aug 09 2012)的lsi megaraid控制器。 我有一个4x4tb磁盘的RAID 5。 我想做的是从raid 5迁移到raid 10. megaraid存储经理给了我只有机会迁移到RAID没有dataloss生活。 我做到了。 带了我约30小时。 现在是可以将这个VD转换为突袭10? 从我读到的,我必须configuration两个RAID 1 VD,并添加一个肚子,使其突袭10,但我现在有一个RAID 4的硬盘0。 在RAID 0中删除磁盘意味着dataloss,所以我能做什么? 我没有足够的空间来备份7TB的数据(驱动器组ith 16TB – > 14.5净空间,8TB免费)。 megaraid存储经理