Articles of raid10

Linux软件RAID 5随机小写性能糟糕 – 重新configurationbuild议

我有3个1 TB硬盘和3个500 GB硬盘。 现在,每个大小分组都在一个RAID 5中,这两个都在LVM卷组(带有条纹LV)中。 我发现这对我的小随机写入使用太慢了。 我已经在RAID级别和LVM条带级别上调整了条带大小,以及条带caching和预读缓冲区大小的增加。 按照惯例,我也禁用了NCQ。 所以我已经完成了Linux软件突袭5.没有专用的控制器,这对我的目的是没有用的。 我正在添加另一个1 TB的驱动器和另一个500 GB的驱动器,所以每个4。 如何configuration八个驱动器来获得最佳的小随机写入性能? 当然不包括简单的RAID 0,因为这个设置的重点显然也是冗余的。 我曾考虑将4 500 GB磁盘放入2个RAID 0中,然后将其添加到其他4个1 TB HD的RAID 10中,以获得6个磁盘RAID 10,但我不确定这是否是最佳解决scheme。 什么说你? 编辑:硬件升级没有更多的预算。 我真正要问的是,就四个1TB驱动器可以直接使用RAID 10而言,我该怎么处理这四个500GB驱动器,使它们最适合于4x1TB RAID 10而不会成为冗余或性能问题? 我的另一个想法是将RAID 10全部四个500 GB驱动器连接在一起,然后使用LVM将其添加到4x1TB RAID10中。 有什么更好的,你可以想到的? 另一个编辑:现有的数组格式如下: 1 TB ext4 formatted lvm striped file share. Shared to two Macs via AFP. 1 500 GB lvm logical volume […]

哪个RAID 10和0 + 1之间是最好的RAID?

谁能告诉我哪个RAID是10到01之间最好的,为什么? 谢谢你的帮助。 编辑:我不想知道什么是有史以来最好的RAID …否则,我会问:“为什么NetApp RAID-DP比EMC的RAID-6好得多呢? 我的问题纯粹是知道RAID 10和0 + 1之间有什么区别,因为当时我还不清楚。 得到了很大的回答,感谢那些了解问题意识的人。 下一次我会详细说明一点,我把整个责任都考虑在内。

优化ext2文件系统以用于LVM + RAID设备? 跨越,条带宽度,LVM IO大小的考虑

我正在build立一个新的数据库服务器,并试图确保我的设置尽可能正确。 在具有两个RAID控制器的外部SAS机箱中,数据库存储是RAID10中的22x 15.7k RPM Western Digital SAS驱动器。 最初,我在SASarrays上创build了一个单独的卷,用ext2格式化。 我计算了Stride和Stripe-Width如下: chunk_size = 128 Kb block_size = 4 Kb total_disks = 22 data_disks = 11 stride = chunk_size / block_size = 128 Kb / 4 Kb = 32 Kb stripe-width = stride * data_disks = 32 Kb * 11 = 352 Kb 当我创build文件系统时,我将Stride和Stripe-Width的值赋给了mkfs.ext2。 然后我尝试了另一个设置,这是我的问题开始的地方。 我在SASarrays上创build了两个卷,每个都有一个不同的“主”控制器。 当导出到主机时,我使用LVM2将它们初始化为物理卷,创build一个卷组,然后将'–stripes 2'传递给lvcreate以分割卷。 […]

用两个失败的驱动器重buildRAID 10arrays

我有硬盘RAID 10configuration4硬盘专用服务器,它工作正常,直到昨天,当它开始在几分钟内随机崩溃。 我已经联系了我的数据中心,他们运行了一个系统诊断程序,他们发现我的RAID 10arrays中的一个硬盘有缺陷,他们更换了硬盘,并开始自动重build。 然后他们以正常模式启动系统,当它再次开始崩溃时,它正常工作了15分钟。 我自己做了几个诊断,当我检查物理驱动器的状态: arcconf GETCONFIG 1 PD 我注意到HDD 0,0有SMART错误,我报告给我的DC,他们证实了这一点,并要求与新的设备交换,但他们build议我备份我的数据(〜2TB),因为它很可能会丢失我的数据。 我已经备份了我的数据,然后他们replace了第二个硬盘。 启动后,他们需要强制启动RAID控制器,系统以恢复模式启动。 我认为他们第一次换了一个错误的驱动器,因为两个驱动器在不同的镜像集中同时出现故障的可能性不大,但这是另一个故事,我的问题是,第二个replace的硬盘驱动器不是自我重build。 我试图清除该驱动器的元数据: arcconf TASK START 1 DEVICE 0 0 CLEAR 并将驱动器的状态设置为热备份 arcconf SETSTATE 1 DEVICE 0 0 HSP LOGICALDRIVE 0 所以它开始自动重build过程,但没有成功。 我的RAID 10arrays数据是4个HDD驱动器HDD 0,0和HDD 0,1在镜像设置和HDD 0,2和硬盘0,3在另一个。 逻辑设备状态的输出是:arcconf getconfig 1 ld https://dl.dropbox.com/u/10839791/ld.txt 物理驱动状态的输出是:arcconf GETCONFIG 1 PD https://dl.dropbox.com/u/10839791/pd.txt 控制器状态: https://dl.dropbox.com/u/10839791/controller.txt 我的问题是有没有办法让这个驱动器重build它自己而不丢失任何数据。 谢谢。

mdadm:将RAID10转换为RAID1

有问题的机器配备了4x SSD,并运行Debian wheezy 7.8,linux kernel 3.2.0-4,mdadm v3.2.5。 目前我正在使用由所有这些ssd组成的RAID10。 我必须增加存储容量,SSD需要花费很多,所以想到要摆脱两个SSD,而不是把两个硬盘放在里面,然后把RAID10分成两个RAID1,一个是由SSD制成的,另一个是由SSD制成的的硬盘。 过去几天我在网上search了很多,但是没有发现任何有用的东西。 有人能告诉我如何将RAID10转换成一个(或两个)RAID1? 我完全不确定这是否可能,因为例如,mdadm开发人员之一Neil Brown在2009年写了一篇关于重塑的文章[1] RAID0和RAID10 目前这些arrays根本无法改造。 有人可以告诉我,如果这是可能的,如果是的话,如何做到这一点? 提前致谢! [1] http://neil.brown.name/blog/20090817000931#4 编辑1:在[2],有人问是否可以将raid10转换为raid0,得到三个答案,其中一个是“是”,一个是“否”。 – 很混乱 [2] 我可以将raid10arrays转换为raid0吗? 编辑2:使用mdadm /dev/md0 –grow –level=1 (在虚拟testing机器中)给出mdadm: RAID10 can only be changed to RAID0 。 所以似乎要走的路是转换到RAID0,然后到RAID1; 但真的不喜欢这个想法,因为这是相当危险的…任何人都知道一个更好,更安全的过程? 编辑3:不可能将RAID0转换为RAID1,试图这样做给mdadm: Impossibly level change request for RAID1 。 因此,似乎需要创build一个1级的新arrays,由当前服务于RAID0的两个设备组成。

使用Linux LVM,我可以更改条纹的数量并“重新平衡”逻辑卷吗?

我通过将两个RAID1 md设备作为物理卷添加到卷组来创buildRAID10。 不幸的是,当我创build逻辑卷的时候,我忘了指定条带的数量(已经很晚了): PV VG Fmt Attr PSize PFree /dev/md312 volume lvm2 a- 927.01G 291.01G /dev/md334 volume lvm2 a- 927.01G 927.01G 我知道我可以将逻辑卷的所有数据从一个物理卷转移到另一个物理卷。 它也看起来像lvextend支持-i开关来改变条纹的数量。 有什么办法可以把这两个结合起来, 改变条纹的数量,并根据分配策略“重新平衡”条纹上的数据? 根据罗斯沃克从2010年3月的这封邮件是不可能的,但也许这从那以后已经改变。

在Ubuntu 14.04上,软件RAID 10的速度没有s / w RAID 5那么快,为什么?

我们正在使用4 x 240 GB SSD磁盘的新数据库服务器上进行一些testing。 从我读取的RAID 10应该比RAID 5更快,具有相同的“单磁盘丢失OK”冗余。 然而,当用bonnie ++进行testing时,似乎RAID 10并不比RAID 5更快。任何想法为什么? 4个240GB固态硬盘,软件RAID,Ubuntu 14.04 英特尔®至强®E5-1650 v2六核心Ivy Bridge-E 超线程技术128 GB ECC RAM http://www.hetzner.de/en/hosting/produkte_rootserver/px120ssd RAID5(全部4个磁盘): # cat /proc/mdstat md2 : active raid5 sdd3[4] sdc3[2] sda3[0] sdb3[1] 688730112 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU] # df -h Filesystem Size Used Avail Use% Mounted […]

RAID50是否适用于文件服务器?

我们有一个新的存储arrays,包括下周到达的24个600GB 10K SAS磁盘,我试图决定如何最好地分配我们的3节点VMware vSphere集群的可用空间,这个集群将通过8Gb FC访问arrays完全冗余的多path。 我们有两个主要的工作负载 – 内部MySQL和Exchange 2010服务器,我将把它们分类为高IO和Windows域控制器以及一个文件服务器,我将分类为低IO 。 我最初的计划是用RAID10中的6个磁盘分割arrays,其余18个分别使用3个6磁盘RAID5筒仓或6个3磁盘筒仓。 机箱没有“热备份”,但我们已经订购了一个额外的磁盘作为现场“冷备用”。 现在,这在原则上是有效的,但是我不确定在实践中有多安全 – 我已经阅读了几篇文章,虽然提高的空间效率正在向RAID50的方向发展,但是我看到的几个post基本上都是这样说的由于不可靠性和故障风险,RAID50(与RAID5一起)在业界已被弃用。 我是不必要的偏执,如果不是,我应该使用RAID10筒仓而不是RAID50?

Mdadm – 更改RAID 10块大小并切换到“远”布局

我使用软件RAID 10运行带有4个2TB驱动器的Ubuntu Linux NAS服务器。 我在安装过程中(使用Ubuntu Server光盘)创build了arrays,但是布局near ,块大小为64 。 我想改变块的大小为256和布局far 。 我该怎么做呢? 这里是mdstat的输出: root@server:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid10 sde1[3] sdd1[2] sdc1[1] sdb1[0] 3907026816 blocks 64K chunks 2 near-copies [4/4] [UUUU] 我宁愿不破坏性地进行更改以节省时间复制数据,但数据已备份,所以破坏性更改也可以。 感谢您的任何帮助。

在Amazon EC2上运行的Windows Server 2008上的RAID 10的软件实现

有谁知道在Windows Server 2008上可以使用RAID 10的软件实现吗? 具体来说,我想在Amazon EC2上运行的虚拟实例上连接到EBS磁盘。