Articles of 突袭

在多个硬件RAIDarrays负载平衡 – 软RAID 0可以接受?

我们有一个中央存储服务器(PowerEdge R720)为HPC群集提供共享文件,并有两个硬件RAID控制器(PERC H810,每个驱动2个MD1200机箱,装满7200转4TB磁盘)。 与典型的HPC工作负载一样,访问模式预计将是高度并行的顺序读取/写入。 我认为将文件分条到两个arrays将会提供更好的总吞吐量,但是在硬件RAID之上的软件RAID 0的想法听起来很疯狂。 我想出了两个select: 硬件RAID 6上的软件RAID 0上的XFS上的NFS 每个硬件RAID 6的光泽 XFS优点:项目配额。 XFS缺点:XFS上的NFSperformance出非常差的元数据性能(如果吞吐量很大,会降低到几乎不可用的程度,我是否调整了错误?)。 光泽优点:显着改善元数据性能。 光泽缺点(?):我们没有专门的元数据设备,不得不对数组进行分区。 听起来不是一个推荐的做法。 我们考虑元数据性能,因为虽然顺序R / W是主要的工作量,但我们有一些程序可以处理大约40k 1GB的文件。 以交互方式pipe理这些文件确实需要可接受的元数据性能 最后一个问题,在硬件和软件上使用什么条带大小?

SQL Server 2008的RAID控制器caching设置

我们正在使用以下虚拟磁盘(不包括操作系统/应用程序卷)设置SQL2008系统: RAID10数据 RAID1日志 RAID1的TempDB 有关如何为这三个VD设置RAID控制器caching设置的任何build议? 选项是: 写入:回写(WB)/写入(WT) 阅读:预读(RA)/自适应预读(ARA)/否预读(NRA) RAID控制器(512MBcaching)有一个电池备份单元。

当RAID控制器停止工作时,在RAID1上是否有数据丢失的风险?

我听说使用RAID5或RAID6可能会有问题:如果RAID控制器停止工作,当您没有另一个相同types的控制器时,恢复数据是非常痛苦的。 现在,RAID1是一样的吗? 或者在RAID1中,一切都非常简单,如果出现故障,我只需移除n个硬盘中的一个,然后从该硬盘重新创build一个新的RAID?

各种RAIDarrays的IO / s和MB吞吐量

在顺序和随机模式下,是否有各种RAIDarrays具有典型吞吐量和IOp / s的资源? 就我而言,我现在更具体地感兴趣: 6磁盘RAID 10arrays与SAS 10k驱动器 sqlio号码 我知道这里有很多variables,有多less操作正在处理中,控制器,caching等等……我也看到了预测RAID性能的“公式”(我觉得这种公式可能有点像malarkey),但是一些好的基准的一般目标是有帮助的。

具有Smart Array P410的ProLiant DL180 G6故障逻辑驱动器(保持故障并需要重build)

我有一堆DL180的问题,每个都有两个逻辑驱动器的P410智能arrays,一个是根文件系统,另一个是由nfs导出的大型10TB文件系统。 这些盒子主要是nfs服务器,经常被淘汰,并且是处理链中的瓶颈。 往往这些10TB逻辑驱动器中的一个出现故障,需要重新构build。 这种情况一个月发生一次,这是一个痛苦。 该消息是“消息:此逻辑驱动器已失败,无法使用该逻辑驱动器上的所有数据都已丢失”。 我们尝试更新磁盘arrays上的固件,并且已经将主机操作系统,debian,CentOS以及xfs和ext3的内核模块和各种linux版本用作文件系统types。 但是逻辑驱动器仍然需要经常从备份重build。 我为其中一个故障驱动器附加了hpacucli诊断输出。 http://pastebin.com/9zTiuSAN 一些有趣的输出项目; 插槽1中的Smart Array P410:识别控制器RAM固件版本2.00 ROM固件版本2.00 任何关于什么可能是问题的build议,或者我可能会如何处理这些arrays/磁盘,以了解导致驱动器故障的原因。 # cat output.txt | grep -B 2 'Drive Firmware Rev' Drive Model ATA GB1000EAMYC Drive Serial Number WMATV2509266 Drive Firmware Revision HPG2 — Drive Model ATA GB1000EAMYC Drive Serial Number WMATV1739564 Drive Firmware Revision HPG2 — Drive Model ATA GB1000EAFJL […]

Linux实现类似于Adaptec智能混合RAID?

我可以用我的英文不好解释,但看这个网页是最快的方法: http://www.adaptec.com/en-us/_common/hybrid-raid/ 你知道这个突出的function的任何Linux实现吗? (如果没有Adaptec控制器就可以使用它)

我应该如何计算RAID50和RAID60的IOPS?

我正在研究一些4TB数据库系统,我正在比较RAID-10和RAID-50之间的差异。 我知道如何计算RAID-1,RAID-5和RAID-10等常见RAID级别的IOPS。 但是,我不确定如何计算RAID-50和RAID-60系统的IOPS,特别是RAID-5和RAID-6系统的RAID Write惩罚。 我将如何计算RAID-50系统的IOPS? 我应该以某种方式结合RAID-10和RAID-5指标吗? 什么是RAID-50或RAID-60arrays的RAID写入惩罚? 我们知道RAIDarrays的有效IOPS可以用下面的公式计算 有效=(n * Isingle)/(READ%+(F * WRITE%)) 哪里: 有效的是有效的IOPS数量 Isingle是单个驱动器的平均IOPS。 n是arrays中的磁盘数量 READ%是从磁盘分析中读取的部分 WRITE%是从磁盘分析中读取的部分 F是RAID写入惩罚(每个写入所需的操作次数)。 常见RAID级别的RAID惩罚是: RAID Level Write Penalty RAID-0 1 RAID-1 2 RAID-5 4 RAID-6 6 RAID-10 2 RAID-DP 2 但是,RAID-50系统的写入惩罚是多less? 注意 :对于想知道ZFS的用户:用于ZFS RAIDZ的IOPS,与传统的RAID5和RAID6相比,RAIDZ2和RAIDZ3有很大的提高:请参阅计算ZFS RAIDZ的IOPS,然后计算RAID5和RAID6的IOPS?

SSD软件RAID调整是否必要?

是否有必要使构成软件RAID 1arrays的分区alignment? 本指南指出 “软件RAID:虽然在这里也需要注意正确的alignment方式,但至less需要使用64 KB大小的块才是明确的必要条件。” 我不明白软RAID如何改变性能命中/写入放大问题,因为底层的SSD控制器仍然跨越超过必要的闪存页面的文件系统页面。 这里是我的一个驱动器,我相信从LBA 63开始的分区意味着我没有alignment。 分区是通过CentOS 5安装程序创build的。 Disk /dev/sda: 120.0 GB, 120034123776 bytes 255 heads, 63 sectors/track, 14593 cylinders, total 234441648 sectors Units = sectors of 1 * 512 = 512 bytes Device Boot Start End Blocks Id System /dev/sda1 * 63 610469 305203+ fd Linux raid autodetect /dev/sda2 610470 16996769 8193150 […]

固态硬盘在服务器,最佳实践冗余?

因此,有些人可能会说Im是一位经验丰富的基础架构架构师,并且在数据中心环境(专注于虚拟化)中已经将服务器场,存储子系统和networking放在了一起。 我一直在整合大型SAS和SATAarrays,SAN,DAS,NAS,本地化,但我还没有在数据中心环境中使用SSD来存储我的任何存储。 我只有一个让我失眠的问题 如果使用SSD来提升性能,那么在SSD的主要故障原因是其写入耐久性时,如何设置标准RAID 1/10/5/50中的冗余? 例如,我会假设在RAID 10中使用SSD会给我带来很好的性能,但是arrays中的所有驱动器会同时发生故障,原因是大致同时发生相同的写入负载。 因此,我有相同的滴答倒计时失败,不只是1 SSD,但所有在arrays中。 我是否错过了一些东西或者是否有另一种最佳实践方法来为SSD提供冗余? 或者这是一个非问题,因为一个固态硬盘的耐力极限就是这样,它的生命的结束,我无法防止这个问题呢? 谢谢 汤姆

LVM Raid 1 + SSDcaching

我有三个磁盘: /dev/sda 慢速硬盘 /dev/sdb 慢速硬盘 /dev/sdc fast ssd /dev/vg0 卷组/dev/sd{a,b,c} 每个逻辑卷(lv)应该被raid1镜像和ssdcaching。 使用以下命令,我可以在vg0上创build一个名为test的镜像raid1 lv。 lvcreate –type raid1 -m 1 -L 1G -n test vg0 在上一个命令中需要更改什么,才能使用raid1镜像的慢速硬盘? 我可以使用LVM标签系统( @hdd, @ssd )吗? 我find了一些教程来解释如何使用LVMcachingfunction。 但看起来我需要为每个lv创build一个自己的caching池。 是否有可能为整个vg0创build一个大的caching池,以便vg0中的所有lvs都将被caching? 或者我可以安全地重用现有的caching池为其他lvs?