在FreeBSD 8.2发行版中,我已经在vinum中尝试了不同的条带卷。 我有目前的硬件(英特尔i5处理器,足够的MB和8GB的RAM)。 我的testing设置由2个或4个磁盘卷组成,每个磁盘为2TB,“绿色”行希捷和Western Digital; 即消费者磁盘在5400RPM。 这些在我的服务器,而我的桌面连接到(通过千兆局域网)有一个快速的SSD。 我的问题是,当我访问我的单一“黑色”西部数字2TB时,比我访问我的vinum卷时,我的Gbit局域网的性能(即读/写速度)更好。 黑色WD单碟:读=写= 90-105 MB /秒 vinum卷,所有设置:读取= 80 MB / s; 写= 50 MB / s 我试过的vinumconfiguration是: testing1: drive a device /dev/ad32 drive b device /dev/ad34 drive c device /dev/ad26 drive d device /dev/ad28 volume test1 plex org striped 512k sd length 2048m drive a sd length 2048m drive […]
我知道这似乎很愚蠢,但我真的希望我的四个1TB硬盘被镜像(运行我自己的Subversion服务器进行开发)。 在SYBA SY-PCI40010 PCI SATA II(3.0Gb / s)4端口RAID 0/1/5/10 JBOD卡RAID控制器上build立两个raid1arrays有什么问题,然后在Windows 7中镜像这两个逻辑驱动器?
我有一个全新的(相同型号)WD Caviar Green驱动器来replace我的5x2TB Raid 5arrays中的故障驱动器。 但是,新磁盘似乎稍有不同。 根据互联网,西部数据改变了他们的块大小? 这是原始磁盘之一: Disk /dev/sda: 2000.4 GB, 2000398934016 bytes 81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0xfdeee051 Device Boot Start […]
我在安装RAIDarrays时遇到了一些问题,因为在/ dev / md0上找不到ext3文件系统。 所以,也许愚蠢的是,我运行mkfs -t ext3 / dev / md0 – 是否破坏了磁盘上的数据? 我似乎无法find它的任何地方是肯定的….但想知道如果我拆散arrays我可能能够从其中一个磁盘检索数据(RAID 1的方式)
我刚刚在单机上configuration了专用服务器。 我正在通过一些testing来运行它,以了解期望的性能。 在I / O端(使用RAID 10中的4个1TB磁盘),我得到: write-cache disabled 200 MB/s read throughput 30 MB/s write throughput 我认为这是相当于我的桌面HD获得150-150左右真的很低。 所以我和他们聊天,他们build议启用写caching。 新的结果: write-cache enabled 280 MB/s read 260 MB/s write 这是伟大的,但意味着我不得不增加一个BBU额外的每月费用。 如果您没有写入caching,写入吞吐量是RAID10上常规驱动器的四分之一是正常的吗? 它几乎感觉像是故意强迫你去BBU玩。 我会很高兴正常的150/150的非突袭性能。 更新:他们现在看看它是否有什么错误。 当这个8x下降会影响服务器的工作负载时,我会给他一个被接受的答案。 如果我有更多的数据将再次更新。 +1为其他答案。 谢谢。 更新2:看起来硬件有问题。 移动到具有相同规格的新机器,并获得80MB / s的写入而无需写回caching。 caching打开时为250MB /秒。 所以没有它的3倍下降和合理的吞吐量。
我有一个Adaptec 2405 RAID卡的服务器。 我有4个硬盘驱动器连接到它。 我想再添加4个。 Adaptec公司表示,2405可以使用SAS扩展器处理多达128个硬盘。 目前尚不清楚是否需要购买单独的SAS扩展卡才能使用,或者这里提到的SAS扩展器只是另一个具有SAS扩展端口的机箱。 这些机箱是否有SAS扩展卡,以便我可以购买SFF-8088-to-SFF-8087电缆并将其连接起来? 或者我需要另一个SAS扩展卡在我的服务器? 如果是这样,我的突袭卡有什么作用? 谢谢
由于SSD的写入限制要求磨损均衡,因此假设所有情况相同,如果两个相同的SSD驱动器反映数据写入,则磨损几乎相同。 当一个驱动器出现故障时,您可以假定另一个驱动器正在按照材料和逻辑的微小差异持续下去。 随着写水平不限制逻辑结构位的物理位置,我会假设一个解决scheme将得到相似的大小,但不是相同的驱动器。 例如,我会镜像一个256GB的驱动器的240GB驱动器。 即使在逻辑上我不使用这个16GB的物理空间,写驱动器也不允许这个区域被忽略。 还是我混淆了写作水平的机制? 或者应该避免Raid1完全支持热插拔的Raid5或Raid6? 在没有写入相同数据的情况下,整个驱动器的损耗均衡应该不同。 在这种情况下,单个驱动器的故障不会成为其他驱动器立即失效的指示。 即使如此,Raid6在丢失2个驱动器方面的容错性也会改善这些问题。 尽pipe交换新驱动器时重新计算奇偶校验的处理量会很大,但SSD的IO速度将减less旋转介质上所需的总重build时间。 另外,根据一个raid计算器 ,4个256Gb硬盘的总空间可以和Raid10或者Raid6一样。 如果我有资金,我会购买8个驱动器和2个RAID卡,并testing两个,看看如何失败发生,但我完全没有这项研究的资金。 Raid10或Raid6应该以哪种方式进入? 是否有太多的镜像相同的SSD同时失败的文档? 如果是这样的话,那么在Raid6保护下,每个设备上写入不同的数据,还是数据的数量,而不是数据的形状决定了驱动器的磨损? 不匹配的尺寸是否提供了一些保护,因为磨损均衡将使用所有可用的物理硬件,而不是由逻辑结构指定的? 而随着SSD的快速IO,在更换驱动器上重build数据时,Raid6会变得更具吸引力吗?
我有一个运行RAID-6的3ware RAID控制器。 我通过tw_cli命令行实用程序pipe理RAID。 因此,arrays中的一个驱动器失败了,我从arrays中移除了有故障的驱动器( p6 ),然后插入了一个新的驱动器。 出于某种原因,3ware控制器将驱动器放置在较旧的不可操作的arrays( u1 )中。 所以我删除了这个数组。 我现在要将新驱动器添加到RAID-6,这是u0 。 所以我有: # tw_cli /c0/u0 show Unit UnitType Status %RCmpl %V/I/M VPort Stripe Size(GB) ———————————————————————— u0 RAID-6 DEGRADED – – – 256K 2793.91 u0-0 DISK OK – – p0 – 465.651 u0-1 DISK OK – – p1 – 465.651 u0-2 DISK OK – – […]
我有这个服务器的configuration IBM X3650 M4 IBM ServeRAID M5110e 300GB x3 SAS(configuration为RAID 5) 1TB x1 SAS(configuration为普通磁盘,非RAID) Windows Server 2012 R2 Standard 我想系统的行为如下: 操作系统安装在RAID-5中 临时数据在1TB 我已经使用ServerGuide磁盘成功安装了RAID 5。 但是我找不到一个方法来设置1TB的非RAID磁盘 我可以这样做吗? 如果没有,是否有任何解决方法?
我已经得到了与软件raid0英特尔sata3 ssd(2 * 480GB)的Ubuntu的服务器12.04。 raid用于postgresql数据库。 有51%的空间是免费的。 在postgresclosures之后,“dd”命令显示约10mb / sec的性能。 正常运行时间是2周。 系统重启后,raid再次正常工作,“dd”显示约700-800mb / sec。 cat / proc / mdstat md127 : active raid0 sdd1[0] sdc1[1] 937700352 blocks super 1.2 512k chunks 为什么性能下降,正常运行时间很长? mdadm版本 – 3.2.5