我的DELL PowerEdge 2950卡在BIOS 2.7屏幕上并没有提前,键盘也不响应。 我应该如何解决这个问题? 这是屏幕
我有一台配有HP H240主机总线适配器的HP Proliant DL 160 Gen9服务器。 6x 1 TB三星SSD直接使用机器的内部存储configuration在RAID 5中。 使用VMware(6.0)在其上安装虚拟机后,我做了一个基准testing,结果如下: 经过一番研究,我得出以下结论: 没有caching的控制器将有麻烦来计算RAID 5条纹,我支付这写性能。 但是630MB / s的读取和40MB / s的速度似乎有点差。 无论如何,我发现别人有同样的问题。 由于我今天不能更改控制器,有没有办法testing控制器是否在边缘? 或者我真的必须尝试一个更好的,看看结果? 我有什么select? 我对服务器/硬件/安装非常新,因为在我以前的公司这是由托pipe外包提供商pipe理。 编辑更新 现在在这里启用写caching的性能。 甚至在我做这个改变之前,这个读数就上升了。 不知道发生了什么,我只是在Windows机器的BIOS设置中玩过。 今天我去更新固件到最新版本,让我们看看它给了我们什么。 这里有一个带有4GBcaching的新型控制器P440的Benchmark屏幕截图。 (使惠普SSD智能path没有带来性能改善btw。)但与caching我们得到更好的结果。 当然,我testing了大于4GB的文件,以确保testing磁盘而不是caching。
所以有几个RAIDconfiguration可供select,我想知道,最终我希望我的驱动器中有一部分可能需要换掉25-45%的保修。 我知道,从RAID1configuration来的驱动器没有隐私的希望。 任何人都可以build议是否可以从单个 RMAd驱动器收集任何数据,这些驱动器是RAID5,RAID6或RAID0 + 1的一部分? 通过数据,我正在讨论来自* .doc,* .xls,平面文本文件等的操作数据。
我有3个1 TB硬盘和3个500 GB硬盘。 现在,每个大小分组都在一个RAID 5中,这两个都在LVM卷组(带有条纹LV)中。 我发现这对我的小随机写入使用太慢了。 我已经在RAID级别和LVM条带级别上调整了条带大小,以及条带caching和预读缓冲区大小的增加。 按照惯例,我也禁用了NCQ。 所以我已经完成了Linux软件突袭5.没有专用的控制器,这对我的目的是没有用的。 我正在添加另一个1 TB的驱动器和另一个500 GB的驱动器,所以每个4。 如何configuration八个驱动器来获得最佳的小随机写入性能? 当然不包括简单的RAID 0,因为这个设置的重点显然也是冗余的。 我曾考虑将4 500 GB磁盘放入2个RAID 0中,然后将其添加到其他4个1 TB HD的RAID 10中,以获得6个磁盘RAID 10,但我不确定这是否是最佳解决scheme。 什么说你? 编辑:硬件升级没有更多的预算。 我真正要问的是,就四个1TB驱动器可以直接使用RAID 10而言,我该怎么处理这四个500GB驱动器,使它们最适合于4x1TB RAID 10而不会成为冗余或性能问题? 我的另一个想法是将RAID 10全部四个500 GB驱动器连接在一起,然后使用LVM将其添加到4x1TB RAID10中。 有什么更好的,你可以想到的? 另一个编辑:现有的数组格式如下: 1 TB ext4 formatted lvm striped file share. Shared to two Macs via AFP. 1 500 GB lvm logical volume […]
从mdadm手册页: “在创buildRAID5arrays时,mdadm会自动创build一个具有额外备用驱动器的降级arrays,这是因为将备用arrays构build到降级arrays中通常比在非降级但不干净的arrays上重新同步奇偶校验要快。这个特性可以用–force选项覆盖。“ 所以我有4个硬盘我想要放入一个数组…我使用的方法指定使用其中的一个作为'备用'… 又名: mdadm –create –verbose / dev / md0 –level = 5 –raid-devices = 3 / dev / sdb1 / dev / sdc1 / dev / sdd1 –spare-devices = 1 / dev / sde1 我不明白的是为什么发生这种情况,我的假设是,我最终会得到一个3驱动器arrays和一个热备份…如果我不想这样做,我想要一个4驱动器arrays,我看到我可以用-force选项来做 我只是想知道为什么这是默认的,如果我错过了什么… 提前致谢。
我有3个ssd磁盘(59 GB)。 我想用它们作为Fedora 15的软件raid5。我读到,build议在一个单独的磁盘上有/ boot。 2个问题: 1)是否有可能build议在每个磁盘上分配6 GB的分区(并将其设置为raid 1),以便/ boot和/ swap分区? 在这种情况下,恢复raid1和raid5数组很容易? 2)在单独的第4张磁盘上有/ boot和/ swap(因此除了上面的3),如果这个磁盘出现故障,恢复过程如何? 谢谢
所以我被困在一个angular落里,我有一个存储项目被限制为24个主轴,并且需要大量的随机写入(相应的读取端是纯序列的)。 需要我的驱动器上的每一个空间,总共有13TB的n-1 raid-5,而且必须快速超过2GB / s。 显而易见的答案是使用Stripe / Concat(Raid-0/1),或者更好的是用raid-10代替raid-5,但是由于我无法控制的原因,这是不允许的。 所以我在这里寻求帮助,以获得最佳的configuration,以尽可能好。 该arraysbuild立在直接连接的SAS-2 10K rpm驱动器上,由具有4GBcaching的ARECA 18xx系列控制器支持。 64karrays条纹和一个4K条纹alignment的XFS文件系统,有24个分配组(为了避免一些被突袭5的惩罚)。 我的问题的核心是:在与6锭/ AG的相同的设置,我看到写在磁盘有限的性能,每锭100MB / s,在12锭,我看到下降到80MB /秒和24 〜60MB /秒。 我认为,在分布式平价和匹配AG的情况下,性能应该随着主轴数量而变化,或者在小主轴数量情况下会变得更糟,但是这个arrays正好相反。 我错过了什么? 应该Raid-5性能与主轴#的规模? 非常感谢您的答复和任何想法,意见或指导。 – 记账编辑: 提高RAID性能我find的其他相关的线程讨论了答案中的一些相同的问题,尽pipe它仍然给我一个关于性能缩放的答案。
我已经inheritance了使用RAID 5arrays的服务器的pipe理。 我们有一个数组损坏的数据库刚刚超过一半的分配大小,所以使恢复不可能。 我最近更改了托架25中的备用磁盘以成为arrays的一部分(为DB恢复提供了足够的空间),重build期望开始OK。 但之后报告了托架22中的故障磁盘。 这已被replace,现在我卡在显示arraysconfiguration状态“RAID5,准备重build”的服务器。 谁能帮忙? => ctrl slot=1 show config Smart Array P600 in Slot 1 (sn: P92B3AF9SXL040) array A (SAS, Unused Space: 297996 MB) logicaldrive 1 (6.3 TB, RAID 5, Ready for Rebuild) physicaldrive 1E:1:1 (port 1E:box 1:bay 1, SAS, 300 GB, OK) physicaldrive 1E:1:2 (port 1E:box 1:bay 2, SAS, 300 GB, […]
我有一个由3个磁盘组成的RAID5,其中一个坏了。 我想知道是否可以将这两个磁盘转换为RAID1,而不会丢失数据,也不需要在别处备份数据。
只是想清楚我对RAID 5的理解,假设我们在RAID 5中有100 GB的数据要存储在SAN中,实际的存储是指100 * 5 = 500 GB?还是仅仅存储了100 GB在不同的5 dsiks? 请让我明白。 谢谢