所以,今天我在我的服务器上安装了两个新的驱动器,而LSI SAS BIOS则说明了Pred Fail Yes 。 我能做些什么呢, Pred Fail Yes什么意思? 我们需要备份的服务器,我们需要额外的2个驱动器
我最近买了一些二手HP DL160 G6。 我已经在RAID 1 + 0中configuration了内部的B110i(使用四个SATA磁盘)。 当我试图在机器上安装Centos 7或Ubuntu 14.04 LTS时,我已经看到所有四个驱动器独立,而不是创build的arrays。 在过去的HP DL380 G5中,我使用了经过发行版(RHEL 5和Ubuntu 12.04)认可的cciss驱动程序。 如何在机器上启用arrays(如果可能,在安装时)? 我必须提供一些自定义驱动程序(使用dd安装)?
我们在PowerEdge R620中通过PERC H710 RAID控制器在RAID 1中configuration了2个600GB SAS 15K驱动器。 题。 我们可以将其转换为RAID 0而无需重新安装操作系统? 如果是这样,那么正常的步骤是什么? (是的,我们知道这是以冗余为代价的,但是我们需要存储空间,并不需要冗余,作为运行分析的大型集群的一部分,一个或几个节点/磁盘在这里和这个问题背后的原因是更多的与SLA相关,在不影响SLA的情况下对几个节点进行更改)。
我最近从亚马逊( http://www.amazon.com/gp/product/B00LM6KVZA?psc=1&redirect=true&ref_=oh_aui_detailpage_o00_s00 )购买了希捷NAS Pro 6-Bay 30TBnetworking附加存储驱动器(STDF30000100)。 它说它使用希捷的SimplyRAIDconfiguration。 不幸的是,我找不到一个清楚的解释,如果我selectSimplyRAID而不是其他RAID解决scheme,我会得到多less空间。 有人可以向新手解释吗? 谢谢。
我完成了60%的命令,在我的Ubuntu 14.04服务器上构build了双磁盘RAID1 sudo mdadm –create –verbose /dev/md0 –level=1 –raid-devices=2 /dev/sdb1 /dev/sdc1 当我不小心绊倒了我家的断路器,并closures了服务器。 该死的。 现在当我尝试重新运行我得到的命令 mdadm: super1.x cannot open /dev/sdb1: Device or resource busy mdadm: failed container membership check mdadm: cannot open /dev/sdb1: Device or resource busy 当我试图检查我得到的进展 $ cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md127 : active (auto-read-only) raid1 […]
我有一个18个磁盘的RAID 6。 它被用作小图像(5-500Kb)的存储。 这是关于6TB充满数据。 我有一个实用程序,该图像读取内存,然后通过networking发送。 我注意到大约10Mb / s的I / OI有100%的活动时间。 qlen约为18-25,iops约为500-700。 是因为很多小的要求吗? 我可以改进吗? 我注意到它可能会影响其他使用该存储来满足其需求的应用程序。 此外,某些文件的响应时间可以增长到700-1000毫秒。
我们有一个带有四个ST2000NM0033-9ZM175 SN03 SATA磁盘的Intel RAID Controller RS25DB080 (LSI SAS2208) 。 使用这些磁盘构build硬件RAID10卷,并在其上安装Ubuntu服务器操作系统。 最近我们发现我们的硬盘有一个固件更新。 服务器是远程数据中心的生产服务器,因此我们不能将其closures并启动特定介质,以旧式可靠的方式刷新固件。 另外,与固件一起打包的官方PDF格式为: …不要在RAID系统上运行此固件更新。 RAID系统对各个驱动器的中断非常敏感。 低级别的磁盘驱动器诊断会导致RAIDpipe理软件对通过testing或固件下载减慢速度的驱动器发生故障,这种情况并不less见。 因此,我们强烈build议您使用RAID控制器制造商提供的磁盘pipe理工具。 …其中,RAIDpipe理软件可从3Ware,Adaptec和LSI获得。 LSI控制器使用MegaCli实用程序进行pipe理。 不幸的是,它的文档非常简洁。 以下是关于闪存固件的说明: MegaCli -PdFwDownload [offline] [ForceActivate] {[-SataBridge] -PhysDrv [0:1]} | {-EncdevId [devId]} -f -aN | -a0,1,2 | -aALL 使用命令行中指定的文件闪烁固件。 用于闪存物理设备的固件文件可以是任何格式。 CLI实用程序假定您提供了有效的固件映像,并且闪烁。 物理设备需要进行错误检查。 searchnetworking还没有透露太多。 这个链接是我们发现的实际应用的唯一例子。 链接上描述的过程似乎很平凡,但我们还有一个大问题没有得到答复:将固件刷新到保存活动 RAIDarrays的磁盘是否合适 ? 特别是当操作系统从这个数组的一部分引导时,
我有一个带有P212控制器和256MBcaching卡/电池的HP DL380 G5。 P212连接到一个MSA60机箱,为了testing,我已经安装了8个500GB的7.2k SATA硬盘。 经过大量的研究,我知道MSA60只能以1.5G的速度协商SATA磁盘,而控制器和机箱之间的单根SAS电缆则有4个300MB / s的通道。 因此,链接上的最大速度是1200MB / s,如果我知道RAID0是如何工作的,那么在8个磁盘的RAID0上读取/写入速度会非常快。 我做了一个简单的水晶盘标记testing,看到它的读取上限为360MB / s左右。 这是我应该期待在这个设置,因为我认为它会比这更高。 也许我的math技能没有达到要求。 编辑 所以感谢大家的意见,这证实了我对SAS链接的理解,机箱和控制器之间的联系并不是瓶颈。 我现在开始使用的是4 x 3TB Seagate 7200RPM硬盘。 奇怪的是,其中两个显示链路速度为1.5Gbps,2个显示为3Gbps。 单个磁盘上的磁盘testing显示读取速度约为140MB / s,写入速度约为110MB / s。 如果我在RAID0中进行扩展,我所添加的每个磁盘都按照预期缩放写入速度,4个磁盘提供大约440MB / s的速度。 然而,读取似乎达到了最大值约410MB / s,但我预计在RAID0中将达到560MB / s左右。 这个缩放可能是下降到caching设置? 我想在这个机箱中使用RAID 5,但是如果我不能在RAID 0中获得预期的结果,我就不敢去想我的RAID 5的结果了。
使用dd进行SSHFS服务器I / O延迟testing会得到非常令人惊讶的结果,所以我担心这可能是testing方法或configuration中的一些问题。 testing1在本地RAID 10磁盘上使用dd (512个字节写入一千次) dd if=/dev/zero of=/root/testfile bs=512 count=1000 oflag=dsync 产量 1000+0 records in 1000+0 records out 512000 bytes (512 kB) copied, 3.34273 s, 153 kB/s 不用说,testing1的结果非常令人失望。 testing2挂载( sshfs -o reconnect -o nonempty -o allow_other -o ServerAliveInterval=15 -o cache=yes -o kernel_cache -o Ciphers=arcfour )使用dd RAID 1磁盘(512字节写入一千次) dd if=/dev/zero of=/mnt/nas/testfile bs=512 count=1000 oflag=dsync 产量 […]
我有一台运行Ubuntu Server 14.04LTS的服务器,目前我的networking传输速度很慢。 这台服务器现在已经运行了大约2年,突然间我遇到了问题。 通常传输一个单一的文件到这台服务器,我会得到100 MB / s到115 MB /秒。 目前,速度可以获得,但只有短暂的时间。 通过4GB的文件传输大约一半的速度下降到约50MB /秒,然后传输locking,然后我得到一个错误消息,说:“访问共享有问题”,我不得不取消文件传输。 文件传输当前正在运行的服务器和机器都通过Cat6千兆位以太网连接。 服务器有一个硬件RAID 10存储arrays,所以驱动器的速度和networking速度不成问题。 就像我之前说的那样,这个系统已经有两年没有问题了,突然间出现了。