在托pipe多台机器的VMWare服务器上configuration磁盘的最佳方式是什么? 托pipe多个虚拟机的单个RAID 5arrays将提供良好的吞吐量,但意味着所有虚拟机正在访问相同的磁盘(因此访问磁盘的一个虚拟机将延迟另一个访问磁盘) Skippig RAID和每个磁盘有一个虚拟机意味着磁盘访问速度通常较慢(单磁盘速度),但是不会有另一个虚拟机同时访问驱动器造成的延迟。
我不能轻易closures这个Windows服务器,所以我想“在线”解决scheme。 我尝试了以下失败: Seatools Enterprise:导致蓝屏死机 smartmontools:扫描只显示了不支持SMART的virtaul RAID驱动器; 似乎并不支持Windows的每个联机帮助中的configuration(显示-d megaraid只适用于linux) 我更喜欢不是OpenManage的解决scheme(有问题的驱动器显示不好,但其testing通过,所以我基本上需要另一个应用程序的意见)。 我也确认了驱动器( 希捷猎豹15K.4 ST373454LC SCSI Ultra 320 80pin LC)确实具有SMARTfunction
你推荐什么开源工具来对Linux服务器进行压力testing? 具体来说,我们想要颠覆CPU,硬盘arrays和内存。 我们有一台4年前的IBM服务器,它正在安装Windows Server 2003。 我们希望通过在高负载下testing主要组件来validation问题不是硬件相关的问题,以便将硬件重新用作LAMP盒。 每个回应一个build议请。
我刚安装了一个LSI 9260-i8,使用两个虚拟驱动器,第一个由4个SSD组成,其次是4个HDD。 显然这个想法是在保持一定安全性和大量存储容量的同时获得更好的性能。 固态硬盘非常棒,在处理小型到大型文件时,这个arrays的速度非常快。 HDD主要是大型文件(500MB-30GB)。 它的目的是一个主要的长期存储设施,而固态硬盘arrays仅用于操作文件和短期存储。 这意味着文件将经常从SSDarrays移动到HDDarrays。 问题在于,在大写操作的第一个演出写完之后,性能很快就会下降。 它起始于250MB / s左右,对于只有5个HDDS的RAID 5arrays来说,这不是一半坏的写入性能,但是我刚刚做的副本,由4个文件组成,共计12 GB,逐渐下降到了35MB / s的最低值。 现在我想一个人的build议将取决于很多元信息,所以这里是: LSI卡没有BBU(还)禁止回写。 硬盘是WD15EARS 2TB硬盘。 显然,这些并不是最快的硬盘,但是一直持续的200MB / s并没有太多问我想。 SSD是OCZ Vertex 2 60GB驱动器。 不要认为它是相关的,但硬盘的旋转停机时间可以达到5分钟,而不是正常的8秒钟 存储pipe理器中的驱动器显示健康,日志中没有注释错误 就像我说的,SDD速度非常快,高达1100MB / s的读取速度,似乎并不是瓶颈。 复制似乎暂停,它会跑得快,停下来,再跑500MB左右,等等,导致整体速度较低。 在创build硬盘arrays时,我使用了一个512Kb的条带大小。 这是巨大的,但我期望只有大到巨大的文件在该arrays上。 我现在不想改变它,因为它会破坏现有的数据,我没有备份(还) 操作系统是Ubuntu 10.04(64bit) 主板华硕WS Revolution(这是一款工作站),24GB的ECC内存,至强W3570现货3.2GHz 将LSI卡插入第一个PCIe插槽(以避免NF200引起的延迟) 系统是完全稳定的 HDDarrays使用“mkfs.ext4 -b 4096 -E stride = 128,stripe-width = 384 -L”DATA“/ dev / sdb” fstab不包括数据=回写,也不可访问,但我不认为这应该是一个影响大文件的问题 […]
今天早上,我刚刚得到了一个Nagios警报,因为: BRUBLUst01:/ usr / local / bin#/ opt / MegaRAID / MegaCli / MegaCli64 -PDList -a0 适配器#0 shell设备ID:32 插槽号码:0 设备ID:0 序号:2 媒体错误计数:1 其他错误计数:0 预测性失败计数:0 最后预测失败事件序号:0 原始大小:715404MB [0x575466f0部分] 非强制大小:714892MB [0x574466f0部分] 胁迫大小:714880MB [0x57440000部分] 固件状态:在线 SAS地址(0):0x1221000000000000 连接端口号:0(path0) 查询数据:ATA ST3750640NS 3BKS 5QD3ZT7W 我发现了其他错误计数的含义,但没有媒体错误计数,看起来不像MegaCLI是真正有据可查的。 这是什么意思? 磁盘上有损坏的扇区? 我应该在乎吗? 谢谢你的帮助,
我有一个2005年的老式服务器(双3GHz至强,LSI53C1030T RAID / SCSI控制器256MBcaching,8GB内存),我重新利用它的一些轻的虚拟机存储任务。 首先尝试将4x300GB硬盘放入硬件RAID5中,然后在其上安装Openfiler的LVM和iSCSI。 这导致了非常不一致的读取速度(20MB /秒到2GB /秒,但这可能是caching),以及一个可怕但一致的8MB /秒的写入。 所有这些结果都是通过本地dd和networking上的实际大文件传输进行测量的,两者都得到了类似的结果。 所以经过大量的阅读,我发现前面提到的LSI控制器对于硬件RAID来说并不是那么好,所以我用4x300GB的硬盘关掉了通道的RAIDfunction,用mdadm软件RAID做了RAIDarrays,把LVM放在了它。 我做了更多的testing,结果得到了改善(写入20MB /秒),但是这还是相当可怕的。 我花了一天时间alignment分区,优化块,条纹宽度,步幅,玩ext4选项,不同的日志选项等,没有太多可观察的改善。 我做的另一个实验是在/ dev / md0和/ dev / mapper / vg0-lv0上运行hdparm -tT (这只是整个md0的映射),而在通过LVM时,我得到了2倍的减速。 我已经读过,LVM可以引入一些速度惩罚,但将速度降低一半是不可接受的。 由于这一切都没有意义,我回到基础,在一个单一的驱动器,没有LVM,RAID,只是普通的旧SCSI320做了一个单一的分区,并对其进行了一些testing。 我得到了〜75MB /秒的读取和〜55MB /秒的写入多个运行和多个程序。 所以如果一个驱动器可以做到75MB /秒的读取速度和55MB /秒的写入速度,为什么3个RAID5(硬件或软件! 我究竟做错了什么? 还有什么我应该尝试? 更新1:在继续实验的同时,我注意到其中一个磁盘有时不想被分区; parted和fdisk会拒绝实际写出分区。 所以我在所有其他的磁盘上试过相同的命令,以确保它不是一个系统性的问题,而且它看起来只被隔离到一个磁盘上。 我继续运行smartctl的健康testing,一切都很好。 dmesg是唯一的来源,表明驱动器可能存在某些问题,尽pipe这些信息相当神秘而不是特别有用。 出于纯粹的好奇心,我拿出硬盘,重新启动,重做了目前为止所做的所有软件RAID5,而没有使用LVM,但使用了ext4。 在第一次尝试时,当使用dd在64kB块中将4.2GB文件转储到新分区时,我得到了200MB /秒的读取和120MB /秒的写入到五个驱动器arrays(同时发现两个300GB的驱动器)。 显然这个驱动器虽然没有完全死掉,但并不是特别合作,一旦超出这个范围,一切都变得更好了。 现在我觉得更安全,8MB /秒感觉不对,不pipe是哪个RAID级别。 明天:用LVMtesting,也许回到硬件RAID。
我们最近购置了两台DL360,配备了Smart Array P400i RAID raid控制器,512MB BBWC和(6)10k SAS驱动器。 它们在RAID 1 + 0中进行configuration,运行LVM和ext3。 使用HP实用程序(hpacucli),我设置了磁盘写入caching(处于打开状态),加速器caching率为25%写入,75%读取。 我还使用HP固件磁盘(RAID固件7.22版)将它们更新为最新的固件。 在环顾networking,我发现这个链接: http : //www.overclock.net/hard-drives-storage/515068-tuning-hp-smart-array-p400-linux.html 这表明,在预先设定好的情况下,可以取得一些相当惊人的成绩。 我自己的testing(相同的iozone性能)显示: Initial write 191148.89 191.15 Rewrite 204751.79 204.75 Read 127655.03 127.66 Re-read 126286.11 126.29 Random read 148323.94 148.32 Random write 185377.55 185.38 大部分读取的数字是(8)SAS驱动器报告的数字的1/2到1/3,带有xfs。 我错过了什么? xfs和(2)驱动器是否有很大的不同? 或者,我没有configuration什么? 任何,最后…软件RAID会更快?
硬盘D1和D2分别是140GB和D3,D4是600GB。 我一直在阅读有关使用LVM的好处,我正在考虑以下configuration。 这一个将是对我来说是有道理的,因为我真的想保持在分开的磁盘的操作系统/数据加载。 但是我的想法是,我只需要在LV中剩下30-40GB,以便我需要扩展home / usr / root。 (这是不太可能发生,但你永远不知道…) |var,usr,home | /data | ————————– | LVM Vol | EXT3/4 | ————————– | HW RAID1 | HW RAID1 | ————————– | D1 | D2 | D3 | D4 | 现在,这个疯狂的设置出现在我的脑海里,我不知道它是否可能。 重点是创build一个两个RAID的LVM,使一个巨大的VG 740GB。 这会给我很大的灵活性,以便我需要扩展一些东西。 | var,usr ,home, data … | ————————– | LVM Vol | ————————– | […]
我正在研究如何从ESXi 5.1的LSI MegaRAID控制器(9260-4i)后面获取驱动器的SMART信息和R / W统计信息。 ESXi有一个命令“esxcli storage core device smart get”来从驱动器获取SMART数据,但对于LSI RAID控制器下的磁盘无效。 我一直在看ESXi文档和LSI文档,目前还没有任何线索。我认为这很容易在Linux上使用smartctl来完成。 有没有人经历过类似的情况,或对如何做到这一点有一些想法? 我正在寻找的信息是智能日志页面和单个磁盘的读/写性能。
主题总结了这个场景。 我相信答案是没有停机时间,但系统在重build期间可能会变得很慢。 这很好。 但是,如果有宕机,多久? 短暂维修时间的小点是可以接受的。 重build的日子需要一个新的计划来评估如何处理。 详细资料:客户端有一个连接到Synology RS2414RP +(运行DSM 5)的iSCSI连接,它是一个有12个托架的机架式装置。 自最初设置以来,所有托架都装有3TB驱动器。 而且由于它是专门用于一个大型iSCSI卷的设备,因此设置为使用最大的空间量。 尽pipe这个空间大概在1GB左右,但是它已经工作了好几个月了。 现在,系统偶尔会遇到“只读”模式,我认为这是由于iSCSI卷的精简configuration达到卷本身的外部限制所致。 通过SSH和传统的PostgreSQL数据库备份来pipe理卷的“死灰复燃”,这个数据库在保存iSCSI分区的基础卷上释放了大约36MB的空间。 这是足够的喘口气让iSCSI卷再次登上。 但显然是一个等待发生的问题。 所以,由于这台Synology设备的音量格式为具有2个磁盘容错function的Synology Hybrid RAID设置,因此我们决定用一个4TB的驱动器replace其中一个3TB的驱动器,以扩大音量。 该驱动器已被插入,格式化和正在运行通过糖蜜平价检查阶段缓慢。 但一旦完成奇偶校验,我将不得不login才能扩大音量。 在最后阶段,从服务中断的angular度来看会发生什么? 由于Synology DSM是基于LVM(Logical Volume Manager,逻辑卷pipe理器)等标准开放源代码工具,所以我在网上阅读的内容可以在不增加停机的情况下进行扩展 。 但是由于我们正在谈论27TB的存储,我想要双倍/三重地确保我的假设是正确的。 基本上是这样的:当奇偶校验完成后,我又扩大了音量,所有的服务都会继续运行,这个扩展会作为后台进程发生,从而保证零停机。