我有一个内置数据存储为7.2K 5个磁盘RAID 5的ESXi 5.0免费主机,在Dell Poweredge R620服务器中使用PERC 710迷你RAID控制器,内存为32GB,内核为12个至强。 我似乎在客人的写入速度慢,所以我检查了ESXTOP,我看到在这个主机上的写入速度为15MB / s,这是客人可以比拟的。 什么可能造成如此可怕的写入速度? RAID 5真的写得这么慢吗?
我正在研究一些性能问题,我需要一个能够模拟典型RDBMS通常创build的相同I / O行为的工具。 我不想安装一个完整的RDBMS,只是为了testing这个问题。 有什么工具可以满足这个特定的需求吗?
我想设置两个硬盘,其中一部分设置在raid1中。 我希望这个部分也是可扩展的,就像逻辑LVM卷一样。 是否可以抽象物理卷或基于逻辑卷创build一个数组? 我正在考虑像嵌套LVM的东西。
我只是想在这里仔细检查一下我的发现,希望有人能够在这方面加以重视。 假设我有一个能够提供25,200 IOPS的SSD存储arrays,并使用8Gb / s FC链路连接到我的服务器,平均IO尺寸为75kb。 8b / 10b编码开销之后的8Gb / s FC链路可以为您提供6.8Gb / s的可用带宽,理论上可以达到870MB / s和500,000 IOPS(我将阅读各种在线博客)。 使用MBps =(IOPS * KB每IO)/ 1024公式与我上面的数字,如果我要在服务器上运行一个负载,以75k平均大小25k IOPS,这将需要1,845MBps的带宽。 8Gb / s的FC只能提供870MB / s的速度,那么我的瓶颈是8Gb / s的FC链路呢? 任何存储架构师能帮助我?
我们的服务器有多个硬盘并运行多个进程。 我们有一个磁盘的磁盘利用率很高,我想找出导致这个问题的哪个进程。 我使用iotop命令,但它不会被磁盘过滤,并且它有一个很大的输出。 我用nmon ,只是说我们在磁盘上有很多读取io。 如何通过硬盘过滤进程并按io使用进行sorting? 操作系统:Ubuntu 14.04
我的Solaris 10 websever /数据库服务器磁盘io在间歇时间持续尖峰。 使用iostat -xtc 5读取/秒会从3.0跳到1450.0,百分比繁忙将跳到98% apache访问日志并不指明任何exception。 换句话说,请求不会比平常高。 top不会产生任何有用的东西。 MySQL的使用情况很好,使用约20%,没有别的可以说真的。 我应该使用哪种监视工具来查看哪个进程正在使用过多的磁盘I / O? 或者如果有任何其他的build议,我全部耳朵。 谢谢
这个问题困扰我多年了…如果这里不合适,一个有效的答案会指向我的完美的地方。 据我所知,在几种存储条件下使用条带来加快传输速率:在一台计算机上的多个硬盘,在SSD内的芯片,双/三通道内存,或许更多,我不知道。 硬盘里面有一些盘子。 通常是1到5,有时它们用在两边,这意味着硬盘内有多达10个磁头。 但是不pipe里面有多less盘,硬盘的传输速率都是一样的。 为什么? 事实上,头和盘片总是共享相同的位置不包括我。 数据仍然可以在盘片之间分配,也可以使用每个盘片上的一个字节,也可以使用常规RAID的条带大小。 为什么不在硬盘内部分条,或者如果这样做,为什么2碟磁盘的传输速率不是单碟磁盘的两倍?
我已经在系统上安装了Windows Server 2008。 我想将这个2008服务器硬盘连接到不同的硬件configuration(另一台计算机)。 如果连接到另一个系统,它会不会有任何缺陷?
有没有人在惠普ML350 G5服务器上使用希捷Savvio磁盘获得实际经验。 有两件事我很担心。 它是否物理上适合托盘,托盘是否可以插入,以及SAS连接器是否适合HD背板上的连接器。 RAID适配器会接受吗? 我之前发布过类似的问题,并得到相当蓬松的答案。 所以我希望有人用相同的服务器(或者至less只是一个非常相似的惠普服务器和2.5“磁盘托盘)尝试过。
我开始尝试做一些简单的性能testing。 “哪些磁盘更快,以及多less东西。 我不需要太高的精度,我只是想要一个粗略的想法。 它变成一个奇怪的进入如何工作的内部事件。 有趣的,实际上,但有点奇怪。 在我进一步讨论之前,我要说的是,本文中的所有内容都是在Arch Linux系统上运行的,运行3.0内核,从MyBook Essential USB3机箱中移除Western Digital WD30EZRX 3TB SATA磁盘驱动器(这些机箱可以做坏事您的数据),并安装在Sans Digital单盘USB3机箱中,通过Buffalo USB3 PCIe单通道卡连接。 驱动器是该USB卡上的唯一设备,在testing期间系统处于空闲状态。 我写了一个性能testing程序,一个简单的C程序来打开一个文件,写入四个GiB的数据,fsync(),然后退出。 我在一个空的全盘ext4文件系统上运行了9次testing(任意一个数字,因为我想要单个数字,但是忘了从零开始),每次运行58-59秒,大约73 MB /秒。 不是世界上最快的磁盘,但结果是相当一致的。 由于我不记得的原因,没有预料到任何麻烦,我在几个小时后回来做了完全相同的testing,拔掉磁盘后再testing另一个磁盘,将原始磁盘重新插入,然后重新执行mkfs。 令我惊讶的是,我得到了非常不同的结果。 这一次,我在51-52秒(83 MB /秒)的范围内得到了结果,2秒接近48秒。 几个小时后,在做了一些研究之后(包括在这里问一个关于如何找出文件使用哪个磁盘块的问题),我在同一个磁盘上运行了另一个testing,而不用重新初始化。 我只是在前一个testing的同一目录(文件系统的根目录)中创build了新的文件。 这一次,我在44-45秒(96 MB /秒)的范围内得到了结果。 后来,我又跑了三个testing(实际上改进了我的testing程序),再次把这些文件放在现有的文件旁边,并获得了44秒,45秒和50秒的性能。 这三组运行是完全相邻的。 请记住,我还没有谈论个人跑步。 我跑了9次testing程序,所有的结果都是44秒,还有9次,都是45秒的结果,还有9次,都是50秒的结果。 这些差别很大,而且很奇怪。 我使用debugfs来检查文件正在使用哪些块,并没有什么“有趣的”在那里。 每个文件似乎从磁盘开始依次得到下一个可用块。 我能想到的唯一可能的解释是,如果磁盘电路以某种方式从磁盘的不同部分分配块并将它们呈现给主机为连续的。 对于我所看到的结果,它将不得不注意到我的testing运行之间的延迟,并将其作为切换到磁盘的不同部分进行分配的机会。 坦率地说,这听起来有点像我,但我没有很多其他的想法。 任何人都可以阐明这一点? 为什么我会得到这样的局部一致而全局variables的结果呢?