Articles of io

在Netapp上显示IO

我想我可能会碰到我的Netapp可以提供的IO限制,因为我已经为我的群集添加了更多的服务器,并且iowait已经在每台服务器上运行了。 但是,我怎么量化呢? 我如何使用Netapp CLI工具来查看当前的IO统计信息? 我知道“统计显示”,但没有看到“io”对象或类似的。 我怎么知道Netapp应该能够提供什么? 如果任何人有比Netapp更多的经验,我会非常感谢帮助。 谢谢!

为什么io调度程序不合并请求?

在服务器重启后一段时间(或写入的数据量)之后,写入速度降至1 MB / s以下。 这是无论哪个文件系统(也是原始分区),而不pipe是硬盘(HW RAID)还是SSD(SW RAID,SSD连接到主板AHCI端口,而不是RAID板)。 我们正在用命令dd if=/dev/zero of=tst bs=1M oflag=dsync进行testingdd if=/dev/zero of=tst bs=1M oflag=dsync (我也尝试过1k ,也没有dsync ,但性能并不好)。 我注意到的唯一奇怪的事情是avgrq-sz在iostat输出中只有8个(在其他testing过的服务器上它是600多个),并且req / s大约是100(也在SSD上)。 并行运行更多的dd给了他们每个1 MB / s和他们每个约100 req / s。 示例iostat -xN 1输出: Device: rrqm/s wrqm/sr/sw/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util sdc 0.00 0.00 0.00 125.00 0.00 500.00 8.00 0.00 0.00 0.00 […]

可能的磁盘IO问题

我一直在试图弄清楚我的数据库服务器arrays上的IOPS是什么,看看它是否太多了。 arrays是RAID 5中的四个72.6gb 15k rpm驱动器。要计算RAID 5的IOPS,使用以下公式:( (reads + (4 * Writes)) / Number of disks = total IOPS 。 该公式是从MSDN 。 我也想计算平均队列长度,但我不知道他们从哪里得到的公式,但我认为它读取作为avg que length/number of disks = actual queue 。 为了填充这个公式,我使用了perfmon来收集所需的信息。 我在正常生产负荷下提出了这个问题: (873.982 + (4 * 28.999)) / 4 = 247.495 。 另外,磁盘队列长度为14.454/4 = 3.614 。 所以对于这个问题,我错了,认为这个数组有一个非常高的磁盘IO? 编辑 我有机会今天上午在正常/高负荷下再次检查。 这次更大的数量和超过600的IOPS大约5分钟,然后再次停止。 但是我也看了Avg sec/Transfer , %Disk Time和%Idle […]

使用DD监视磁盘I / O

我正在寻找可能性,我的服务器正在经历很多爱荷华州的问题。 我在网上发现了很多有关运行dd命令的信息。 我无法运行此转换: [root@vps ~]# dd if=/dev/zero of=/tmp/test bs=64k count=16k conv=fdatasync dd: invalid conversion: `fdatasync' Try `dd –help' for more information. 我也尝试没有转换,我没有得到像我从其他人看到的大多数post的统计。 有人可以解释为什么是这样吗? [root@vps ~]# dd if=/dev/zero of=/tmp/test bs=64k count=16k 16384+0 records in 16384+0 records out

在EC2实例上设置基于SSD的RAIDarrays的I / O调度器

我使用EC2 c3.4xlarge实例上的2个本地SSD驱动器创build了一个RAIDarrays。 # mdadm –create /dev/md127 –level=0 –raid-devices=2 /dev/xvdf /dev/xvdg # mkfs.ext4 /dev/md127 # mkdir /data # echo 'DEVICE /dev/xvdf /dev/xvdg' > /etc/mdadm.conf # mdadm –detail –scan >> /etc/mdadm.conf # echo "/dev/md127 /data ext4 defaults 1 2" >> /etc/fstab 该设备工作很好。 但是,当我试图为数组设置I / O调度程序(以root身份)时,调度程序文件不会更改。 # echo noop > /sys/block/md127/queue/scheduler # cat /sys/block/md127/queue/scheduler none 设置调度程序的正确方法是什么,以便最后的命令输出是'noop'?

LUKSencryption卷的文件系统性能?

正如你可以使用任何文件系统格式化LUKS卷,某些文件系统是否更适合于encryption文件系统的IO性能? 具体来说,我想知道一个文件坐在一个ext4分区循环设备。 由于所有写入文件系统的数据都是经过encryption的,因此某些文件系统可以写入更less的元数据或者更有效地写入数据? zfs或ext2 / ext3在encryption的loopback文件系统上的性能是否比ext4好?

ESX 5.Xcaching来宾IO吗?

我试图找出guest是否可以看到成功的磁盘刷新操作,但主机实际上并没有将其刷新到磁盘? ESXi如何与来宾I / O一起工作? 在写入主机磁盘之前,它们是否由ESXicaching?

如何判断哪些进程在CentOS 5中大量写入磁盘?

我们的服务器开始变慢,所以我运行iostat。 iostat -dx 5 Device: rrqm/s wrqm/sr/sw/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util sda 0.00 89.60 108.40 5.60 880.00 763.20 14.41 2.61 22.87 8.70 99.20 sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 所以我看到一个磁盘sda是完全饱和的。 我如何find哪个确切的进程造成这种情况? (或者是交换到那个磁盘?)

高负载 – 低IO – CPU使用率低

我有一个负载相当高的系统。 从下面的输出中可以看出,CPU使用率和I / O可以忽略不计: 顶部 – 17:31:59最多4天,2:34,2位用户,平均负载:1.00,0.99,1.00 任务:总共71,跑步1,睡觉70,停止0,僵尸0 Cpu(s):2.0%us,2.0%sy,0.0%ni,95.9%id,0.0%wa,0.0%hi,0.0%si,0.0%st Mem:960720k总共,707288k使用过,253432k免费, 67328k缓冲区 Swap:总计2811896k,使用2644k,免费的2809252k,caching的528928k PID用户PR NI VIRT RES SHR S%CPU%MEM时间+命令 15310根20 0 2512 1128 888 R 2.1 0.1 0:00.05上 我将不胜感激任何帮助隔离高负载的原因当I / O和CPU不是因素。

Azure IO性能

我们有许多用于.NET和Java开发和QA的Windows Server虚拟机。 我发现Azure有吸引力的原因很明显,但主要是为了减less在环境维护上花费非生产时间的机会。 在function上,在清理了一些应用程序(许可等)的系统ID问题之后,一切都很好,但是性能有些不足: 在Hyper-V或ESXi上运行时,我们的系统需要花费大约2分钟的时间来构build解决scheme,但Azure A3计算机最多需要花费12分钟来完成相同的构build 。 资源监视器显示大部分时间机器处于IO等待读取磁盘的状态。 有什么我应该做的不同,或者我应该期望在所有情况下本地机器更好的performance?