Articles of io

通过FCoE读取的响应时间长

我们在新的FCoE环境中获得了一些有趣的performance,我希望人们可以让我知道我们看到的是预期的行为。 我们的交换环境由2台Cisco Nexus 5672交换机组成,每台交换机都挂有一台Nexus 2348 UPQ FEX。 在FEX上,我们有我们的ESX主机(Dell R630)和Emulex CNA。 我们的SAN是一个EMC VNX 5300,其中包含一个10g FCoE卡。 无论SAN连接到2348还是5672,ESX主机上的虚拟机的写入性能都保持不变。 但是,阅读性能变化很大。 当SAN连接到5672时,我们平均4k读取的响应时间大约是0.25ms。 但是,将SAN连接到2348会导致读取响应时间跳到〜2.5ms。 查看ESXTOP中的统计信息,所有额外的响应时间都来自QAVG。 我知道FEX没有本地交换,因此要求所有的数据包stream过5672交换机,但是这个额外的2ms的延迟似乎特别高(特别是考虑到我可以在<0.02ms之间的服务器之间ping)。 我见过的所有参考体系结构都将SAN / SAN交换结构直接连接到“核心”Nexus交换机,但是我没有在哪里读过任何理由。 我不反对以这种方式连接SAN,我只是想明白为什么。 长话短说:这种performance差距是否正常?

如何在MySQL 5.6.26中减less磁盘IO?

我为我的应用程序使用MySQL版本5.1.52,但最近我已经更新到5.6.26,但现在我面临非常高的磁盘IO。 以下是系统configuration: 操作系统:Linux 2.6.39.4 内存:2GB 磁盘:30GB的Compact Flash。 我的操作系统是相同的只是版本的MySQL被改变。 我已经使用iotop实用程序对MySQL版本5.1.52和5.6.26进行了IO观察,两个版本都执行相同的查询,读取次数是磁盘上的写入次数。 以下是观察: 5.1.52 MySQL版本: Number of Queries All Innodb Tables All MyISAM Tables 900 12.45M 192K 1800 23.76M 424K 2700 36.02M 680K 3600 46.33M 924K 5.6.26 MySQL版本: Number of Queries All Innodb Tables All MyISAM Tables 900 75.04M 212K 1800 158.03M 472K 2700 245.93M 756K 3600 346.66M […]

如何确定哪些文件在Windows中具有较高的I / O?

为了减lessWindows服务器(2008 R2)上的存储瓶颈,我需要在很长一段时间内findI / O最高的文件(又名“热”文件),以便将这些文件移动到SSD存储中。 如何在较长的时间内(即从几天到几周)跟踪文件系统的I / O,以便我能够看到哪些文件将从移动中受益最多? Sysinternals实用程序procmon允许我在短时间内(即从几秒到几分钟)收集I / O统计信息,但我认为它不适合长期logging。 我更喜欢内置的解决scheme,但也会考虑其他的。

Gentoo virt-manager IO节stream

我在gentoo上安装virt-manager(或者qemu / libvirt)时遇到了问题。 Debian Jessie上安装了我的virt-manager: 在那里我有IO节stream,但不是在我的Gentoo上: 我试图在谷歌search,但我没有发现没有什么有用的gentoo。 每个人都知道我还需要做什么才能拥有这个选项? 我的内核: cat /usr/src/linux/.config | grep CGROUP CONFIG_CGROUPS=y CONFIG_CGROUP_DEBUG=y CONFIG_CGROUP_FREEZER=y CONFIG_CGROUP_PIDS=y CONFIG_CGROUP_DEVICE=y CONFIG_CGROUP_CPUACCT=y CONFIG_CGROUP_HUGETLB=y CONFIG_CGROUP_PERF=y CONFIG_CGROUP_SCHED=y CONFIG_BLK_CGROUP=y # CONFIG_DEBUG_BLK_CGROUP is not set CONFIG_CGROUP_WRITEBACK=y CONFIG_NET_CLS_CGROUP=y CONFIG_CGROUP_NET_PRIO=y CONFIG_CGROUP_NET_CLASSID=y 我的坐骑: mount | grep cgroup tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755) cgroup on /sys/fs/cgroup/systemd type cgroup(rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/usr/lib/systemd/systemd-cgroups-agent,name=systemd) cgroup on /sys/fs/cgroup/debug type cgroup (rw,nosuid,nodev,noexec,relatime,debug) […]

自启动以来,NFS读/写

我想要检索每个NFS挂载点读取/写入的总千字节数。 使用以下命令,我能够以kB / S的速度查看每个NFS安装点的当前吞吐量。 iostat -nk 或者: nfsiostat 有没有办法告诉iostat或nfsiostat从启动以来返回的千字节总数? (很像iostat -k的最后两列) Device: tps kB/read/s kB/wrtn/s kB_read kB_wrtn sda 17.69 234.75 30.82 2760421 362433

AWS EC2快照偶尔会达到IOPS限制

对于我正在运行的EC2服务器,我每晚都创build一个EBS快照。 EBS有500GB的空间和1500/3000的IOPS。 在上个星期几天,快照创build过程达到了最大IOPS,导致服务器在5分钟到1小时内不可用。 我能做些什么来防止快照使用最大IOPS? 我使用https://github.com/CaseyLabs/aws-ec2-ebs-automatic-snapshot-bash创build快照

KVM / QUEMU guest虚拟磁盘的性能

我真的很困惑QEMU / KVM的行为。 我有一个服务器 – 大约100GB内存,2个CPU-6核心+ HT和三个硬盘 – 一个用于root,另外两个用于虚拟机的BTRFS镜像(如果有问题的话,则是HGST HDN724030ALE640)。 操作系统 – Debian 9.1,QEMU(磁盘types – 原始,IO本地)。 所以,服务器是空闲的 – 它只运行一个虚拟机。 这个虚拟机(Debian 9.1,16GB RAM,4 VCPU),运行PostgreSQL和MySQL数据库。 查询只接收一个 – PostgreSQL(每秒插入很less)。 而且…花费很多时间来做这个插入。 我写了一个简单的脚本,它将数据插入非常简单的表中,删除任何约束或索引(三个varchar字段)。 脚本性能 – 每秒大约1-2次插入。 这非常慢! 起初,我认为这是Postgres的麻烦。 但我重写了我的MySQL脚本,并显示相同的结果。 然后,我在FreeBSD上创build新的VM,安装PostgreSQL,从Linux VM创build相同的数据库和表,并再次检查性能 – 每秒插入1-2次。 好的。 让我们看看iostat和iotop。 iotop显示,为我的插入查询服务的Postgres进程在虚拟机上消耗了大约60-70%的IO(用于简单插入!)。 iostat -x说,现在在虚拟机上使用大约40-45次写入/秒,而在主机上使用大约80-90瓦特/秒。 我试图用dd实用程序来评估写入速度,如下所示: dd if=/dev/urandom of=/tmp/fooo.bar bs=1M count=1000 它大约完成5-6秒。 接下来,脚本执行大约100个插入,我检查 /proc/[Postgres_PID]/io file: rchar: 138544 […]

lsass.exe与SQL Server 2005 sp3高I / O

我有一个Windows Server 2003企业版SP2上的SQL Server 2005企业版。 最近,我从进程lsass.exe中得到非常高的I / O(Reda,写入,其他在任务pipe理器中)。 当我在lsass.exe上运行sysinternals进程监视器时,我得到了很多与SQL Server进程有关的活动。 看来它重复了一个模式的IRP_MJ_CREATE,IRP_MJ_DIRECTORY_CONTROL,IRP_MJ_CLEANUP和IRP_MJ_CLOSE来自sql server的请求。 任何build议的原因?

debuggingIO限制

我有一个严重的IO局限性的Fedora盒,我不知道如何debugging。 该服务器拥有一台具有12个7200 RPM 1.5 TB磁盘的Marvell Technology Group Ltd. 88E8050 PCI-E ASF千兆位以太网控制器的Areca Technology Corp. ARC-1130 12端口PCI-X至SATA RAID控制器。 uname -a输出:2.6.32.11-99.fc12.x86_64#1 SMP Mon Apr 5 19:59:38 UTC 2010 x86_64 x86_64 x86_64 GNU / Linux 服务器是运行Nginx并启用存根状态模块的文件服务器,所以我可以看到当前的连接数量。 当我在写入状态下有大量的同时连接时,问题就出现了。 通常在350左右,现在是590,服务器几乎不可用,卡在230mbit / s。 如果我运行停止,并打1看到CPU核心使用情况,我有所有4核心与约99%的io等待,如果我运行iotop的nginx工人是唯一的进程产生任何读取负载,目前在25MB / s左右。 我把每个工人都绑在自己的核心上。 最初我认为这只是磁盘被窃听。 但是我运行了fscheck和smartmontools检查,发现没有错误。 我也跑了一个iozonetesting,你可以看到这里的结果: http : //www.pastie.org/951667.txt? key=fimcvljulnuqy2dcdxa 此外,当连接数量低,我没有问题得到一个很好的速度。 如果我通过本地networking轻松达到60MB /秒。 现在我只是试着把一个文件放在/ dev / shm中,然后我把一个文件从public dir链接到它,在本地networking上使用wget,只有50KB […]

Windows磁盘I / O分析

看来我们在Windows 2003企业版服务器(64位)上的磁盘I / O速度有问题。 当我们初始化一个在3台不同的机器上创build两个1G表空间的数据库时,很明显两个较小的机器(每个32位Windows 2003标准版的RAM较less)在创build文件时杀死了较大的机器。 较大的机器比其他机器花了10倍的时间来创build表空间。 现在,我还在想这可能是怎么回事。 你们会推荐哪些程序或脚本来跟踪I / O问题? 我认为问题可能与控制卡(所有的盒子都是硬件RAID 10,但有不同的控制卡),但我想检查实际的磁盘I / O速度,所以我有一些硬数字工作。 任何帮助,将不胜感激。