我们可以通过发出“iostat -x -d”来看到一些参数,rrqm / s和wrqm / s代表每秒I / O请求的合并。 有一个控制I / O合并的内核参数: / SYS /类/块/设备名称/队列/ nomerges 根据内核文件: 这使用户可以禁用块层中的IO合并请求所涉及的查找逻辑。 默认情况下(0)启用所有合并。 当设置为1时,只会尝试简单的一击合并。 当设置为2时,将不会尝试合并algorithm(包括一次或更复杂的树/散列查找)。 0和2的含义是容易理解的,但是当涉及到“一击”的时候,我search了一下,但没有对它进行具体的语义定义。 所以请帮忙解释一下nomerges的含义是什么。 谢谢。
我的VPS和磁盘IO有问题。 我的服务器正在运行nginx + PHP-FPM + APC。 数据库位于另一个专用VPS上。 我有几个WordPress的MU网站生活在networking服务器上。 平均IO速率是6k块/秒。 我试图了解是什么导致高IO。 “free -m”的输出: total used free shared buffers cached Mem: 1005 973 31 0 96 568 -/+ buffers/cache: 307 697 Swap: 255 8 247 “iotop”的输出: Total DISK READ: 0.00 B/s | Total DISK WRITE: 3.90 M/s TID PRIO USER DISK READ DISK WRITE SWAPIN IO> COMMAND […]
我正在指定一个低中档服务器(我们将购买的倍数)。 该应用程序本质上是一个软件路由器,所以它是非常基于NIC的I / O密集型。 处理器selectcertificate具有挑战性。 在比较英特尔E5-1410(4C,2.8GHz)与E5-2407(4C,2.2GHz)等价格可比的E5-24xx处理器之间,一个显着的区别是2407有一个QPI总线,而1410不是 。 细节是稀疏的 ,虽然很清楚,1410只能运行在一个模具configuration。 我知道QPI总线是用来跨处理器/内核共享IO的。 看来1410已经集成了IO来代替QPI,但是在两个处理器之间的I / O性能方面,似乎还找不到一个粗略的指标。 我怎样才能做两个处理器变种的价格/性能评估? 我确定我需要testing我的特定用例,但是我有一个充满挑战性的时间来查找关于相对性能的一般信息。 编辑: 14xx系列不支持 24xx系列支持的内存备份和内存镜像。 仍在寻找详细的WRT IOfunction。
我有一台运行CentOS 5的服务器,它会周期性地(每天几次)有巨大的负载高峰,整个服务器将停下来。 几分钟后,负载将降低,一切恢复正常。 我怀疑它与I / O有关,也许是一个坏的磁盘,但由于磁盘使用硬件RAID,我不知道如何找出发生了什么问题(smartctl只是说“设备不支持SMART”)。 无论如何,我从top看到的是: top – 08:51:03 up 73 days, 7:45, 1 user, load average: 69.00, 58.31, 46.89 Tasks: 316 total, 2 running, 314 sleeping, 0 stopped, 0 zombie Cpu(s): 11.0%us, 1.3%sy, 0.0%ni, 15.2%id, 72.0%wa, 0.0%hi, 0.5%si, 0.0%st Mem: 8299364k total, 7998520k used, 300844k free, 15480k buffers Swap: 16779884k total, 4788k used, […]
我刚刚在单机上configuration了专用服务器。 我正在通过一些testing来运行它,以了解期望的性能。 在I / O端(使用RAID 10中的4个1TB磁盘),我得到: write-cache disabled 200 MB/s read throughput 30 MB/s write throughput 我认为这是相当于我的桌面HD获得150-150左右真的很低。 所以我和他们聊天,他们build议启用写caching。 新的结果: write-cache enabled 280 MB/s read 260 MB/s write 这是伟大的,但意味着我不得不增加一个BBU额外的每月费用。 如果您没有写入caching,写入吞吐量是RAID10上常规驱动器的四分之一是正常的吗? 它几乎感觉像是故意强迫你去BBU玩。 我会很高兴正常的150/150的非突袭性能。 更新:他们现在看看它是否有什么错误。 当这个8x下降会影响服务器的工作负载时,我会给他一个被接受的答案。 如果我有更多的数据将再次更新。 +1为其他答案。 谢谢。 更新2:看起来硬件有问题。 移动到具有相同规格的新机器,并获得80MB / s的写入而无需写回caching。 caching打开时为250MB /秒。 所以没有它的3倍下降和合理的吞吐量。
在VMWare ESXi虚拟机中扩展现有分区还是创build新驱动器会更好吗? 我将使用LVM将驱动器放置在虚拟机上的现有卷组中,并扩展SAN安装点。 哪个会更好,为什么?
我正在运行一个CentOS 7机器(标准内核: 3.10.0-327.36.3.el7.x86_64 ),并在16x 1TB固态硬盘上安装软件RAID-10(更确切地说,磁盘上有两个RAIDarrays;一个的arrays提供主机的交换分区)。 上周,SSD失败了: 13:18:07 kvm7 kernel: sd 1:0:2:0: attempting task abort! scmd(ffff887e57b916c0) 13:18:07 kvm7 kernel: sd 1:0:2:0: [sdk] CDB: Write(10) 2a 08 02 55 20 08 00 00 01 00 13:18:07 kvm7 kernel: scsi target1:0:2: handle(0x000b), sas_address(0x4433221102000000), phy(2) 13:18:07 kvm7 kernel: scsi target1:0:2: enclosure_logical_id(0x500304801c14a001), slot(2) 13:18:10 kvm7 kernel: sd 1:0:2:0: task abort: […]
我只是在NAS RAIDarrays上做一些testing,看看我们是否想部署它。 为了看看究竟是什么,我决定看看在重buildRAID-5arrays时,我们得到了什么样的networking性能。 我注意到networking连接已经下降到大约7MB / s,大概是60Mbps。 1Gb连接对networking有很大的影响。 当它不是重新构build它接近70Mb / s(与巨型帧)。 你会期望重build时这种大幅度的下降吗? 目前,它已经安装了三个750Gb 7200RPM SATA驱动器。
如果NFS客户端读取文件,是否发生networking通信? 还是只是写入(通过任何节点),导致networkingstream量? 特别是,如果目标文件位于NFS上,比在目标文件位于本机文件系统上,是否在PHP脚本中执行file_exists()调用会更加昂贵, 作为参考,这是我的NFSconfiguration: 服务器/etc/exports : /var/www/staging/uploads 192.168.0.1(rw,sync,no_root_squash) 客户端/etc/fstab : 192.168.0.1:/var/www/staging/uploads /var/www/staging/uploads nfs soft,intr,rsize=8192,wsize=8192
mysql> explain SELECT * -> FROM (`items`) -> WHERE `states` = 'A' -> ORDER BY `updated_date` desc -> LIMIT 20520, 40; +—-+————-+——–+——–+—————————-+———————+———+———-+——-+————-+ | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra | +—-+————-+——–+——–+—————————-+———————+———+———-+——-+————-+ | 1 | SIMPLE | items | ref | states_updated_date,states | […]