Articles of 性能调整

postgresql服务器上奇怪的高CPU I / O等待

目前我正在为性能问题而烦恼,当我的数据库服务器处于“繁重”负载下时,所有的数据库查询都比正常情况下高出1000倍。 我有一台运行Ubuntu 12.04的服务器,并托pipe我的postgresql 9.2数据库。 服务器在Hetzner.de上,它是一个EX6s(32Gb ram的8核心氙气,以及使用ubuntus软件raid的RAID1设置中的两个3T硬盘)。 当我运行大量的查询(我经常在夜里完成)时,我发现几乎所有的CPU使用率都花在CPU I / O等待上。 我安装了新的文件监视器,似乎无法find任何可能是此CPU I / O等待根源的其他迹象,这显然是我的性能和吞吐量的瓶颈。 所以问题是,这个CPU I / O等待什么,等待什么? 我添加了所有的概述图表,我可以从下面的新文物中得到。 我忽略了什么? 必须有一个明显的瓶颈? 我应该在哪里下潜? 数据库服务器CPU使用率 – 告诉我有什么不对的错误https://rpm.newrelic.com/public/charts/cEdIvvoQZCr 数据库服务器负载平均值https://rpm.newrelic.com/public/charts/cMNdrYW51QJ 数据库服务器物理内存https://rpm.newrelic.com/public/charts/c3dZBntNpa1 数据库服务器磁盘I / O利用 – 你可以看到磁盘似乎并没有被非常多的使用(几乎没有) https://rpm.newrelic.com/public/charts/9YEVw6RekFG 数据库服务器networkingI / O(Mb / s) – networking是一个千兆位内部networking,所有通信都是在这个networking上进行的。 https://rpm.newrelic.com/public/charts/lKiZ0Szmwe7 前五名数据库操作挂钟时间https://rpm.newrelic.com/public/charts/dCt45YH12FK 数据库吞吐量https://rpm.newrelic.com/public/charts/bIbtQ1mDzMI 数据库响应时间https://rpm.newrelic.com/public/charts/fPcNL8WA6xx 更新: 做完sudo iostat -k 1我开始怀疑了。 我得到了很多这样的输出,我没有看到NR: Device: tps kB_read/s kB_wrtn/s kB_read […]

磁盘写入速度比读取速度慢得多

我有一个运行CentOS的VPS服务器(WiredTree)。 遇到一些性能问题后,我使用以下脚本为磁盘读/写速度创build了一个简单的基准: echo Write to disk dd if=/dev/zero of=test1 bs=1048576 count=2048 echo Read from disk dd if=test1 of=/dev/null bs=1048576 这是一个示例输出: [bizwayz@host perf]./benchmark Write to disk 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB) copied, 11.2601 seconds, 191 MB/s Read from disk 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB) copied, 0.789302 […]

Linux工具/命令来检查文件系统的性能

检查特定位置(例如,安装的iSCSI设备)的读/写性能的最简单方法是什么? 我怀疑我不能使用hdparm,因为这是较低的水平。 我对吗?

如何防止Linux下的IO负载video服务?

目前我正在3台服务器上通过Nginx提供会议video。 4个内核,足够的内存(不使用交换机)和每个服务器8个驱动器的RAID-10。 不幸的是,iostat -xd 1在所有3个服务器上给我100%,iotop显示Nginx的吞吐率达到99-100%。 我一直在考虑分布式FS(但是哪一个会有帮助?); 任何其他方式来防止这种情况,而不只是购买新的服务器(涉及所有的开销…)? 请注意,这是不可能的video内存; 太多了,太大了。 记忆中只有less数人的分布也不好。

用于Oracle RMAN备份的NetBackup多路复用

我的问题是…在NetBackup中build议使用什么样的多路复用因子?您是否将1Gb / spipe理networking上的Oracle RMAN备份用于LTO3? JB 背景: 有了像NetBackup这样的企业备份工具,就有了多路复用的概念,即将多个备份客户端的数据同时进行组合,以便尽可能快地支持现代高速磁带机。 同时交织的客户数据stream的数量由复用因子决定。 复用因子越高,提供给磁带机的数据就越多,但恢复速度越慢。 由于整体恢复速度主要取决于(logging事件,确定磁带是否可用,从非现场,负载,库存等调用)比实际的磁带恢复速度,我觉得有信心使用高因素的文件系统备份。 大型数据集的Oracle备份(更经常地还原在一起)对文件系统备份构成了不同的挑战。

Linux RAID-0性能不会超过1 GB / s

我无法获得我的设置的最大吞吐量。 硬件如下: 双核四核AMD Opteron(tm)处理器2376 16 GB DDR2 ECC内存 双Adaptec 52245 RAID控制器 48个1TB SATA驱动器设置为2个RAID-6arrays(256KB条带)+备件。 软件: 普通香草2.6.32.25内核,针对AMD-64编译,针对NUMA进行了优化; Debian Lenny userland。 基准运行:disktest,bonnie ++,dd等等。所有的结果都一样。 这里没有差异。 io调度程序使用:noop。 是的,这里没有任何诡计。 到目前为止,我基本上认为,条带化(RAID 0)几个物理设备应该大致线性地提高性能。 然而这不是这种情况: 每个RAIDarrays可以实现大约780 MB / s的写入,持续读取和1 GB / s的读取。 两个不同的进程同时写入两个RAIDarrays可以达到750 + 750 MB / s,两者的读取速度都是1 + 1 GB / s。 然而,当我将两个arrays条带化在一起时,使用mdadm或lvm,性能约为850 MB / s写入和1.4 GB / s读取。 至less比预期的less30%! 针对条纹arrays运行两个平行的写入器或读取器处理不会增强数字,实际上它会进一步降低性能。 那么这里发生了什么? 基本上我排除了总线或内存争用,因为当我在两个驱动器上同时运行dd时,聚合写入速度实际上达到了1.5 […]

找出哪些任务正在产生大量的在Linux上下文切换

根据vmstat,我的Linux服务器(2xCore2 Duo 2.5 GHz)每秒钟处理大约20k个上下文切换。 # vmstat 3 procs ———–memory———- —swap– —–io—- -system– —-cpu—- rb swpd free buff cache si so bi bo in cs us sy id wa 2 0 7292 249472 82340 2291972 0 0 0 0 0 0 7 13 79 0 0 0 7292 251808 82344 2291968 0 0 0 184 24 […]

CPU0被eth1中断吞噬

我有一个Ubuntu虚拟机,运行在基于Ubuntu的Xen XCP中。 它在nginx后面托pipe一个基于FCGI的自定义HTTP服务。 在ab负载下, 第一个CPU内核已经饱和,剩下的内存不足。 在/proc/interrupts我看到CPU0的中断数比其他任何内核都多。 他们大部分来自eth1 。 有什么我可以做的改善这个虚拟机的性能? 有没有一种平衡中断的方法? 血淋淋的细节: $ uname -a Linux MYHOST 2.6.38-15-virtual#59 -Ubuntu SMP Fri Apr 27 16:40:18 UTC 2012 i686 i686 i386 GNU / Linux $ lsb_release -a 没有LSB模块可用。 经销商ID:Ubuntu 说明:Ubuntu 11.04 发行date:11.04 代号:natty $ cat / proc / interrupts CPU0 CPU1 CPU2 CPU3 CPU4 CPU5 CPU6 CPU7 283:113720624 […]

虚拟化 – 十个1Gbps链路还是一个10Gbps链路? (性能)

我有一台拥有多个VM(5)和3个物理网卡(每个2个端口)的计算机,共有6个1Gbps以太网端口。 我有一个SPFfunction的交换机,总共有48Gbps的带宽和一个10Gbps的SPF链路。 服务器也有一个SPF端口(10Gbps)。 我很好奇什么是最好的设置,性能明智的(充分利用每一点,最less的CPU使用),为什么。 将所有虚拟机连接到一个SPF端口,然后连接到交换机上的SPF端口,还是应该连接5个以太网电缆并将它们连接到networking交换机上的5个端口? 如果还有点不清楚的话,可以想象这个场景: 交换机上的两台PC分别需要从VM A下载一个大文件,从VM B下载另一台PC。如果它们与以太网连接,每个PC都有它自己的连接,所以从VM A的连接将切换到PC A ,同时VM B的连接会切换到PC B,对吗? 如果您要将两台虚拟机连接到SPF,则SPF端口将在PC A和B之间切换。 那么哪种情况在最大负荷下performance最好呢? 为什么? 编辑:我想保持这个相当通用的,所以它可以应用到一个全球性的情况,但细节已被问到的设置,在这里他们是: 服务器:PowerEdge T620 SPF卡:PEX10000SFP 10千兆位 网卡:3个NetXtreme BCM5720 操作系统:XenServer 6.2 CPU:至强E5-2609 开关:T1600G-28TS 客户操作系统:Debian Wheezy(PV)

yslow说etagsconfiguration错误。 如何在IIS7上正确configurationetags?

在我支持的网站上运行ySlow,我注意到它报告说网站图片的etagsconfiguration错误(例如* .jpg,* .png,* .gif)。 任何人都可以帮助解释我必须做什么才能让IIS7正确地发布这些etags?