Articles of 高负载

Xen客人的高负荷

我们正在面对新安装的Xen(4.2)系统的一个奇怪的问题。 该服务器是配备有4x1Tb硬盘的英特尔SR1690WB以及configuration为使用RAID10的RS2BL040 RAID卡。 问题是,任何新产生的半虚拟化客户操作系统(Debian Squeeze)都在非常高的负载下工作(70-80%的CPU使用率,大部分是由events/0或events/1 ),无论他们在做什么dynamic页面,或只是简单地下载一个iso文件)。 每个来宾都configuration为使用2个CPU核心和4GB RAM。 只是希望在Dom0上有一些错误的configuration,但是什么会导致这些可怕的负载? 请让我知道,如果我可以澄清我的问题。

如何在nginxconfiguration中为open_file_cacheselect正确的值?

我有一个由nginx服务的每分钟约6万个请求的网站。 最近,我启用了open file cache并看到了性能的显着改善。 但是在最初的时候,当负载是最大的时候,响应时间还是相当长的,nginx使用了很多的IO。 这是我目前的设置: open_file_cache max=10000 inactive=30s; open_file_cache_valid 60s; open_file_cache_min_uses 2; open_file_cache_errors on; 我还剩下一些记忆: free -m total used free shared buffers cached Mem: 7910 6917 992 0 439 885 -/+ buffers/cache: 5592 2317 Swap: 8099 0 8099 问题:现在是否为open_file_cache max=10000和其他参数select正确的值? 10000够了,是小还是大? 有没有办法监视打开文件caching使用?

巨大的CentOS负载,许多Apache进程

目前我的服务器负载很大,我不知道为什么。 当我使用'top'命令时,有数百个使用“aux”命令的apache进程,但是在网上找不到任何告诉我这意味着什么的东西。 负载在50-150之间摆动,比平常要好50-150。 Netstat返回数百和数百行,如下所示: tcp 0 0 xxx.xxx.xxx.xxx:45216 61.155.202.205:80 CLOSE_WAIT 28863/aux 几乎所有从61.155.xxx.xxx(不知道这是否是相关信息,但尽量给予)。 操作系统是CentOS:release 5.7 Final我们只运行LAMP堆栈,大约有30个网站没有太多的负载(或者我认为)。 我已经检查了所有vHosts的日志,但似乎没有得到很多/任何请求(不足以造成这种麻烦)。 我不确定是否有其他日志我应该检查? 它几天前就开始了; 据我所知,服务器上没有做任何更改。 有没有人有任何想法,我怎么可以追查是什么原因导致巨大的负荷? 还有其他的命令/日志,我错过了,可以帮助我找出问题所在?

WHM / CPANEL – 来自Analog Stats的高CPU和内存使用

一个进程占用了cpu的100%和70%的内存,并且每天都以不同的帐户启动; /usr/local/cpanel/3rdparty/bin/analog +CIMAGEDIR /images/ +CDOMAINSFILE /usr/local/cpanel/3rdparty/share/analog/usdom.tab +CCHARTDIR ./ +CALLCHART ON +CLANGFILE /usr/local/cpanel/3rdparty/share/analog/us.lng +COUTFILE /home/dunstar/tmp/analog/5.html +CLOCALCHARTDIR /home/dunstar/tmp/analog/ +CCACHEOUTFILE /home/dunstar/tmp/analog/cache.out +CCACHEFILE /home/dunstar/tmp/analog/cache +CVHOST ON +COSREP ON +CBROWSER ON +CFULLBROWSER ON +CREDIRREF ON +CREFSITE ON +CFAILREF ON +CLOGFORMAT COMBINED +CHOSTNAME dunstarltd.com +CHOSTURL http://dunstarltd.com/ /usr/local/apache/domlogs/dunstarltd.com.bkup 我杀了这个过程后,一切都恢复正常了。 然后在30-40分钟之后另一个帐户开始另一个进程: /usr/local/cpanel/3rdparty/bin/analog +CIMAGEDIR /images/ +CDOMAINSFILE /usr/local/cpanel/3rdparty/share/analog/usdom.tab +CCHARTDIR ./ +CALLCHART ON +CLANGFILE /usr/local/cpanel/3rdparty/share/analog/us.lng +COUTFILE […]

负载testing每分钟35万次请求

我需要一种方法来重现我们网站前段时间突然爆发的stream量,以便有机会保持我们的堆栈工作。 我们的负载均衡器在某个时间点报告说,每分钟执行大约35万个请求,从操作系统到后台都会造成一切垃圾。 我尝试了一下执行这种爆发testing的服务,但似乎在调整testing设置以匹配所需的条件时,它会花费太多。 我怎样才能以符合这些条件的方式加载testing我的堆栈?

ksoftirqd与ixgbe驱动程序的接口达到100%

这是我的司机信息。 ethtool -i ethXX driver: ixgbe version: 3.9.15-NAPI firmware-version: 0x800000a5 bus-info: 0000:04:00.0 supports-statistics: yes supports-test: yes supports-eeprom-access: yes supports-register-dump: yes 现在我有一个平均stream量为1 / 1.5 Gbps(每秒75k包)击中这个接口,我可以看到一个或多个ksoftirqd线程达到100%。 我试过启用rx-usecs / rx-frames选项,但没有任何改进。 有点延迟不是我的问题。 我只是想让ksoftirqd用法下降。 我看到rx-usecs的限制是1022,这是下一个中断应该被触发的usecs(这是我的理解,如果我错了,请纠正我)。 虽然它不能解决我的问题。 此驱动程序不支持rx-frame。 也不支持“adaptive-rx”。 下一步我应该看什么? 任何帮助是极大的赞赏。

高系统CPU负载(%sys)导致的高负载平均值

我们有高stream量的网站服务器。 最近我们搬走了 2 x 4核心服务器(/ proc / cpuinfo中的8个核心),32 GB RAM,运行CentOS 5.x 2个4核心服务器(16个核心在/ proc / cpuinfo中),32 GB RAM,运行CentOS 6.3 运行nginx作为代理的服务器,mysql服务器和sphinx-search。 stream量很高,但是mysql和sphinx-search数据库相对较小,而且通常情况下所有的工作都非常快。 今天,服务器的负载平均值为100 ++。 看上面和sar,我们注意到(%sys)是非常高的 – 50到70%。 磁盘利用率不到1%。 我们尝试重新启动,但重新启动后存在问题。 在任何时候,服务器至less有3-4 GB的可用内存。 只有dmesg显示的消息是“端口80上可能发生SYN洪泛。发送cookie”。 这里是sar的片段 11:00:01 CPU %user %nice %system %iowait %steal %idle 11:10:01 all 21.60 0.00 66.38 0.03 0.00 11.99 我们知道这是交通问题,但是我们不知道如何着手未来以及在哪里检查解决scheme。 有没有一种方法可以find那些“66.38%”的确切位置。 任何build议,将不胜感激。 更新:今天的平均负载为“正常”,“sys%”也可以〜4%。 但是今天的交通比昨天less了20-30%。 这让我想到昨天的问题是因为TCP的一些内核设置。

在linux系统加载中奇怪的值

我想了解一个Linux服务器上的系统负载: $uptime 15:01:45 up 52 days, 19:48, 1 user, load average: 0.63, 1.76, 4.81 负载总是1分钟<5分钟<15分钟。 Distributor ID: RedHatEnterpriseServer Release: 5.8 我每秒捕获uptime大约30分钟,总是报告1分钟的平均时间低于5分钟15分钟。 根据我对系统负载值的理解,这是不可能的。 似乎有更多的数字报道了一些增加的常数。 这怎么可能,这是什么意思?

高系统中断率

我的服务器有24个CPU核心,96G内存,安装了CentOS 7.2 x86_64。 用大数据集启动我的程序后,我的程序将使用大约50G的内存,Linux系统将显示高速率的系统中断,但是上下文切换速率会很低。 dstat会在500k int / s和1000k int / s之间显示。 CPU使用率将接近100%,约40%,我们60%。 如果数据集小,程序将使用大约5G的内存,一切都会好的,CPU使用率100%,大约99%的我们,1%的sy。 这是预期的。 该程序是由我自己写的,这是一个multithreading程序。 它不做任何networkingIO,很less有磁盘IO,主要是内存操作和算术。 无论数据集大小如何,线程模型和algorithm都是相同的。 我的问题是,我怎样才能find我的程序使用哪些中断(并尽可能提高性能,摆脱它们)?

不均匀的CPU核心利用率

tl; dr: 第一个CPU内核一直饱和,所有其他内核一直加载不足。 基于Ubuntu的Xen XCP中的虚拟机: $ uname -a Linux MYHOST 2.6.38-15-virtual#59 -Ubuntu SMP Fri Apr 27 16:40:18 UTC 2012 i686 i686 i386 GNU / Linux $ lsb_release -a 没有LSB模块可用。 经销商ID:Ubuntu 说明:Ubuntu 11.04 发行date:11.04 代号:natty 该虚拟机有8个CPU内核。 在此虚拟机上运行的单线程工作进程有10个,通过FCGI接口连接到nginx服务器(侦听本地networking端口)。 在AB的合成载荷下, 只有第一个8的核心加载到100% (从htop )。 它一直保持在很高的负载下, 所有其他内核在0到100%之间任意加载, 或多或less是随机的 (这些内核的CPU负载正在跳跃)。 以下是我通常在htop加载的内容: 1 [||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| ||| | | | | | | | […]