我试图简化我们的监控系统。 对于查看服务器的CPU使用情况,有各种不同的观点,包括: 平均CPU使用率(总体而言,这占所有核心)。 核心占用率低和高(在特定时间使用的核心数量超过20%或70%) 我们对每个核心的使用情况也有特定的指标。 核心占用是有用的,因为你可能有4个核心,1个100%核心和3个核心0%。 在这种情况下,您可以下降到拥有1个或2个内核,而不会影响您的工作负载,因为平均CPU使用率只会显示25%(无用)。 保持所有这些单独的指标是非常重要的,因为我们有数以千计的服务器每分钟多次报告指标。 是否有一种标准的方式来衡量CPU使用情况,这个方法既考虑了总功耗,又考虑了所使用的内核数量(平行工作能力)? 编辑:我们得到了一些真棒/有用的反应,在工程实际系统方面。 但是我们来关注一下这样一个普遍的问题:“如何评分/制作一组或者一组指标来表示计算机对CPU资源的使用情况,包括使用并行性?
我们知道,当一个CPU被locking在一个NIC的IRQ上,并且当CPU达到100%利用率时,NIC通信将永不再增加。 今天,我遇到了这样一个问题,当大多数stream量是由TCP发出的,当它不能得到几个段的TCP ACK。 会触发TCP慢启动吗? 从而导致NIC的stream量急剧下降。 换句话说,当大stream量大部分是UDP和ICMP时,stream量不会直线下降吗?
我需要弄清楚为什么我的HP DL360 G9服务器上的Win2012R2 x64 Standard的所有进程都只能使用一组CPU内核。 当我检查CPU Affinity时,其中一些只允许使用Group0(CPU 0)和其他一些组件 – 只有组1(CPU 1),但是没有一个允许使用所有可用的CPU / Cores。 这是我唯一的G9服务器,只有它的问题。 运行在HP G5 / G6 / G7上的Win2012R2的完全相同的OS版本/ Build / PatchLevel都可以,CPU Affinity默认设置为使用所有内核。 任何帮助将不胜感激。
作为一个pipe理程序平台使用Proxmox 5.0,并设置KVM虚拟机服务网站,我真的不知道是否应该使用kvm64 “虚拟”CPU或尝试使用主机 。 具体来说,我有一个能够超线程化的4核CPU,可以在8个内核中使用KVM(或者我应该禁用超线程来获得每个内核的更多功率,最终?)把大部分服务器的权力投入到我的网站上。 背后的想法是好的: 如果我用“主机”types的CPU去,我会得到所有的硬件CPU的权力,看起来像我会得到它的大部分。 唯一的问题是我应该设置多less个核心供VM使用:如果我设置了8,那么KVM本身将使用哪个核心,如果我设置为7(所以1将仅由KVM本身使用)那么我就less了1/8的电力,不是吗? 如果我把cputypes设置为'kvm64' ,那么我可以给VM分配更多的cpu核心(这些核心是虚拟的,所以我可以很容易地分配一些像这样的核心的64个甚至128个),所以物理CPU被“分裂”成很多较小的,对networkingtypes的负载可能有用,不是吗? 你会推荐我select什么?
我正在运行数据库基准testing(Tpc-h),并且多次运行同一个SQL查询。 令我吃惊的是,即使是相同的查询,花费的时间也有显着差异,达到一个执行与另一个执行之差的40%或50%。 我正在使用服务器HP MODEL:Proliant ML110-G9 Processador:(1)Intel Xeon E5-1603v3(2.8GHz / 4核/ 10MB / 140W)。 这样我根据UEFI(BIOS)手册(第65页),将“电源pipe理”设置为“最高性能”。 https://support.hpe.com/hpsc/doc/public/display?docId=c04398276 我重新执行了基准,但没有奏效,因为花费的时间还有很大的差别。 我的问题是,如果你有任何额外的设置,我必须在BIOS中呢? 另一个问题是,如果我还必须在操作系统中configuration“性能”模式。 我使用Debian 8(Jessie)。 最好的祝福 内托
我在我的服务器上有一个沙箱,我允许用户运行他们自己的PHP脚本。 如果一个PHP脚本有一个无限循环,只有当Apache将进程退出(30秒)时才会停止,这显然不太理想。 我知道一些networking主机会自动杀死耗费太多CPU的PHP脚本太久。 我如何在Linux中的服务器级别上实现这样的function,但是又不会杀死花费很长时间的PHP进程(例如使用睡眠语句或等待networking延迟)? 作为一个奖励的问题,我如何处理内存使用情况呢? 我知道PHP已经构build了内存限制,但是包含在这个沙盒中的是一个PHP扩展,在控制权返回给PHP之前,这个扩展并没有实现这些限制,在这个过程中,如果这个过程超过了它所杀的限制,晚了。 在此期间,它可能已经交换了整个交换磁盘,导致服务器被抓取。
请帮我解决这个问题。 我在专用服务器上有一个image processing网站。 移动到更强大的服务器后,我遇到了奇怪的问题。 第一个服务器configuration是: 酷睿2四核6600 4G DDR2内存 2x500GB SATA +硬件Raid0 Fedora 32bit + PAE 新的服务器configuration是: 酷睿2四核6600 8G DDR2内存 2x300GB SAS +硬件Raid0 CentOS 64bit 引擎使用Nginx + Apache + fastcgi + perl Nginx – 前端,提供静态内容。 Apache – 后端,使用fastcgi提供dynamic内容。 我不得不升级服务器的原因是高磁盘利用率,几乎90..100% 现在磁盘没有问题,但是出现了新的问题。 现在所有的fastcgi进程一起使用几乎100%的CPU。 我也注意到,当网站的用户上传大文件到服务器时,这个过程使用了很多的CPU。 而file upload后CPU使用情况再次正常。 这是从顶部开始的第一行 PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ […]
我在新的Intel D510MO主板上安装了Debian 5.04 Lenny。 我解决了一些不正确的驱动器映射问题(出于某种原因,在安装过程中,我的硬盘驱动器在sdb上,重新启动后,它在sda下 – 在grub中修复),现在我正在努力获取graphics环境并运行,环境使用Debian安装程序。 我不是任何方式的Linux专家,我假设我需要编辑xorg.conf文件。 任何提示赞赏! UPDATE1: 在dpkg-reconfigure xserver-xorg之后没有改变 这是我目前的xorg.conf: # xorg.conf (X.Org X Window System server configuration file) # # This file was generated by dexconf, the Debian X Configuration tool, using # values from the debconf database. # # Edit this file with caution, and see the xorg.conf manual page. […]
我需要使CPU利用率增加到约90%
新的opteron每个CPU有4个mem通道。 Intel Nehalem的一般准则: 每个mem通道中的一个DIMM导致1333 Mhz在每个通道中多于1个DIMM = 1066Mhz,每通道多于2个= 800 Mhz(Nehalem Xeon 55XX每个通道最多3个DIMM) 从而带宽被人口减less AMD Opteron 6100系列有没有类似的build议或指南?