以下链接收集在这个线程中,我开始检查blockdev,并发现以下输出,指示分区c0d9p1和基础设备(c0d9)的不同大小: [root@machine ~]# blockdev –report /dev/cciss/c0d9 RO RA SSZ BSZ StartSec Size Device rw 256 512 4096 0 3906963632 /dev/cciss/c0d9 [root@machine ~]# blockdev –report /dev/cciss/c0d9p1 RO RA SSZ BSZ StartSec Size Device rw 256 512 2048 1 3906959039 /dev/cciss/c0d9p1 我们有很多小文件,所以是块大小比正常小。 该设备是惠普智能arraysP410 RAID控制器上的逻辑驱动程序,简单的磁盘没有任何RAID – 精确的一个磁盘上的RAID 0。 (请注意,上面的configuration是一个function不是一个错误)。 因此,我有以下问题。 上面的块大小差异是否会影响磁盘性能? 我可以使用hpacucli控制块大小吗?
我为Debian 7上的courier-imap运行了大约200个用户的邮件服务器。这个服务器在有2个cpu核心和2个GB RAM的Xen客户机内运行一个linux内核2.6.38。 服务器通过postfix接收传入的邮件,但资源密集型检查(amavis,spamassassin)被委托给另一台服务器。 最近我遇到了随机丢弃客户端连接的IMAP性能问题。 服务器上的负载不低,但也不是那么高,即使在发生这些连接丢失时也是如此。 在高峰时间,我有大约120个同步的imap客户端,5分钟的负载<1。 我注意到连接丢失与我的服务器上的以下日志行同时出现: imapd: FAMPending: timeout 我想当FAM超时时,imap服务器会返回某种错误,根据客户端的不同,error handling是否正常(一些networking邮件客户端不喜欢这样)。 常规的Debian courier-imap包需要fam实现,我可以select使用famd或gamin 。 我已经尝试过,都进入这些超时。 在我看来,gamin在服务器上产生较低的负载,但仍然发生超时。 我想知道是否有什么我可以调整,以提高家庭/ gamin的performance,并避免超时信息。 守护进程中没有太多configuration。 但是,这可能是我的文件描述符或资源不足? 我如何检查? 或者你认为一个更好的select是升级我的Xen客户还是远离courier-imap?
我想要build立一个带有两个WD Red 4TB磁盘的BTRFS RAID1设置,它拥有4K扇区。 由于我在第一次将数据复制到正确的位置(是的,它会被备份),所以我很想把它做好。我的问题是高级格式化磁盘是否需要关于扇区alignment和大小的特殊考虑。 在过去,我知道我必须处理这个问题,例如设置MDADM + LVM和ZFS(ashift = 12),但是我找不到任何有关BTRFS的信息(除了特定于SSD的内容,例如这里 ) 。 我曾计划以下列方式使用没有分区的整个磁盘: $ mkfs.btrfs -m raid1 -d raid1 /dev/sdX /dev/sdY 所以,考虑到我找不到任何东西,我能相信BTRFS只是做“正确的事情”吗? 我怎样才能控制它呢? 我检查了GParted中的结果,并显示了磁盘信息 First sector: 0 对于这两个驱动器,这似乎是错误的,因为通常GParted排列第一个扇区MB,这将有一个2048的第一个扇区,我已经看到我在另一个磁盘上创build的BTRFS 分区 (但我不知道)。 也许我应该在两个驱动器上创build一个跨磁盘的BTRFS分区,然后使用RAID1中的那些分区? 顺便说一下:有没有使用整个磁盘与我应该考虑的分区的利弊? 希望有一些经验的人可以帮助我。
我有以下设置: Windows 8.1 32位 驱动器0:系统驱动器,SSD,NTFS,安装在C:\ 驱动器1:数据驱动器,磁盘驱动器,NTFS,另外安装在C:\Users\Database User\Documents和Z:\ 在C:\Users\Database User\Documents的子子目录中,我有大约5万个文件,平均约10KB的子目录大约2KB。 (一个bcolz列数据库。) 对于跨驱动NTFS交接点,根据进程的文件IO是以其工作目录(或其子目录)还是任何其他目录为目标,我发现性能差异很大。 在NTFS交汇点下方,可接受的性能只能在进程的工作目录或工作目录的子目录中实现: 工作目录C:\Users\Database User\Documents\abc\def :执行rmdir /Q /S mydata.bcolz是一个IO绑定(磁盘绑定)操作 工作目录C:\Users\Database User\Documents\abc :执行rmdir /Q /S def\mydata.bcolz是一个IO绑定(Disk bound)操作 工作目录C:\Users\Database User\Documents\abc\def\xyz :正在执行rmdir /Q /S ..\mydata.bcolz是一个CPU绑定操作 在前两种情况下,cmd.exe进程几乎不消耗任何CPU时间,而后者则占用一个核心的100%。 这三种情况的操作都是相同的。 只有工作目录不同。 但请注意: 工作目录Z:\abc\def\xyz :正在执行rmdir /Q /S ..\mydata.bcolz又是一个IO绑定操作! 这种现象发生在有很多非常小的文件的任何快速文件IO上。 它不限于rmdir或cmd.exe 。 上面的例子只是为了说明。 任何想法是怎么回事,如何解决它?
我们在一个8核双插槽机器上运行2.6.32-358.56.1.el6.x86_64上的perf。 我们在CPU 1-31上有CPU iso(除0以外的所有),我们的应用程序使用CPU 1-31。 运行perf的几秒钟–pid设置整个刀片崩溃,我们必须手动重置。 我们在/ var / log / messages中看不到任何日志。 任何想法的人?
我有一个潜在的客户,有一个大多数时间performance良好的PHP网站。 但是,每个星期左右,它都会经历滞后(缓慢的页面加载)。 我相信有无数的事情可能导致这个(networking问题,糟糕的安装,一个特定的PHP文件,增加的stream量负载)。 但是,我需要一种方法来推断是什么导致了这一点。 是否有任何服务器监控软件是专门处理这些情况? PS:服务器是Linux
我正在寻找一个类似于debugging诊断收集器的function。 您可以在哪里设置性能(或任何计数器)触发器(例如50秒以上的CPU超过50%)。 一旦触发条件满足,我想运行一个PS1脚本。 有没有人做过类似的事情?
我想确定一些数据库是否过载或不平衡,并且认为查看每个数据库随着时间的推移创build的事务日志会告诉我由于高IO(主要是写入),哪个DB有丢失RPO目标的风险。 我的想法是创build每个数据库的graphics,每X分钟,并计算每个创build的日志。 由于E2010 DAG中的每个日志= 1MB,因此我可以轻松计算在给定时间内可能丢失的数据量。 所以我的问题是: 我怎样才能确定给定的数据库是否有额外的IO,可能会更好地移动到一个较低的数据库? 交易日志是一种有效的方式吗? 我应该如何程序化地确定负载? 也许一个PowerShell脚本,C#,并导出到graphics或Excel。
我有Ubuntu 14.04(修改)上运行的HAProxy 1.5。 它接受http和https端口上的连接。 两个后端应用程序使用持久连接处理请求。 当我创build大约2200个客户端连接时,haproxy停止接受其他连接。 但是我希望这个系统能够接受至less10K个同时连接。 这里是连接统计: # ss -s TCP: 4119 (estab 4098, closed 6, orphaned 0, synrecv 0, timewait 6/0), ports 0 Transport Total IP IPv6 TCP 4113 4106 7 INET 4128 4117 11 我已经调整过程的最大打开文件数量: # cat /proc/1012/limits Limit Soft Limit Hard Limit Units Max open files 240017 240017 files 我的haproxy.config文件: global […]
我试图使用旧的富士通RX300S2,四核英特尔®至强®CPU @ 2.80GHz作为Gitabit NAT路由器,它具有通过PCI-X的双千兆网卡。 路由器也会将来自外部接口的组播stream量转发到内部networking。 组播路由由上游Cisco路由器处理,所以NAT路由器只需要“泄漏”eth1(上游)和eth0(内部)之间的组播stream量。 这已经使用igmpproxy正确设置,基本上使L3路由器根据组播stream量作为L2桥。 在testing吞吐量时,在200个组/stream(大约80,000 p / s)上接收大约850-900Mbit的组播stream量给用户空间中的本地进程是没有问题的,它也实时分析200个stream而不丢包。 本地进程最高可达100%。 这些stream由封装在IP UDP数据包中的IPTV mpeg传输stream组成。 7×188 = 1316字节的有效载荷。 但是当在转发模式下testing吞吐量时,例如,组播stream量进入eth1,并在内核级别路由到eth0并发送到本地networking时,NAT路由器不能转发所有收到的stream量。 外部接口eth1接收所有组播stream量〜900Mbit,但出接口只发送〜600Mbit,并且根据eth0附接的接收testing机,所有stream受到丢包的影响。 当分析负载ksoftirqd / 3在100%的CPU上达到最大值,而其他3个核心在10%以下时,看起来不是所有4个内核都参与负载。 / proc / interrupts也显示eth0和eth1共享irq16: CPU0 CPU1 CPU2 CPU3 16: 0 0 92155 208280892 IO-APIC 16-fasteoi uhci_hcd:usb2, uhci_hcd:usb5, eth1, eth0 可以看出,CPU3处理不成比例的中断。 我已阅读了有关cpu_affinity的各种文本,并尝试将CPU内核固定到networking队列中。 不幸的是,这个来自Broadcom的NIC tg3不支持多个队列,但是仍然应该可以在这个四核系统上的更多核心之间共享负载。 或者是PCI-X总线是瓶颈,但是如果是这样的话,那么在传入的eth1和传出的eth0上的吞吐量应该被减less,并且数据包应该被eth1丢弃, 但是看起来在eth1和eth0之间丢失了数据包。 不正确,因为在路由器中丢失数据包时,/ sys / class / net / […]