初始拥塞窗口如何增加到10 ? 看来可以用TCP_INIT_CWND来完成 ,但我不知道该怎么做。
我们正在testing我们的生产服务器之一,我们发现是什么 apr_socket_recv: Connection timed out (110) Total of 176 requests completed 经过一段时间以上的输出。这意味着服务器无法处理200个请求? 或者究竟是什么问题,以及如何达到它的底部?
我试图通过一个“高延迟networking”来提高TCP吞吐量,在Linux机器之间有一些数据包丢失。 我将tcp_mem , tcp_wmem和tcp_rmem为“8192 20530752 20530752”。 我将rmem_max , wmem_max , rmem_default和wmem_default为“20530752”。 我将netdev_max_backlog和txqueuelen设置为50000。 我将tcp_congestion_control设置为“可伸缩”。 我使用“nist”(cnistnet)来模拟延迟50ms(每个方向25ms)和0.5%(每个方向0.25%)的下降,BW I达到约7.48mbps。 下面是一个结果表(使用iperf来度量费率): | 0ms | 50ms 0% | 710mbps | 276mbps 0.5% | 181mbps | 7.48mbps 我没有想到延迟会对吞吐量产生如此大的影响(不适用于这些大的TCP窗口)。 我也没想到这个滴效果如此之好。 特别是与“可伸缩”algorithm不同,因为它的“拥塞窗口”应该很快从数据包丢失恢复。 我用tcpdump & sar (sysstat的一部分)试图看看发生了什么事情。 在萨尔的报告中我没有看到任何可疑的东西。 而在tcp转储我看到: “rexmt data pkts”= 88(在8183中发送) “rexmt data bytes”= 127,424字节(已发送的44,649,104个字节) “avg owin”= 135,964字节。 “avg retr time”= 53.5 ms。 […]
我正在使用mod_php Apache服务内容。 大多数内容是通过networking从内存caching中获取的。 我所有的图像,CSS和JS已经在CDN上 把nginx和/或清漆放在前面有什么优点和缺点? 奖金:如何处理需要显示自定义页面(如果有人login)的用户帐户(也许这是另一个问题)
Debian使用Win2k8服务器来挤压KVM服务器。 服务器有16GB的RAM,客户机只运行MS SQL,其上有一个15GB的数据库。 我想知道是否有任何内容或默认的Debian设置中的默认内存或存储设置,可以帮助性能在这里调整。 理想情况下,在Windows客户端上,我将不得不find使MS-SQL服务器保持尽可能多的数据库的方式,因为这将有望直接转换为物理主机RAM。 数据库是一个投票系统,所以它的投票和读取每日结果和报告的组合。 有什么我可以调整主机FS也许像swapiness或dirty_ratio这将是有益的吗? 我不太了解MS-SQL,我认为我无法调整如何处理写入。 我认为,即使数据库在RAM中,Windows中的数据库写入也会刷新到客户机上的磁盘上,因此这将传递给主机。 主机运行DRBD并将访客虚拟机复制到另一台服务器。 我需要在这里知道的任何事情? 非常感谢。 user@machine:~$ kvm -version QEMU PC emulator version 0.12.5 (qemu-kvm-0.12.5), Copyright (c) 2003-2008 Fabrice Bellard user@machine:~$ uname -a Linux myhost 3.4.9 #1 SMP Wed Aug 22 19:08:46 BST 2012 x86_64 GNU/Linux
我有3个硬盘的专用服务器。 系统盘,备份盘(与系统盘相同)和数据盘。 当我用cp复制大量数据时(比如说,在备份磁盘和数据磁盘之间),负载平均值会高出很多。 例如,目前的平均负载约为0.57,拷贝数据时可以超过50或更多。 使用rsync and with –bwlimit=10000进行复制将毫无问题。 较高的值会导致高负载。 文件系统是ext3。 sda – 系统盘: % hdparm -Tt /dev/sda /dev/sda: Timing cached reads: 13444 MB in 2.00 seconds = 6730.82 MB/sec Timing buffered disk reads: 232 MB in 3.02 seconds = 76.73 MB/sec sdb – 数据磁盘: % hdparm -Tt /dev/sdb /dev/sdb: Timing cached reads: 13740 MB in […]
系统执行任何操作都非常慢,甚至浏览本地文件夹,并且CPU经常处于100%。 客人是XP 32位。 主机是Scientific Linux 6.2,Libvirt 0.10,Guest XP操作系统显示了ACPI多处理器HAL和一个用于NIC和SCSI的virtIO驱动程序。 安装。 CPUInfo on host: processor : 0 vendor_id : GenuineIntel cpu family : 6 model : 42 model name : Intel(R) Core(TM) i7-2600 CPU @ 3.40GHz stepping : 7 cpu MHz : 3200.000 cache size : 8192 KB physical id : 0 siblings : 8 core id […]
我有一个关于平衡irq的问题。 我从/ etc / interrupts中获取了irq数字,并将每个irq分配给24个CPU,如本教程所述 for i in {143..166};do cat /proc/irq/${i}/smp_affinity; done 000001 000002 000004 000008 000010 000020 000040 000080 000100 000200 000400 000800 001000 002000 004000 008000 010000 020000 040000 080000 100000 200000 400000 800000 之后我们通过发送大约1000万pps来testing服务器并观察最高命令的输出。 top – 15:19:06 up 5:02, 8 users, load average: 12.51, 12.86, 12.38 Tasks: 278 total, 17 running, 261 […]
我正在开发一个与多pathtcp相关的项目,我想在应用程序级别测量goodput和RTT。 我不想使用传统的工具(netperf,iperf,…),我想build立自己的一个。 到目前为止,我已经想到了几种方法来做到这一点,在每种情况下,每秒钟都发送固定数量的呼叫(我打算增加每秒发送呼叫的数量,并绘制一个networking性能图): 请求 – 响应testing(客户端发送一个固定数量的数据到服务器,然后服务器发回数据) rtt由发送和客户端之间的recv之间的经过时间组成 突发模式(客户端使用其时间戳执行固定数量的连续send()调用,服务器发回时间戳) 在客户端计算rtt:recv呼叫(带有服务器发回的时间戳)与recv呼叫回复的时刻之间的差异 streamtesting(连续发送呼叫数) 在每种情况下,正常传输包含发送呼叫的数量*发送呼叫中的字节数,我想问一下这种方法是否被认为是正确的。 谢谢。
最近inheritance了Nginx + PHP5-FPM服务器,我正在学习并试图优化PHP5-FPM设置。 服务器信息: 4 CPUs (8 threads) 7.5 GiB RAM PHP5-FPM信息: pm.max_children = 5 pm.min_spare_servers = 1 pm.max_spare_servers = 3 ;pm.process_idle_time = 10s; ;pm.max_requests = 500 (我将取消max_requests行的注释,因为这似乎是一个推荐的事情。) 当网站负载较重时,每个PHP5-FPM进程都有非常高的CPU使用率,但是我还没有看到进程超过1%的RAM使用率。 我看到的任何地方(例如这里和这里 )都只是谈论由RAM限制的pm.max_children增加,并没有提到CPU使用率。 在我的情况下,会增加pm.max_children增加或减less我的网站的性能,基于这个事实,它是比内存绑定更多的CPU的限制? 换句话说,当pm.max_children增加时,RAM是唯一的考虑因素还是CPU也受到了影响? [编辑]不是重复的:这个问题基本上归结为最后一句话,这不是要求能力计划的意见; 它会询问在pm.max_children设置中CPU使用率是否是一个考虑因素,或者它是否只是增加的RAM。