我正在使用tomcat将PDF转换为PNG。 我使用Jmeter来加载/吞吐量testing应用程序使用英特尔(R)至强®CPU X5550 @ 2.67GHz的服务器,有16个超线程核心。 Tomcat6有2gig的堆内存分配,连接器被设置为处理1000个并发连接。 在我的负载testing期间,我发现随着用户数量的增加,响应时间降低,这是正常的。 然而,负载平均值非常低(一台16核心机器大约为1),CPU使用率约为60%。 我通过JMX使用jconsole监视tomcat实例,发现内存使用不是问题。 为了减less响应时间,我在8个不同的端口上创build了大约8个tomcat实例,在负载testing期间负载平衡器负责平衡所有8个端口之间的负载。 这一次,我发现服务器能够处理更多的并发连接,而不会降低响应时间。 负载平均值也高到7.所以,看起来像tomcat没有有效地使用CPU只有一个实例设置(我甚至尝试在不同的端口上创build多个连接器)。 好像我们需要在一台机器上运行多个tomcat实例来提取最高的性能。 做这个设置不是最佳的,因为在一个服务器池上创build多个实例,并维护它将是一个痛苦。 我的问题是,是否有可能configurationtomcat这样一个单一的实例将尽可能多的CPU使用高负载平均? 如果您对设置有任何疑问,请发表评论。 我会很感激任何帮助/指针。
前言: 我的公司推出了一个软件套件,用于提供实时和按需多媒体(video,幻灯片,聊天等)。 我们提供服务器,客户端创作工具和客户端浏览器播放器。 我们的许多客户都是巨大的企业巨人,有一个共同点:复杂的全球内联网。 我们经常遇到代理,网关,TCP加速器,反向代理caching服务器,QoS协议,防火墙和偶尔的BOFH问题。 我们的团队很小,我们的办公室基础设施也是如此。 每个人都在OSX上,有几个testingWindows机器。 我们的networking由OSX服务器,AirPort Extreme,HP 2510-G24和100mbps有线互联网提供。 甚至没有像我们的客户那么复杂。 如果它坏了,我们跑到商店买一个新的。 这种差距耗费我们的时间,金钱和面子。 我们可以做得更好。 我想build立一个开发内联网来模仿我们客户的networking。 有了这样的钻机,我们可以提高我们对客户遇到的问题的理解,并为他们提供可靠的build议。 题: 我怎样才能模拟一个通用的企业内联网。 我可以以低廉的价格实施什么样的最低限度的设置来重现客户的networking环境? 一些背景细节: 我们的平台 : 我们的内容播放器是基于Flex的,video编码为h264 我们通过HTTP传输需求内容,调节带宽。 我们通过RTMPstream式传输实时内容,不期望的回退到RTMPT(通过HTTP隧道传输的RTMP) 平台规模,唯一的瓶颈就是networking 我们遇到的技术问题 : 不允许RTMP(端口1935)访问 代理请求的速率限制。 (RTMPT将每秒发出几个HTTP POST调用) 以前未公开的带宽上限 病毒扫描程序坚持在发送到客户端之前完整地下载所有文件 局域网内子网之间的高度限制带宽配额(例如:校园到校园,城市到城市) 古老的基础设施(你想把高清stream送到BFE?在一个12年的固定线路上,甚至没有人能够find这个文件)到一个没有扬声器的NT4客户端? O RLY ?) 在n个字节之后的有意的带宽限制(这是正确的字吗?) 我们想尝试一下: 多播协议/技术 内联网中子网之间的多播 Intranet中子网之间专有的P2Pstream媒体技术 自适应速率stream QoS协议configuration 这样一个系统应该允许我们: 开发坚实的回退机制到我们的软件 开发一个简单易用的诊断工具(销售,经理) certificate经过validation的代理/防火墙configuration片段 向我们的客户端用户提供准确的错误信息 甚至可能是一两张白纸 最初,我开始思考一个运行鱿鱼的单一Linux机器以及一个体面的低端pipe理交换机就足够了。 但是我在开玩笑吗? 我从来没有devise过一个networking。 […]
我有一个服务器应用程序在Elastic Load Balancer后面的EC2上运行。 我已经使用Blazemeter进行了testing – 这是一个基于jMeter的负载testing服务,也可以在基于EC2的基础架构上运行。 结果很好。 但是,我应该担心它与亚马逊networking一起运行吗? networking“距离”是一个问题,我是否应该寻求一种不在EC2内运行的负载testing服务?
我试图testing我在两个networking之间的路由器上实施的一些QoS策略。 我有两个Linux服务器,每个networking上一个,我想模拟它们之间的数据传输,所以我可以看到,如果QoS是有效的。 数据主要是UDP,但是能够模拟TCP数据也是有用的。 我最初尝试只是通过netcatpipe道/dev/urandom ,但这只是尽可能多的带宽和沼泽的连接。 有没有办法做类似的事情,但允许我将数据速率限制在某个特定的位置?
我想要在我的应用程序上支持慢速磁盘存储的影响。 为了做到这一点,我想减less写入存储。 我可以通过一些configuration来实现吗?还是有专门的工具吗?
是否有可能压低VMWare镜像的CPU速度,以便我可以模拟一台慢速电脑,并testing我的软件如何在慢速机器上工作? 或者有没有其他方法可以做到这一点? 我使用VMWare Server 2.0及其CentOS Image。
我正在开发需要在尽可能多的PCI适配卡arrays上工作的软件。 考虑PCI以太网卡。 我可以收集数十个不同的卡,并且我有一台专门用于testing的Windows XP机器。 我的第一个猜测是有一个分区快照,并保持覆盖系统分区返回到每个适配器安装和testing之前的已知状态。 是否有任何其他工具或提示这样的硬件testing和authentication过程? 例如,是否有用于组织硬件数据的产品,例如将新适配器的所有PCI ID等自动logging到数据库中,确切地嗅出哪些驱动程序文件被添加到Windows以支持该适配器,等等等等?
我在一个小型的电子商务网站上使用wordpress(不是为了电子商务,而是为了首页和其他一些网站)。 我们希望获得在第二台服务器上设置的站点的完整副本,然后将DNS切换到新服务器的IP地址。 在切换之前,当然我们想要testing一下新的服务器,更新主题等。 我复制了软件和数据库,起初事情似乎没有问题。 新的服务器只能使用IP地址访问,所以它类似于http:// 47.48.147.148/mysite.com/,并且在apache2.conf(这在Ubuntu上)使用Alias,它会将其redirect到/ home / mysite.com/wordpress/。 然而,许多链接去www.mysite.com [无论链接是什么]。 我试图login到后端来解决这个问题,并发现即使是pipe理员login被redirect到真实的网站。 所以去http://47.48.147.148/wordpress/wp-login.php发送我到login页面,当我login它使我在www.mysite.com/wp-admin,login。 所以我觉得我在这里犯了一些基本的战略错误。 我们有一个小的网站,只有一个服务器是很多(数据库和代码)。 我只是想要build立新的操作系统,数据库软件,博客和电子商务软件等,然后切换它的能力。 我想在第二台服务器上设置一切,然后将DNS注册切换到新的IP地址,这样做(不同的客户可能不会立即得到新的IP地址,但在一天左右,他们都会,而且无论如何,没有人会看到一个没有准备好的网站)。 那么,做这个更好的策略是什么呢? 我不想在生产服务器上快速升级操作系统等操作系统,我希望能够使用浏览器testing新的设置,并将真实的数据join其中,这就是为什么我将代码和数据库从当前产品服务器。 在小型商店环境中,处理这些问题的最佳总体策略是什么? 是否有一个Apache的设置,可以让这个工作,或者有没有一个不同的方式去testing新的设置尽可能真实,而不需要dynamic更改prod服务器?
我们正在寻找简短的清单/模板,以显示变化实际上已经工作,并没有破坏任何东西。 这是作为更正式变更pipe理stream程的一部分而引入的。 任何人都有这样做的经验,什么工作。
我想在embedded式系统上testingIPv6栈。 我怎样才能做到这一点? 在这个设备和另一台PC之间build立一个testing链接是否足够好? 我正在考虑使用像socat这样的工具来build立链接。 我应该问这里还是堆栈溢出?