Articles of 高性能

AMD 24核心服务器内存带宽

我需要一些帮助来确定我在Linux服务器上看到的内存带宽是否正常。 这是服务器规范: HP ProLiant DL165 G7 2x AMD Opteron 6164 HE 12-Core 40 GB RAM (10 x 4GB DDR1333) Debian 6.0 在这个服务器上使用mbw ,我得到了以下数字: foo1:~# mbw -n 3 1024 Long uses 8 bytes. Allocating 2*134217728 elements = 2147483648 bytes of memory. Using 262144 bytes as blocks for memcpy block copy test. Getting down to business… Doing […]

如何防止Linux下的IO负载video服务?

目前我正在3台服务器上通过Nginx提供会议video。 4个内核,足够的内存(不使用交换机)和每个服务器8个驱动器的RAID-10。 不幸的是,iostat -xd 1在所有3个服务器上给我100%,iotop显示Nginx的吞吐率达到99-100%。 我一直在考虑分布式FS(但是哪一个会有帮助?); 任何其他方式来防止这种情况,而不只是购买新的服务器(涉及所有的开销…)? 请注意,这是不可能的video内存; 太多了,太大了。 记忆中只有less数人的分布也不好。

千兆位媒体转换器能否影响性能?

我们正在寻求升级我们的networking基础设施。 我们在IDF和我们的MDF之间有光纤,但是发现光纤核心交换机要比铜贵得多。 如果我们要有一个铜缆核心交换机,并使用媒体转换器将它们连接到光纤,那么与光纤交换机相比,是否会有任何性能影响(带宽,延迟等?)?

如何计算硬件支出的成本/收益? (转向虚拟化,升级等)

序言:作为收购小型开发公司的一部分,我们已经获得了一个新的办公室。 许多人被转到了总部,但是“新”办公室将保留一个由4-6名开发人员和业务分析员组成的小团队,以及其他杂项pipe理人员。 作为这个过程的一部分,我们已经结束了几个2005年末的惠普服务器,目前还没有被使用,我认为这些服务器可以作为UAT和源代码控制等的合适平台。 直到明年的时候,预算调整和虚拟化的强大案例可以做出。 问题:现有的系统pipe理员是技术娴熟的人,大部分时间都是关注工作安全(即尽可能less的工作)。他一直反对我的build议,即升级这些工具箱可以为开发团队提供最低限度的合适的基础设施对于下一年(我根据我收到的反馈修改了这个值,从1 – 2年)。 系统pipe理员的立场是,我们可以更好地在本地(UAT等)运行桌面上的东西,而不是放置在执行升级的工作上。 这使开发团队陷入了僵局,明年没有虚拟化的保证,因为系统pipe理员缺乏实施解决scheme的经验和信心。 面对最低限度的一次性支出,这似乎是不合理的。 理由对我来说似乎是一个短期的解决办法,但是我想确定我是在基础上,而不是为了“解决”而绝望。 问题:您计算硬件支出的成本/收益的一般过程是什么?您通常如何向高层pipe理人员提供这些信息来certificate支出合理? 另外,你将如何提出虚拟化的案例? 而且,系统pipe理员转移到VM环境需要多less经验?

极端的ZFS在几个月后减速

我有一个通用的服务器,为许多用户提供邮件,DNS,Web,数据库和一些其他的服务。 它有一个3.40 GHz的Xeon E3-1275,16GB ECC RAM。 运行Linux内核4.2.3,使用ZFS-on-Linux 0.6.5.3。 磁盘布局是2个希捷ST32000641AS 2 TB驱动器和1个三星840 Pro 256 GB SSD 我有一个RAID-1镜像中的2个HD,SSD充当caching和日志设备,全部在ZFS中pipe理。 当我第一次build立这个系统时,它非常快。 没有真正的基准,只是…快。 现在,我注意到极端的减速,特别是在保存所有maildirs的文件系统上。 做一个每晚备份需要90分钟,只有46 GB的邮件。 有时候,备份会造成极大的负载,导致系统在长达6小时内几乎无响应。 我在这些减速过程中运行zpool iostat zroot (我的池被命名为zroot ),看到的写入量为100-200kbytes / sec。 没有明显的IO错误,磁盘似乎没有工作特别困难,但读取几乎不可能慢。 奇怪的是我在另外一台机器上也有相同的体验,使用类似的spec硬件,但没有运行FreeBSD的SSD。 它工作好几个月,然后以相同的方式缓慢。 我怀疑是这样的:我使用zfs-auto-snapshot创build每个文件系统的滚动快照。 它创build15分钟,每小时,每天和每月的快照,并保持每个周围的一定数量,删除最老的。 这意味着随着时间的推移,每个文件系统上已经创build并销毁了数千个快照。 这是唯一可以考虑的累积效应的文件系统级操作。 我试图销毁所有的快照(但保持进程运行,创build新的),并没有发现变化。 是否有不断创build和销毁快照的问题? 我发现让他们成为一个非常有价值的工具,并且被认为是(除了磁盘空间)或多或less的零成本。 还有别的可能导致这个问题吗? 编辑:命令输出 zpool list输出: NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT zroot 1.81T […]

部分轻抚/短轻抚/半轻轻抚摸硬盘?

这里有人可以向我解释这个词的含义吗? (我已经看到与3条款提到的相同的东西)。 起初,当我读到这些信息时,出于某种原因,我明白这是一种将字节分割成磁盘盘片的方式,这听起来像个好主意,显然没有意义,因为这样做不会切割磁盘大小在一半(和磁盘可能已经分裂盘片字节)… 我已经了解到的最好的一点是,基本上不是为整个磁盘大小创build一个分区,而是创build2个分区,只使用其中的一个分区,无论是“中心”还是“而且由于其中一个更快(人们似乎不同意哪个更快),这使得一切都变得更好。 我正确理解这个吗? 有没有人用他们的驱动器试过这个,并有一个很好的结果? 谢谢!

postgres stats收集器进程生成的I / O太多

我正在使用具有本地postgres数据库的多个虚拟机的XenServer。 即使所有应用程序未使用且数据库处于空闲状态,每个虚拟机也会导致恒定的存储networkingstream量,从而降低了iscsi存储设备的性能。 运行iotop之后,我注意到postgres stats收集器进程正在不断地以大约2 MByte / s的速率写入磁盘。 然后我通过编辑/etc/postgresql/8.4/main/postgresql.conf禁用收集统计信息: #—————————————————————————— # RUNTIME STATISTICS #—————————————————————————— # – Query/Index Statistics Collector – track_activities = off track_counts = off … 如http://www.postgresql.org/docs/8.4/static/runtime-config-statistics.htm中所build议的那样。 这消除了连续写作,但closures统计跟踪有什么不利之处吗? 还是应该将pg_stat_tmp目录放在虚拟硬盘上以避免磁盘/networkingstream量? 该系统是一个最新的Debian 6.0.7(squeeze)与postgres 8.4和约20个数据库约50表,总转储文件大小小于100 MByte。

第一天上网:如何不杀你的网站

假设你有这个奇特的新网站,有大量的数据(比如大图片),你就要把它放到网上。 如果你做了“太多”的宣传,在开始的几天里,网站就会被要求淹没。 我怎样才能减轻这种风险? 我想过了 像SO和SF一样逐渐生活:“私人”公测,公开testing 允许X. 连接 会话同时进行,所以连接的用户仍然有很好的网站体验,其他人都有一个很好的道歉信息 我不能: 购买更多的服务器,因为在第一天之后,网站的stream量会less很多:)

高磁盘I / O – jbd2 / sda2-8进程

我在CentOS 5.8最终服务器上运行了一个文件服务器。 我目前唯一关心的是,由于jbd2 / sda2-8进程,似乎是间歇性的,但持续的高磁盘I / O活动导致总体放缓。 jbd2 / sda2-8正在使用/ dev / sda2,这是第一个硬盘(IE:根分区)的第二个分区。 更多信息:使用“iotop”的罪魁祸首似乎是“jbd2 / sda1-8”每秒写入,这似乎是一个与ext4文件系统上的日志相关的内核进程,如果我的谷歌search是正确的。 我看到“jbd2 / sda2-8”时不时地出现在这里,但肯定不是每隔3秒钟。闲置时,每分钟出现约1或2次。 当我使用这个系统的时候,看起来更频繁。 ATOP结果: http : //grabilla.com/02b14-8022db2e-4eb9-4f10-8e10-d65c49ad7530.png IOTOP结果: http ://grabilla.com/02b14-cf74b25d-4063-4447-9210-7d1b9b70e25b.png HTOP结果: http ://grabilla.com/02b14-ad8cad0e-89b0-46d3-849d-4fd515c1e690.png jbd2 / sda2-8是iotop在磁盘上写入的过程,即使它没有被使用。 有人有什么想法,我怎么能解决引起jbd2 / sda2-8过程的高磁盘使用率?

为什么磁盘密集型应用程序在SAN上比在物理磁盘上运行得更快?

为什么磁盘密集型应用程序在SAN上比在物理磁盘上运行得更快? 我希望物理磁盘的速度稍微快一些,但实际上这个过程的运行速度要比SAN上的分区速度快100倍。 我们的猜测是,SAN在开箱即用的情况下进行了优化,而物理磁盘调整设置与操作系统(Solaris)相关,并且尚未被触及或操作系统已被修补。 在最高活动期间,磁盘I / O以100%运行,并且完成写入的时间超过2秒,因为多个进程同时向磁盘写入数据。 (仅供参考的应用程序是Informatica PowerCenter)