服务器 Gind.cn

服务器问题集锦,包括 Linux(Ubuntu, Centos,Debian等)和Windows Server服务器

光纤通道长途祸患

我需要一双新的眼睛。 我们正在使用一根15km的光纤线路,将光纤通道和10GbE多路复用(无源光纤CWDM)。 对于FC,我们有长达40公里的长距离激光( Skylane SFCxx0404F0D )。 多路复用器受限于可以做到最大的SFP。 4Gb光纤通道。 FC交换机是Brocade 5000系列。 FC的波长分别为1550,1570,1590和1610nm,10GbE的波长分别为1530nm。 问题是4GbFC布料几乎不干净。 有时候,即使有很多的交通,他们也有一段时间。 然后他们可能突然开始产生错误(RX CRC,RX编码,RX disparity,…),即使只有边际stream量。 我附上了一些错误和stream量图。 当1Gb / sstream量时,错误目前大约是每5分钟50-100个错误。 光学 以下是汇总的一个端口的功率输出(在不同的交换机上使用sfpshow收集) SITE-A单位= uW(微瓦)SITE-B ********************************************** FAB1 SW1 TX 1234.3 RX 49.1 SW3 1550nm(ko) RX 95.2 TX 1175.6 FAB2 SW2 TX 1422.0 RX 104.6 SW4 1610nm(ok) RX 54.3 TX 1468.4 我觉得在这一点上好奇的是权力的不对称。 当SW2以104uW接收到的1422uW的SW4接收时,SW2仅以54uW接收具有相似原始功率的SW4信号。 反之亦然SW1-3。 无论如何,SFP的RX灵敏度低至-18dBm(约20uW),所以在任何情况下都应该没问题。 一些SFP被制造商诊断为故障(上面显示的1550nm的“ko”)。 1610nm的显然是好的,他们已经使用stream量发生器进行了testing。 […]

vSphere教育 – 使用*太多内存configuration虚拟机有什么缺点?

VMware内存pipe理似乎是一个棘手的平衡行为。 有了集群RAM,资源池,VMware的pipe理技术(TPS,膨胀,主机交换),客户机内RAM利用率,交换,预留,份额和限制,还有很多变数。 我处于客户端使用专用vSphere群集资源的情况。 但是,他们正在configuration虚拟机,就好像它们在物理硬件上一样。 反过来,这意味着一个标准的VM版本可能有4个vCPU和16GB或更多的RAM。 我来自小的学校(1个vCPU,最小的RAM),检查现实世界的使用和必要的调整。 不幸的是,许多供应商的要求和不熟悉虚拟化的人需要更多的资源,而不是必要的…我有兴趣量化这个决定的影响。 来自“问题”群集的一些示例。 资源池摘要 – 看起来几乎是4:1过度提交。 注意大量的膨胀的RAM。 资源分配 – “最差情况分配”列显示,这些虚拟机在受限条件下可以访问configuration的RAM的50%以下。 上面列表中顶级虚拟机的实时内存利用率图。 4个vCPU和64GB RAM分配。 平均使用9GB以下。 同一个VM的摘要 在vSphere环境中过度使用和过度configuration资源(特别是RAM)有什么缺点? 假设虚拟机可以运行在更less的内存中,那么说虚拟机的configuration比实际需要更多的内存,这是否公平呢? 有什么反驳: “如果一个虚拟机有16GB的RAM分配,但只使用4GB,有什么问题? ”? 例如,客户需要教育虚拟机与物理硬件不一样吗? 应该使用什么特定的度量来度量RAM的使用情况。 跟踪“主动”与时间的峰值? 看着“消费”? 更新:我使用vCenter Operations Manager来分析此环境,并获取上面列出的群集统计信息的一些详细信息。 虽然事情肯定是过度的,虚拟机实际上是过度configuration与不必要的内存,真正(微小)的内存足迹显示在集群/主机级别没有内存争夺… 我的结论是,虚拟机应该是正确的大小,有一点点的操作系统级caching的缓冲区。 超出无知或供应商的“要求”导致这里提出的情况。 在任何情况下,内存膨胀似乎都很糟糕,因为性能会受到影响,所以正确的大小可以帮助防止这种情况发生。 更新2:这些虚拟机中的一些开始崩溃: kernel:BUG: soft lockup – CPU#1 stuck for 71s! VMware将此描述为大量内存过度使用的症状 。 所以我想这个问题的答案。 vCops“超大型虚拟机”报告… vCops“可回收废物”图…