我很确定我们不是唯一使用巨型帧(〜9k)的网站,对不对? 那么,对于那些正在做这件事的人,你在做什么虚拟化呢? 即:
我不使用巨型数据包的iSCSI或NFS。 我真的在节点之间移动了大量的数据,而增加我的MTU对速度有帮助。 我的平台是CentOS 5.x,我宁愿留下来,但我想其他的select是可能的? 你告诉我!
任何人都在做巧妙的事情,我没有想到?
[编辑]
我为什么要这个? 那么,现有的机器都使用9000的MTU,发生的地方就在我们的集群层。 如果我添加一台不会说大型数据包的新机器,它将无法join群集,并且不起作用。 所以,当我想重温“我们真的需要巨型数据包吗?”这个问题的时候,这是一个比在线上新机器更大的项目。 新机器必须能够与群集交谈。 现在,这意味着在裸机上部署,这很糟糕。
对于ESXi 4标准虚拟交换机,您必须从CLI执行此操作。 如果使用(不支持的)伪控制台模式或(支持的)VMA,相关的命令是:
esxcfg-vswitch -m 9000 vSwitch0
将vSwitch0replace为相关的虚拟交换机ID,并根据需要为所有需要为9K巨型帧启用的vSwitch重复。
在使用分布式虚拟交换机的较大(较大)环境中,可以从vSphere Client GUI更改MTU。
根据我的经验,巨型帧实际上远非可用。 卸载技术一塌糊涂,特别是b-com提供的东西,交换机不能很好地支持。
特别是对于虚拟机,我会坚持正常的MTU大小,并通过使用模式4绑定或切换到10G甚至infiniband来提高速度。
话虽如此,afaik kvm的virtio_net驱动并没有真正的速度限制,所以尽pipe是1G,但在带宽方面却可以轻易超越。
这不是一个直接的答案,但如果你在多个节点之间移动大量数据,你是否考虑过Infiniband? 这对那种事很好。