一些虚拟机系统下的大MTU

我很确定我们不是唯一使用巨型帧(〜9k)的网站,对不对? 那么,对于那些正在做这件事的人,你在做什么虚拟化呢? 即:

  • Xen在桥接接口上不支持超过1500字节的数据包。 为每个虚拟机分配一个真实的界面可能会起作用,但是对我来说是一个不起作用的东西。
  • KVM会做,如果我futz周围的来源。 否则我可以达到4k包。 与源头混淆并不是我真正想做的事情(没有重build的再见上游补丁!)
  • VMWare没有提到这一点。 他们的VSphere定价让我失望,但也许我可以做ESX(,i)?

我不使用巨型数据包的iSCSI或NFS。 我真的在节点之间移动了大量的数据,而增加我的MTU对速度有帮助。 我的平台是CentOS 5.x,我宁愿留下来,但我想其他的select是可能的? 你告诉我!

任何人都在做巧妙的事情,我没有想到?

[编辑]

我为什么要这个? 那么,现有的机器都使用9000的MTU,发生的地方就在我们的集群层。 如果我添加一台不会说大型数据包的新机器,它将无法join群集,并且不起作用。 所以,当我想重温“我们真的需要巨型数据包吗?”这个问题的时候,这是一个比在线上新机器更大的项目。 新机器必须能够与群集交谈。 现在,这意味着在裸机上部署,这很糟糕。

对于ESXi 4标准虚拟交换机,您必须从CLI执行此操作。 如果使用(不支持的)伪控制台模式或(支持的)VMA,相关的命令是:

esxcfg-vswitch -m 9000 vSwitch0 

将vSwitch0replace为相关的虚拟交换机ID,并根据需要为所有需要为9K巨型帧启用的vSwitch重复。

在使用分布式虚拟交换机的较大(较大)环境中,可以从vSphere Client GUI更改MTU。

根据我的经验,巨型帧实际上远非可用。 卸载技术一塌糊涂,特别是b-com提供的东西,交换机不能很好地支持。

特别是对于虚拟机,我会坚持正常的MTU大小,并通过使用模式4绑定或切换到10G甚至infiniband来提高速度。

话虽如此,afaik kvm的virtio_net驱动并没有真正的速度限制,所以尽pipe是1G,但在带宽方面却可以轻易超越。

这不是一个直接的答案,但如果你在多个节点之间移动大量数据,你是否考虑过Infiniband? 这对那种事很好。