绑定2个或更多的Gigabyte网卡,在1个服务器和1个客户端之间获得2Gbps的性能?

我还没有得到服务器或NIC,但这是目标设置:

  1. 1x服务器
  2. 1x客户端
  3. 在服务器和客户端之间连接1个或多个NIC点对点连接(不涉及交换机)

所以我想知道是否可以在PCI-X / PCI-E总线上使用2 Nic或4 Nic pro Intel以太网卡来设置某种forms的绑定,从而使客户端和服务器能够共享文件比1Gbps上限更快?

我知道TCP / UDP会有一些开销,其他的开销也会有,但是我想试图在两者之间为客户端和服务器提供尽可能高的总带宽。

如果这是不可能的,那么我将避免使用2个以太网NIC或4个以太网NIC产生额外的费用。

我已经build立了一个2台服务器的实验室,每台服务器都连接2个CAT5e电缆,背靠背连接着2个千兆网卡。 使用刚刚安装在两台服务器上的Debian 5.0.5,我在两台机器上使用bond-mode 0(balance-rr)configuration了bond-master接口bond0,eth0和eth1,因为没有必要比这个更复杂。

configuration(/ etc / network / interfaces)看起来有点像这样:

iface bond0 inet static address 192.168.1.1 netmask 255.255.255.0 slaves eth0 eth1 bond_mode balance-rr bond_miimon 100 bond_downdelay 200 bond_updelay 200 

我在其中一台服务器上安装了Apache,并在另一台机器上从该Apache下载了一个文件。 我没有达到> 1Gbit / s的速度,但我的猜测是因为I / O瓶颈。 但是,我可以看到两个物理接口上的stream量都在stream动,所以我会说你想要的是可能的。

让我知道如何,然后:)

希望这可以帮助!

这可以用大多数网卡来完成,但是你也需要一个支持这个的交换机。 大多数托pipe交换机可以做到这一点,但非托pipe交换机将无法做到这一点。

确保你的服务器能够在花钱之前处理这个带宽,一个便宜的硬盘在大多数情况下将无法处理2Gbps。 一个漂亮的大胖磁盘arrays是一个不同的问题,但。

这当然是可以做到这一点与开关,不知道直接做电脑之间,因为我从来没有尝试过。

至于是否值得,这将取决于所使用的网卡的质量以及它们插入的内部总线的速度,正如Luma的回复中所指出的那样,正在使用的磁盘的速度。 恐怕真的是一个尝试看的例子。