Articles of 以太网

以太网设备名称在OpenSolaris中

在Linux中,我通常把以太网设备称为ethN 。 什么是以太网设备的OpenSolaris标准命名?

使用多条电缆菊花链式networking交换机

这可能只是你会读到的最愚蠢的问题,但我离题了。 假设我有两台100Mbps以太网交换机,每台交换机都有两台计算机,用一根电缆连接在一起。 这样每台交换机上的两台PC就可以共享100Mbps的带宽。 如果我在两台交换机之间增加了另一根电缆,交换机之间是否有200Mbps的吞吐量? 还是我完全摆脱我的摇杆? 谢谢您的帮助。

如何dynamic获取VLAN接口的IP地址?

我有一个Ubuntu机器,我已经创build了四个VLAN,即eth0.100 , eth0.200 , eth0.300和eth0.400 。 我想dynamic获取使用DHCP服务器的IP地址。 它应该提供来自不同IP地址范围的IP, for VLAN interface eth0.100,–> 192.168.0.20 – 192.168.0.40 for VLAN interface eth0.200 –> 192.168.0.50 – 192.168.0.70 for eth0.300 and eth0.400 –> likewise 我怎样才能实现呢? 我将如何读取请求IP地址的接口的VLAN ID? 我将如何将有关客户端上运行的VLAN的信息传送给DHCP服务器? 我想我也应该在DHCP服务器上创buildVLAN接口。 如果我这样做,我将如何让DHCP服务器知道VLAN的存在? 我困在这。 我应该如何继续?

需要“扩展”无线信号到会议室

我们有一个使用华硕RT-N66U为我们的办公室设置的networking,具有以下configuration: 专用SSID(一个用于2.4 GHz和5 GHz) 访客SSID(一个用于2.4 GHz和5 GHz) 不幸的是,我们遇到了一些信号问题(纽约市的频谱相当拥挤),所以我们也有一个wifi延长器天线连接到路由器,试图压制竞争的信号。 这对于大约20英尺的半径来说非常棒,但是不会延伸到距离我们约40英尺远的会议室。 我们已经为会议室准备了以太网(以及主室内的几个点),都连接到与路由器连接的交换机。 问题是,我们希望所有4个SSID在会议室中的某种设备上重播。 我们尝试了一款华硕EA-N66 ,但是它一次只能用于一个频率的SSID …所以它只覆盖了我们用例的四分之一。 任何人都有解决scheme?

以太网交换容量问题

我们正在考虑将具有10/100以太网端口的48个小型embedded式系统连接到以太网交换机,然后通过更快的连接使交换机与上游服务器对话。 我有几个有关这种情况的问题: 什么样的上行连接最好(光纤,其他?) 从48个系统中每一个同时下载1GB /小时是否合理? 我们将使用我们自己devise的基于TCP协议。 谢谢你,安德鲁

以太网寄存器/计数器名称的描述?

是否有一个手册/数据表/其他资源,解释了ethtool -S <interface>所有这些计数器是什么意思? 其中有些是自我解释的,有些不是… 我正在从e1000e源代码(ethtool.c)中取出它们。 编辑:刚发现,看这个文件 ,似乎是有用的(p.271 – 注册说明,链接解释)。 不过,我欢迎你的洞察力。 rx_packets tx_packets rx_bytes tx_bytes rx_broadcast tx_broadcast rx_multicast tx_multicast rx_errors tx_errors rx_dropped_backlog tx_dropped multicast collisions rx_length_errors rx_over_errors rx_crc_errors rx_frame_errors rx_no_buffer_count rx_missed_errors tx_aborted_errors tx_carrier_errors tx_fifo_errors tx_heartbeat_errors tx_window_errors tx_abort_late_coll tx_deferred_ok tx_single_coll_ok tx_multi_coll_ok tx_timeout_count tx_restart_queue rx_long_length_errors rx_short_length_errors rx_align_errors tx_tcp_seg_good tx_tcp_seg_failed rx_flow_control_xon rx_flow_control_xoff tx_flow_control_xon tx_flow_control_xoff rx_long_byte_count rx_csum_offload_good rx_csum_offload_errors rx_header_split alloc_rx_buff_failed […]

在Force10 S50N交换机的一个物理接口上是否可以放置一个标记的VLAN?

我有一个IPMI共享以太网端口和第一个NIC的服务器。 他们有4-1GbE nics。 我想通过LACP绑定nics,但仍然只能在第一个物理端口上通过标记vlan访问IPMI,因为IPMI只在第一个物理端口上共享。 我也在考虑为我的机架购买Force10 S50N交换机。 但是,我不确定这个设置是否可以用FTOS来实现。 FTR,我已经设法用两个linux虚拟机来完成这个设置。 我在每一端都绑定了以太网设备。 然后我在绑定链路的一个接口上添加了一个vlan,并且能够通过两个networking保持ping和ssh连接。 这些机器是这样连接起来的: Mach A Mach B eth2<—–>eth2 eth3<—–>eth3 以下是我用来设置连接的命令: 以马赫A为根: # modprobe bonding mode=4 # mode=4 means 802.3ad or LACP bonding # ip link add bond0 type bond # start setting up bonded link # ip link set eth2 master bond0 # ip link set eth3 […]

用hw桥接的双接口网卡?

我正在寻找具有两个PHY的PCI网卡,这些网卡能够在硬件中进行桥接/交换,但允许主机监视通信量。 这样的事情存在吗? 这将在Linux主机上运行。 编辑 :软件桥接不适用于此应用程序。 我正在寻找一些可以进行具有监视function的硬件切换的卡型号。

为什么10GbE卡无法与Windows 2012R2协商10Gbit?

问题 我有四个相同的刀片服务器。 我已经在一个刀片上安装了Windows Server 2012 R2,而在其他刀片上安装了Xen。 在Windows托pipe的服务器 (仅)上,10GbE NIC 不能协商10Gbit 。 他们只在1Gbit。 Xen主机上的10GbE工作正常。 环境 我有戴尔PowerEdge M1000e机箱: 2个M8024-k 10GbE交换机(A1,A2) 带有以下NIC的4个M620 相同刀片: 插槽A:Broadcom NetXtreme 10GbE 2P 57810s(这个问题是关于10GbE卡的) 插槽B:Broadcom NetXtreme GbE 4P 5719S(与问题无关,我希望) 所有可用的固件都是相同的并且是最新的。 附加信息和诊断 该机器以前已经在一些* nix系统(可能还有Xen)下使用,而以前的系统pipe理员没有留下任何这样的问题(否则会出现这种情况)。 因此,我认为它工作正常。 这发生在两个端口上。 两个端口都在单卡上。 当我尝试以10Gbit手动设置速度时,我得到Windowsy “网线未连接”状态。 Windows有所有最新的驱动程序。 如上所述,这个问题不会出现在Xen托pipe的服务器上。 这只是Windows。 在两台交换机(A1和A2)上的configuration已经被检查,端口被设置为自动协商,并且我发现Windows和Xen分配的端口之间的端口configuration没有其他差异。 这是唯一启用了NIC分区function的机器(NPAR + SR-IOV),但是我禁用了它,并且没有任何改变。 问题 由于我仍然相信这可能是一个奇怪的Windows问题,所以我发布了这个问题,以排除任何可能的问题的软件来源 ,尤其是那些可能是Windows特定的问题。 你有什么提示,看什么可能是错的?

Solaris以太网端口:缺lessnge2和nge3

有一个configuration和工作的接口nge0的Sun X4100。 服务器在后面有一组4个networking插孔, nge0对应于以太网端口0。 我尝试启用以太网端口3与ifconfig nge3 plumb ,我收到了输出 ifconfig: plumb: nge3: Invalid argument 但我可以configurationnge1没有问题。 这是prtconf -D的输出 i86pc (driver name: rootnex) scsi_vhci, instance #0 (driver name: scsi_vhci) isa, instance #0 (driver name: isa) asy, instance #0 (driver name: asy) motherboard pci, instance #0 (driver name: npe) pci10de,5e pci10de,cb84 pci10de,cb84 pci108e,cb84, instance #0 (driver name: ohci) device, […]