Articles of nic

在Exchange 2007中激活其他NIC时,电子邮件stream问题

我目前在一个非常基本的Exchange 2007环境中工作 – 一个EdgeSync服务器和一个CASHUB。 它们都具有两个NICS,表面上用于Edgesync服务器的内部和外部接口,而CASHUB则提供特定的ActiveSync / OWA实例到不太可信的子网。 Edgesync服务器与两个NICS正常工作,只要它们在同一个子网(初始configuration情况下)。 但是,一旦将VLAN设置为仅提供对相应子网的访问权限,并且IPconfiguration已更新,则邮件stream将停止。 只要第二个NIC在CASHUB客户端连接模具上激活,邮件stream就停止,OWA不能访问交换。 这似乎是Exchange / Windows决定在第一个界面上启动的任务响应/使用第二个界面的情况,然后由于防火墙规则阻止了这种情况。 有没有办法限制哪些服务交换设置到哪个接口? 虽然我可能会修复在路由表中使用错误的NIC的问题,但有没有办法阻止客户端访问通过第二个NIC可用?

需要使用不同子网上的2个NIC来configuration2008服务器

我正在开发一个应用程序,要求2008服务器有2个网卡用于安全目的。 NIC 1将使用静态IP连接到客户的企业networking,并且可路由。 它需要能够与企业networking上的其他应用程序进行通信(例如10.56.71.26)。 该系统目前正在正常工作并正确地呈现给应用程序。 我将使用NIC 2与RS232 – > TCP / IP转换器进行通信。 networking方面,我们可以假定转换器盒是一个工作站(只是将RS232数据传送到Windows驱动程序模拟接收串口的服务器,转换器盒只需要与服务器通信,另外转换器不需要与企业networking的其余部分进行通信,转换器在一个静态为192.168.1.2(255.255.255.0)的私有networking上,除了向IP分配一个IP之外,还需要做其他的事情2 192.168.1.1(255.255.255.0)?

存储networking停止传输stream量

我有一个麻烦的问题。 我有一个服务于VMWare vSphere 5.1环境的10Gb存储networking。 存储:带有Chelseio T320 10Gb NIC的TrueNAS(NFS) 存储: Dell PowerVault MD3600i(iSCSI) networking: XSM7224S 10GB交换机 VMWare硬件:三个Supermicro服务器,每个服务器有两个hex处理器和192Gb RAM。 VMWare 10gb Nics: Chelsio T420-LL-CR 会发生什么事情:存储networking设备每个星期一次到一个月一次,停止传输stream量,并全部在一团火焰中熄灭。 发生这种情况时,设备中的任何设备都不能在存储networking上互相ping通。 就好像交换机closures所有端口或停止工作,但重新启动交换机什么也不做。 linux和vmware系统中的networking状态报告“Up”状态,但无论如何,重新启动networking接口都无能为力。 我必须重新启动所有涉及的服务器,包括TrueNAS,但不包括Dell Powervault,然后它将重新联机并且networking开始stream动。 我做了什么:这已经持续了一段时间,在那段时间,我已经replace了所有的Nics(320,升级到了420的),更换了开关(dell PC 8100),更换了电缆,并添加了戴尔PowerVault MD3600i。 TrueNAS作为主存储器,但现在属于PowerVault,而且TrueNAS作为系统备份的存储器。 没有日志给出任何暗示正在发生的事情。 交换机没有任何冲突或数据包传输错误可言。 但不pipe如何,这个问题依然存在。 我还有什么要做的:今天晚上,我将用备用的备件replaceTrueNAS上的chelsio T320网卡。 我还打算将我的Dell PowerConnect 8100 10Gb交换机重新接入,并将TrueNASnetworking隔离到该交换机上,这是因为TrueNAS目前是这个问题中唯一不变的常数。 我是否错过了一些东西?:我有这个想法,并希望把这个问题扔到社区,看看我是否过度了解这个问题,或者是否有一些想法来帮助确定问题。 我正在失去相当多的睡眠和头发。 我已经看到坏的尼克的networking,但几乎总是可以很容易地看到在交换机端口统计碰撞。 谢谢! 布拉德

在使我的虚拟机高度可用后,在尝试进行实时迁移时出现“无法find以太网交换机”错误

我通常从故障转移群集pipe理器GUI创build新的虚拟机。 但是这一次我走了一条不同的路线,因为我必须(由于时间的限制和当时的可用资源)。 对于这个VM,我必须直接在集群节点1上创build它。 然后,当我启动并运行群集时,磁盘可供我使用,因此我closures了VM,然后将其作为服务/angular色添加到故障转移群集pipe理器GUI中。 这似乎进入故障转移群集pipe理器没有任何问题。 然后,我试图做一个实时迁移,并得到错误“ 找不到以太网交换机”Broadcom NetXtreme千兆以太网#3 – 虚拟交换机“。 几件事要注意… 在两个节点上NIC被命名为相同的东西。 NIC看起来似乎把“设备名称”混在一起。 Node1网卡名称:NIC1 Node1 NIC的设备名称:“Broadcom NetXtreme千兆以太网#3 – 虚拟交换机”。 Node2网卡名称:NIC1 Node2 NIC的设备名称:“Broadcom NetXtreme千兆以太网#2 – 虚拟交换机”。 我有所有的NIC启用和使用,除了一个,这就是NIC1。 在Server 2012 R2上找不到“刷新虚拟机的configuration”(就像在Server 2008 R2中一样)。 我尝试在两个节点上使用' Update-ClusterVirtualMachineConfiguration -Name'虚拟机configuration一个PAPTR“ ' 刷新虚拟机configuration (没有错误,只显示虚拟机状态)。 我通过故障转移群集pipe理器GUI创build了一个新的虚拟机,它实时迁移没有任何问题。 有什么build议么?

在支持TCO的OpenBSD和NIC上设置VDSL路由器

这是我的第一个问题,我希望我做的一切正确。 感谢您设置serverfault – 这样一个网站很长一段时间在互联网上失踪了。 在接下来的几个星期里,我将获得我的VDSL 25连接(最好是25 Mbit下载和5 Mbit上传)。 所以现在我正在考虑为VDSL设置我自己的路由器,因为我不想使用我用VDSL 25获得的Speedport路由器。 我真的进入了OpenBSD,并且发现了一个很好的关于使用OpenBSD和VDSL的指南。 在一篇关于build立基于FreeBSD的pfSense for VDSL的文章中,我读到计算机应该有至less1 GHz的1024 MB内存。 我的机器将是一个800 MHz的奔腾3与512 MB内存,但我认为购买TCO(TCP校验和卸载)30美元的千兆网卡。 一位同事向我提出这个build议,因为他认为这将大大降低CPU负载,而我的800 MHz P3可能足够了。 那么你是否有一些关于VDSL的“硬件要求”的经验,如果有TCO的网卡可以帮助吗? 在此先感谢您的答案!

eth0上的PHY不断重启。 我如何保持它?

这可能是一个超级用户的问题,但它还没有在线。 我的网卡上的PHY闪烁着闪烁,应该一直亮着。 我GOOGLE了一下,发现没有答案,只是问题。 http://www.google.ca/search?hl=en&q=eth0+keeps+restarting&btnG=Google+Search&meta=&aq=f&oq= 这是在带有Broadcom 100Base-T NIC的Linux(Ubuntu 8.10)上: lspci输出:01:09.0以太网控制器:Broadcom公司BCM4401 100Base-T(rev 01)

两个NIC卡具有相同的度量 – 互联网stream量出错了

我的计算机中有两块网卡 – 一块连接到公司networking和互联网,另一块通过Linksys WRT54G连接到专用局域网。 两张卡都使用DHCP。 这从来不是Windows XP的问题,但是对于Windows Vista(和Windows 7)来说,0.0.0.0路由的度量是相同的(20),并且看起来应该从我的主网卡出去的一些networkingstream量正在而不是我的第二张卡。 目前的解决scheme是删除与第二个NIC卡相关的0.0.0.0路由,但我必须每天多次执行此操作。 有更好的解决scheme吗? –Bruce

Hyper-V核心网卡速度和registry更改

在戴尔PE T610上,我运行了Hyper-V内核,并安装了2个Broadcom BCM5709C NetXtreme II GigE。 我注意到,与从物理服务器复制到物理服务器相比,从networking物理服务器复制大型文件17GB到Hyper-V主机本地驱动器[不是虚拟机guest]是非常慢的。 将17GB文件物理复制到Hyper-V主机需要30分钟 将17GB文件复制到物理主机需要15分钟 有人可以告诉我什么样的registry节点,我应该禁用Hyper-V网卡,以提高性能。 到目前为止,我已经到HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Class\{4 D36E972-E325-11CE-BFC1-08002BE10318}并在两个物理网卡上将以下设置为0: LSOv1IPv4 LSOv2IPv6 TCPUDPChecksumOffloadIPv4 TCPUDPChecksumOffloadIPv6 我是否也应该禁用* TCPConnectionOffloadIPv4&* TCPConnectionOffloadIPv6?

用于四面体背靠背GB-lan拓扑结构的4 *商品集群的消费电路板

我不是很确定什么消费者董事会select这样的configuration。 我打算构build一个或多个“Beowulf-like群集”(从一个testing开始),一个这样的群集由四个框架(商品Socket-1156 + i7 / 875K + 2x2GB 1333)四面体Gbit-Lan拓扑结构X-Link连接)。 在下图中,名为A,B,C或D的每个盒子都有四个 Gbit-NIC,一个指向上游Gbit交换机(细线),三个用于连接其余盒子(每个颜色表示两个NIC之间的一个子网): 这意味着一个可靠的€2.5K(可能更便宜)的“32节点”运行64位Linux和OpenMPI的计算服务器。 服务器通过OpenMPI在节点上启动数值模拟,节点将通过它们的背对背连接进行通信。 问题 :我testing了一个类似的设置已经在“三angular”群集(三个节点,每个有两个额外的PCIe网卡和板载千兆网卡) 成功一个板型( 技嘉P55A-UD3R )。 我testing过的另一个主板( 技嘉P55A-UD4 )在全networking负载(但不是在单节点模式下)几分钟后重现失败。 对于上述设置,我想使用能够承受四个同时Gbit链接的主板。 从我的三angular形设置我知道每个网卡传输约50-80 MB / s的任何时候(iftop)。 四面体拓扑结构(如上所示)是可能的吗? 我应该select带有两个板载 Gbit-NICS(昂贵)的电路板吗? 消费电路板上的PCIe可以同时支持4条Gbit线路吗? 是一堆廉价(被动)PCIe网卡好吗? 有没有人做类似的build议? 感谢和问候 RBO

Kickstarting VMWare ESX 4.1(错误:没有名称bootif的网卡)

我在启动VMWaare ESX Classic 4.1的安装时出现问题。 我已经剥离了我的kickstart一点,只是: accepteula keyboard us auth clearpart –firstdisk –overwritevmfs url –url=10.16.0.1/cblr/ks_mirror/esx-classic-4.1.0-260247 rootpw –iscrypted $1$zZJa3g7g$mD8d.6QgbPku1QovQTAps/ timezone 'US/Pacific' network –addvmportgroup=true –device=vmnic0 –bootproto=dhcp part '/boot' –fstype=ext3 –size=1100 –onfirstdisk part 'none' –fstype=vmkcore –size=110 –onfirstdisk part 'datastore1' –fstype=vmfs3 –size=8920 –grow –onfirstdisk virtualdisk 'esxconsole' –size=7920 –onvmfs='datastore1' part 'swap' –fstype=swap –size=916 –onvirtualdisk='esxconsole' part '/var/log' –fstype=ext3 –size=2000 –onvirtualdisk='esxconsole' part '/' […]