我有一些旧的硬件,我想保持时间同步。 它支持TIME协议(不是NTP)。 有没有可靠的TIME服务器在线? 如果是的话,在哪里? -M
我记得几年前在某些(我认为)思科文档中阅读过这些内容,但是找不到这个build议或任何其他的参考。 任何人都知道我在说什么? 任何人仍然遵循这些准则? 我通常是一个“浪费”的子网,几乎全部使用/ 24s(除了路由器和DMZ之间的点到点链路),所以我远低于“最大值”,但我只是好奇这个限制以及它是否基于一些与广播stream量有关的旧基准等等。
问题 虚拟机与不在同一台主机上的其他机器之间的networking速度最高为11MB / s。 拓扑 事实 ESXi5版本是5.0.0.504890 VM安装了最新的Vmware Tools VM正在使用E1000networking驱动程序 物理盒子有Win Srv 2008 R2作为操作系统 CrystalDiskMark表示,物理盒上的驱动器可以读写100MB / s vCenter是esx上的另一个虚拟机 虚拟机和物理盒都显示1Gbps的链路速度 Configuration> Networking将vmnic0显示为1000 Full NTttcp是Microsoft的客户端/服务器工具,用于测量纯networking吞吐量 以下是我迄今为止所做的: testing1: VM正在运行Filezilla FTP Server(默认设置,一个用户帐户) 物理盒子正在运行Filezilla FTP Client(默认设置) 物理盒子正在上传一个大文件到FTP服务器 传输速度(由两台机器上的Windows任务pipe理器观察):〜11MB / s(坏) 物理盒子正在从FTP服务器下载该文件 传输速度(由两台机器上的Windows任务pipe理器观察)仍然〜11MB / s(坏) 可能是磁盘性能问题? testing2: 物理盒子正在运行ntttcpr.exe -a 6 -m 6,0,VM_IP_ADDRESS VM正在运行ntttcps.exe -a 6 -m 6,0,PHY_BOX_IP_ADDRESS 传输速度(由两台机器上的Windows任务pipe理器观察):〜11MB / s(坏) 它可能是交换机性能问题? […]
我记得在Linux中(当做make menuconfig )有一个选项可以这样说: 只有当您想要生成networkingstream量,或者如果您想要创build错误的networkingstream量时,才使用它 不幸的是,我不记得这是什么,甚至不记得任何工具,让我真正创造这样的交通。 我所追求的是 创build错误的ICMP数据包 注入高延迟或丢包 在一个networking,否则完美的罚款。 目的是testing一些应用程序的行为,这些应用程序必须与欧盟和美国之间的链接一起工作。 我想“压力testing”应用程序将吞噬多less时间,或者可以处理多less数据包丢失。
所以这是我的新“项目”,包括拆除我们的遗留networking,并重新正确地重做。 截至目前,这是一个烂摊子。 生产是两年前应该放牧的传统服务器的一大优势。 在这段时间内,我得到了我的VCP,这是好的,但我不知道这一切。 这是我的第一个networking/服务器改造。 除了我的第一个非实验性的vSphere工作外,实际上我从未login过SAN,直到几个星期前我们收到了PS4000。现在我们将这个项目划分为devise阶段,所以第一个项目是VLAN,Switching布局。 我已经附加了我的电子表格与VLAN ID,子网,使用和交换机端口。 我已阅读最佳实践的分配,但它开始融合在一起。 如果我能得到任何build议,我将非常感激,请随时撕毁它。 VLAN分配Rev.1 http://dl.dropbox.com/u/6674806/Copy%20of%20Production%20VLAN%20Port%20Assignments-1.xlsx 亲切的问候, 布兰登 VLAN分配Rev. 2 每个build议上传了一个更新的版本。
一会儿,忘记以下是典型的还是容易解释的,安全吗? Internet | ISP supplied router xxx1 (public subnet) | switch————————————-+ | (public subnet) | (public subnet) BVI router (switch with an access list) NAT router | (public subnet) | (private subnet 192.168.50.1) +——————————–switch—-+ (both subnets) | | computer with IP 192.168.50.2 ——+ +—-computer with IP xxx2 我不打算执行这个设置,但我很好奇。 50.2计算机可能会向x.2计算机发送一个数据包,但是它将使用50.1作为路由器,因为50.2知道该子网是不同的。 这是否会导致数据包被x.2机器接收两次,第一次直接通过交换机,第二次通过两台路由器? 除了这个问题有多混淆之外,你是否还会看到有什么问题,并且会让一台交换机做两个子网的工作? 额外细节: 不会涉及DHCP。 (这真是令人困惑) 我知道我已经完全消除了xxx*和192.168.50.*之间通常会有的安全/分离。 […]
我一直在解决一个严重的广域网速度问题。 我固定它,但为了别人的利益: 通过WireShark,日志logging和简化configuration,我把它缩小到了从DNAT到内部networking上的服务器的一个奇怪的行为。 网关(一个CentOS盒)和服务器都运行在同一台VMware ESXi 5主机上(事实certificate这很重要)。 当我试图从DNAT后面的HTTP服务器上下载一个文件时,使用一个直接连接到网关WAN侧的testing客户端(绕过这里通常使用的实际的Internet连接) : 通常的TCP连接build立(SYN,SYN ACK,ACK)正常进行; 网关正确地重新映射服务器的IP。 客户端使用HTTP GET发送单个TCP段,并且这也正确地被DNATted到目标服务器。 服务器通过网关发送一个1460字节的带有200响应和部分文件的TCP段。 线路上的帧的大小是1514字节 – 有效载荷是1500。 这部分应该通过网关,但没有。 服务器通过网关发送第二个1460字节的TCP段,继续文件。 同样,链路有效载荷是1500字节。 这个细分市场也没有穿过网关,也从来没有考虑过。 网关向服务器发送一个ICMP Type 3 Code 4(目标不可达 – 分片需要)数据包,引用事件3中发送的数据包.ICMP数据包指示下一个中继站MTU为1500. 这看起来是无意义的 ,因为networking是干净的1500字节,并且3和4中的链路负载已经在规定的1500字节限制内 。 服务器可以理解,忽略了这个回应。 (原来,ICMP被一个过分热心的防火墙所淹没,但是这个问题已经解决了。) 经过相当长的时间(并且在一些configuration中,来自服务器的重复ACK)之后,服务器决定单独从事件3重新发送段。 除了IP标识字段和校验和之外,帧与事件3中的帧是相同的。它们长度相同 ,新的帧仍然设置了不分片标志。 但是,这一次,网关将网段快速传递给客户端,而不是发送一个ICMP拒绝。 客户确认这一点,转移仍在继续,虽然慢得令人难以置信 ,因为随后的分段经历了大致相同的被拒绝,超时,重新发送和接通的模式。 如果客户端移动到局域网以便直接访问服务器,则客户端和服务器正常协同工作。 这个奇怪的行为根据目标服务器的看似不相关的细节而不可预知地变化。 例如,在Server 2003 R2上,如果启用Windows防火墙(即使允许HTTP和所有ICMP),7MBtesting文件将花费7小时以上传输,而问题根本不会出现,而矛盾的是拒绝将永远不会如果Windows防火墙被禁用,首先由网关发送 。 另一方面,在Server 2008 R2上,禁用Windows防火墙并没有任何效果,但是在传输过程中仍会受到影响,比启用防火墙的Server 2003 R2快得多。 (我想这是因为2008 R2使用更智能的超时启发式和TCP快速重传。) 更奇怪的是,如果WireShark安装在目标服务器上,问题就会消失。 因此,为了诊断这个问题,我必须在单独的虚拟机上安装WireShark来观察LAN端的networkingstream量(由于其他原因,可能是一个更好的主意)。 ESXi主机是版本5.0 […]
嘿家伙,我目前正在pipe理大约15台电脑的networking,全部使用Windows XP。 我是一个新手Windowsnetworkingpipe理员,我只是想知道如何一次性将软件推送到所有计算机上,而不必在每台计算机上input命令。 另外,这样做是否有风险? 任何帮助,将不胜感激。 谢谢!
有很多用于KVM连网的configuration。 但我无法从主持人或外部到达客人。 我正在使用Ubuntu 11.04。 在客人我有一个WindowsXP与DHCP。 我想要客人在主机的同一个networking。 我试图使用IP别名 我在/ etc / network / interfaces中build立了桥接networking auto eth0 iface eth0 inet manual auto eth0:1 iface eth0:1 inet static address 192.168.0.11 netmask 255.255.255.0 auto br0 iface br0 inet static address 192.168.0.10 netmask 255.255.255.0 gateway 192.168.0.1 bridge_ports eth0 bridge_stp off bridge_fd 0 bridge_maxwait 0 然后在/etc/libvirtd/qemu/network/default.xml中更改默认networking <network> <name>default</name> <uuid>831a93e1-0b84-0b0e-9ca2-23c407983968</uuid> <forward mode='route'/> […]
我不明白为什么创build一个新的TCP连接被认为是一个昂贵的任务。 基本上build立一个新的连接是指执行TCP的三次握手。 所以这是发送两个数据包,接收一个。 考虑到数以千计的(数据)数据包将随之而来,握手不可能是昂贵的部分。 它可以?