我想学习networking。 但是我没有访问一个示例networking(路由器,DNS,IP4,IP6的windows linux混合异构系统)。 你知道任何在线networking学习(尽可能免费)。 是否有可能使用虚拟机在一台PC上模拟networking拓扑。 如果是的话,你可以指导我吗?
/ etc / hosts和/etc/resolv.conf有什么区别? 另外,是否有一个很好的文档解释所有这些configuration文件。 谢谢。 巴拉
我有一个Slackware linux框,我无法启动任何监听本地主机上的一个特定端口的服务。 通过使用strace我发现错误发生在bind()调用上,错误是EADDRINUSE (Address already in use) : bind(3, {sa_family=AF_INET, sin_port=htons(874), sin_addr=inet_addr("127.0.0.1")}, 16) = -1 EADDRINUSE (Address already in use) 这发生在我试图开始监听端口的任何进程上,所以它和进程本身没有关系。 上面的strace输出来自命令strace -ff nc -l -p 874 -s 127.0.0.1 。 所以,这表明有一个进程正在监听localhost端口874.但是,我似乎无法find它。 以下命令都不返回任何内容: netstat -aplunt | grep :874 netstat -na | grep :874 lsof -i :874 lsof -i tcp | grep 874 fuser 874/tcp socklist | […]
我对特定的答案感兴趣: 具有GRO的NIC是否编辑/创buildTCP ACK或任何其他数据包(或者此function对接收器/发送器TCP堆栈是否透明)? 网卡应该将“粘贴段”传递给TCP堆栈时应该有一个超时/事件? 他们是什么? 在数据包转发设置中,GROfunction是否也尝试读取接收器的ACK(请参阅下面为什么我问这个问题)? 任何解释GRO和其他网卡卸载function(TSO,LSO …)的源码都会比维基百科和Linux手册页更好。 更多细节: 我正在解决一个IPSec实现的性能问题。 问题是可用带宽不是均匀分布在所有4个VPN隧道(大约分布为200MBps / 200MBps / 1MBps / 1MBps;每个VPN隧道封装单个TCP连接)。 在PCAP偶尔我看到,Web服务器闲置了约2秒(等待ACK)。 当Web服务器重新传送未确认的段时,将继续下载。 我从PCAP内部感觉到,NIC GROfunction将数据包粘合在一起,但有时并不及时将它们传递给TCP堆栈,导致问题。 由于此VPN服务器没有终止TCP连接的接口,而只是转发数据包。 然后我试图禁用GRO,之后我发现stream量均匀分布在所有的隧道中。 另外,当在Web服务器上禁用TCP窗口缩放时,即使启用GRO,带宽也是均匀分布的(这就是为什么我有问题#3)。 我在Ubuntu 10.04服务器上使用2.6.32-27 linux(64位)。 网卡是Intel 82571EB。 所有的接口(HTTP客户端,VPN客户端,VPN服务器,Web服务器)都通过1Gbit以太网电缆直接连接在一起。
我有一个不对称的双桥拓扑结构,如下所示,当我从ssh连接172.16.11.5和172.16.10.6,但由于SynProxy我无法连接。 ——- | | —o— 172.16.11.5 | | —–o—– 172.16.11.6 | | | | default gw 1.1.1.1 | | 1.1.1.2/30 –o—-o— 2.2.2.2/30 | | | | | | (enp10s0f0) —-o—-o—– | | | XXX | | | | br1 br0 | synproxy | | —-o—-o—– | | | | | | 1.1.1.1/30 –o—-o— 2.2.2.1/30 | […]
任何人都可以请解释如何使用两个以下的技术来缓解高networking负载下的中断开销? Adaptive-rx / Adaptive-tx和 NAPI; 我将不胜感激解释接近Linux内核源代码级别的差异? 另外我想听听如何强制networking轮询/中断合并模式在400Mbps的负载。 更多背景: 这个问题似乎是,bnx2和e1000驱动忽略了“ethtool -C adaptive-rx on”命令。 这可能是因为这些驱动程序不支持自适应中断。 虽然Broadcom Programmer的参考手册中提到BCM5709 NIC硬件应支持此function。 所以我决定尝试NAPI,并在netif_napi_add()函数调用中将权重从64减less到16,以便在低得多的负载下强制NIC在轮询模式下,但不幸的是,这并没有奏效。 我想NAPI不需要在NIC中有任何特殊的硬件支持,对吗? 我使用的硬件是BCM5709网卡(它使用bnx2驱动程序)。 而操作系统是Ubuntu 10.04。 CPU是XEON 5620。
我使用iwconfig创build了一个打开的临时wlan(我也和wpa_supplicant有同样的问题)。 networking上有4个节点,如下图所示。 节点运行Ubuntu 12.04和debian挤压,并有3.7.1,3.5和3.2内核。 我使用两个不同的USBencryption狗品牌(TP链接和ZCN),都有AR9271芯片组和ath9k_htc驱动程序(这里是lsusb输出和ethtool输出 )。 我遇到的问题是有两个节点( 10.0.0.2和10.0.0.5 ),它们具有TP链接usb wifi dongles可以ping任何networking上的节点,反之亦然。 但是,有ZCN WiFi dongle的其他节点( 10.0.0.6和10.0.0.7 )不能互相ping通,但与TP-link wifi模块通信没有问题。 tcpdump显示10.0.0.6和10.0.0.7看不到他们的arp-request,例如 20:37:52.470305 ARP, Request who-has 10.0.0.7 tell 10.0.0.6, length 28 20:37:53.463713 ARP, Request who-has 10.0.0.7 tell 10.0.0.6, length 28 20:37:54.463622 ARP, Request who-has 10.0.0.7 tell 10.0.0.6, length 28 20:37:55.472868 ARP, Request who-has 10.0.0.7 tell 10.0.0.6, length 28 20:37:56.463439 […]
2个Linux主机之间的延迟约为0.23ms。 他们由一个开关连接。 Ping&Wireshark确认延迟编号。 但是,我没有任何关于什么是造成这种延迟的可见性。 如何知道延迟是由于主机A或B上的NIC还是交换机或电缆? 更新:.23毫秒的延迟对我现有的应用程序来说是不好的,它以很高的频率发送消息,我正在试着看看它是否可以降低到.1ms
我正在尝试为我的数据中心或第7层解决scheme使用第4层负载平衡解决scheme。 不幸的是(为了我的理智,就是这样),我的用例很简单,两种解决scheme都能很好地工作,避免了大部分的弱点,并且没有真正利用这些优势。 无论我们最终使用哪种解决scheme,都必须具有高可用性和高吞吐量。 但我们只打算使用它来对一组Web服务器进行负载平衡,而这些Web服务器中没有一个对“粘性”会话pipe理(cookie或IP)有任何要求,复杂的重写规则 – 或者就此而言,任何重写规则所有。 负载平衡器将连接到两台交换机,两台交换机都独立连接到数据中心汇聚层,并使用快速生成树和交换机用于虚拟化的任何专有协议合并在一起。 负载平衡器也将通过交叉电缆交叉连接。 集群中的所有服务器都连接到两台交换机。 负载平衡器所要做的就是将stream量指向它们。 由于它只是HTTP,所以我可以使用像HAProxy或nginx这样的第7层负载平衡解决scheme。 但是我也可以用ldirectord或者keepalived或者其他方法来使用LVS项目。 当我看到他们的时候,我试图分解利弊,但最后只是洗了一把。 你会推荐什么?为什么? 我错过了什么吗?
在服务器节点上,可以访问导出的文件夹。 但是,重新启动后(服务器和客户端),该文件夹不再可以从客户端访问。 在服务器上 # ls /data Folder1 Forlder2 和/ etc / exports文件包含 /data 192.168.1.0/24(rw,no_subtree_check,async,no_root_squash) 在客户端 # ls /data ls: cannot access /data: Stale NFS file handle 我不得不说,从客户端共享文件夹没有问题,但重新启动后(服务器和客户端),我看到这个消息。 任何方法来解决这个问题?