我已经连接到nic适配器一个标准的vSwitch,并在vSwitch上启用“基于IP哈希的路由”。 对于物理交换机,我们使用的是Cisco交换机,并且启用了LACP,并在两个端口上进行组合。 现在,当我们连接时,主机停止响应。 为了使它恢复,我需要更改物理交换机上的端口。 我们可能会做错什么。
我有一个有1个login节点和100个计算节点的集群。 我可以从login节点ping外部networking,包括google.com。 但是,我不能从计算节点。 计算节点都可以从彼此到达(ping)。 他们也可以pinglogin节点。 (反之亦然) 我应该在哪里检查? (我正在使用CentOS 7) 以下是我的networking状态的一些信息
我们已经在两个地区build立了AWS VPC,如上所示。 VPN连接现在可以在VPN设置的每一端直接连接到VPC的两个实例之间工作(即,eu-west1中的VPC PROD和ap-south1中的VPC PROD)。 所以“远程服务”可以与“产品服务”进行通信。 绿色虚线表示这一点。 由于2 eu-west1 VPC之间存在对等连接,我希望ap-south1的VPC PROD能够在eu-west1与VPC ADMIN进行通信。 这似乎并非如此。 也就是说,“远程服务” 不能与“pipe理服务”通信。 由红色虚线画出。 VPC ADMIN具有路由表条目: 10.100.0.0/16 ==> peering connection to VPC PROD (eu-west1) VPC PROD(eu-west1)具有路由表条目: 10.100.0.0/16 ==> Virtual Private Gateway (VPG) / VPN connection 此外,VPC PROD(ap-south1)具有路由表条目: 172.20.0.0/16 and 172.30.0.0/16 ==> strongswan instance. 我想这个问题可能是因为ap-south1的stream量到达了欧洲的VPG路由器,并且很难要求它能够到达VPG关联的VPC的端点,并且不会看VPC的路由表,不支持使用匹配的路由表条目将stream量发送到对等连接到VPC ADMIN。 有人可以确认是否应该工作? 目前唯一的方法就是创build第二个VPN连接,这个连接将会有一个VPG与VPC ADMIN关联。 然后在ap-south1中调整路由,以便为172.20.0.0/16 (VPC PROD)和172.30.0.0/16 (VPC ADMIN)的新VPN点击旧VPN。 […]
我的networkingconfiguration在Docker主机上看起来像这样: ➜ server git:(master) ✗ ip addr 3: ens9: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000 link/ether 00:02:c9:bb:3b:f4 brd ff:ff:ff:ff:ff:ff inet <IP Address>.18/29 brd <Default Gateway>.23 scope global ens9 valid_lft forever preferred_lft forever inet <IP Address>.19/29 brd <Default Gateway>.23 scope global secondary ens9:0 valid_lft forever preferred_lft forever 目前,我已经在.18 IP地址的端口443上运行了现有的非Docker服务,我需要保持这种状态。 但是,当我使用Dockerfile打开一个端口时,由于端口443已被主机使用,所以无法启动。 是否有一种方法来全局切换Docker打开端口时使用的IP地址? 我不希望手动设置每个容器的configuration文件,这当然已经工作。
我有两个虚拟机(linux)在Azure中。 两者都在同一个Vnet中。 通过loggingVm1( 10.0.0.4 ),我可以轻松地ping通Vm2( 10.0.0.5 ),这意味着两者都可以通信。 现在我在Vm2中有一个外部驱动器,它叫/data 。 我的问题是: 我怎样才能将目录从Vm1移动到Vm2挂载驱动器? 我可以添加从Vm1目录到Vm2的符号链接? 注意:我可以在同一个虚拟机上执行上述操作,例如在VM1中挂载外部驱动器,并将数据从C盘移动到挂载的磁盘上。
我在Windows Server共享权限中遇到了一些我不能解释的奇怪现象。 这是我的问题的一个例证: 用户在“共享”权限选项卡上具有“完全控制”权限 用户在NTFS权限选项卡上根本没有列出(据我所知,他们不在列出的任何组中。 编辑 : 实际上,他们是。见下面)。 用户确实可以在共享目录和所有子目录内创build和修改文件。 我正在通过我们的networking从另一台服务器上进行testing,这个服务器以“共享”选项卡上的“完全控制”权限显示的用户身份login 我的问题是,这是正常的和预期的? 还是我忽略了一些东西? 我认为用户必须具有“共享”和“NTFS”权限才能访问共享文件夹和文件。 你可以证实这种行为,或者告诉我要检查/排除故障,以了解这一点。 这是logging的Windows共享权限行为?
我试图在networking卡(Wifi和各种以太网)位于不同虚拟机的环境中在虚拟机中设置防火墙,以便防火墙虚拟机位于NetVM和我的主机系统之间。 问题是进入防火墙的数据包以NetVM IP为源地址,所以我不能使用iptables 白名单从恶意恶意源丢弃数据包。 我build议使用端口镜像来复制数据包,但我想直接转发数据包,并且没有NetVM中的内核来处理它们。 我必须在这两个select之间做出决定: 在每台计算机上使用“iptables”规则来过滤传入stream量,并使用防火墙来处理内部scheme,因为我无法控制和维护所有连接的计算机 过滤防火墙虚拟机中的所有stream量。 如果我必须build立iptables并在每台NetVM上安装Psad,Snort和其他工具,防火墙就会失去意义。 如果数据包在内核处理它们之前被转发,如果堆栈代码中的Bug被利用,唯一被攻破的机器是防火墙,它与系统保持“隔离”,并且我只需要检查一个系统,大多数备份/维护/重新安装只有一个虚拟机在错误的情况下, NetVMs和防火墙虚拟机可以使用一个最小的内核为他们的特定范围。 这也与我无法控制一台或多台NetVM的情况有关,我不能指望这台机器是干净的,或者做了适当的过滤。 硬件设备如何处理这种情况?
我需要帮助来configurationiptables来阻止除了几个允许的计算机之外的所有东西。 但是他们使用ddcp和SCTP进行通信,所以我不知道如何实现它。 这是我的尝试(不工作): #allow all ports for ip #udp iptables -A INPUT -s 8.8.8.8/32 -p udp -j ACCEPT iptables -A OUTPUT -s 8.8.8.8/32 -p udp -j ACCEPT #tcp iptables -A INPUT -s 8.8.8.8/32 -p tcp -j ACCEPT iptables -A OUTPUT -s 8.8.8.8/32 -p tcp -j ACCEPT #ddcp iptables -A INPUT -s 8.8.8.8/32 -p ddcp -j […]
我正在构build一个应用程序,在Azure上有5个不同的实例。 我想要一种方法来为所有这些实例使用一个IP地址。 我试图设置“应用程序网关”,因为它作为反向代理,我可以分配端口到不同的实例。 但问题是,Azure不支持应用程序网关的静态公共IP。 我需要将IP设置为静态,以便客户可以在数千个设备的防火墙中分配此IP,每次重新启动实例时都不容易更改。 Azure的“负载平衡器”/“stream量pipe理器”是否为这个或其他什么正确的技术。 请build议。
我接受了一些build议。 我有一个带有2个板载NIC的物理服务器。 目前只有一个用于局域网。 如果我想安装Hyper-V,并使用第二块网卡作为DMZ的东西,那可能吗? 我担心服务器将使用尝试使用DMZ网卡,而不是networking和外部访问局域网。 谢谢李先生 编辑:完整的图片:1x物理服务器2网卡一个设置为LAN,一个设置为DMZ。 我可以通过所需的网卡到虚拟机很好,但是当试图在物理服务器上浏览互联网,我得到了切断时间,因为我认为它试图使用DMZ网卡,而不是LAN网卡。