我正在使用VMware vCenter 5.1来pipe理我的服务器。 我想通过一些虚拟机模板部署一些虚拟机,并要求vCenter为这些虚拟机自动分配IP地址。 但是它没有工作,networking没有正确configuration我部署的虚拟机,我不知道这里出了什么问题。 这是我做的。 我使用IPv4 IP池创build了networking协议configuration文件,并将其与我的称为“VMnetworking”的networking关联。 我创build了一个启用了“vApp选项”的虚拟机。 在“创作”部分的“vApp选项”中,将IP分配scheme设置为“OVF环境”,并在“部署”部分将“IP分配”设置为“静态IP池”,并创build了一个vApp以供使用“虚拟机networking”,并将我之前创build的虚拟机作为模板在vApp中创build一个新的虚拟机,我的虚拟机是一个安装并运行最新VMware工具的CentOS 6.4虚拟机。 问题是当我在vApp中创build一个虚拟机时,它的networking适配器没有正确设置(/ etc / sysconfig / networking-scripts / ifcfg-eth0包含不正确的Mac地址,eth0没有启动)并且没有为它分配IP 。 我的问题是,如何configuration我的VM / VMware vCenter以便一起工作,以便vCenter将IP池中的静态IP地址分配给我部署的新VM? 谢谢。
我的服务器是专用的(非虚拟的)。 我想拥有3 + 1个静态IP地址。 我以前使用过别名(eth0:0,eth0:1),但是读了这个方法已经被弃用了。 所以我添加了另一个IP,并重新configuration了我的界面ifup / ifdown,而我在我,但ifdown告诉我,该接口没有configuration。 / etc / network / interfaces看起来像这样: auto lo eth0 iface lo inet loopback # Main IPs (IPv4 + IPv6) allow-hotplug eth0 iface eth0 inet static address 81.xxx netmask 255.255.255.0 broadcast 81.xx255 gateway 81.xx1 iface eth0 inet6 static address 2a02:x:x:x::x:x netmask 64 gateway 2a02:x:x:x::1 # 2nd IP up […]
我最近给自己买了一台物理服务器,并且正在尝试创build具有IP地址的容器。 物理机器具有IPv4和IPv6地址。 我可以访问另一个IPv4和其他我想分配给容器的IPv6地址。 我设法分配地址如下: # vzctl set 101 –ipadd 144.76.195.252 –save 我可以从物理机器ping到机器,但不能从外部世界。 这也适用于我分配的IPv6。 这是物理机器的ifconfig: eth0 Link encap:Ethernet HWaddr d4:3d:7e:ec:e0:04 inet addr:144.76.195.232 Bcast:144.76.195.255 Mask:255.255.255.224 inet6 addr: 2a01:4f8:200:71e7::2/64 Scope:Global inet6 addr: fe80::d63d:7eff:feec:e004/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:217895 errors:0 dropped:0 overruns:0 frame:0 TX packets:16779 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:322481419 (307.5 MiB) […]
对于单个ESXI主机,我有一个非常奇怪的问题。 我有2个相同的主机,核心i3,6尼克斯,16克RAM。 nics的4个用于pipe理,vmotion,vmnetworking,全部在不同的vlan上。 他们都去了一个静态中继的HP Procurve 24端口转换开关。 另外两个是iSCSI。 有2个VSS,一个是4nics,另一个只有2个和iSCSIstream量。 两台主机上的configuration完全相同,硬件完全相同。 两台主机的CPU利用率都在30%左右。 他们正在运行ESXI v 5.1。 现在发生的事情是,所有突然的主机2将退出vCenter。 (vCenter托pipe在物理机器上)。 没有错误,它只是失去了联系。 如果我尝试从vCenter ping主机,我不能。 如果我尝试从我的工作站ping,我可以在大多数时间,我可以SSH进入。 如果我从DCUI“testingpipe理networking”,它可以ping网关和DNS服务器。 如果我重新启动pipe理networking,我仍然无法从vCenter获得它。 如果我做一个services.sh重新启动它完成没有错误,但没有帮助,主机仍然不能够注册到vCenter也不能被vCenter ping通。 到目前为止唯一的解决办法是彻底重启主机。 我做了一个日志导出,但我不确定在这一点上要寻找什么。 我应该看什么日志? 我唯一可以补充的另一条信息是,这似乎是在一天中的某个时间,一大早。 这个时候没有任何东西在运行,没有备份工作等等。
我有一个运行KVM / libvirt的Ubuntu 12.04 LTS机器。 它有两个物理的以太网接口。 我有专用的eth0作为主接口,并为我的虚拟机在eth1上configuration桥接。 KVM主机/ etc / network / interfaces看起来像这样: # The loopback network interface auto lo iface lo inet loopback # The primary network interface auto eth0 iface eth0 inet static address 10.0.5.5 netmask 255.255.255.0 gateway 10.0.5.254 dns-nameservers 10.0.5.1 # The secondary network interface auto br0 iface br0 inet static address […]
我有一个在我自己的子网上的互联网虚拟主机。 我打算使用桥接networking,只需将我的一个物理网卡添加到网桥,并完成。 但是,这有几个缺点,其中最不重要的是似乎是一个错误的车手。 我可以在不添加物理网卡的情况下build立一个公共网桥吗? 与客人和他们的公共知识产权? 我试图简单地通过路由,但似乎并不完全工作: Guest: ip route default via <host> dev br0 ip route add <host> dev br0 # May be redundant. Host: ip route add <guest>/32 via br0; 外部访问仍然不起作用,因为主机似乎没有告诉其他人“我可以访问这些其他IP!” 我的猜测是,我需要一些ARP欺骗来完成我开始的东西。 (?)
我们很快就必须想出一些解决这些问题的方法: 1个新的服务器与6个以太网接口 2个带有4个以太网接口的旧服务器 这3台服务器上的vSphere Essentials Plus 1个双控制器iSCSI SAN 1x开关 1x以太网上行链路到服务器机房主干 我正在考虑这个networking设置: 来自每个服务器的2x以太网端口联合(vSwitch0)并进入交换机 这些端口和交换机上的VLAN可以隔离WAN,LAN,vMotion,pipe理 从每台服务器到两个iSCSI控制器的两个以太网端口(巨型帧) 新服务器上有2个未使用的以太网端口 上行链路的交换机的一个端口 在我看来,这是利用当前硬件资源的最合理的方式,它在所有系统上保持一致。 存储部分将继续运行,没有任何单点故障,networking部分将不得不等待第二个交换机… 除了获得第二个开关之外,还有什么可以改进的当前设置? 如果我想尝试一下,是否应该为vSphere Replication留出另一个VLAN? 还是为了别的?
我正在尝试configurationpsad来停止端口扫描和其他攻击。 目前我有我的防火墙设置下面的规则,除了端口22,80,443和3306以外的所有传入连接。 -A INPUT -j DROP -A FORWARD -j DROP 我想用“psad”。 “psad”提到的主要要求是“与psad兼容的iptables策略就是iptableslogging数据包” iptables -A INPUT -j LOG iptables -A FORWARD -j LOG 那么如何configuration我的防火墙规则呢? 我应该先logging下来然后放下吗? -A INPUT -j LOG -A FORWARD -j LOG -A INPUT -j DROP -A FORWARD -j DROP 我应该不使用滴吗? 我有点怀疑没有下降。
我试图确定哪个Infiniband网卡连接到哪个交换机,其方式与此问题非常相似。 但是,提出的解决scheme并不适用于Mellanox Infiniband交换机,而且我还找不到任何替代scheme。 是否有标准的方法来查询特定机器连接到的Infiniband开关的标识符?
我试图在Ubuntu 14.04中使用HAProxy作为使用TPROXY的完全透明代理。 HAProxy将在第一台服务器上111.111.250.250 ,其中eth0 111.111.250.250和eth1 10.111.128.134 。 单个平衡服务器也有eth1和eth0 。 eth0是面向公众的networking接口,而eth1是两个服务器所在的专用networking。 问题:我可以直接(通过eth1 )连接到平衡服务器的端口1234,但无法通过Haproxy端口1234(通过eth0redirect到1234)到达平衡服务器。 我错过了这个configuration中的东西吗? 从/etc/haproxy/haproxy.cfg删除线source 0.0.0.0 usesrc clientip ,haproxy工作但不透明。 在HAProxy服务器上 目前的内核是3.13.0-24-generic 。 iptables v1.4.21 ,我认为它支持iptables v1.4.21 ,但不知道如何检查。 内核似乎有TPROXY支持: # grep TPROXY /boot/config-3.13.0-24-generic CONFIG_NETFILTER_XT_TARGET_TPROXY=m HAProxy编译与TPROXY支持: haproxy -vv HA-Proxy version 1.5.3 2014/07/25 Copyright 2000-2014 Willy Tarreau <[email protected]> Build options : TARGET = linux26 CPU = x86_64 CC = […]