Articles of openstack

OpenStacknetworkingconfiguration

我正在RackSpace虚拟机(testing)上build立一个单一的节点/控制器我有两个接口公共(31.222.162。 )和本地networking(10.177.68。 ),但我不知道如何声明networkingconfiguration。 像浮动范围,固定范围等。 我使用使用这些字段的devstack脚本: PUBLIC_INTERFACE=${PUBLIC_INTERFACE:-eth0} FIXED_RANGE=${FIXED_RANGE:-10.0.0.0/24} FIXED_NETWORK_SIZE=${FIXED_NETWORK_SIZE:-256} FLOATING_RANGE=${FLOATING_RANGE:-172.24.4.1/28} NET_MAN=${NET_MAN:-FlatDHCPManager} EC2_DMZ_HOST=${EC2_DMZ_HOST:-$HOST_IP} FLAT_NETWORK_BRIDGE=${FLAT_NETWORK_BRIDGE:-br100} VLAN_INTERFACE=${VLAN_INTERFACE:-$PUBLIC_INTERFACE} MULTI_HOST=${MULTI_HOST:-0} 有任何想法吗?

Openstack实例无法访问lan

在openstack上启动的实例无法连接到局域网上的任何东西,但他们愉快地到达互联网(谷歌,雅虎等) Openstack设置: 运行Openstack Essex的Ubuntu 12.04 多节点 1控制器 1计算运行nova-network 服务器上的双以太网卡。 eth0在局域网上,eth1在私有局域网上。 内部办公LAN:10.0.0.0/16(10.0.0.1 – 10.0.255.255) Openstack私有局域网:10.2.0.0/16 实例获得浮动ip在以下范围内:10.0.253.0/24 一个浮动ip的实例可以从办公室局域网到达。 实例无法直接到达办公室局域网(ping 10.0.0.2失败) 我认为这是计算主机上缺less的转发规则。 计算路由表: Kernel IP routing table Destination Gateway Genmask Flags MSS Window irtt Iface default firewall001.hq. 0.0.0.0 UG 0 0 0 eth0 10.0.0.0 * 255.255.0.0 U 0 0 0 eth0 10.2.0.0 * 255.255.255.224 U 0 0 0 […]

将现有的虚拟机导入Openstack / Cloudstack

我们正在使用XEN + CentOS运行我们的基础架构,并正在考虑迁移到Ubuntu(作为主机和来宾)+ KVM。 我们的目标是在稍后阶段使用openstack / cloudstack创build一个私有云,但是由于严格的预算,我们无法投资build立与当前云基础设施一起所需的硬件。 由于我们有less于10个物理服务器(但有很多虚拟机),我们的想法是将机器从我们当前的设置逐一迁移到KVM + Ubuntu,我的问题是如下,一旦我们有完整的KVM + Ubuntu基础设施运行,我们将能够“云化”,而不必重build所有的机器(以某种方式将kvm客人导入openstack / cloudstack上的实例)? 或者我们真的需要首先构build云? 为什么从CentOS转移到Ubuntu? 因为我们可以想象,每隔几年(特别是在将来我们将大大扩展我们的基础架构)时,这是不理想的,因此我们需要重新从头开始重新安装主要版本的升级(如CentOS 5至6)。 Dom0和DomU都将由傀儡pipe理。 感谢您的任何build议

OpenStack,桥接,netfilter和dnat

在最近的升级中(从Ubuntu Lucid上的Openstack Diablo到Ubuntu Precise上的Openstack Essex),我们发现DNS数据包经常(几乎总是)在桥接接口(br100)上被丢弃。 对于我们的计算节点主机,这是使用mlx4_en驱动程序模块的Mellanox MT26428。 我们已经find了两个解决方法: 使用一个旧的清晰的内核(例如2.6.32-41-generic)。 这会导致其他问题,特别是缺lesscgroup和旧版本的kvm和kvm_amd模块(我们怀疑kvm模块版本是我们偶尔会看到虚拟机将使用100%CPU的错误的来源)。 过去几个月来我们一直在这里跑,但不能永远留在这里。 对于较新的Ubuntu Precise内核(3.2.x),我们发现如果我们使用sysctl来禁用网桥上的netfilter(参见下面的sysctl设置),那么DNS开始再次完美工作。 我们认为这是我们问题的解决scheme,直到我们意识到closures网桥接口上的netfilter当然意味着DNAT规则redirect虚拟机的nova-api-metadata服务器请求(即redirect数据包发往169.254。计算节点的IP地址:8775)将被完全绕过。 长话短说:3.x内核,我们可以有可靠的networking和破碎的元数据服务,或者我们可以破坏networking和元数据服务,如果有任何虚拟机服务,将工作得很好。 我们还没有find两种方法。 任何人看到这个问题或之前的任何事情? 得到了解决? 或在正确的方向指针? 我们怀疑它是特定于Mellanox驱动程序,但我们不确定(我们已经尝试了几个不同版本的mlx4_en驱动程序,从3.2.x内核的版本开始一直到来自mellanox网站的最新1.5.8.3驱动程序来自Quantal的3.5.x内核中的mlx4_en驱动程序完全不工作) 顺便说一句,我们的计算节点拥有内置的mellanox NIC的超微H8DGT主板: 02:00.0 InfiniBand: Mellanox Technologies MT26428 [ConnectX VPI PCIe 2.0 5GT/s – IB QDR / 10GigE] (rev b0) 我们没有使用系统中的其他两个NIC,只连接了Mellanox和IPMI卡。 网桥netfilter的sysctl设置: net.bridge.bridge-nf-call-arptables = 0 net.bridge.bridge-nf-call-iptables = 0 net.bridge.bridge-nf-call-ip6tables = 0 自从发现了这个bridge-nf sysctl解决方法之后,我们在网上发现了几个网页,其中包括Openstack的最新networking故障排除页面和一个与此博客相关的启动板错误报告 ,解决scheme)….当你知道要search什么东西的时候更容易find东西:),但是我们还没有发现它引起的DNAT问题。 2012-09-12更新: 之前我应该​​提到的东西 […]

Openstack – 两个独立节点上的实例之间的连接

我有以下设置:1 xpipe理节点(节点A)2 x计算节点(节点B和C)1 x节点节点(节点D) 相关configuration:VlanManager multi_host = true 节点B [eth0 = 192.168.6.102; br100 = 10.1.0.6]节点C [eth0 = 192.168.6.103; br100 = 10.1.0.4] 我可以在同一个节点上的实例之间ping,但不能在不同节点中的实例之间ping。 如果我运行“brctl br100 eth0”,实例可以在节点之间ping,但是我在eth0(192.168.6.102/192.168.6.103) 我必须改变什么才能在节点之间ping通实例,同时保持eth0上的正常连接?

OpenStack计算节点内核恐慌

我对OpenStack世界相当陌生,一直在努力让我们的第一个集群正常运行。 我主要使用这个文件http://wiki.debian.org/OpenStackPuppetHowto等等,它总是看起来产生相同的结果:内核恐慌。 事情运行完全正常,当所有的服务都合并在一个单一的节点,但一旦我增加了一个看似随机的时间后的第二个计算节点,而不是响应任何特定的活动计算节点本身将内核恐慌,需要重新启动。 没有什么可疑的syslog日志,或任何nova – *。日志文件,所以我有点卡在哪里从这里去。 这些问题发生在Ubuntu 12.04和Debian 6.0.5上。 新星版本 vmhost-4:~# nova-manage version 2012.1.3-dev (2012.1.3-LOCALBRANCH:LOCALREVISION) debian版本 vmhost-4:~# cat /etc/debian_version wheezy/sid 内核版本 vmhost-4:~# uname -r 3.2.0-3-amd64 nova.conf vmhost-4:~# cat /etc/nova/nova.conf –multi_host=true –state_path=/var/lib/nova –public_interface=public –dhcpbridge=/usr/bin/nova-dhcpbridge –fixed_range=192.168.0.0/24 –image_service=nova.image.glance.GlanceImageService –dhcpbridge_flagfile=/etc/nova/nova.conf –connection_type=libvirt –volume_group=nova-volumes –use_deprecated_auth=false –glance_api_servers=vmhost-4:9292 –service_down_time=60 –vnc_enabled=true –vncserver_proxyclient_address=10.0.0.100 –rabbit_port=5672 –allow_same_net_traffic=true –verbose=false –logdir=/var/log/nova –novncproxy_port=6080 –vlan_interface=private –rabbit_virtual_host=/ –vlan_start=2000 –sql_connection=mysql://nova:[email protected]/nova?charset=utf8 –novncproxy_base_url=http://vmhost-4:6080/vnc_auto.html –dhcp_domain=novalocal –api_paste_config=/etc/nova/api-paste.ini […]

容器的Openstack-Swift磁盘使用情况

目前我正在testing一个由1个代理节点和6个存储节点组成的OpenStack-Swift集群。 每台主机都有Ubuntu 12.04。 我放了5000个容器,每个容器有一个4.6 KB的文本。 每个存储节点都有一个100 GB的磁盘,并将其格式化为xfs分区。 经过testing,当我检查存储节点上的磁盘使用情况时,我发现了一个奇怪的行为。 装载点:/ srv / node / sdb1 2.0M账户 2.5G容器 40M的物体 0 tmp 正如你可以容器目录只有数据库文件索引需要太多的空间。 有人遇到过这种行为吗? 什么可以是容器使用这么多空间的原因?

不处理ARP响应

我的eth0接口不处理合法的ARP响应。 当我尝试ping主机时,我看到arp请求,并从我试图ping的主机回复tcpdump,但是ip neigh表示出现故障。 这必须做一些与我的桥梁configuration,由量子设置。 我在/ etc / network / interfaces中有以下内容时遇到此问题: auto eth0 iface eth0 inet dhcp 我在这种情况下获得IP(其192.168.1.10)。 我的ifconfig输出: eth0 Link encap:Ethernet HWaddr 00:9c:02:aa:65:75 inet addr:192.168.1.10 Bcast:192.168.1.255 Mask:255.255.255.0 inet6 addr: fe80::29c:2ff:feaa:6575/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:1348 errors:0 dropped:0 overruns:0 frame:0 TX packets:350 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:380078 (380.0 KB) […]

在OpenStack的CentOS客户端的以太网帧中添加了Ghost“vlan 0”标签

我试图debugging涉及KVM虚拟机实例的问题,当源位于与通过Linux桥接连接的虚拟机实例所在的同一子网上的另一台物理机上时,实例不响应networking请求。 (这是在Ubuntu 12.04上的OpenStack部署Folsom版本的情况下发生的,使用nova-network为FlatDHCP模式configuration,而不是多主机。这个问题只发生在CentOS客户端,而不是Ubuntu客户端)。 当我在CentOS guest虚拟机内做了一个tcpdump时,我发现入站数据包被标记为“vlan 0”。 例如,如果我手动configuration客户端内部的10.40.0.5/16 IP地址,然后从另一台机器上执行“arping -i eth1 10.40.0.5”,使用tcpdump,我会看到“vlan 0” # tcpdump -i eth0 -XX -vv -e 14:29:29.907212 54:78:1a:86:50:c9 (oui Unknown) > Broadcast, ethertype 802.1Q (0x8100), length 64: vlan 0, p 0, ethertype ARP, Ethernet (len 6), IPv4 (len 4), Request who-has 10.40.0.5 (Broadcast) tell 10.40.0.1, length 46 0x0000: ffff ffff ffff 5478 […]

OpenStack服务器实例可以访问Internet,但无法访问内部networking

我正在使用Nova-Networkconfiguration运行OpenStack Grizzly版本。 [没有Quantium]。 我的networking设置如下: OpenStack Box(10.10.13.xxnetworking) – > OpenStack Internal Network(192.168.0.xx) 我的OpenStack实例可以访问互联网,并在[192networking内]互相查看。但是,他们无法访问10.10.13.xxnetworking内的任何东西。 他们有一个浮动的IP,在10.10.13.xxxnetworking[这是必要的]给了他们一个身份。 有没有办法让他们看到10.10.13networking中的物品?