Articles of openstack

Ping对浮动IP的响应不会到达路由器(iptables / nat)

我正在运行OpenStack,并且在从networking控制器节点以外的任何位置访问浮动IP实例时遇到问题。 我使用FlatDHCP进行Folsom部署,不运行多主机,运行在Ubuntu 12.04上。 例如,下面是一个运行实例,其固定IP为10.40.0.2,浮动IP为10.20.0.3: $ nova list +——-+———+——–+——————————+ | ID | Name | Status | Networks | +——-+———+——–+——————————+ | 3d292 | quantal | ACTIVE | private=10.40.0.2, 10.20.0.3 | +——-+———+——–+——————————+ 如果我login到控制器,我可以ping通ssh到任一IP的VM实例。 但是,我不能ping或SSH到外部机器的实例。 如果我尝试从我的笔记本电脑(192.168.3.8)ping,并且在公共接口(eth3)上做了一个tcpdump,我可以看到请求并回复: # tcpdump -i eth3 icmp tcpdump: verbose output suppressed, use -v or -vv for full protocol decode listening on eth3, link-type EN10MB (Ethernet), […]

Openstack:新星迁移和新星撤离有什么区别?

在自由方面,我一直在寻找一种从所有虚拟机中“清空”pipe理程序的方法。 在nova客户端文档中 ,我find了与以下相关的命令: 新星撤离:从失败的主机中撤出服务器。 新星迁移:迁移服务器。 新主机将由调度程序select nova live-migration:将正在运行的服务器迁移到新机器上。 和: 新星主机撤离:撤除主机故障的所有实例。 nova host-evacuate-live:将指定主机的所有实例实时迁移到其他可用主机。 nova host-servers-migrate:将指定主机的所有实例迁移到其他可用主机。 我可以使用第一组中的命令将服务器(又名VM)逐个从一个虚拟机pipe理程序移动到另一个。 类似地,通过使用来自第二组的命令,以pipe理程序为目标,其所有服务器都被移动到其他pipe理程序。 而这里就是混乱。 用于虚拟机pipe理程序时,“迁移”和“撤离”命令之间有什么区别? 他们在做同样的事情,还是在不同的底下,我错过了什么? 应该在某些情况下使用,而在其他情况下使用? 甚至在词汇表上也说: 迁移:将VM实例从一台主机移动到另一台主机的过程。 撤离:将一个或所有虚拟机(VM)实例从一台主机迁移到另一台主机的过程,兼容共享存储实时迁移和块迁移。 所以,它应该是相似的。 但是为什么两者都存在?

项目或包来模拟带有Amazon S3或OpenStack Swift兼容后端的磁带机?

我有一些数据是通过bacula备份到磁带上的,在某些时候,我将需要迁移到非磁带存储。 Bacula支持磁盘存档,但是我发现如果只有一些虚拟磁带库接口到S3或者OpenStack Swift或者其他一些对象存储服务,我可以换掉configuration并保持原有的存档,老化和调度configuration无缝。 我有一个谷歌,我可以看到,阿曼达(使用设备API)和一堆备份产品有S3对象存储的后端,但我没有看到任何项目,将放入replace使用* nix / dev / st0设备接口语义。 这可能是因为我不知道,这个想法是荒谬的,不可能的,等等,但是我有兴趣知道在深入研究一些被黑客入侵之前,我是否已经错过了任何明显的事情。 因此,澄清平台选项 – 它没有托pipe在AWS上,目前没有EBS可用,目标是内部S3兼容的openStack Swift对象存储,因此带宽和存储成本是内部的。

无法通过地平线连接到Openstack实例,但SSH工作?

为了进行testing,我在虚拟机内运行了一个OpenStack部署。 我的设置如下:使用Virtualbox托pipeUbuntu x64 – >使用OpenStack访问Ubuntu x64 – >通过OpenstacktestingUbuntu X64服务器实例。 我意识到这是没有实际用途的,但正如所说的,它仅用于testing目的。 我成功地启动了一个实例,将它绑定到11.1.0.3和172.16.1.1(主机是172.16.0.1),我可以通过ssh -i key.pem [email protected]从主机或guest虚拟机成功ssh进入它(或172.16.1.1 )。 不幸的是,通过Horizo​​n的NoVNC不起作用(启动VNC握手 – >连接失败)。 我nova.conf中的相关行如下: –novnc_enabled=true –novncproxy_base_url=http://172.16.0.1:6080/vnc_auto.html –vncserver_proxyclient_address=172.16.0.1 –vncserver_listen=172.16.0.1 所以我不确定发生了什么问题。 匹配.pem文件的密钥对与我的SSH实例相结合,实例是活动和正在运行。 任何帮助将不胜感激。 编辑 : nova get-vnc-console [id] novnc正确地提供给vnc的一个链接到vm,但它也无法连接。 编辑2 :澄清:我有一个活动的,正在运行的实例,通过OpenStack仪表板成功启动。 我可以ping实例,我可以ssh进入(使用'ssh -i key.pem ip ),但是我无法通过VNC访问它(特别是仪表板上的novnc)。 尝试通过URL访问虚拟机通过get-vnc-console提供的nova也不起作用。 我想要做的是通过VNC访问这个实例。

问题与QEMU创build一个Windows 2008虚拟化图像

我正在尝试创build64位Windows 2008 Server安装的QEMU映像。 它将作为一个实例在OpenStack上使用。 虚拟化环境(QEMU)正在从VMware虚拟实例运行。 (这是一个开发环境,不是裸机)。 目前,我正在遵循http://docs.openstack.org/admin-guide/creating-a-windows-image.html上的说明 。 但是,我一直遇到的问题是,当安装启动时,我得到一个BSoD : STOP:0x0000005D(0x00000000078BFBF9 0x0 0x0 0x0)。 我正在运行的命令启动到映像中: sudo qemu-system-x86_64 -cpu Nehamen -m 2048 -cdrom ./en_windows_server_2008_r2_standard_enterprise_datacenter_web_x64_dvd_x15-50365.iso -drive file=windowsserver.img,if=virtio -drive file=virtio-win-0.1-59.iso,index=3,media=cdrom -net nic,model=virtio -net user -nographic -vnc 0.0.0.0:0 我的CPU信息: processor : 0 vendor_id : GenuineIntel cpu family : 6 model : 44 model name : Intel(R) Xeon(R) CPU E5620 […]

如何将VirtualBox虚拟机转换为OpenStack?

我在Ubuntu Server 11.10中运行OpenStack(安装使用devstack脚本),但是我有一些已经在使用VirtualBox运行的虚拟机。 如何将VirtualBox机器转换为在OpenStack中运行,以及如何做到这一点,以便在OpenStack上停止/重新启动这些机器时不会丢失数据?

OpenStack“量子”networkingpipe理器和现有的网桥/ VLAN设备

最近版本的OpenStack附带的Quantumnetworkingpipe理器不支持nova-list network create命令的–bridge和–bridge-interface参数。 写一个新的Quantum插件的时候,有没有办法让Quantum使用现有的桥接器件而不是创build新的桥接器件? 我们正在一个环境中部署OpenStack,在这个环境中,我们有less量的VLAN被分配给我们的云环境使用。 我们典型的KVM主机configuration通过大量桥接设备公开这些configuration,当使用virt-install手动build立新的客户实例时,我们只需将它们分配给适当的桥接设备,我们就可以走了。 我们还没有弄清楚如何将Quantum整合到这个环境中(或者甚至可能)。 作为后备,我们可以使用OpenStack中提供的其他一些networking支持,但是我们很难确定我们在Quantum上的问题是代码中的devise决策,还是我们阅读文档时遇到的问题。

GPU支持OpenStack / CloudStack

我想知道是否有任何人在使用GPU(最好是vGPU)的任何云编排层都取得了成功? 我已经能够让XenServer 6.2成功地看到我们的nvidia GRID K1卡,但是不知道OpenStack / CloudStacktypes层是否还支持GPU / vGPU。

qcow2图像的qemu存储性能极其缓慢

我在一个小的Openstack集群上使用libvirt运行一些图像。 这些机器上的存储性能非常差:我的监控工具显示100%的利用率(通常是写操作,但有时是读操作),吞吐量低至〜50KB / s,最高可达1MB / s。 这是nmon工具的屏幕截图,显示了CPU性能随着时间的推移和当前的存储吞吐量。 他们展示的是典型的: 我通过使用packer工具来使用qemu来构buildDebian和Ubuntu映像,从而在另外两台机器上复制了相同的性能问题。 这是我的qemu命令行: / usr / bin / qemu-system-x86_64 -netdev user,id = user.0,hostfwd = tcp :: 3213-:22 -device virtio-net,netdev = user.0 -cdrom / home / $ user / packer_cache / 23e6874116128e16e11cfad1c369c54be97c20023e59b9b9d39d312233e09cd6.iso -m 512M -display sdl -machine type = pc,accel = kvm -vnc 0.0.0.0:47 -name packer-openstack -drive file = […]

自动configurationVMware的vSwitch(OpenStack / libvirt / Nova)

现在有很多关于VMware与OpenStack集成的讨论。 我注意到,Novanetworking服务正在使用VMware的标准和vDS。 在我们的环境中部署一个完整的OpenStack实例目前是不可行的,但是我们想要使用他们用于Standard vSwitch自动化的任何技术。 除了使用Open vSwitch,这对于我们现有的设置来说并不理想,我无法find任何方式来使用libvirt。 目前,我们正在使用VMware的虚拟机助手(vMA)来控制vSphere标准networking交换机,但希望转向更独立于平台的技术。 所以我想知道是否有人知道使用什么工具/ API Nova来自动化VMware的vSwitch。 有没有人有一个想法?