有没有办法在OpenVZ中运行的虚拟机之间共享文件的目录? 我特别的用例是我想拥有一个共享的YUMcaching目录,因为他们都需要运行更新,这样每个虚拟机就不必单独从服务器上下载文件。 这将使它更快,使用更less的带宽。 我可以用NFS或Samba或任何标准的networking文件共享应用程序设置一些东西,但我希望有一些快速和容易,我可以做,因为他们都跑了同一个驱动器。
我需要在Windows 7中使用Windows XP Mode来运行遗留应用程序,因此我下载,安装并将其configuration在我的机器上作为testing,没有任何问题。 我现在遇到的问题是我在需要运行旧版软件的机器上完成了相同的设置,WSUS似乎对哪个VM是哪个版本感到困惑。 这就是我在两台机器上所做的(这对我来说似乎相当合理),有没有人可以看到我的过程中的任何缺陷? 下载并安装.msu文件以启用Windows XP模式 下载并安装Windows XP Mode 下载并安装.msu文件以启用Windows XP Mode,而不需要硬件辅助虚拟化 将networking模式设置为使用物理网卡(而不是默认的NAT) 将虚拟机重命名为HOSTPC-XPMODE 将虚拟机join域,并将其移入Active Directory中相应的OU 为了说明方便,我们将调用2台Windows 7计算机PC001和PC001 (以PC001-XPMODE和PC002-XPMODE作为虚拟机的名称)。 当我进入WSUS时,它会向我显示PC001-XPMODE或PC001-XPMODE状态信息,但是只有一个或另一个 – 两者不能同时出现。 这几乎就像WSUS变得混乱,因为它是一个完全相同的机器。 我是否缺less一些基本的东西,或者我是否按照预期使用它? 这个来自Virtual PC小组的博客介绍了如何将虚拟机join到域中,所以我不认为我错误地使用了Windows XP Mode(但如有必要,请随时纠正)。
我们目前有一个运行虚拟机的主动 – 主动2节点群集。 每个节点有两个磁盘,每个磁盘在另一个节点上镜像DRBD。 每个节点都在其主drbd设备外运行虚拟机,起搏器集群将处理故障切换(如果一个节点发生故障,另一个则成为drbd设备上的主设备并运行所有虚拟机)。 这是在一个数据中心,所以我们的成本(硬件采购除外)是由我们占用多less机架单位驱动。 当你从小处着手时,这是一个很好的解决scheme,它适合于2U的机架空间(假设以太网交换机已经在那里),它是100%冗余的。 但是,这也是一个稍微困难的pipe理设置,当I / O负载过高时(我猜这只是因为主轴数量less)而受到影响。 我想知道什么是最好的解决scheme来扩展我们的硬件容量,同时仍然具有成本效益,而且是合理的: 继续添加更多的两个内部存储节点集群,也许更大的硬件(例如2U服务器更多的磁盘) 仍然使用两个节点群集,但使用外部直接连接存储(像1U或2U磁盘机箱和SAS连接) – 请参阅下面的注释 独立的存储和虚拟机(例如,一对由DRBD镜像的存储节点,通过移动iSCSI目标IP来导出iSCSI和pipe理故障转移,以及两个或多个将虚拟机从静态iSCSI目标IP中移出的无盘节点)似乎是别人在做什么? 使用与标准服务器不同的存储部分(千兆以太网专用存储解决scheme?) 其他什么? 拆分存储/应用程序服务器似乎是我最灵活和最合理的解决scheme,我们可以在需要时轻松添加更多存储节点,并且仍然使用当前的应用程序服务器,或者在达到容量限制时采取其他方式。 你认为什么是好的/坏的select? 你有没有更大的预算这种东西的经验(我倾向于排除光纤通道或10000欧元的存储设备)? 编辑:要明确,这个想法是,通过利用现代(和免费)软件,你可以通过增加更多的“商品”硬件来实现冗余。 它不会尖叫快速,也不会超高可用性,但是即使主板死机,只要需要备用DC并更换部件,它也能让我们的虚拟机运行。 编辑:我删除了USB提到,因为它真的不会去任何地方(和谢谢指出,在答复中)。 我真的不知道我是如何忘记SAS机箱的。 作为戴尔网站的一个例子,MD1000是带有SAS链接的2U。 两个存储设备通过SAS连接到两个存储节点,可以实现冗余并导出iSCSI。
我已经成功安装了运行Ubuntu服务器的virtualbox。 由于现在一切正在运行,在后台运行它会很好,所以每当我需要访问时,我都会创build一个小的bash脚本来启动它: #!/bin/bash nohup VBoxHeadless -s "Ubuntu server"& 该服务器使用桥接networking,并将静态IP设置为192.168.1.5。 当我从同一networking中的另一台计算机运行以下显示的错误时,会引发。 为什么? ssh [email protected] ssh: connect to host 192.168.1.5 port 22: No route to host 我认为运行无头不会影响Virtualbox,因为它缺lessGUI? 非常感谢
我是虚拟派对的一个相对迟到的人,所以如果这看起来是一个明显的问题,那么你将不得不原谅我。 如果我有一个有12个内核的服务器,每个KVM客户端是否可以访问所有12个内核? 我知道KVM使用Linux调度程序,但这是我对“接下来会发生什么”的理解的地方。 我问的原因是,我们打算在KVM客户端运行10个不同的任务(为了便于升级而进行隔离),100%的时间不会使用单个内核,所以在这个基础上,必须为每个guest虚拟机分配1个虚拟CPU – 我们将从一个“完整的”空闲的服务器中脱颖而出,以显示它。 换句话说,假设我的描述如上,在处理能力方面,1个虚拟CPU实际上等同于12个物理核心吗? 或者,这不是如何工作? 非常感谢 史蒂夫
在这里工作中,我们有一个用户使用一些专门的遗留软件,其开发人员很久以前就已经“肚子痛”了。 当试图将程序复制到其他系统(试图检查它是否在兼容模式下工作)时,我们从程序得到一个严厉的警告,告诉我们如果我们使用碎片整理或压缩工具,软件可能会失去“串行”。 据我所知,该软件正试图对硬盘内容(可能在该程序存储在哪个扇区)进行一些检查,以检查它是否是合法副本。 用户告诉我们,她喜欢这个程序,而现代的select是没有意义的(更不用说没有预算了)。 所以,我所看到的唯一的解决scheme就是虚拟化,但是我不知道它是如何处理低级磁盘访问的。 虚拟化过程是否创build了磁盘的逐字拷贝? 我必须使用特定的工具/设置吗? 到目前为止,我们的虚拟PC已经安装了VMWare(ESXi和Player),但是如果Virtuabox能够更好地工作,我们也是开放的。 *鉴于软件的年龄,可能整个开发团队现在“肚子痛”了。
我试图在我的VMware ESXi 5主机上安装Fedora 16(64位)作为来宾操作系统…但是当configuration新的虚拟机,在客户操作系统选项卡中没有Fedora 16.我可以selectRedHat 6,CentOS和其他Linux,其他Linux 2.6.x … 我应该select什么来获得最佳性能?
我正在云提供商上运行Linux虚拟机。 如此有效地,磁盘是一个VHD文件。 该机器将在磁盘上有一些敏感的信息,如证书,密码…我想encryption一些部分(或全部)的磁盘,以防万一有人得到他们的手在VHD文件,他们不能收回私人信息。 当然,由于服务器可能随时由云提供商重新启动(安全更新,迁移到不同的物理主机等),因此在启动时询问密码不是一个选项。 如果可能的话,我怎么能做到呢?
我正在试图找出OpenStack中阻力最小的path,从Live CD到可用于部署新来宾实例的磁盘映像。 如果从Live CD启动OpenStack实例,则可以在“临时”磁盘上安装操作系统(在本例中为/dev/vda )。 …这很好,但是没有办法从这个磁盘上创build一个映像。 image-create命令将尝试(并失败)对live CD本身进行快照(因为这是启动卷)。 您可以创build并附加一个新卷(使用volume-create和volume-attach ),然后安装该操作系统,但似乎没有任何方法将此卷转换为Glance托pipe的映像供其他人使用实例。 作为pipe理员,我明显可以login到存储主机,并直接从卷块设备创build新的扫视图像,但这不是任何人通过API或Web GUI进行交互的途径。 还有其他的select吗?
Proxmox VE是否支持LVM作为KVM guest虚拟机的块存储,以避免通过主机系统上的文件系统层的开销?