Articles of 虚拟化

从基本的Windows 8.1映像派生的图像构build系统

对于我们的VDI部署,针对需要不同套件应用程序的目标组,我们有几个Windows 8.1映像。 目前的更新程序要求我们更新每个VDI图像上的操作系统。 我们希望有一个操作系统映像,然后用所需的应用程序从该基础构build衍生图像。 我们应该研究什么工具来完成这个工作? 我们应该注意哪些策略来解决当前程序的低效率问题?

如何将专用vCPU分配给Proxmox(KVM)上的特定虚拟机或者什么系统可以做到这一点?

我在这里发布这个,因为我发现这个话题是过时的,不完整的或不适合各种原因。 我很长一段时间想了解如何将特定的vCPU映射到特定的虚拟机(这需要尽可能高的CPU性能和尽可能less的CPU阻塞/上下文切换),而在同一个节点中,有其他虚拟机不能访问固定的内核(它们只需要对特定的虚拟机可访问),并且其调度器的CPU分配由“默认”完成。 我目前select的系统是Proxmox(仅使用KVM),通常是pvetest分支和最新的3.X内核中的最新版本。 针对我的具体需求,我不考虑如何在当前系统中实现这个function,而是考虑切换到其他系统,甚至是虚拟机pipe理程序,以便为虚拟机进行高级pipe理。 我的付费解决scheme预算几乎没有,从一开始就不排除他们,但他们应该很便宜考虑。 非常感谢,并希望(许多可能)的答案对许多其他人有用。 对于虚拟化主机的用户/pipe理员(无论什么原因,在我的情况下,因为我使用不同的操作系统),此function对于大多数虚拟机需要低CPU时间是有用的,但有一个(或某些)需要确保高CPU时间。

安全问题w /物理vs虚拟网关

我正在build立一个专用networking,使用网关系统访问networking后面的系统上的某些服务,例如ssh,ftp。 我有一些使用虚拟化基础架构的经验,但是想validation我正在使用最佳实践来设置环境。 在私有networking内部会有多种服务,例如DHCP,DNS,LDAP等,这些对于网关另一端的系统应该是或多或less的不可见的; 但是,会有一些服务,如Web服务器,file upload,可能需要访问这两个networking。 我花了一些时间在内部区域,外部区域和DMZ的防火墙devise和布局上工作; 计算出不同区域需要提供哪些服务,并已经开始为系统整合ACL。 我的计划是虚拟化许多服务,并在LXC或Docker容器中运行它们(目前使用LXC,但如果有强有力的理由可以切换到Docker)。 在设置系统的过程中,我一直在使用单个虚拟机pipe理程序来设置和configuration容器,然后将它们移动到适当的存储区。 当我接近生产状态(其他人将有机会使用我的networking),我有一些安全问题/关注。 看起来隔离事物的最安全的方法是运行至less3个pipe理程序/pipe理程序configuration(如果发生故障等,必要时可以启动额外的pipe理程序等)。 看起来,如果发现主要的pipe理程序漏洞,就会降低networking的风险。 是否有一些更好的解决scheme隔离虚拟服务的方式描述? 在不同防火墙区域运行的系统/服务专用存储有多必要? 似乎适当的防火墙/ ACL设置共同的后端存储与单独的外部备份将是足够的,但build议/input有关存储虚拟化容器组与不同的访问设置的最佳做法将不胜感激。 以这种方式虚拟化基础设施真的值得吗? 我有经验在一些专用的服务器上运行类似的服务,当服务器出现故障时使用备份和故障转移服务器。 这些系统都已经安装完毕,因此可以使用高度自定义的kickstart或类似的构buildconfiguration文件来重build所需的操作系统。 任何已经通过这种方式对物理基础设施进行虚拟化的人的意见将不胜感激。 特别是,除了networking服务之外,pipe理虚拟机pipe理程序的复杂性增加在可靠性和可伸缩性方面产生了足够的好处,值得付出额外的努力?

configurationvmware dv上行链路端口组的最佳实践?

我正在创build一个分布式虚拟交换机 – 每个主机都有2个物理网卡,每个网卡将映射到一个上行链路端口。 我想创build上行链路端口组,所以我可以设置网卡绑定,我想知道是否有任何最佳做法,是否应该将物理网卡从同一个主机分组到一个dvuplink端口组,或者是否应该采取物理网卡来自不同的主机和他们组。 所以我会有:DV上行链路1与vmnic0和vmnic1(从主机1)DV上行链路2与vmnic0和vmnic1(从主机2) 要么 DV上行1与vmnic0(主机1)和vmnic0(主机2)DV上行2与vmnic1(主机1)和vmnic1(主机2) 有关系吗? 有没有什么最佳实践,当添加更多的主机时有什么考虑? 提前致谢。

在ESXI 6.0上丢失内存

我有一个8GB RAM的ESXI 6.0。 出于某种原因,我只能使用4.7GB的虚拟机。 我尝试使用esxtop但没有看到任何使用大量的RAM。 以下是来自vSphere的截图。 任何人都可以帮我理解记忆在哪里? 正如你可以在下面总共有8104 MB的RAM可用,但不知何故5.9GB的消耗。 如果我去资源分配页面,我只有4.7GB RAM用于虚拟机。

透明地将农场进程集群化

情况: 在工作中,我们有一个内部数据处理工具。 当一个作业被触发时,它会在不同的进程中启动自己的多个副本,并与它们进行通信以便并行执行。 目前在4核机器上使用4个并行进程,操作系统自然将每个进程分配给一个核心。 该程序目前运行在Windows 7 64位。 题: 是否有可能利用联网机器的处理能力运行更多的并行处理? 我想知道我的情况是否会比一些更容易,因为这个algorithm已经在多个进程之间并行化了,而这个进程可以简单地通过系统调度程序来完成。 限制: stream程虚拟化必须对stream程透明化; 即它仍然可以看到主机系统中的所有硬件/驱动器/ NIC。 嘎吱嘎吱的程序的来源已经失去了历史,所以我只能使用现有的并行化scheme。 迄今为止发现的潜在解决scheme: build立一个可以在多台机器上运行的虚拟机,并将虚拟机看作一台高性能的机器。 (不确定的术语来形容这个,所以努力研究它)。 像Incredibuild这样的解决scheme可以将进程移出到其他机器(这很棘手,因为它似乎需要单独的可执行文件,可以分配到不同的机柜,也不太透明)。 理想情况下,我想我正在寻找一个开箱即用的虚拟化系统,它可以在集群中虚拟使用Windows操作系统。 我希望这不是一个侮辱性的高阶! 注意:我是控制系统工程师,而不是系统pipe理员,所以可能会有一些明显的缺点。 这也是我在SE网站上的第一个问题! 谢谢。

KVM在Linux guest中的IO同步性能不佳

我使用libvirt和KVM在Ubuntu 15.04服务器中设置了虚拟化的Ubuntu 15.10 guest虚拟机。 存储在主机系统中: # mount | grep ext4 /dev/sda1 on / type ext4 (rw,relatime,errors=remount-ro,data=ordered) /dev/sdb1 on /media/hdd type ext4 (rw,relatime,data=ordered) / dev / sda是一个SSD, / dev / sdb是一个硬盘。 最初的configuration是使用virt-manager完成的。 问题: 来宾系统的总体性能似乎是好的,但是一些操作,使用apt-get(因此来宾系统安装)显着地安装软件包是非常缓慢的。 来宾磁盘映像是原始格式,我已经尝试将它放在SSD和HDD作为一个文件,也作为一个单独的硬盘分区。 不同的位置会对性能有所影响,但是使用apt-get安装某些软件包仍然比主机系统慢两到三倍。 我也尝试了各种qemu磁盘caching选项, 并使用不安全的caching似乎完全消除了这个问题 。 但是,任何其他caching设置(包括none和writeback)都performance出糟糕的性能。 当然,使用不安全看起来不是一个真正的解决scheme。 这里是从客户xmlconfiguration摘录: <disk type='block' device='disk'> <driver name='qemu' type='raw' cache='none'/> <source dev='/dev/sdb2'/> <target dev='vda' bus='virtio'/> <boot order='2'/> […]

如何在服务器错误上使用Apache反向代理redirect

我在networking上有几个http和游戏服务器,目前使用Apache2反向代理来分配域和机器之间的stream量。 一台机器的stream量比其他机器要多得多。 我想知道从哪里开始使用我的虚拟主机来引导多余的stream量到不同的机器。 本质上,当192.168.1.5是无法访问或重载,我想发送这个stream量到192.168.1.6来代替。 我试过search,但显然我甚至没有使用正确的术语。 对不起,这是如此新的。 我还在学习,我很欣赏任何提示或指示。 多谢你们!

允许NSX出站互联网访问,同时保持微分段

我正在进入VMware的NSX产品的世界,以便在数据中心中微细分割虚拟机。 也就是说,生活在同一个networking空间,却不能互相交谈。 我在使用分布式防火墙(DFW)时遇到的一个问题是允许出站互联网访问,同时保持微分段。 如果我要创build任何/任何/任何允许规则,它将允许虚拟机相互交谈。 我提出的唯一解决scheme是在群集之间放置denys并使用allow规则。 不过,这对我来说似乎很混乱,我不得不相信(在这一点上),NSX有更好的解决scheme。 我已经尝试过投入Edge服务网关,但我不知道做什么与DFW可以做的不同。 任何想法或事情尝试将不胜感激。

为什么未分配的适配器在vSwitch“组合和故障转移”顺序中显示?

在三台ESXi 6主机中的两台中,即使该适配器未分配给vSwitch(请参阅下面的屏幕截图),仍会在vSwitch的组合和故障转移部分中显示未使用的适配器。 这些是标准的不分配的vSwitch。 在一个主机上是vSwitch3,另一个是vSwitch4。 在这两种情况下,所讨论的vSwitch都用于SAN通信。 在这两种情况下,它是第二个物理网卡(vmnic1)。 FWIW,在没有出现此问题的第三台主机上,vmnic1属于用于SAN的vSwitch。 这是一个生产环境,所以在这个阶段我只看了一下,没有改变什么。 我的主要问题是,为什么它甚至不属于vSwitch? 我不认为这是造成任何问题(看到它是无用的),但我想知道是否表明可能有其他configuration问题? 还有什么我应该检查或寻找? pipe理适配器设置截图 团队设置截图