Articles of 虚拟化

重buildVHD RAIDarrays

我们有戴尔PowerEdge R420和PERC H710微型RAID控制器卡。 服务器有六个物理磁盘分成两个arrays; 一个用于操作系统的RAID-1arrays和一个用于数据的RAID-10arrays。 此服务器是运行Server 2012 R2的Hyper-V主机。 RAID-10arrays包含虚拟机的所有文件,但该arrays空间不足。 我们用两个新的驱动器填充了剩余的两个空驱动器托架,但是后来发现不能简单地将RAID-10arrays扩展到新的可用空间。 每晚使用Windows Server Backup将主机的完整备份保存到外部USB3驱动器上。 build议的方法似乎是删除arrays并重build以包含新空间,然后将最新的备份恢复到新arrays。 这听起来很简单,所以我想知道是否有任何人可能遇到或知道什么时候进行这种行动。

使用KVM和独立IP地址进行桥接路由

我有一个专用的服务器(在Hetzner),Debian Jessie和KVM用于虚拟化。 对于两台虚拟机,我有两个额外的IP地址(带有额外的MAC地址),这些IP地址不是子网(或与主IP相关)的一部分。 Main IP: WW.XX.YY.179 Additional IP 1: AA.BB.CC.DD Additional IP 2: EE.FF.GG.HH 我想使用桥接设置将我的虚拟机连接到互联网,并从外部提供。 基本上我使用Hetzner wiki的文档来实现这一点。 我可以使用外部IP(WW.XX.YY.179,AA.BB.CC.DD,EE.FF.GG.HH)从服务器ping到(ssh)虚拟机,但无法从虚拟机访问外部Internet也不从外面接触到虚拟机。 这里缺less的是什么? 我会很感激你的帮助! 非常感谢! 干杯! – 在服务器上,我在/ etc / network / interfaces中使用以下configuration auto eth0 iface eth0 inet static address WW.XX.YY.179 netmask 255.255.255.224 gateway WW.XX.YY.160 up route add -net WW.XX.YY.179 netmask 255.255.255.224 gw WW.XX.YY.160 eth0 auto br0 iface br0 […]

vSphere中的超额预订vs over vCPU资源分配

我试图了解与vCPU的过度订购相比,分配的vCPU。 为了这个问题的目的,假设我将使用的主机有一个16核Xeon(2.1Ghz)。 基于我对订阅的研究,虚拟机订购的资源比ESXi主机上的可用资源多。 因此,通常情况下,资源订阅的比例为1:1,但推荐使用1:3的比例。 因此,如果启用了超线程function,则总共有32个vCPU,推荐超额订购的主机上的所有虚拟机的总计为32 * 3 = 96 vCPU。 我正在看的方式是正确的,还是应该超过订阅不考虑超线程? 当我查看vCPU资源的分配情况时,我发现可以预留,限制或划分vCPU资源的优先级。 假设我的主机保留了339Mhz的最低vCPU资源,假设以下情况是正确的: 1)没有超线程的vCPU(16) – >总计336000 Mhz – > 99单个vCPU VM 2)具有超线程的vCPU(32) – >总共672000Mhz – > 198个单个vCPU VM 在上述情况下会发生什么情况,当这些虚拟机中的一些具有不同的最大限制时,他们同时需要vCPU资源? 而分配的代表是使用比一个vCPU可以提供更多的资源吗? 例如一个vCPU有2.1Ghz,但是对于一个单独的虚拟机我保留2.5Ghz,这样它就不得不从另一个vCPU“借用”资源。

自动部署服务器

我是自动部署的新手,希望能够从7位vmware esxi 5.5主机(所有主机都在同一个站点)上有效地部署大约75个虚拟机(包括Windows和Linux虚拟机)的最佳途径得到专家的指导。 主机可能手动insatlled,因为7主机不是一个大数字; 即使这个步骤的自动化build议非常感谢。 你会build议什么工具来有效地部署Windows和Linux混合的vms? 微软的SCVMM能做到这一点吗? build议了什么替代scheme? 提前致谢。

主机共享虚拟机

我正在尝试寻找托pipe虚拟机的另一种方法(在工作中,我们有一台托pipe我们当前在Xen Server 6.5主机上运行的虚拟机的服务器)。 我的问题是,有没有办法将虚拟机/会话跨越到networking外的另一个主机,以使我们的某个位置有更好的networking速度(我们的主要办公室目前是双DSL连接….)。 在大约3个月的时间里,我们将拥有100M的对称性,所以在远程工作时我们不会有太大的麻烦,因为当我们3-4人在远程服务器上运行时(本地工作得很好,因为我们是本地的),但是我喜欢能够不时回家。 目前主要的虚拟机是一个单独的Windows VW(Windows 7更具体),但是我们也有一些Linux客户以及软件testing/写作)。 Windows Guest主要用于Windows特定的应用程序,因为我们的大多数机器都是基于Linux的。 我愿意拥有与Xen不同的主机。 我们有btsync和一些其他服务设置为文件共享给一对夫妇作为共享文件的一面testing,但任何和所有的帮助或方向将不胜感激。 编辑 *****主要的主机***** * —本地networking—>本地连接* ****次要主机(远程位置与更好的互联网连接…)* —–>服务通过远程连接向访客提供会话,仍然访问与本地networking相同的“访客” 这反过来又允许用户有一个更好的连接到虚拟机取决于他们在哪里,他们连接到….这也可以作为一个故障转移,如果主要或次要的是下来… … “_我正在寻找一些东西,其中来自最好的主机,类似于Web服务器的负载平衡。例如,在本地工作的情况下,我们将使用本地服务器。一旦完成,我们可以closures连接或者结束会话,一旦离开办公室,我们就可以访问远程服务器来发起一个类似于我们在办公室离开的会话,这也将是基本上主要的主机备份。我正在添加一个编辑,以使其更清楚希望…._“

R630的虚拟化基础设施

我最近被分配到一个新项目,在那里我将不得不使用戴尔R630主机搭build32GB内存,E5 2600 v4 CPU和12个10k SAS硬盘。 我还在每个主机和2个Mellanox交换机中安装了2DP 10G Mellanox卡。 我需要决定的是我使用的是S2D还是VMware Virtual SAN。 我认为VMware会更好,因为我有更多的使用和pipe理经验,S2D也是最近发布的,所以没有人花太多时间在生产环境中进行testing。 几天前,我正在和我的同事谈论这个项目,他告诉我也看看StarWind和HPE,他们会做几乎相同的事情,但更便宜,我开始了我的研究。 不幸的是,我没有find任何有用的信息,并决定询问谁尝试这些解决scheme的人分享他们的想法。 欣赏花时间阅读这个,让我知道你在想什么? UPD:是的,我需要在服务器之间build立共享存储。 另外还有一些问题: 我只有两台服务器,而且我听说前面提到的一些解决scheme需要一个目击服务器? 我可以只用2台服务器,只能去吗? 使用Infiniband卡在服务器之间build立共享存储有什么困难吗? (同样,关于上面列出的产品的问题)

VM集群中的SQL Server AlwaysOn不需要吗?

我们有许多在Hyper-V中虚拟化的SQL Server实例,并参与了AlwaysOn组。 我不知道导致这种设置的决定背后的具体原因。 本周,我采访了15位pipe理人员到我们的新职位。 他们大多数有超过15年的经验。 当我问“在虚拟化环境中使用哪些工具来提高数据库的可用性?”时,他们都提出了VM集群的内部机制。 AlwaysOn真的是在我们的情况下矫枉过正?

与PCI直通有关的ESXi 6.5服务器(无vSphere)sched.mem.min错误

我有一个没有vSphere的ESXi 6.5服务器我已经运行了几年。 我有一台虚拟机,通过SM X9SCL-FO主板的cougar point SATA控制器进行PCI传输。 我想把CP控制器移到另一个虚拟机上,但是无论我试图把控制器传给哪个虚拟机,在它传递完毕后它都不会启动。 一旦控制器被移除,VM就会正常启动。 错误是: Failed – Invalid memory setting: memory reservation (sched.mem.min) should be equal to memsize(2048) 我努力了: 增加或减less虚拟机内存分配 手动保留.vmx文件中的内存分配 将延迟敏感度从低变为高,以及之间的所有变化 有没有人有任何想法我做错了? 在升级到ESXi 6.5之前,我认为这不是一个问题 请帮忙! 这让我疯狂… 编辑:更新到ESXi 6.5a生成4887370 – 它没有解决问题。 新的信息和答案: 不幸的是,下面的答案中提供的链接没有解释在ESXi 6.5中增加计划内存到虚拟机所需的步骤,因为它是在新的HTML5界面之前写入的,并且过程已经改变。 不过,它确实让我走上了正轨。 我意识到我在编辑虚拟机的虚拟硬件时忽略了内存设置下的“向下箭头”。 内存设置和预留必须相同才能使虚拟机通过PCI直通function运行,以避免sched.mem.min错误并启动虚拟机。 虚拟机通常在不预留内存的情况下工作,但显然这是PCI传递function所需的额外步骤。 以下是我在ESXi 6.5中为不使用vSphere而为VM预留适当内存量的步骤: 1)点击编辑 2)单击内存下方的箭头以展开内存选项 3)在“保留”字段中为虚拟机input相同的内存量(例如,如果内存为2048MB,则在保留中input2048) 4)保存设置。 VM现在应该与PCI直通设备一起运行。 注意:内存不必被locking才能运行虚拟机 希望这会帮助那些和我有同样问题的人。

现代化传统的Windows应用程序环境

在标准的服务器/客户端configuration下,我们是一家在我们的环境中有3-400个应用的Windows商店。 从2003年到2012年,我们有600多台Windows服务器,主要是一些虚拟的物理服务器。 目前我正在寻找不同的方式来推动这个环境,我知道DevOps存在更多的.NET /自定义应用程序,但是我们有什么select来处理传统应用程序和更传统的应用程序,这些应用程序不会很快消失? 提升并转移到Azure似乎不是一个有效的select。 希望最终监视和自动化应用程序服务的重新启动和崩溃。

虚拟PC和Windows 7上的networking共享

我正在运行Windows 7 RC,它阻止我运行我公司的VPN软件(瞻博networking连接)。 所以我想我可以在Windows 7中使用虚拟PCfunction来为我做。 我已经下载并安装了Windows 7虚拟PC的XP虚拟机。我可以通过networking连接在XP机器上login到我的VPN。 我想现在能够做的是桥接/共享(?)到Windows 7主机的VPN连接。 这是可能的,如果是这样,怎么样? 编辑原来在Windows 7 RTM,networking连接似乎一切工作正常!