我们有一个使用VMware vSphere 5.0 U1的虚拟化环境,它承载了我们的Microsoft SQL Server,性能非常差。 主机服务器是带有Xeon X5450的HP DL360 G5,而磁盘空间来自HP P4300 G2上使用SAS2和Iscsi的SAN。 服务器本身有3个核心,分别是3.00ghz,12gb内存和1gbps nic,运行Server 2008 R2 Enterprise和SQL Server 2008 R2。 有三个数据库,一个是用于Microsoft Dynamics CRM的180GB,一个是50GB用作数据仓库,另一个是由Document Logistics(文档pipe理系统)使用的500MB, 还有一个分析服务多维数据集和报告服务运行在同一台服务器上。 networking和CPU使用率都很低,除非在CPU有时达到100%时SSIS软件包更新数据仓库。 内存总是超时,系统报告过多的分页。 如果只是抛出更多的内存来解决这个问题将会有所帮助 – 如果是的话,我应该使用多less – 或者更多是因为被虚拟化,并且使用专用本地磁盘的单独服务器将是最好的select。 更新—数据库被设置为有限的内存和总的限制保持12GB总共所有文件都在一个磁盘上,另一个自动增长的操作系统/程序设置为1MB,不受限制索引留给主机程序的默认值,但似乎确定服务器一般是慢,假设由于内存没有mantlence计划设置日志都是100mb除了一个CRM是900mb
可以将容器限制为512MB RAM和4GB交换。 但是,如果容器频繁地使用了已经被换出的内存,它将不支配包含交换文件的存储设备的IO资源? 我想避免的是一个容器从100%的利用率固定存储设备,并挨饿其他容器,而这些容器对交换的要求不高。 理想情况下,每个集装箱都应该在负载下得到公平的份额,并且在负载允许的情况下能够突破这个限度。 现在我知道有blkio的限制,而且限制这些限制似乎是非常简单的,但是从技术上来说,内核正在进行交换,所以我不知道它是否遵守这些限制或者将页面错误计入这些限制。 有谁知道这是可能的,或者如何configuration它? 编辑: OpenVZ有一个叫做vswap的东西,它会调整一个交换的容器,即使系统实际上有足够的松弛,“交换”页面在RAM中,它并不真正到磁盘上。 这似乎是我所追求的。 有没有办法做到这一点与“香草”的Linux容器?
假设使用qcow / qcow2作为虚拟磁盘映像格式的KVM / QEMU虚拟机。 备份(将)在VM主机上完成。 据我目前的理解是,尽pipe我们可以使用快照(例如使用LVM)从虚拟机创build备份,但这些备份仅仅是崩溃一致的 ,这实际上并不适用于IMHO。 另外,经过仔细观察,目前stream行的很多工具和脚本都在做这个 – 所以作者是懒惰的或者错过了一些基础知识,或者我对整个演出完全错了。 我目前的解决scheme是在vm上调用fsfreeze (或使用设备映射器),然后在主机上拍摄快照。 但是,如何从主机优雅地做到这一点呢? 使用virtio通道,使用qemu-ga或使用QMP; 他们似乎都处于起步阶段,高度asynchronous,而且似乎没有任何事情可以保证。 我真的需要手动login到虚拟机? 是否没有工具正确处理这个已经存在的? (QEMU提供了很多function,但是我找不到有关这方面实现function的[体面]文档)。
我想在VirtualBox中设置OpenWRT,以便在将networkingconfiguration放置在实时物理路由器上之前进行testing。 适配器设置如何与实际路由器上的真实物理端口相关联? 我的物理路由器有一个广域网端口,三个局域网端口,最后一个端口是一个单独的子网到DMZ的服务器。 在本教程中,他们将第一个适配器设置为NAT,以便虚拟OpenWRT路由器可以连接到互联网; 这在我看来是等同于WAN端口(但我可能是错的)。 他们还configuration了第二个适配器,我认为它相当于物理路由器上的一个物理LAN端口。 如果我在这里假设是正确的,为了增加更多的虚拟端口到路由器,我只需要添加另一个桥接适配器,并模拟负载平衡的东西,我可以模拟双向互联网连接进入路由器使用另一个NAT适配器。 现在,如果上面的假设是真的,那么我怎么实际上将一个适配器从另一个vm插入桥接适配器端口,因为我会物理使用电线?
我有一个运行Hyper-V的Windows Sever 2012 Standard 64-bit 。 Hyper-V正在托pipeWindows 7 Professional 32-bit客户操作系统。 我注意到我的服务器磁盘空间不足。 所以我卸载了一堆不需要的软件。 我重新启动了访客机器和服务器。 之后,我closures了来宾机,并压缩了Windows 7系统使用的虚拟磁盘驱动器。 尽pipe我已经从客户系统中删除了16 GB,但物理服务器硬盘上的已用空间仍然显示物理服务器上虚拟磁盘的大小没有任何变化。 有些人可以告诉我如何减less我的物理服务器硬盘上的虚拟磁盘的大小? 我也在这里制作了一个video,描述了我的问题,以及用户在这里的最新答案和评论。
这个问题让我想到了DHCP的容错问题,所以我在当前的环境下进行了一些挖掘,发现我们公司每个主要站点只有一台DHCP服务器,没有冗余。 我们所有的DHCP服务器都是虚拟的,具有VMWare高可用性,并使用Quantum VMPro进行定期备份,所以在发生几乎任何灾难性的DHCP服务器崩溃的情况下,我们仍可以在一个小时内恢复。 这将导致我认为冗余的DHCP服务器进行故障转移是多余的。 但是我以前的经验大部分来自小企业,这种情况从来没有出现过。 大生意是非常不同的。 我们的大部分文件服务器都处于相同的configuration,除了剩下的less数物理服务器群集尚未被我们的虚拟化工作所捕获。 那么在虚拟环境中,添加服务器冗余的决定点是什么? 示例:我何时添加虚拟DHCP备用服务器? 或者为文件服务器创build虚拟故障转移群集? 我明白,在没有列举组织的具体需求的情况下,这可能很难回答,但我认为可以描述一些有助于在需求出现之前准备好安全事故的情况。 我严格关心容错和故障转移 – 在这种情况下的负载平衡是完全不相关的。
XenServer文档仅涵盖使用GPU Pass-Through(“vGPU”)来运行XenDesktop的“HDX 3D Prographics”。 XenServer GPU Pass-Through不能与XenCenter VNC控制台一起使用,也不会在远程桌面上加速应用程序。 那么有没有办法使用GPU Pass-Through在没有XenDesktop的情况下运行3D应用? (我的使用案例:我将设置两个用户运行旧的专用3D应用程序所需的2个Windows 7 Enterprise VM,我相当确定这些应用程序使用direct3d而不是opengl,我的备份计划是使用ESXi 5.5免费版其软件3D渲染。)
重新启动服务器后,我无法ping通,从networking到达我的虚拟机,反之亦然 [root @ pc1(192.168.0.114)〜]#ping 192.168.0.63 PING 192.168.0.63(192.168.0.63)56(84)字节的数据。 从192.168.0.114 icmp_seq = 1目标主机不可访问 从192.168.0.114 icmp_seq = 2目标主机无法访问 从192.168.0.114 icmp_seq = 3目标主机不可访问 但是我可以从虚拟机所在的主机服务器上ping它们。 这台服务器在同一个networking中。 [root @ vmhost]#ping 192.168.0.63 PING 192.168.0.63(192.168.0.63)56(84)字节的数据。 来自192.168.0.63的64个字节:icmp_seq = 1 ttl = 64时间= 1.19ms 来自192.168.0.63的64个字节:icmp_seq = 2 ttl = 64时间= 0.242ms 来自192.168.0.63的64个字节:icmp_seq = 3tl = 64时间= 0.154ms 来自192.168.0.63的64个字节:icmp_seq = 4ttl = 64时间= 0.230ms Iptables服务在“虚拟主机”和虚拟机上停止。 来自“vmhost”的Ifconfig命令: […]
我是Docker的新手,但是我有使用VM和pipe理程序的经验。 参考Docker介绍和这个镜像 ,Docker容器是隔离的,但共享相同的主机操作系统。 如果我们只在主机操作系统中部署一个Docker容器(例如LAMP应用程序),那么Docker容器可以使用主机操作系统的全部CPU功率和内存吗? 在Docker容器中运行的LAMP应用程序和直接在主机操作系统中运行的LAMP应用程序之间是否存在性能差异?
我正确地指出,你可以用任何一种虚拟化types启动任何操作系统,因为它们是作为一个裸机来编译你自己的内核的? 我期待从OpenVZ切换到Type-1(是吗?)pipe理程序,因此可以引导更多的操作系统。 我只是想知道,如果Xen PV,Xen HVM或KVM是托pipe客户的更好select,还是只是归结为个人偏好? 我最近买了一个32GB RAM的E3-1230V3,并在硬盘上使用RAID-10的硬件RAID卡。 所以从我所收集的。 XEN HVM =裸机。 像物理机器一样 基于XEN PV = * nix和内核编译 KVM = * nix和内核编译