我想知道VPS是导致崩溃的一个根本原因,这个崩溃发生在每天晚上03:00-4:00(内核bug或者别的东西)的3-7天,或者它是一个节点虚拟服务器托pipe(后端问题)。 详细信息:基于KVM的VPS(带有CentOS 7),在VPS提供商处托pipe的xfs,具有后端和存储后端基础架构。 通常情况如下,一旦运行的kthreadd进程变为D -status(即不可中断的睡眠),然后我们得到如下消息: blocked for more than 120 seconds. 和高LA: May 21 03:08:01 vps root: root 2 0.0 0.0 0 0 ? S May18 0:00 [kthreadd] May 21 03:10:01 vps root: root 2 0.0 0.0 0 0 ? S May18 0:00 [kthreadd] May 21 03:12:01 vps root: root 2 0.0 0.0 0 0 […]
昨天我在使用KVM的ubuntu 16.04服务器上创build了windows 2012r2虚拟机。 现在我可以在来宾和主持人之间进行沟通,反之亦然。 但在我的局域网中的其他系统无法与虚拟机ping(我分配一个静态IP到我的虚拟机)。 我用下面的anser转发端口,改变iptable规则。 还要禁用Windows防火墙设置 在Ubuntu主机上启用堡垒转发。 但没有进展其他机器不会ping到虚拟机。 * root@server2:~# virsh net-dumpxml default <network> <name>default</name> <uuid>95e24458-3946-42cf-b013-71637b906842</uuid> <forward mode='nat'> <nat> <port start='1024' end='65535'/> </nat> </forward> <bridge name='virbr0' stp='on' delay='0'/> <mac address='52:54:00:fd:24:95'/> <ip address='192.168.122.1' netmask='255.255.255.0'> <dhcp> <range start='192.168.122.2' end='192.168.122.254'/> </dhcp> </ip> </network> * root @ server2:〜#iptables -L Chain INPUT(policy ACCEPT)目标 protselect源目的地ACCEPT udp – 任何地方任何地方udp dpt:域ACCEPT tcp […]
我正在从Xen迁移到Kvm。 在Xen中,我能够轻松地将主机cpus连接到guest虚拟机,并将主机cpus固定到“dom0” 。 在Kvm中,我也可以轻松地将主机cpus固定到guest虚拟机vms,但是据我所知,没有任何东西阻止在主机操作系统上运行的应用程序使用这些cpus。 我想防止在主机上运行的程序挨饿/增加客人的等待时间的情况。 我可以手动做一个详细的cgroup政策,但也许我只是缺lesslibvirt / centos7中的设置? 另外还有一个“模拟器”设置为客人。 我应该将“模拟器”固定在专用主机cpus上,还是应该将其限制在guest cpus ? 目标是尽可能地限制客人的等待时间 。
我在这里看到了有关交换空间的其他许多问题,但是我没有发现真正解决了我的特定情况。 我有一台Ubuntu 9.10 64位服务器,32 GB RAM作为KVM主机系统运行。 我在RAID1上使用LVM。 “旧学校”交换build议build议2×RAM或2×RAM + 1GB,或者即使if MEM < 2GB then SWAP = MEM*2 else SWAP = MEM+2GB 。 但是我看不到分配66GB的磁盘空间来换取,这似乎很疯狂! 我想4GB或8GB将是很多。 这个系统将运行许多KVM虚拟服务器。 如何在这种情况下交换工作? 我应该为主机服务器设置交换分区,然后每个虚拟服务器都有自己的LVM根和LVM交换分区吗? 还是虚拟服务器共享主机的交换?
我有一台Ubuntu 9.10服务器作为安装有ntpd的KVM主机运行。 主机系统具有正确的系统时间。 目前我只有一个KVM客户机,也是Ubuntu 9.10服务器。 我没有安装ntpd,我刚发现时钟慢了大约6分钟。 一个月前安装的时候不是这样。 我以为我只需要保持主机时钟同步,并且客人使用主机时钟。 但也许这是使用OpenVZ的内存。 我相信这个推理只涉及到主机可以修改物理系统时钟。 在主机和所有客人上运行ntpd是否正确的事情? 还是有其他的东西是首选? 我应该如何保持客人时钟同步?
我有KVM qcow2和原始图像。 虚拟机使用LVM进行分区。 现在我想调整一些机器的根分区,所以我想我必须从主机上做这个。 我的问题是:我怎样才能做到这一点与原始图像或qcow2图像? KVM + LVM的复杂性让我有点困惑。 谢谢 !
我正在KVM上进行testing,我想看看是否可以进行热迁移,我的意思是虚拟机在迁移过程中不会停止运行(但几秒钟的冻结是可以的)。 我使用一个小群集来testing:kvm1,kvm2和kvmnfs。 kvm1和kvm2运行虚拟机 kvmnfs是一个NFS服务器,它安装在kvm1和kvm2上的/ KVM上 为了将虚拟机(实际上只是RAM)从kvm1迁移到kvm2,我在kvm1上运行了相同的kvm命令(with -incoming tcp:0:4444),然后我使用“migrate -d tcp:kvm2:4444” :它工作得很好,因为VM文件对于两台机器都是通用的。 现在,我不想将kvm1到kvm2的本地VM文件(不再是NFS)完全迁移(RAM +磁盘)。 我尝试在kvm2上创build一个空文件,并使用相同的kvm命令行+“-incoming …”)。 然后在kvm1上使用“migrate -d tcp:kvm2:4444”:它复制所有内容,然后…虚拟机失败(任何I / O磁盘出现I / O错误)! 而我的虚拟机文件kvm2,我用touch创build的,仍然是0字节的大小。 我究竟做错了什么 ? 在kvm2上使用的确切命令是什么? 在监视模式下启动kvm1的命令是什么?
我有一个Ubuntu 10.04 x64服务器作为我的KVM主机。 如果我打算为每个实例分配less于1g的内存,我的客户实例是x86还是x64内核,这有什么关系吗? 另外,如果我为我的客人使用不同版本的Ubuntu(10.10,11.04),这有什么关系吗?
我有一个现有的生产服务器,在两个软件RAID级别上运行每个750 GB大小的4个驱动器。 / boot分区的RAID 1和其余分区的RAID 5(包括用于向networking提供文件的/共享卷)。 没有LVM最初使用,因为它似乎太复杂,不能设置。 该机器目前正在Ubuntu 8.04 LTS上运行,可能转移到Ubuntu 10.04 LTS或某种红帽衍生产品。 裸机服务器旨在运行CIFS,NFS和可能的KVM。 我有6个新的驱动器,每个驱动器的大小都是2TB,我将要安装到这个生产服务器上,并通过干净的操作系统升级操作系统。 我正在寻找关于如何select用于新驱动器的软件RAID级别的build议,并可能在软件RAIDconfiguration中重复使用旧驱动器。 以下是我想要的想法或想法的一些额外的考虑: 分区应驻留在物理驱动器上,还是驻留在RAID创build后的空间中? 它应该驻留在位于RAIDconfiguration之上的LVM中吗? 在这种情况下,我是否应该考虑使用RAID 6,因为会有很多重要的文件,这样丢失两个驱动器可能很重要? 我希望有新的驱动器运行一个软件RAID级别,然后有一些驻留在它们上面的LVM,并对所有这些数据应用某种types的encryption。 这是个好主意还是坏主意? 这会使复苏以后更难吗? 还有什么我现在应该关于这个可能的设置? 运行软件RAID,LVM和encryption时是否会对性能产生重大影响? 预先感谢您的帮助和想法。
我一直在办公室准备一台新的Linux服务器作为使用Proxmox的VM主机。 现在已经完成了基本的工作,我们将它移动到我们的ISP服务器机房。 在移动服务器之前,我想确保我没有忘记任何东西。 以下是我想到的事情: configurationnetworking使用正确的静态IP 更新/ etc / hosts,/ etc / hostname,运行主机名 从外部validationNATconfiguration。 networking 更新硬件服务信息 validation监控/错误报告(HW + SW) 标签驱动器+电缆 备份系统映像(以防万一) 这个清单有什么缺失吗? 这个问题在相当普遍的层面上可能对其他人也有帮助。