Articles of xen

我可以在已经使用的专用服务器上安装Xen虚拟机pipe理程序吗?

我有一个专用的服务器,目前我卖这台服务器共享主机…现在我想卖我的服务器上的VPS。 有没有办法可以销售VPS? 我可以使用Xen虚拟机pipe理程序,它会打扰我的共享主机帐户和设置?

我的VPS崩溃了,我不知道为什么

我现在有Linode的VPS。 我的监控服务提醒我,我所托pipe的一个网站已经closures了。 我使用Lish,Linode的方法通过SSH连接直接访问控制台,但不使用SSH,查看任何错误消息。 这就是我所看到的: 我检查了我的Munin日志,看看是否有内存使用的高峰,确实在交换图的适当时间有一个高峰: 然而,内存图上并没有出现尖峰(尽pipe掉期看起来似乎略有上升): 我重新启动服务器,它一直工作正常。 我检查了Apache访问和错误日​​志,没有看到任何可疑的东西。 系统日志中服务器重新启动之前的最后一项是IMAP守护进程的错误,并且看起来没有关联: Oct 28 18:30:35 hostname imapd: TIMEOUT, [email protected], ip=[::ffff:XX.XX.XX.XX], headers=0, body=0, rcvd=195, sent=680, time=1803 # all of the startup logs below here Oct 28 18:40:33 hostname kernel: imklog 5.8.1, log source = /proc/kmsg started. 我试图检查dmesg,但没有看到任何可疑的。 最后几行: VFS:已挂接的根(ext3文件系统)在设备202上只读:0。 devtmpfs:挂载 释放未使用的内核内存:释放412k 写保护核心文本:5704K 写保护内核只读数据:1384k NX保护内核数据:3512k init:无法产生控制台设置主进程:无法执行:没有这样的文件或目录 udevd [1040]:从版本173开始 在/ dev […]

如何在xen环境中分辨真实的CPU负载?

我有一台运行Xen的带有两个虚拟机的4个CPU核心的Debian机器,并且在确定总的实际CPU使用率方面遇到了困难。 每台机器有两个VCPU分配给它,CPU使用没有上限: Domain-0 0 256 0 dom01 1 256 0 dom02 4 256 0 login到每台机器时, top显示每个CPU上80-90%的CPU使用率(按“1”以单独显示每个内核)。 dom0上的xentop与此报告一致。 然而,在dom0的top显示了所有4个CPU核心大部分时间闲置。 xen是否隐藏了dom0 top虚拟环境的CPU利用率? 如果是这样,是否有任何方法来显示机器上的CPU核心的实际利用率?

Xen 4.1+本地ZFS存储

我正在为我公司的开发人员推出沙箱虚拟机服务器。 对dom0主机的要求是:本地,重复数据删除的ZFS存储(没有单独的存储服务器)和Xen 4.1+(4.2是理想的)。 我检查了Oracle VM,但它只有Xen 4.0。 我也看了Xen官方支持的dom0s 列表 ,但没有一个支持ZFS的(openindiana / illumos和opensolaris)似乎足以运行Xen 4.1+。 题: 哪些操作系统对ZFS / Dedup具有强大的支持(读取:稳定和体面的性能),并且可以顺利(读取:良好的硬件兼容性)作为Xen 4.1 +的dom0主机工作? 如果可能的话,我想避免编译Xen并且有一个稳定的包,但是如果这是必须的,我可以处理它。 我同样喜欢将ZFS支持集成在一起,而不是通过可用于非Oracle Linux的黑客入侵的内核扩展/ FUSE模块来运行。 再一次,如果这是不可能的,我可以处理。 如果你关心这个原因:开发者需要Xen 4.1或者更好的做一些奇怪的事情,我不清楚CAD和passthrough,pipe理层喜欢ZFS,所以这也是“必须拥有”的。 我知道,重复数据删除的ZFS使用了大量的硬件资源,但是将硬币投入硬件的function却不错。

DRBD设备上的Xen DomU:屏障错误

我正在testing设置一个具有DRBD存储的Xen DomU,以实现轻松故障切换。 在大多数情况下,在DomU启动后立即出现IO错误: [ 3.153370] EXT3-fs (xvda2): using internal journal [ 3.277115] ip_tables: (C) 2000-2006 Netfilter Core Team [ 3.336014] nf_conntrack version 0.5.0 (3899 buckets, 15596 max) [ 3.515604] init: failsafe main process (397) killed by TERM signal [ 3.801589] blkfront: barrier: write xvda2 op failed [ 3.801597] blkfront: xvda2: barrier or flush: disabled [ […]

Xen直播运动

我正在从思杰(和2位同事)那里研究XenServer,并将其与VMware ESX和Microsoft HyperV进行比较。 在我们的testing中,似乎Xen的实时迁移比VMware的ESX使用更less的资源,我想知道这是为什么。 我发现去年的一篇文章引用了2005年的一篇论文,解释了实时迁移过程中实际发生的页面/内存问题。 这是关于内存传输的文章的摘录: 推送阶段 – 当某些页面通过networking推送到新的目的地时,源VM继续运行。 为确保一致性,在此过程中修改的页面必须重新发送。 停止和复制阶段源虚拟机停止,页面复制到目标虚拟机,然后启动新虚拟机。 Pull阶段新的VM执行,并且如果它访问尚未被复制的页面,则该页面在来自源虚拟机的networking中(“拉”)出现故障。 我想知道内存传输是否仍然像4年前一样发生。

USB从dom0转发到domU

我有什么select将两个USB连接的电话转接到xen guest? 我已经阅读了PCI-passthrough http://www.wlug.org.nz/XenPciPassthrough ,但我确定在服务器中的USB控制器不是一个PCI卡。 有设备级转发,但我需要转发两个设备,这里没有说如何做到这一点: http : //www.olivetalks.com/2008/02/03/usb-forwarding-on-xen-it-刚刚做的那样-不工作/ 会像这样简单: usbdevice = ['host:xxx','host:yyy',] 工作? 编辑:我现在开始赏金。 这对我和其他人来说真的很重要,希望有这样的人能够帮助。

XEN – LAMPtesting平台哪款CPU – 预算

亲爱的服务器故障知识渊博,我现在处于一个决策困境,我不能解决,因为缺乏经验。 我需要构build一个基本上虚拟化LAMP应用程序的testing平台(os'ses尚未决定),包括服务器端计算。 我会selectXEN,因为目前云主机似乎更好地支持XEN。 硬件是为saas创业的概念certificate,稍后可用于封闭的实时alpha / beta。 经过testing,testing平台可能是 a)部署为共同的白盒服务器 b)用作工作站 单个sockets就够了。 我们希望有可靠的ECC内存,这排除了intel大部分的消费者线。 如果英特尔CPU,然后线程CPU(HT)是首选 有至less16演出公羊 如果价格合理,可靠性不是太差,高品质的桌面MB而不是服务器MB值得一试 经过大量的研究,我得到了opteron 6128与xeon 5620的比较,但是我不一定非要这样做。 对于TCO(MB价格,24/7电源要求),Opteron 6128或Xeon 5620,哪个CPU更受欢迎? 哪一个在实际应用中提供更好的性能? (你有没有其他的build议我可能忽略了?) 谢谢您的考虑

虚拟化:在Integrity(ia64)服务器(使用x86_64 guest虚拟机)上运行KVM,XEN或…

我们有一个备用的Integrity刀片(2个Tukwila四核+ 16Gb内存),我希望使用一个虚拟主机用于几个Linux虚拟机。 我有一些担心,find我们的情况最好的解决scheme(如果一个解决scheme是可能的呢?)。 以下是我正在处理的内容: XEN在Itanium上看起来很好,但是我不确定我是否能够在ia64 + XEN上运行x86_64 guest虚拟机。 我猜KVM将能够通过qemu支持x86_64的仿真,但对ia64的支持似乎并没有得到很好的支持。 所有客人都将是基于RedHat 5.5,并在x86_64架构。 我不关心主机的分发(最好是CentOS或Debian),但是我更喜欢它不是Red Hat(因为我不想处理注册只有1 ia64许可证的麻烦)。 Red Hat在版本6中放弃对ia64和Xen的支持 Debian似乎在ia64上得到了很好的支持,但我似乎无法findkvm或xen软件包 CentOS也会放弃对ia64和Xen的支持吗? 所以,总结一下我的问题,你们将如何在安腾服务器上虚拟化x86_64 guest虚拟机?

ESXi 5是否具有Xen这样的“路由IP”function?

我有一台专用服务器,我想使用ESXi 5。 我以前有Xen,而且效果很好。 初始networkingconfiguration有点混乱。 我的问题是托pipe公司有MAC过滤,所以基本上我需要configuration某种路由模式。 这意味着每个VM都通过ESXi路由stream量,而不是在networking上进行广播。