Articles of xen

Xen Live跨networking存储迁移

如果您有两个networking存储盒(特别是iSCSI),您是否可以跨存储单元迁移(使用Xen或XenServer),还是只需要在VM处于暂停/closures状态时由于存储位于不同的物理机器?

在虚拟机(Xen)之间共享文件的好习惯?

我有一个远程Xen服务器运行一些虚拟机,我想分享他们之间的一些文件。 你能推荐一个好的做法吗? 目前networking设置是标准的Xennetworking(桥接),每个虚拟机都有一个专用公共IP的eth接口。 我想在dom0中添加一个私人networking的桥梁,但不知道从那里做什么。

如何在XenServer上运行Turnkey Linux虚拟机?

Turnkey Linux以Xen兼容格式分发Linux虚拟机。 我有一个XenServer实例正在运行,我想运行一个最近下载的Turnkey Linux虚拟机。 但是我从来没有使用过XenServer。 你能指点一下这个案例的具体教程吗,因为这个手册似乎没有很好的覆盖它呢?

Xenfind物理磁盘的VBD ID

我正在使用xm create config.cfg启动一个xen domU。 在configuration文件中有许多物理块设备(LV),这些设备被添加到客户机,并且在启动时可以很好地访问。 但是,在将来的某个时刻,我需要能够使用xm block-detach命令来热拔掉其中一个磁盘。 然而,这个命令需要将设备的vbd id分离,并且我无法find一个方法来find启动时“插入”特定磁盘的设备ID。 任何帮助深表感谢!

pipe理Xen云平台

有人可以推荐一个基于Web的工具来pipe理XCP吗? 我有6-7 x64的盒子,我将把它们组build成一个小型的私有云,供一群开发者使用。

ZFS或硬件RAID5

不久之前,我有了几台服务器,预装了硬件RAID5。 我打算将这些服务器用作局域网上的专用NAS(包括一些虚拟机)。 目前我看到这些选项: 断开RAID控制器的硬盘,让ZFS完成这项工作 要么 单独离开控制器,只使用UFS。 在这种情况下我该怎么做,最好的select是什么? 另外我从来没有使用ZFS,真的很想尝试一下^^。 作为一个基础系统,我将NetBSD的XEN用作DOM0。

需要关于Linux主机的文件系统进入只读模式的任何提示

我有一台运行在XEN(Citrix)服务器上的CentOS 5.x Linux guest虚拟机,并不时神秘地进入只读模式。 我检查了文件系统的错误,没有可疑的出现… 🙁 系统日志说: Mar 5 10:57:16 testsrv kernel: end_request: I/O error, dev xvdb, sector 309735103 Mar 5 10:57:16 testsrv kernel: end_request: I/O error, dev xvdb, sector 309735191 Mar 5 10:57:16 testsrv kernel: end_request: I/O error, dev xvdb, sector 309735279 Mar 5 10:57:16 testsrv kernel: end_request: I/O error, dev xvdb, sector 309735359 […]

xen – 什么构成“系统”?

在Xen 4.2的发行说明中,显示了以下声明: Large Systems: Following on from the improvements made in 4.1 Xen now supports even larger systems, with up to 4095 host CPUs and up to 512 guest CPUs. 这里如何定义“系统”? 一个服务器的内阁? 一个巨大的盒子? “主CPU”和“来宾CPU”之间是如何分工的?

为什么LVS丢包?

我目前正试图回到一个问题的核心,我的LVS导演似乎不时从客户端丢失一个数据包。 我们在生产系统上遇到了这个问题,并且可以在升级时重现问题。 我在lvs-users-mailing-list上发布了这个问题,到目前为止没有回应。 我们的设置: 我们在PV XEN-DomU中使用Linux CentOS5 x86_64的ipvsadm。 当前版本详情: 内核:2.6.18-348.1.1.el5xen ipvsadm:1.24-13.el5 LVS-设置: 我们使用DR模式的IPVS来pipe理我们使用lvs-kiss的连接。 ipvsadm在heartbeat-v1-cluster(两个虚拟节点)中运行,主节点和备份节点都在不断运行。 对于LVS服务,我们使用由心跳(active / passive-clustermode)设置的逻辑IP 真正的服务器是物理的Linux机器。 networking设置: 作为director的VM在Dom0上使用桥接networking作为XEN-PV-DomU运行。 networking“在场”: abn-network(staging-network,用于将客户端连接到director),由真实服务器用来向客户端发送答案(直接路由方式),用于ipvsadm slave / master multicast-traffic lvs-network:这是连接director和real-servers的专用VLAN DR-arp-problem:解决了我在服务-ip的真实服务器上抑制了arp-answers的问题 服务IP在真实服务器上的lvs接口上configuration为逻辑IP。 在这种设置中,ip_forwarding在任何地方都不需要(无论是在director还是在真实服务器上)。 虚拟机详情: 1 GB RAM,2个vCPU,系统负载几乎为0,内存73M空闲,224M缓冲区,536Mcaching,无交换。 几乎总是100%空闲,0%us / sy / ni / wa / hi / si / st。 configuration细节: ipvsadm -Ln对于有问题的服务显示: TCP xy183.217:12405 wrr persistent 7200 […]

考虑到XenServer:混合硬件configuration?

我有一个关于使用XenServer的内部辩论,希望从那些更知情的人那里得到一些信息。 具体来说:VMWare指出,在构buildVMotion / HA设置时混合不同configuration的硬件不是一个好主意。 这个build议对于XenServer是否适用,是否相同('XenMotion')?