我不关心GUI或工具,但我关心稳定性和性能。 如果我将FreeBSD防火墙和Opensolaris文件服务器作为guest虚拟机运行,如果切换到KVM,我是否会获得更好的稳定性或性能(networking和磁盘I / O)? 后续问题:未来最有可能是摇滚稳定和接近原生的I / O速度? 更多细节: 目前我有一个Open Server的dom0和包括* NIX和* BSD在内的多个dom服务器。 到目前为止,8月份的最新版本, PV内核的networking问题 :无法更改dom0中vif的MAC,如果使用domU作为防火墙,数据包会丢失 FreeBSD 8.1不像PV光盘那样稳定 HVM在重I / O负载下不稳定 据说PV内核中的networking问题是固定的,所以我正在寻求将发行版转换为使用pv内核的发行版。 我认为,如果我要从头开始重做Xen,不妨看看竞争对手,而KVM似乎有些有前途。 编辑:我不关心GUI /pipe理工具,因为我只使用命令行选项。
有没有办法使用VNC连接到dom0而不运行X? 我不想要一个X服务器,我只想看看控制台上有什么。 编辑:添加一些背景,因为人们似乎真的很恼火,我会问这样一个问题,而在这种情况下ssh不是一个可以接受的解决scheme,以达到dom0: 我想把VNC带到控制台的原因并不在于pipe理这个系统(实际上,在八月的一个会议上,有600台笔记本电脑用Xen和多个虚拟机运行了4天的Debian Squeeze)。 SSH的工作很好,我不会梦想使用任何其他的pipe理。 但是,我想要做两件大事: 1)当与坐在机器前面的某个人通话时,请确切地看到实际/ dev / console上的内容。 一小组人员负责为会议准备这些系统,而且我们并不是全部位于同一地点。 在这种情况下,这些系统距离我3000英里,距离另一个队伍5000英里,距离第三个100英里。 能够看到屏幕上显示的内容,与坐在系统前面的“远程手”一起工作,试图弄清为什么一些特定的任务不能正常工作,是非常重要的。 2)查看发送到/ dev / console的任何错误消息,并且在其他地方(发生这种情况的方式比我在开始这个项目之前猜到的更频繁)。 我确定有两个主要原因会导致这种情况发生:1)有时懒惰的开发人员通过redirect的方式logging错误或将输出debugging到/ dev / console,而不打扰使用系统的logging器或其他导致错误的functionlogging在一个文件中; 2)当你的IO子系统由于发生故障而崩溃时,但是networking和CPU仍然正常,在系统崩溃和刻录之前,错误消息不会logging在日志文件中。 至less如果我一直在/ dev / console中工作,我可以看到错误消息,而不必打电话给某人,让他们拍摄屏幕上20或30秒的图像控制台在系统重新启动之前。 在会议期间,在巨型显示器(以及大量的显示器)上的所有600台机器上放置一些小窗口,看看每一台机器上发生了什么,这也是非常酷的。
我目前在生产中使用Xen来运行一些Ubuntu虚拟机(无畏/ Jaunty)。 我有另外一台服务器,我想把它设置为VM主机来运行更多的客户操作系统,并且正在为我们的要求寻找最佳select: 能够运行64位“现代”客户操作系统(特别是Ubuntu Lucid) – 我们目前有一个问题,就是在我们现有的Xen设置中没有对Lucid的支持,而没有一些严重的重build/更新。 “裸机”/无头configuration – 低资源主机系统,我们可以运行十几个或更多的客人 从“主”图像部署虚拟机 – 我们现在可以用Xen来做这样的事情,而且configuration新东西非常方便 还想有某种GUIpipe理工具 ,如果这个选项存在… 我们可能还有其他一些我现在无法想到的东西,但是这是最重要,最困难的两件事情。 我对任何其他的解决scheme都是开放的:KVM,OpenVZ等……任何可以满足上述要求的东西。 至于主机操作系统,我们目前正在运行Debian,但是我没有附件。 我们一直试图让Xen在CentOS或Debian Lenny上运行无效,我们只是想要一些有效的东西。 任何build议/意见将不胜感激。
我们有4台安装了XenServer 7.x的服务器。 每个服务器都有一个大磁盘(6TB – raid10)。 如何将这些磁盘合并到一个大存储中以便共享? 这应该是来自VMware的vSAN的类比。
Hy,我得到了一个全新的带有12GB RAM的Intel i7服务器系统,我想用虚拟化技术将其他三个linux服务器整合到这台机器上。 我想在服务器上使用硬盘(通过一种LVM)作为存储,因为我没有SAN / ISCSI。 所有Linux-VM将运行Debian-Linux,所以不需要Windows支持。 我宁愿裸机虚拟化(所以我不需要维护“dom0”的操作系统)。 该软件应该是免费的,甚至更好的开源。 虚拟机将运行:PostgresSQL,一个Lighttpd + PHP,一个Tomcat服务器,一个邮件服务器,一个静态文件Lighttpd。 问题是,我不能决定select哪个系统: VMware ESXi :问题是服务器中不受支持的网卡:它是一个realtek芯片,因为它是托pipe服务器,我不能修改硬件。 Citrix XenServer :我需要mangment软件在Linux下运行,Citrix-Software只能在Windows上运行。 更大的问题:您不能将机器存储在内部硬盘上,您需要一个SAN。 XEN:目前我最喜欢的,但是我没有发现用于显示虚拟机状态的pipe理软件。 我将不得不build立一个debian系统为dom0并维护它。 OpenVZ:我讨厌这个,它从来没有在debian的正确方式下工作。 主要问题是市场变化很快,所以无论我在互联网上发现什么都过时了,谁能给我一些build议呢? 谢谢!
我有一个具有DRBD挂载分区的Debian Xen DomU。 我需要将这个分区从46G调整到50G。 我做了以下几点: 停止辅助节点上的DRBD: /etc/init.d/drbd stop 将底层LVM dist增加到50 GB: lvresize -L 50G /lvm/device 再次启动DRBD并等待磁盘同步: /etc/init.d/drbd start 切换的主要部分。 并在另一个节点上执行相同的操作。 在现在的第二个DRBD节点上停止drbd: /etc/init.d/drbd stop 增加底层的LVM: lvresize -L 50G /lvm/device 再次启动DRBD并等待磁盘同步: /etc/init.d/drbd start 在发布的两个节点上: drbdadm resize drbd-device 在主节点上发出: resize2fs /dev/drbd0 我得到这个回应: $ resize2fs 1.40-WIP (14-Nov-2006) The filesystem is already 12058624 blocks long. Nothing to do! 使用fdisk,drbd0和sda设备drbd都使用报告设备的大小为49392123904.这与resize2fs的说法是一致的。 (12058624×4096 […]
我们正在考虑在我工作的地方实施VDI解决scheme。 目前,我们运行的主要是Windows客户端的Linux商店(Samba PDC)。 我们一直在评估VDI解决scheme的使用,并想知道人们用什么“真正的使用”比较了我所认为的三大VDI解决scheme。 当比较这些解决scheme时,网上的信息很less。 你有什么经验?
我的Xen服务器是openSUSE 11.1,在我们的iSCSI SAN群集中使用open-iscsi。 SAN模块位于启动器所连接的虚拟IP后面的IP故障转移组中。 如果主SAN服务器出现故障,辅助节点将扮演目标angular色。 这一切都由LeftHand SAN / iQ软件处理,并在大多数情况下运行良好。 我遇到的问题是,有时我的一些Xen DomU将在IP故障转移后使其根文件系统变为只读。 这是不一致的,每次发生故障转移时都会发生一个不同的子集。 他们都运行相同的openSUSE 11.1软件镜像。 每个DomU的根文件系统通过Dom0中的open-iscsi进行挂载,然后Xen使用标准块设备驱动程序将其展示给DomU。 确切的症状是,作为运行touch /test的根返回错误“只读文件系统”。 但是, mount的输出显示为正在读写。 当然,domU上的所有其他I / O也是在这个时候失败,所以机器很难下来。 只需从Dom0重新启动xm ,无需重新连接iSCSI会话,一切都可以正常工作。 在Dom0端,故障切换期间的系统日志消息如下所示: kernel: connection1:0: iscsi: detected conn error (1011) iscsid: Kernel reported iSCSI connection 1:0 error (1011) state (3) iscsid: connection1:0 is operational after recovery (1 attempts) 我很难搞清楚在什么层面来debugging这个问题,在DomU内核中是什么东西? 或在Dom0或Xen级别? 我认为可能有某些参数需要调整,以增加某种超时,但我不知道在哪里看。 我真的不认为这是一个open-iscsi的问题,因为连接的块设备仍然可以从Dom0读取和写入。
用xen-4.1运行Ubuntu使用blktap的问题使用dom0 xen-4.1的精确库存内核。 我得到: [ 5.580106] XENBUS: Waiting for devices to initialise: 295s…290s. … [ 300.580288] XENBUS: Timeout connecting to device: device/vbd/51713 (local state 3, remote state 1) 还有一些syslog行: May 17 13:07:30 localhost logger: /etc/xen/scripts/blktap: add XENBUS_PATH=backend/tap/10/51713 May 17 13:07:31 localhost logger: /etc/xen/scripts/blktap: Writing backend/tap/10/51713/hotplug-status connected to xenstore. 用tap:aio:磁盘线。 文件:/工程。 disk = [ 'tap:aio:/data/root.img,xvda1,w', ] 问题存在与清醒和精确度domU内核和两个客人工作在Ubuntu […]
我想在我刚刚在Xen中设置的新Centos6虚拟服务器中禁用IPV6。 我已经按照这里的说明,然后重新启动/重新启动networking。 更新:接下来,似乎已经工作,但现在它没有拿起一个ipv4地址? eth0 Link encap:Ethernet HWaddr 9A:F0:43:47:04:F1 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:941 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:89952 (87.8 KiB) TX bytes:0 (0.0 b) Interrupt:14