我目前遇到一个问题,即一个guest虚拟机的负载会对位于同一主机上的其他guest虚拟机的负载产生负面影响。 我很好奇的是有什么最佳实践来优化Linux的客人。 通常,客人是RHEL 4/5或SLES 10/11。 如果他们是RHEL,他们很有可能成为一些oracle软件的一部分,比如everyone,充当webserver,appserver或者database的angular色。 谢谢,Matt
我最近开始使用ESXI,现在想将所有当前的数据(电影等)移到openfiler虚拟机映像中。 目前我有esxi 4.1跑掉爱国者XT记忆棒和一个500GB的虚拟机数据存储硬盘,我将放在。 我如何去添加其他硬盘驱动器,我不得不让他们的OF机器上的数据丢失? 他们目前格式化为NTFS
ESX交换文件位于何处? 我已经在戴尔服务器附带的一对镜像SD卡上安装了ESXi 4.1。 ESXi运行速度非常快,但除了SD卡之外,没有本地磁盘,ESX交换文件位于哪里,因为我正在运行具有320GB RAM的计算机,所以我假设我将在某处寻找一个320GB的交换文件,find它!! 问候, 史蒂芬
我正在尝试确定我在几个运行在vmware esxi4上的虚拟服务器时所经历的中断的原因。 我有12个虚拟服务器分布在2台esxi主机上,我只注意到其中3个虚拟服务器的问题。 有问题的虚拟服务器是一个ftp服务器和两个dns服务器。 当发生中断时,我可以login到vSphere客户端并使用有问题的虚拟服务器的控制台,但是在停机期间(其持续时间从一分钟到一小时),虚拟服务器似乎经历了非常慢的networking传输速度按照每秒0-3千位的顺序,或根本没有连接。 (他们所在的数据中心有100MB连接) 机器上的操作系统是debian lenny,并定期更新。 我一直无法确定这些中断的原因,他们真的开始困扰我,所以任何帮助确定这些问题的原因将不胜感激。 esxi的日志文件只包含 Feb 08 13:16:57.981: mks| SOCKET 8 (105) recv error 104: Connection reset by peer Feb 08 13:16:57.981: mks| SOCKET 8 (105) destroying VNC backend on socket error: 1 Feb 08 13:16:57.998: mks| MKS: Base polling period is 1000000us Feb 08 20:28:14.774: mks| MKS: Base polling […]
设备: – EVA 4400存储系统 – 通过Virtual Centerpipe理的ESXi 4.1主机 – Windows Server 2K3 R2 64位企业版虚拟机 目标: – 写入磁带之前,有一个非常大的磁盘用于磁盘备份 当前解决scheme – 我们将四个2TB虚拟磁盘(EVA术语)作为四个不同的2TB VMFS数据存储呈现给ESXi主机,每个VMT数据存储包含一个2TB VMDK。 这四个VMDK被呈现给使用跨越来创build单个8TB卷的Windows VM。 基本上我想知道是否有更好的方式来向虚拟机展示这个存储。 我尝试使用扩展来创build更大的VMFS卷,但是由于VMDK上的2TB限制,它仍然需要在Windows中使用扩展。 在这个阶段iSCSI不是一个select,所以我只是想知道是否有更好的方法来实现这个目标,或者这是我能做的最好的,我必须与之合作?
我正在构build我们的本地服务器,并希望使用虚拟机,但似乎VMware ESXi与我们的硬件不兼容: 服务器:戴尔SC 1424 CPU:2 Xeon 3.2G(buss 800,高速cachingL2 2M) RAM:6G DDR ECC 266 硬盘:2日立Sata 1TB。 Raid Dell Cerc 2s(raid 0,1) Nic:2个Broadcom 1Gb / s 有没有人有任何关于我们的服务器兼容的虚拟化软件的build议? 我想使用服务器的各种目的,如虚拟主机,颠覆和testing不同的服务器操作系统。 感谢您的帮助。
今天,我发现我的一个托pipe在ESXi 3.5中的虚拟机无法启动,/ var / log / messages中的错误是 Mar 14 00:56:21 vmkernel: hda: dma_intr: status=0x51 { DriveReady SeekComplete Error } Mar 14 00:56:21 vmkernel: hda: dma_intr: error=0x40 { UncorrectableError }, LBAsect=3861848, high=0, low=3861848, sector=3861841 Mar 14 00:56:21 vmkernel: 0:01:22:52.747 cpu2:1026)LinBlock: 1926: I/O error, dev 03:00 (hda), sector 3861841 Mar 14 00:56:21 vmkernel: 0:01:22:52.763 cpu2:1150)StorageMonitor: 196: vmhba1:0:0:0 […]
我一直认为在任何主要的虚拟机pipe理程序中都不支持AMD和Intel服务器之间的实时迁移。 不过,今天我遇到了KVM常见问题解答 ,说KVM支持。 事实上,2008年还有一个演示 。 自2008年以来已经有3年时间了。我想知道任何主要的虚拟机pipe理程序(ESXi,Xen,Hyper-V等)现在是否支持AMD和Intel服务器之间的实时迁移?
我有很慢的networking传输速度(26 MB /秒)。 转移的开始时间是120 MB / s,每秒下降一次。 我将一个350 GB的文件从安装在Windows 7上的E-Sata(7200rpm)驱动器传输到一个Unbuntu Samba共享(在ESXI上)。 Samba共享映射到Win 7上的IP地址的驱动器号。 ethtool eth0显示: eth0支持的端口:TP支持的链路模式:10/100 half / full,1000 / full支持自动协商:有广播暂停帧使用:否广告自动协商:是速度:1000MB / s双工:全端口:双绞线PHYAD:0收发器:内部自动协商:在MDI-X上:未知支持唤醒:d唤醒:d当前消息级别:7检测到链路:是
在数据中心,我们有几个ESXi主机。 我们正在从机器上迁移所有数据,但首先我们要检查本地驱动器的RAID / SMART状态。 有没有办法通过国际劳工组织这样做,而无需重新启动?