我正在计划一个小的ESXi独立服务器来托pipe我在这里使用的一些虚拟机。 我还没有决定从更广泛的vSphere系统使用什么设施。 底层的虚拟机存储是使用企业硬盘和LSI megaraid的本地硬盘RAID,LSI卡上的板载电池支持RAM + SSDcaching系统。 我关心的问题是随着时间的推移,虚拟机存储中的数据损坏和崩溃 – 我真的不知道我的select是什么,我想确保存储的VMDK和快照以及其他虚拟机文件没有得到随着时间的推移而被破坏,并且可以被设置为定期清理,并且检测和修复任何比特级损坏(在合理的范围内)。 作为背景,对于休闲桌面使用,我倾向于使用RAID 1(镜像)而不是更高级别(原因是:快速的读取速度,驱动器的完整可移植性,无需绑定到特定的品牌或卡,如果驱动器出现故障, )。 对于我的文件服务器,我在镜像卷上使用ZFS。 但是ESXi和VMware的套件使用他们自己的数据存储devise来存储本地数据。 所以我不知道如何对抗沉默腐败的弹性,一个设置将是“开箱即用”,特别是当它拥有许多TB的大型文件,有时可能会被访问多年后,与本地存储,而不是专用独立的存储系统。 我也收集VMFS使用日志文件系统,但没有ZFS的自我纠正能力。 ESXi的内置function(如果有必要,其套件的其他部分)是否足以防范日常数据损坏问题? 如果不是的话,我有什么select安心? 更新 @mzhaase – 我没有把握把第二台服务器作为一个文件存储,因为这样每个文件的访问和快照都必须通过局域网或第二个设备远程完成,即使使用了10G(这对于大多数家庭设置而言仍然是成本高昂的),放缓将是主要关心的问题。 获得这个特定卡片的部分原因是为了获得真正的caching写入速度,所以大容量写入或回滚不太可能通过“突出”主硬盘来减慢速度,这应该对文件有帮助商店地址。 对于延迟的影响听起来像是任何远程数据存储,服务器设备或家庭版本,如第二个FreeNAS盒(尽pipe如果我必须select,我会使用第二个FreeNAS)也会发生。 我可能会忽略使用专用NIC端口和多个并行1Gb端口,但是对于快照和回滚的延迟和stream量影响是一个大问题。 我也可能忽视在一个小的专用磁盘上运行FreeNAS虚拟机,它将主VM存储arrays作为直通设备从本地存储。 (这意味着ESXi可以启动,并且可以将FreeNAS VM从一个磁盘加载,一旦运行,它就可以作为基于ZFS的文件服务器,用于任何其他VMS,希望延迟较低)。 但是,运行文件服务器虚拟化可能会增加延迟,而不是让本地文件服务器减less延迟,延迟和磁盘瓶颈已经成为我想要克服的问题。 然而,我将查找LSI卡信息,以及 – 您能否在底层ESXi平台上安装文件完整性检查/修复软件来检查和修复VM文件? 我不知道。 iSCSI是否会成为延迟杀手,让远程存储变得可用? 一旦虚拟机启动并运行,虚拟机存储的访问速度/延迟会影响ESXi或当前运行的其他虚拟机的运行?
我试图了解与vCPU的过度订购相比,分配的vCPU。 为了这个问题的目的,假设我将使用的主机有一个16核Xeon(2.1Ghz)。 基于我对订阅的研究,虚拟机订购的资源比ESXi主机上的可用资源多。 因此,通常情况下,资源订阅的比例为1:1,但推荐使用1:3的比例。 因此,如果启用了超线程function,则总共有32个vCPU,推荐超额订购的主机上的所有虚拟机的总计为32 * 3 = 96 vCPU。 我正在看的方式是正确的,还是应该超过订阅不考虑超线程? 当我查看vCPU资源的分配情况时,我发现可以预留,限制或划分vCPU资源的优先级。 假设我的主机保留了339Mhz的最低vCPU资源,假设以下情况是正确的: 1)没有超线程的vCPU(16) – >总计336000 Mhz – > 99单个vCPU VM 2)具有超线程的vCPU(32) – >总共672000Mhz – > 198个单个vCPU VM 在上述情况下会发生什么情况,当这些虚拟机中的一些具有不同的最大限制时,他们同时需要vCPU资源? 而分配的代表是使用比一个vCPU可以提供更多的资源吗? 例如一个vCPU有2.1Ghz,但是对于一个单独的虚拟机我保留2.5Ghz,这样它就不得不从另一个vCPU“借用”资源。
当我使用vSphere客户端连接到vCenter服务器并克隆虚拟机时,连接断开。 我尝试使用vSphere客户端重新连接到vCenter,并收到以下消息:
我有8个ESXi主机。 我从可安装的CD直接安装到4u1。 我们有另外一个双节点的集群,可以连接一个工作的Nexus 1000v主备。 一切正常和运行。 我安装了6台主机,一切运行良好,将它们迁移到Nexus DVS,VUM安装了这些模块。 我做了第七台主机,当我尝试将其迁移到DVS时,出现以下错误: 无法为一个或多个主机成员完成分布式虚拟交换机操作。 DVS操作在主机上失败,主机configuration出错:创builddvswitch失败,出现以下错误消息:SysinfoException:Node(VSI_NODE_net_create); 状态(bad0003)=未find; 消息=实例(0):Inpute(3)DvsPortset-0 256 cisco_nexus_1000v得到(vim.fault.PlatformConfigFault)exception 然后,我试图做主机8,并得到了完全相同的问题。 在我主持6的时候,大约15分钟就工作了,没有任何变化,然后去了主机7,失败了。 如果我试图修复这两个主机,无论是补丁或扩展,它会失败。 任何人都有这些问题?
我有一个关于我的testing实验室的问题。 理解概念更多的是将其应用到生产中: 我有一个ESXi与几个虚拟机Linux / Windowsconfiguration,我想使用VMWare转换器来创build备份。 为了加速这个过程,我决定在安装了Windows 7和VMWare Converter的ESXi主机上创build一个Windows VM。 主机有一个千兆卡,但目前连接到一个100Mb的FD端口。 Windows 7看到一个1GB的卡连接。 当我使用VMWare转换器进行备份时,我将主机IP指定为源和目的地,所以我认为复制可能会更快,然后通过networking使用我的笔记本电脑。 那么,为了减less冗长的performance(4Mb / sec) 我是一个混淆,因为尽pipe事实上,主机之间运行虚拟机和主机之间的100Mb通信不应该(纠正我,如果我错了),而不是有任何限制。 我调整了Windows 7来优化networking性能,但我得到了一些改进。 我仍然需要4个小时来备份一个50Gb(瘦)虚拟机。 另外我想问一下:巨型框架在这方面会有帮助吗? 我知道巨型帧必须被支持到端,和主机当前连接的networking开关不支持这个,但我想知道: 1)ESXi主机是否支持巨型帧? 2)我能以某种方式启用它吗? 3)如果我这样做,我猜VM和主机之间的批量传输会有所改善,但这会影响通过真正的交换机进行的通信,因为这不会造成巨大的损失。 谢谢阅读
我有一台使用ESXi 4.0u1的机器,它有3个硬盘。 我有我的主机build立在不同的硬盘上,但不知道备份选项。 我没有RAID,但是我有3个驱动器,1个是完全空的。 我一直在使用它来存储用于加载的ISO。 那么我有什么办法可以在备用硬盘上创build1次副本,或者在备用硬盘上创build某种快照? – 必须通过vsphere客户端或ssh进入ESXi框然后从那里进行操作。 思考? -JD
随着我们的虚拟基础架构不断增长,有更多的虚拟服务器,我注意到我们的备份工作(每周和每天)都已经增长到没有维护时间的地步,在人们上class前修补服务器。 我们使用LTO3对磁带库进行备份,在连续写入时似乎performance得相当漂亮。 调查备份日志得出结论,每台服务器(主要是Windows 2008)上的系统状态备份每台服务器花费大量时间(约45分钟)。 我在周末(星期五下午)使用完全备份的分割备份configuration,在星期一(星期四)进行区分。 试图改变它增量,但它并没有减less备份的时间窗口 – 所以我猜系统状态是一个完整的备份,不pipe你做什么。 现在的问题是我要做什么来对付这个问题。 我应该在周末减less系统状态备份到所有的服务器,每天一个域控制器吗? 备份到磁盘时,Backup Exec 2010有一个新的重复数据删除选项。 在系统状态下,这会有所帮助吗? 这是一个VMWare vSphere基础结构。 我应该开始查看快照产品而不是使用系统状态备份吗? 我们在所有服务器上安装了趋势科技防病毒软件。 我应该卸载它还是configuration它,以免影响备份?
我的问题涉及与SNA DLCstream量的兼容性。 在使用ESX 3.5的情况下,使用此协议logging了事件。 这里是这个问题的链接: http : //communities.vmware.com/message/823536#823536 http://communities.vmware.com/message/953976#953976 这个事件是否与ESX4和VSphere 4一起使用,如果我将VMware 3.5迁移到4,会有什么问题吗? 谢谢
我正在通过vSphere 4.0U1运行RHEL 5.3。 我在NetApp(光纤)存储上configuration了多个LUN,并使用准虚拟SCSI适配器在两个(Linux)虚拟机上添加了RDM。 一个LUN的大小为100GB,在两个虚拟机上成功映射到/ dev / sdb ,另外5个大小为500MB(映射到/ dev / sd {cg}) ,我还为每个设备创build了一个分区。 我遇到了两个问题:第一,直接写入/ dev / sdb1给我~50MB / s ,而任何/ dev / sd {cg} 1给我〜9MB / s 。 除了大小之外,LUN的configuration没有区别。 我想知道是什么原因造成的,但这不是我的主要问题,因为我将以9 MB / s的速度解决问题。 我使用udev非常直接地创build了原始设备: ACTION=="add", KERNEL=="sdb1", RUN+="/bin/raw /dev/raw/raw1 %N" 每个设备 写入任何新的裸设备都会大大降低性能,达到900KB / s以上 。 任何人都可以指出我的方向吗? 提前致谢, – jifa
我想在vSphere Client上为ESX 4创build一个用户,但是当我这样做时,我只能分配任何访问权限,只读访问权限或pipe理员angular色,如果pipe理员具有完全访问权限则可以更改所有内容。 我试图限制这个用户可以做的只有他的虚拟机,而不是其他团队成员的虚拟机和主机configuration的东西。 我怎么能达到这个安全级别?