我有HP Microserver N54L,直到最近我用集成软件RAID没有问题。 我的RAIDarrays有2个WD黑色和2个WD红色(非专业)磁盘。 我也直接在主板上安装了SSD(不是那么重要,只是为了弄清所有的事实)。 我用一个电池后备写caching模块购买了带有256MB内存的HP P410。 我使用的是esxi 5.1,我有一个Windows虚拟机。 在这台Windows机器上,我得到了很糟糕的读取速度(只能达到40-60 MB / s),写入速度还算不错(大约100MB / s),但是比我使用集成RAID时还要慢。 例如,这是从一个大的文件复制到ssd http://img.hihi.si/Upload/vYbD.png 🙁 这是我的RAID控制器和数组信息 ~ # esxcli hpssacli cmd -q "ctrl all show config detail" Smart Array P410 in Slot 1 Bus Interface: PCI Slot: 1 Serial Number: PACCRCN80ZK1TXH Cache Serial Number: PACCQID11090TB9 RAID 6 (ADG) Status: Disabled Controller Status: […]
我最近买了戴尔PowerEdge T430服务器,我想在它上安装ESXi 6.0。 由于VMware现在支持UEFI(从版本5.0)我想问如何安装虚拟机pipe理程序? BIOS UEFI 安装完毕后,在um中更改bios / uefi设置… bios会导致系统无法启动,因此我希望在有机会时select正确的决定,而不是稍后通过重新安装整个ESXi来进行更改。 当服务器处于UEFI模式而不是BIOS时,VMware ESXi在安装和使用时是否有任何优势? 既然我们在这个话题上:Hyper-V如何与之相关呢? 在UEFI设备上启动时,Hyper-V会有什么优势吗? 编辑: 我唯一可以find的文章是在VMware知识库网站上提供的有关ESXi 6.0中新增function的文章,它可以将ESXi安装在从UEFI而不是BIOS启动的服务器上,但仅此而已。 安装或升级到VMware ESXi 6.0的最佳实践(2109712) 我也在戴尔的网站上发现了一些东西,但也没有什么有意义的VMware ESXi支持UEFI
重新启动ESXi 6.0服务器后,将不再装载在Windows Server 2012 R2框中承载的多个NFS共享。 以前这些共享工作正常,但现在任何NFS安装会遇到以下错误: The NFS server does not support MOUNT version 3 over TCP 这很奇怪,因为NFS服务器启用了版本3和4 同样,协议同时启用了TCP和UDP。 防火墙也允许NFS连接。 我对NFS为何无法挂载到ESXi上的原因感到有些遗憾。 据我所知,没有进行重大的configuration更改。 networking设置 两个物理适配器。 一个configuration为故障切换,但是一个子网192.168.1.0/24下的所有stream量与主LAN相同。 没有VLAN或任何复杂的。 存储设置 托pipe在Windows Server 2012 R2服务器上的2TB存储空间镜像。 3以“只读”方式将ESXi主机读/写的NFS共享设置为“所有机器”。 我已经尝试重新启动Windows Server 2012 R2框中的NFS服务器服务,但问题仍然存在。 有任何想法吗?
最近,我们从基于ESXi 5.5 AMD的较早版本的服务器迁移到新的基于Intel的ESXi 6.0服务器,这两个服务器均采用64位处理器。 我们只是把旧的服务器上的虚拟机文件夹复制到新的服务器上,然后启动它们,回答“我把它移动到”popup的问题上。 一切都很顺利,但今天我试图将虚拟机恢复到旧服务器中的旧快照:ESXi未完成操作,并给出了这两个错误: 此虚拟机的function要求超过了此主机当前evc模式的function 本机中处理器的供应商是不一样的 据我了解,EVC是一种与vCenter和vMotion相关的技术,它可以防止具有不同处理器/体系结构的服务器之间的vMotion,但是我拥有一个服务器ESXi环境,没有这些function。 有没有解决这些erorrs? 也许编辑VMconfiguration文件?
我有一个由VMware分布式交换机未获得许可的3台VMware ESXi6.0主机组成的集群。 目前,这些主机在服务器上的两个端口之间configuration了一个静态LAG,而在一对Cisco Nexus 9372PX交换机上的每个端口上都使用了vPC。 服务器通过光纤连接10GbE。 我对vPC的理解是,它允许交换机在不使用堆栈的情况下跨多个设备形成聚合链路。 所以,我已经configuration了一个静态LAG,这似乎工作正常。 我担心的是,如果没有LACP等协议,如果其中一个Cisco交换机出现故障,或者其中一个服务器NIC出现故障,则无法重新协商哪些端口可以joinLAG,因此我们将失去理论50%的stream量(基于Src / Dst IP哈希)。 有没有更好的方法来configuration这个链路聚合? 在10GbE上,有什么好处,有一个聚合的链接(我的直觉是没有的),我应该让VMware“做这件事情”的故障转移? 我应该在交换机上configuration什么样的configuration? 以前我已经做了很多次的研究,所有的道路似乎都指向了VMware分布式交换机,不幸的是,这对我们来说是非常昂贵的。
这是在ESXi上运行的虚拟机。 服务器连接到HP Storage。 虚拟机启动后,几分钟后( top运行)进程scsi_eh_320启动并吃90%的CPU,并保持在那里。 有谁知道这是什么原因造成的? 编辑 发现这在我的分贝: CREATE OR REPLACE FUNCTION public.sys_eval(text) RETURNS text LANGUAGE c IMMUTABLE STRICT AS '/tmp/gameover.so', $function$sys_eval$function$
在外部托pipe站点中,我有三台ESXi主机都连接到同一个networking。 创build跨越这三台主机上的所有虚拟机的虚拟networking将会是一个很好的解决scheme吗? 可以以某种方式在ESXi主机之间通过现有物理networking桥接vSwitch,还是需要连接ESXi主机的第二个物理networking? 另外,投资于vSphere是一个更好的解决scheme吗?
是否有可能从ESXi控制台login到Linux客户机 – 而不是通过tcp堆栈,如solaris全局区域中的zlogin到非全局区域?
我在我的实验室中构build虚拟机,我想复制文件服务器在生产中遇到的情况。 以下是我想要做的简要概述。 我有多个ESXi 4服务器。 他们正在访问SAN,每个虚拟机将存在于arrays上的自己的LUN中。 我也有一些需要虚拟机访问的数据。 我的目标是在VMhostA上启动一个虚拟机(让它称为文件服务器)。 我希望fs能够以原始模式访问数据LUN,这意味着如果fs消失,我希望能够从物理(非虚拟)机器上将其挂载为ext3(或其他)。 这意味着LUN上的数据不能放在vmdk文件中。 另外,我希望能够使用VMotion将该VM移动到VMhostB(显然,保持对数据LUN的访问) 我的理解是,我需要将LUN作为原始磁盘映射(RDM)来呈现? 从我所读到的,创build的RDM文件可以与fs虚拟机一起存储或存储在另一个数据存储区中。 假设它应该与fs一起存储是否是正确的? 另外,看起来存在两种types的RDM。 有物理和虚拟模式。 我遇到了各种来源的冲突文档,所以我不知道该怎么想。 在这种情况下,我select哪一个? 有什么区别,适用于我的情况? 非常感谢您阅读所有的方式;-)
我是虚拟化领域的一个相对的小白鼠,但是想在我们的组织中推广它。 我想testing的应用程序需要在失败后很快备份…所以我想将2个VMWare服务器放在networking上,并将虚拟机放在磁盘arrays上,这样如果其中一台主机下来我可以把虚拟机在第二台主机上。 我们目前在networking上没有windows存储服务器NAS,但是我们有一个Windows Server,其中有很多磁盘空间。 此外,我们使用DPM 2007进行内部备份,以备份需要在Windows机器上的数据(我认为) 在理想的世界中,我可以在Windows服务器上共享一个大型arrays,而VMWare ESX服务器则使用这个arrays作为VM的数据存储。 然而,我担心要么是不可能的,要么performance不佳…在这种情况下,我想我们使用Server 2008 Hyper-V而不是vmware …或者有更好的方式来提供冗余? 找出我的问题是没有意义的,因为我仍然处于研究阶段:)