多个虚拟机(VM)驻留在ESX服务器( ESX1 )上,并存储在iSCSI上。 将第二个( ESX2 )连接到iSCSI似乎正常工作,因为VM已创build并存储在iSCSI上。 但是,ESX1上的不活动系统已经从例如system.test更改为system.test(不可访问) 。 在某个时刻, system.test(无法访问)在ESX1上突然变为system.test,一切似乎再次正常工作。 但是, ESX2上的不活动系统已更改为system.test(不可访问) 。 看来,iSCSIpath交替活动和死亡。 如果path在ESX1上处于活动状态,则它们在ESX2上死亡 ,反之亦然。 configuration选项卡> iSCSI适配器>path: 与 ESX2上的iSCSI适配器与驻留在ESX1上的iSCSI适配器configuration相同。 可以在ESX2上创build一个VM并将其存储在iSCSI上。 但是,在某个特定时刻,iSCSIpath已经死亡,并且正在运行的虚拟机无法访问。 问题是如何解决这个问题。
目前,我们正在运行我们的XenServer虚拟机,而不是使用超过Drobo的扩展单元,并希望将Drobo中特定的600多GB虚拟机迁移到较新的Drobo上,因此我在新Drobo上连接了一个存储库,并使用XenServer“Move “function。 几个小时后,我检查了一下“错误 – 连接被重置”。 现在两个磁盘都有不完整的数据,不能工作。 有什么办法通过某种块级别的同步恢复这些数据吗?
我订购了某个服务提供商的专用服务器,他们也出租了iSCSI NAS。 所以我订购了1TB iSCSI,并通过GUI将它连接到proxmox。 然后我读到,提供商不build议连接多个主机到iSCSI。 我的问题是,当我创build两个新的proxmox虚拟机virtio硬盘(不同的虚拟机),它被保存在iSCSI上,这会使iSCSI中的数据损坏? 由于虚拟机没有连接到iSCSI,因此iSCSI驱动器上虚拟机硬盘的数据只能从proxmox保存,而不能从vm本身保存。 我希望你们能为我解决这个问题。
我有用作NAS的错误iSCSI目标(Synology DS1813 +): 1月19日12时03分55秒SRV1内核:[23311947.266497] iSCSI:iSCSI:EPIO [/ volume1 / @ iSCSITrg / iSCSI_3_Extent_LUN-LUN1_000],操作码[89],错误(-65539),pos(10578610176) 通过维基: SCSI命令这是命令:“比较和写”。 但是这意味着这个错误? POS机? 在ESXi(iSCSI iniciator)上发生此错误期间,I / O延迟增加。 设备“xxx”的performance已经恶化。 I / O延迟从平均值29890微秒增加到604191微秒。 警告 长/射SMARTtesting状态正常。
我需要在运行nginx的单个CentOS7服务器上安装40个HP 3PAR SAN卷iSCSI LUN /目标,每个卷大小为8 TB,并且需要将40个安装点显示为单个共享path。 这样的configuration对性能有很大的影响吗? 换句话说,访问320TB作为单个共享path的推荐方法(性能明智)是什么? 附加信息: 存储(320 TB)包含HLS VOD内容。 用户数量只能访问HLSstream只有30个用户,这就是为什么我认为单个Nginx实例应该足够了。 我使用的CentOS7文件系统是XFS。
Targetcliconfiguration在服务器重新启动后丢失了,我试图从备份文件中恢复configuration,使用targetcli restoreconfig <backupFile>configuration未恢复命令storageobjects or targets present, not restoring输出消息storageobjects or targets present, not restoring 。 下面是targetcli ls和systemctl status -l target targetcli ls o- / …………………………………………………………………………………… […] o- backstores …………………………………………………………………………. […] | o- block ………………………………………………………………. [Storage Objects: 0] | o- fileio ……………………………………………………………… [Storage Objects: 0] | o- pscsi ………………………………………………………………. [Storage Objects: 0] | o- ramdisk …………………………………………………………….. [Storage […]
所以,我在ServerFault中关于LeftHand SAN(问题1441和4478 )有一系列的问题。 我收到的一个回应质疑从SAN返回的iSCSI数据的吞吐量限于1GB网卡。 我认为这是一个很好的观点。 现在看看这是否会成为我的目标的实际瓶颈,我应该在当前的生产服务器上执行一些基准testing。 我应该使用哪些实用程序进行分析? 如果有特殊的指标我应该阅读,他们是什么? IOPS?,磁盘读/写B /秒?等 谢谢, 基思
我有一个困扰我的问题,因为有一段时间了。 我有几个环境和服务器。 所有这些都连接到1千兆位以太网swiches(例如思科3560)。 我的理解是,1千兆位的链路应该提供125Mbyte / s – 当然这是理论。 但至less应该达到〜100Mbyte / s。 这里的问题是,一个复制过程只能达到〜20Mbyte / s。 我知道这些因素,但他们没有任何区别: 源和目的地在同一交换机上或不 复制实用程序:SCP,Rsync,Windows副本,Windows robocopy SMB / CIFS,NFS,iSCSI 磁盘存储:NetApp FAS,本地连接的15k SCSI 所有这些configuration,我从来没有得到超过〜25Mbyte / s的吞吐量。 事情是,如果我启动多个并行复制stream,比如rsync的3倍,我几乎达到了90Mbyte / s。 我也做了一些IOMetertesting,发现“chunksize”有很大的不同,但通常不能用给定的工具调整(或者是?)。 巨型框架没有启用,但我不确定是否会有所作为。 TOE在所有NIC上启用。 你会想到什么瓶颈? 你有类似的经历吗? 这些是预期的“自然”价值吗? 提前致谢
我们有一个小的ESX3集群,连接到两个iSCSI存储arrays,并附带Server vMotion(我不相信我们有Storage vMotion)。 一个数组是(总)Windows,并且几乎一直需要Windows更新。 备份arrays提供了非常相似的性能,但在不需要太多维护的平台上。 但是,由于这个问题的范围之外的原因,假定Windows数组必须是主数据库。 目前,我们只closures所有虚拟机,将ESX主机置于维护模式,重新启动存储arrays,然后重新启动虚拟机。 这是费时和烦人的,但似乎没有造成任何问题与VM镜像。 在我需要在初始存储arrays上执行维护(也称为Windows Update重新启动)的情况下,如何将我的VM迁移到备份arrays? 数组返回后,如何将其迁移回来? 更喜欢使用VirtualCenter,但是我们从命令行感到舒适。 或者,如果可能的话,是否有办法将这两个arrays集成在一起(使用我们现有的技术 – 不添加硬件购买)?
我正在设置一个testing平台在Xen上运行一些testing,因为我想使用实时迁移,我正在考虑使用iSCSI作为存储,但是我只有2台机器用于快速设置。 所以我的想法是在XenServer A内部运行OpenFiler,为自身和XenServer B上的虚拟机提供存储。我的问题甚至有可能发生? 我猜XenServer B没有问题,但是如果XenServer A能够使用自己运行的虚拟机作为iSCSI目标,我会感到困惑。