我试图找出在同一个盒子上与多个虚拟机共享存储的最佳方式。 我知道一系列的select:NFS,iSCSI,光纤通道,桥接等,但我不清楚它们如何组合在一起或相互排斥。 根据我目前阅读的内容,以下是一些我所理解为真实的陈述,但不是确定的陈述。 如果有人能够肯定或纠正我的理解,那就太好了。 目前我正在考虑使用Proxmox(KVM + ZFS),但是如果其他虚拟机pipe理程序在这些语句方面有重要的区别,请解释一下。 对或错?: 为了在同一主机上的虚拟机之间共享存储设备,我可以使用桥接networking来最大化速度。 使用桥接networking,不使用物理networking硬件,而是CPU充当虚拟网卡,速度更快,因为系统总线的速度限制,而不是以太网/光纤通道等。 由于上述原因,除了消除less量的CPU开销之外,使用像光纤通道这样的特殊function与虚拟机共享存储没有任何好处。 使用fibrechannel卡可能会不必要地为虚拟机与托pipe存储的交互创build一个额外的步骤。 iSCSI vs NFS设置的速度和复杂性在虚拟机pipe理程序之间有很大差异,所以一旦我决定了一切,就应该做出这个select。
我在CentOS机器上运行了iscsi-initiator和multipathd。 如果有一条path出现故障,我怎样才能有效地通知(如通过电子邮件)? 我在multipathd或iscsiconfiguration上找不到任何合适的选项。 我以某种方式偶然发现了这个多path监视器脚本,但这对我来说并不好,因为我需要正确地意识到这个问题。
我有基于Centos 7的无盘服务器系统。它接收NIC bios中指定的目标并启动。 问题是 – 系统具有非常低的iSCSI故障超时,在5秒内失败。 这是我试过的:在/etc/iscsi/iscsid.conf中编辑参数: node.session.timeo.replacement_timeout = 86400 node.conn[0].timeo.noop_out_interval = 0 node.conn[0].timeo.noop_out_timeout = 0 这没有帮助。 我用iscsiadm -T target -p ip -o update -n param_name -v value指定了相同的参数它没有帮助我在dracut config中指定了这些参数(它在未知的命令rd.iscsi.param =上进行了说明),仍然没有任何意义。 也许有人可以提出一些build议
我一直在尝试设置无盘机器,以便从FreeNAS 11上运行的iSCSI目标直接启动Windows 10 Pro x64。iSCSI目标的zvol位于两个镜像SSD上。 这是目前testing设置的概念certificate之前,我投入更多的时间和金钱进入这种types的configuration。 通过我在本机中使用的Intel X540-T1 10GbE网卡上的Option ROM完成与iSCSI目标的连接。 (我也用iPXE挂钩iSCSI目标)这似乎没有问题连接到目标。 我用来安装Windows的映像是我添加了NIC驱动程序的版本1511图像。 在此之前,我还将iSCSI启动器服务设置为自动,将其安装在VM上,设置服务,sysprepping,然后使用DISM捕获映像。 我以前可以 a)使用英特尔的OpROM连接到目标 b)使用本地安装媒体(USB)将Windows 10直接安装到所述目标上。 它能够在安装过程中看到iSCSI目标而不会受到挑衅。 重新启动后安装后,Windows将开始引导,但然后迅速(看似)失去连接到目标,因为没有networking活动,并最终蓝屏与INACCESSIBLE_BOOT_DEVICE错误消息。 使用iPXE / wimboot / WinPE将Windows直接安装到iSCSI目标上时,结果相同。 有谁能告诉我我在做什么错在这里? 我在这个领域里有点新鲜,所以我觉得我一定在做一些愚蠢的事情。 提前致谢
我有ISCSI目标实用程序的问题。 服务正常启动,但显示错误: systemd [1]:启动tgtd iSCSI目标守护进程… tgtd [3138]:tgtd:iser_ib_init(3436)无法初始化RDMA; 加载内核模块? tgtd [3138]:tgtd:work_timer_start(146)使用基于timer_fd的调度器 tgtd [3138]:tgtd:bs_init(386)使用signalfd通知 systemd [1]:启动tgtd iSCSI目标守护进程。 目标定义正确,但在命令后不存在tgt-admin -s删除并安装scsi-target-utils不能解决问题。 哪里不对 ?
我有一个设置,我将通过iSCSI在Solaris 11 ZFS SAN上托pipeWindows Server 2016映像。 这些映像开始是裸机安装,然后我使用Clonezilla将它们克隆到专用的SAN卷。 一旦我这样做,我删除硬盘驱动器,更改启动设备到iSCSI控制器,并且系统启动正常。 有时候(我已经完成了这个过程至less十几次)系统会在第一次启动时closures蓝屏iSCSI(PNP Detected致命错误),自动重启,然后启动正常。 然后,我可以closures/启动或重新启动系统多次,我想和没有崩溃。 问题:如果服务器意外断电(按住电源button等),则系统每次都会抛出一个蓝屏死机,并且游戏结束(我必须将硬盘重新映像到SAN)。 系统从硬盘驱动器运行时,无法通过closures电源来重现此故障。 勘误表:这是一个带Intel X540-AT2网卡的SuperMicro服务器,我拥有最新的Intel Pro 22.7驱动程序。 不,这种情况不应该发生(UPS,常识等),但是这是一个可交付的系统,在这种状态下对我来说并不令人满意。 您对此问题的考虑和帮助非常感谢!
我知道在VMware ESXi上使用VMCP时,可能会在VM驻留的数据存储处于“所有pathclosures”(APD)状态时closuresESXi主机或重新启动虚拟机。 我想知道是否有可能暂停 (暂时挂起虚拟机的操作,但在技术上保持运行, 不会暂停),这是数据存储不存在显然不可能的)驻留在数据存储上的虚拟机数据存储进入APD状态。 示例用例:iSCSI服务器发生故障并locking,尝试恢复它超过了APD超时。 目前,Linux guest虚拟机将超出/sys/block/sda/device/timeout并且只读地重新挂载根文件系统,需要完全重启和fsck 。 如果虚拟机没有严重性,或者本身是多余的,那么最好让它们暂停,直到数据存储恢复(或者pipe理员决定重新启动它们) 例如,VMware Workstation如何处理虚拟磁盘的丢失。 我明白,虽然Workstation具有暂停function,但 ESXi可能完全不具备此function,这意味着此问题的答案可能仅为“否”
我有两个网卡可以访问我的iSCSInetworking。 我想指定发起者IP以及目标门户IP,并创build冗余链接并使用MPIO。 这很容易使用iSCSI启动器GUI中的高级设置完成。 但是,我想能够使用iscsicli指定发起者IP。 我很确定答案是在iscsicli persistentlogin的选项之一,其中有15个“*”代表不同的选项。 我只是不知道什么*取代什么。
我在不同的ESX主机(3.5)上在不同时间对iSCSI进行超时。 这令人费解,因为ESX主机和其他客户都在等待超时。 iSCSInetworking在专用networking上隔离。 这里是昨天晚上从vmkiscsid.log导出的: 2010-02-10-12:30:38: iscsid: an InitiatorAlias= is required, but was not found in /etc/vmware/vmkiscsid/initiatorname.iscsi 2010-02-10-12:30:38: iscsid: LogLevel = 0 2010-02-10-12:30:38: iscsid: LogSync = 0 2010-02-10-12:30:42: iscsid: Login Success: iqn.1992-08.com.netapp:sn.101197719,default,192.168.73.2,3260,2001, 0x1 2010-02-10-12:30:42: iscsid: connection1:0 is operational now 2010-02-16-02:03:35: iscsid: Kernel reported iSCSI connection 1:0 error (1008) state (3) 2010-02-16-02:03:39: iscsid: connection1:0 is operational after […]
提前啰嗦道歉… 试图解决全新的vSphere部署中的一些iSCSI缓慢(仍在testing中)。 布局是这样的: 3个VSphere主机,每个主机都有2个10GB网卡插入一对Nexus 5020之间,10Gig背靠背连接。 网卡以主动/主动冗余方式进行端口通道(对于熟悉N1KV的用户,使用vPC-mac固定)两个网卡都具有服务控制台,vmotion,iSCSI和访客stream量。 iSCSI位于单个子网/单个VLAN上,不会通过我们的IPnetworking进行路由(严格遵循第2层) 如果这是一个1gig的部署,我们可能将iSCSIstream量分离到单独的网卡上,但是当您开始向10千兆基础结构中的服务器投掷4个以上的网卡时,价格/端口变得相当可笑,而且我并不确信这是必要的。 开放的对话/技术事实重新:这个,虽然。 此时,即使是单个VM guest虚拟机也将缓慢启动到iSCSI存储(相同Nexus 5020 10gig交换机上的EMC CX4),并且从iSCSI恢复VM的时间大约是我们预期的两倍。 我们的服务器人员提到,如果我们将iSCSI分离到自己的NIC上,性能似乎要好得多。 从networking的angular度来看,我已经运行了我能想到的各种variables(端口configuration错误,MTU问题,拥塞等),而且我正在干涸。 除了当时正在执行的特定testing之外,这些主机上确实没有其他stream量。 重要的是要注意的是,访客stream量工作得很好……似乎存储是受gremlin存在的唯一的东西。 总结一下,我们并没有“过度利用”networking基础设施,因为我们几乎没有做任何事情,我只是寻找一些有用的技巧/想法,我们可以用来解决这个问题…最好不要抛出额外的10gig网卡,将要坐在10%左右的利用率,而我们有70 +%的剩余在我们的其他人。