在fedora linux的tgtd上,很容易将cdrom导出到iscsi。 但我没有find任何文档如何与targetcli和LIO做到这一点。 我发现的唯一例子是关于用新文件创build文件后端,但现有的光盘映像文件又如何连接到LIO并用targetcli导出呢?
我目前有一台运行RHEL 5.5的刀片服务器,它正在托pipeVirsh虚拟机。 但是,它一直在零散地连接networking。 现在已经这样做了几个月,今天似乎不再想join我的networking。 当我重新启动时,我看到“bnx2i:iSCSI不支持,dev = peth0”。 我认为这可能是Broadcom NetXtreme IInetworking的驱动程序问题。 它需要能够支持iSCSI,因为Virsh客户启动有一个SAN设备。 我的问题是networking。 我需要能够让我的刀片再次在networking上。
我在Centos 6服务器上调整多pathiscsi的configuration。 目前我正在使用以下参数进行path重试: … polling_interval 1 no_path_retry 12 … 这意味着,如果path失败,将I / O请求保持在队列中12秒,然后将其设置为失败。 我正在考虑将超时时间增加到60秒( no_path_retry 60 ),但是我担心对系统的影响。 我知道I / O等待(因此负载)会上升很多,在这种情况下,我认为这是不可避免的,但是会不会把所有的RAM都吃掉? 系统最终会崩溃吗? 考虑通过这个多path的平均I / O大约是30MB / s。
我有一个简单的VMWare ESX Server 3服务器场(以及虚拟基础架构/ HA),它运行在单个iSCSI SAN上。 我们将NetGear ReadyNAS 2100设置为具有两个卷(镜像iSCSI SAN)的iSCSI目标。 它的工作是在主要故障时作为备份运行,也作为一些非常重要的非关键虚拟机的主存储器。 我已经成功地将它添加到我的存储群集中,除了两个目标都以某种方式停留在单主机模式下,所以只有一个服务器场中的主机连接到它(这与我们的主存储器不同,在主存储器中,所有主机均连接到两个目标)。 我如何设法错误configuration我的VMware存储? 我需要两台主机与这个备份iSCSI交谈来实现我的恢复目标。 谢谢!!
我一直想在业余时间尝试Windows群集系统,所以我需要一个免费的,最好是开源的iSCSI Target,它可以支持2k3和2k8故障切换,并可能需要高可用性集群。 我已经在vmware环境中尝试了ubuntu iscsi目标包,但在2k8testing中失败。 简而言之,我想为窗户打造一个“穷人的圣人”,让它能够做的不仅仅是开车。
iSCSI目标是OpenSolaris 2009.6(COMSTAR) iSCSIstream量在单独的VLAN中,目标和所有启动器使用9k巨型帧,交换机上启用巨型。 RHEL5上的iSCSI启动器在80mb / sec读取,80mb / sec写入(复制常规文件/使用dd,然后进行同步,然后计算实际速度) 问题是在Windows XP上的iSCSI启动器 – 非常慢,不能超过20-25mb /秒。 网卡:Intel 82574L,TCP卸载已打开。 有什么build议么?
我没有预算地运行一堆服务器。 我有几个快速1U的,但他们没有足够的存储空间,没有更多的可以添加。 我想用一些SSD来构build一个运行Linux的DIY SAN。 在服务器上使用iSCSI挂载SAN上的存储器是可能的,但是我担心TCP和SCSI的延迟开销。 所以我想我可能会使用eSATA。 我意识到存在电缆长度限制,而且灵活性较差,但这是可以的。 我还假设一些消费级的SAN运行embedded式Linux,他们似乎能够把握这个壮举。 谷歌search没有透露如何让Linux通过eSATA出口到其他机器的信息。 可以这样做吗?
我有一个iSCSI故障转移实施设置,所以如果我的一个存储单元失败,另一个立即接pipe(它也运行NFS共享)。 发生故障转移时,将导出卷,将IP切换到另一台机器,并重新configuration目标。 存储系统本身的故障恢复正常。 我使用NexentaStor作为我的文件pipe理器。 当我做一个testing(手动)对我的存储进行故障切换时,会发生以下情况: 注意:我在iSCSI上运行NFS和基于客户的虚拟机上的pipe理虚拟机 所有基于NFS的虚拟机都保持正常运行,并通过故障转移完成 所有在iSCSI上运行的虚拟机最终报告如下: 关于无法写入特定块的错误 关于日记的错误不起作用 然后文件系统转到RO 为了让虚拟机再次工作,我必须做到以下几点: 强制closures“破碎的”虚拟机。 分离iSCSI SR 重新连接iSCSI SR 在不同的服务器上启动虚拟机(我的池中有5个)如果我不在另一台服务器上启动,我得到这个错误"Internal error: Failure("The VDI <uuid> is already attached in RW mode; it can't be attached in RO mode!")"我发现修复这个错误的唯一方法是重启之前运行的整个服务器,这显然是一个巨大的痛苦。 目前多path没有启用(但可以和同样的事情仍然发生)。 我编辑了很多/etc/iscsid.conf文件来处理超时设置,但无济于事。 总之,我的存储故障转移正常,但XenServer不保持连接活着。 作为一个想法,上面#4中显示的错误可能是最终的原因和解决办法,将解决一切? 任何帮助,将不胜感激,比你知道的。
我正在使用Win2008 32位Ent。 在Hyper-V中运行,并通过ISCSI连接运行2个LUN(这是一个MS群集,其中一个LUN为仲裁,另一个为存储)。 在ISCSI – >目标 – >细节我看到来自同一目标(目前7)多个会话,但我不知道他们来自哪里,因为我只有一个虚拟网卡在这台服务器上。 果然有两个LUN在设备pipe理器或磁盘pipe理器中出现7次。 然而,在集群伙伴上,我没有看到这个问题。 每个目标只有一个会话。 安装MPIO只会有所不同 – 一旦重新启动,我将获得8个会话而不是7个会话。 有没有人知道什么会导致这种行为?
我有两台Dell R710服务器(用于设置HyperV群集)和一台MD3000i SAN设置: 服务器1 /服务器2: NIC 1:连接到公司LAN 网卡2:交叉到其他服务器的网卡2 网卡3:交叉连接到SAN控制器1的iSCSI端口 网卡4:交叉连接到SAN控制器2的iSCSI端口 我将这两台服务器都设置为无盘服务器,从SAN启动iSCSI时没有任何问题。 但是,如何从虚拟机中访问iSCSI,以便在虚拟机之间build立群集呢? 我可以从主机ping到SAN,但发现NIC3 / 4不能用于HyperV虚拟networking? 我究竟做错了什么?