Articles of iscsi

OpenStack Cinder:重启后iSCSIlogin协商失败

我有一个Cinder存储和控制器节点运行在与Nova计算机相同的CentOS 7盒子上。 一切正常,直到我重新启动。 现在,我的实例无法装入卷,我得到下面的错误。 dmesg的: [ 923.546115] scsi5 : iSCSI Initiator over TCP/IP [ 923.560908] iSCSI Initiator Node: iqn.1994-05.com.redhat:c87d91366225 is not authorized to access iSCSI target portal group: 1. [ 923.561124] iSCSI Login negotiation failed. [ 923.561207] connection3:0: detected conn error (1020) NOVA-compute.log: 2015-01-28 14:51:42.460 1962 TRACE oslo.messaging.rpc.dispatcher ProcessExecutionError: Unexpected error while running command. 2015-01-28 […]

iSCSI企业目标和客户端都在debian上给出无效的iniatorname错误

我有两台Debian Wheezy机器,并试图使用iSCSI为其中一台磁盘设置存储空间(它们没有同步用户,所以NFS不适用于此应用程序)。 我已经在服务器上安装了ietd,并在客户端上打开了iscsi。 我在服务器上的configuration如下: ietd.conf Target iqn.2015-02.uk.co.meridiandigital:email Lun 0 Path=/storage/email/email_export.img,Type=fileio,IOMode=rw IncomingUser myuser mypass Alias LUN1 initiators.allow ALL ALL targets.allow ALL ALL 在客户端的configuration是: iscsid.conf iscsid.startup = /usr/sbin/iscsid node.startup = automatic node.leading_login = No node.session.auth.authmethod = CHAP node.session.auth.username = myuser node.session.auth.password = mypass discovery.sendtargets.auth.authmethod = CHAP discovery.sendtargets.auth.username = myuser discovery.sendtargets.auth.password = mypass node.session.timeo.replacement_timeout = 120 node.conn[0].timeo.login_timeout = […]

Windows – 使用Linux存储服务器的客户端读/写caching装载networking驱动器

有没有办法在客户端读/写caching启用的Windows上安装networking驱动器? 在我的情况下,驱动器保证由1个用户安装,而性能比networking/电源故障时的可靠性更重要。 我完全控制Linux文件服务器,所以任何服务都是可能的(一些特殊的iSCSI或其他)。 仅仅由千兆networking限制的原始非caching性能是不够的。

Hyper-v iSCSInetworking设置

我在Windows Server 2012 R2上安装了Hyper-v。 我们使用2台Dell R730xd,每台主机有8个NICS(4x10GigE 4x1GigE)。 我想将2个NICS专用于我们的iSCSInetworking,但是我不确定我应该怎么做。 最初,我曾计划在10GigE中的两个主机上为每个主机创build一个NIC组,然后将它连接到标记为“存储”的vSwitch,但是,我已经阅读了几篇文章说不要/这样做( 链接 )。 我的主要目标是确保冗余和吞吐量。 我很困惑这三个陈述: ·基本上引用“不支持iSCSI + NIC Teaming”的Technet声明对于所有团队解决scheme仍然是正确的,例外的是我们提供的Windows Server 2012收件箱NIC Teaming解决scheme。 ·如果iSCSI Initiator与专用NIC(如独立和/或故障切换群集环境)一起使用,则不应使用NIC Teaming(因为它不会为专用NIC增加MPIO的优势)。 ·如果在共享NICscheme(如下图)中使用iSCSI Initiator(例如在Hyper-V 2012环境中),则支持通过Hyper-V交换机(以及NIC组合)使用iSCSI启动器。 我应该使用两个单独的NICS连接到两个不同的vSwitch,还是可以按照最初的计划在主机上configurationNIC组? 有没有另外一个/更好的方式来设置iSCSInetworking?

来自基于guest虚拟机的目标的持久性ESXi iSCSI数据存储?

我正在为思科和VMware构build一个家庭实验室环境,这个环境也将成为一个NAS。 该系统运行ESXi v6.0裸机。 我的devise的一部分是我有一个带有LSI2008的联想TS440,我曾经使用VT-d给客人,而且客户机运行带有LIO的ZFS,提供一个LUN,然后我可以使用它作为其他VM的数据存储。 这个devise灵感来自于这个: 将ZFS服务器作为虚拟来宾进行托pipe performance是惊人的,它运行得很好。 但是我遇到的一个问题是,如果我重新引导ESXi主机(有时候我会这样做,因为这是一个实验室环境),那么使用iSCSI数据存储的虚拟机就不能上来了(它们是灰色的并显示无法访问。) 每次重新启动后,我都必须重新添加数据存储来修复它,不仅如此,而且启动阶段花费更长的时间,因为它试图到达iSCSI目标并失败。 主要的问题是这样的: 在尝试加载任何数据存储之前,可以configurationESXi以等待给定的虚拟机联机吗? 如果不是,我有什么select? 我知道我可以使用更大的ESXi启动磁盘,但是我宁愿能够对vmdisk进行ZFS化。

Windows Server 2003上的iSCSI数据不在Windows Server 2012上显示

我有一个带有4TB RAID 1的Western Digital My Cloud EX2驱动器。我在磁盘上创build了一个iSCSI Target,并设置了2个启动器。 一个在Windows Server 2003上,另一个在Windows Server 2012 R1上。 我的目的是让2个服务器共享相同的驱动器,但它看起来像一个本地磁盘。 这是不创build映射驱动器的原因。 如果我从Windows 2003 Server将文件放入驱动器,则无法在2012服务器中查看(反之亦然)。 我怎样才能做这个工作? 在此先感谢您的帮助。

一个非root用户可能连接到一个iscsi目标?

有一台机器是几个iscsi目标的发起者。 发起者和目标之间的networking在物理上是安全的,所以我一直认为这个章节不是必需的 如果我看看netstat,它在高端口上有连接到iscsi目标端口3260的外出连接,而且一切都很好 因为任何用户都可以使用这些高端口,所以似乎任何运行root用户的用户都可能设置一个stream氓iscsi发起者并做任何事情。 我可以在任何iscsi目标上telnet到3260并获得连接,所以看起来我可以获得对任何磁盘的阻止访问权限,而无需在启动器上创build根目录。 我对么?

丢失LVM元数据,但文件系统仍然有效

这里设置: 70TB JBOD作为SAN的一部分,分成5个LUN(4x15TB和1x10TB)。 运行Centos 7的文件服务器通过iSCSI连接到5个LUN,使用iscsiadm ,跨两个netowrkpath共10条path。 使用dm-multipath将这些iSCSIpath聚合成单个设备,即/dev/mapper/mpath* 。 在上面的dm-mutipath设备上使用pvcreate构build物理卷。 使用所有物理卷构build单个卷组。 build立多个逻辑卷到所需的容量。 使用mkfs.xfs逻辑卷格式化为XFS。 现在,存在一个需要维护(升级控制器固件)的SAN问题,因此我重新启动了文件服务器,以确保SAN恢复联机时没有任何问题。 重新启动后,我可以重新连接到SAN并挂载文件系统。 他们正常运作。 但是,在重新启动文件服务器之后,我注意到这些文件系统的LVM信息没有出现,即pvdisplay , vgdisplay和lvdisplay仅报告文件服务器上的本地磁盘。 这些VG和LV确实出现在/dev : /dev/vg_${VG} /dev/vg_${VG}/${LV1}_lv /dev/vg_${VG}/${LV2}_lv /dev/disk/by-id/dm-name-${VG}-${LV1}_lv /dev/disk/by-id/dm-name-${VG}-${LV2}_lv /dev/mapper/vg_${VG}-${LV1}_lv /dev/mapper/vg_${VG}-${LV1}_lv 而且他们确实使用pvs -a但是没有扩展: [root@file-server /]# pvs -a PV VG Fmt Attr PSize PFree /dev/centos/home — 0 0 /dev/centos/root — 0 0 /dev/centos/swap — 0 0 /dev/mapper/mpatha — 0 0 […]

如何在targetcli中缩小Linux文件支持的存储大小

我正在使用targetcli来调整iSCSI目标的大小。 我创build了一个大的FILEIO后台,这是浪费资源。 是否有可能缩小文件大小而不会丢失数据?

W2012R2 ISCSI MutualAuth:“发起者CHAP秘密给出无效”

尝试使用New-IscsiTargetPortal命令添加新的iSCSI-TargetPortal时,它只是拒绝,告诉我密码无效,必须在12到16个字节之间。 我的命令: New-IscsiTargetPortal -TargetPortalAddress "myServer.Domain.Forest" -AuthenticationType MUTUALCHAP -ChapUsername init -ChapSecret NNBGphGAWEYbDyyJ 这将返回以下错误: New-IscsiTargetPortal:启动器给出的CHAP密码是无效的。 CHAP密码的最大大小是16个字节。 如果不使用IPSec,则最小大小为12个字节。 + CategoryInfo:NotSpecified:MSFT_iSCSITargetPortal:ROOT / Microsoft / … CSITargetPortal)[New-IscsiTargetPortal],CimException + FullyQualifiedErrorId:HRESULT 0xefff004c,New-IscsiTargetPortal 当iSCSI目标(也win2012R2)没有任何问题接受密码,所以我不知道为什么它抛出这个错误。