Articles of iscsi

Centos 6 – 多个iSCSI启动器节点

我们最近购买了第二个iscsi目标,我试图让他们都安装在我们的主机上。 每个将被安装到不同的目录。 是否有可能做这样的事情: /etc/iscsi/initiatorname.iscsi InitiatorName=iqn.2016-04.com.example.iscsi-1:testing1 InitiatorName=iqn.2017-01.com.example.iscsi-2:new-testing1 现在当我尝试login到第二个iscsi目标时,我被告知第一个。 iSCSI Initiator Node: iqn.2016-04.com.example.iscsi-1:testing01 is not authorized to access iSCSI target portal group: 1 我需要服务器上的第二个网站吗? 或者这是我做一些奇怪的事情。

如何从连接的客户端查找iSCSI服务的IQN?

我正在使用酒精iSCSI共享中心在networking上共享我的虚拟驱动器。 我的Windows和CentOS客户端使用iSCSI启动器和iscsiadm成功连接。 我在CentOS上使用命令iscsiadm -m discovery -t sendtargets -p 192.168.1.100来检测IQN信息,但结果并没有显示IQN是一个常规输出。 这里是输出: 192.168.1.100:3260,-1 ubuntu16 : 192.168.1.100:3260,-1 ubuntu16 -1 192.168.1.100:3260,-1 ubuntu16 ubuntu16是我的目标名称酒精。 我希望有一个像iqn.1991-05.com.microsoft特定的IQN,所以我可以从iPXE(sanhook)的虚拟驱动器启动。 提前致谢。

如何正确设置多个目标的LUN ID

我正在运行iSCSI通过FreeNAS共享多个iSCSI目标。 由于我是iSCSI新手,我担心我的LUN ID或其他设置不正确。 以下是我如何连接: 我在连接的Mac Mini(mac-data)上运行globalSAN Initiator。 我正在运行Mac Mini上的Parallels VM中运行的Windows 2012 R2中的内置iSCSI启动器(starscream-backup) 我在Mac Pro上的Parallels VM中运行Windows 8.1中的内置iSCSI启动器(bonecrusher-data和bonecrusher-backup) 是否应该为每个Target-Extent组合存在唯一的LUN ID? 或者,每个目标是否应该有一个唯一的LUN ID? 或者,在分配LUN ID时是否还有其他一些规则? 这是我的FreeNAS服务器iSCSIconfiguration:

我可以挂载一个VHDX只读,同时通过iSCSI读写吗?

我有两台运行Windows Server 2016 Standard的服务器,都是使用Hyper-V的Windows Server 2016标准主机上的虚拟机。 一台服务器运行需要将数据存储在本地文件系统上的服务,即具有驱动器盘符的服务。 没有UNCpath,没有SMB,没有身份validation。 另一台服务器是文件服务器。 我想要做的是应用程序服务器将应用程序数据存储在文件服务器上。 我可以通过iSCSI在文件服务器上创build一个VHDX。 这工作正常,应用程序成功地将其数据存储在此硬盘上。 但是,我想对VHDX的内容进行备份,理想情况是在文件服务器上完成这些备份。 为此,我需要挂载VHDX–但是我不能那样做,因为它“正被另一个进程使用”。 这是一个无赖。 有没有一种(支持)的方式来保持在文件服务器上的VHDX挂接只读的同时共享iSCSI? 我不担心应用程序服务器试图格式化或创build分区或东西。 我在文件系统上很灵活(NTFS,ReFS甚至ExFAT)。 我想知道是否应该将VHDX移动到物理主机,然后将它作为共享硬盘连接到两个虚拟机,但似乎是用于故障转移群集 。 也许iSCSI和VHDX在这里不是正确的方法,还有其他支持的方式,让服务器A上的一个驱动器号实际上将数据写入服务器B上的一个位置,服务器B可以访问这些文件,同时仍然能够使用卷影副本(VSS)进行备份? (是的,在服务器A上安装一个备份代理是可能的,但我想保持尽可能简单的事情 – 我意识到iSCSI可能是矫枉过正,因为我共享整个块设备,当真的,我只是想共享文件夹)。

工作端口对lsof不可见

在服务器上CentOS 7中,我在门户网站192.168.1.101:3260(ip是ips的其中一个)上启用了一个iscsi目标,以便从另一个服务器BI可以成功地在服务器A上挂载该iscsi目标。 从服务器B和服务器AI都可以成功执行telnet 192.168.1.101 3260 。 但是,在服务器上lsof -i -P |grep 3260什么都不显示! Selinux已启用,但禁用它并没有任何区别。 服务器A上configuration了多个接口,可能是这个原因? 如何查看lsof中的工作端口? 编辑:所有的命令都运行在根帐户。

Windows启动卷为只读?

尽pipe在Linux中以只读方式安装启动卷是非常简单的,但我不认为这在Windows中是可行的。 例如,各种日志都写在Windows \ system32下。 你可以通过为写入的子目录安装一个单独的可写卷来解决这个问题,但是这看起来已经过于复杂了。 我正在探索的想法是PXE从通过iSCSI访问的Windows的单个只读安装映像引导一组无盘计算机。 像这样的事情可以做吗?

iSCSI + GFS环境的硬件和拓扑结构build议

我们目前正在评估使用GFS + iSCSI的新环境的硬件和拓扑解决scheme,并希望得到一些build议/提示。 过去,我们已经部署了类似的解决scheme,所有访问GFS节点的主机本身都是GFS节点。 新的拓扑结构将分离GFS节点和访问它们的客户端。 基本图如下所示: GFS_client < – > gigE < – > GFS节点< – > gigE < – > iSCSI SAN设备 这是设置GFS + iSCSI的最佳方式吗? 你对GFS节点本身有硬件方面的build议吗(即 – CPU或内存大)? 你有build议调整/configuration设置,以提高性能的GFS节点? 目前,我们每个主机使用3-4个千兆以太网连接来提高性能和冗余度。 在这一点上,10GigE或光纤对成本/缩放比例更具吸引力吗?

MacOS X iSCSI启动器MPIO或LACP支持

我正在尝试在MacOS X Server 10.5上使用带有MPIO或LACP支持的MacOS X iSCSI Initiator。 我们一直在看ATTO的,但不是MPIO,也不是LACP。

Xen群集+ iSCSI – 我需要一个群集文件系统吗?

我正在部署带有iSCSI的双节点CentOS + Xen进行实时迁移。 这个想法是创build一个600GB的iSCSI LUN,将其安装在其中一台服务器上,并使用LVM进行分区。 每个VM在Lun中都有自己的逻辑卷。 我将在其他服务器上执行vhchange -ay来激活逻辑卷。 问题是:我需要一个集群文件系统吗? (GFS2,OCFS)还是会好的? 另外,如果我添加2-3个服务器,这个部署是否仍然有效,或者没有一个集群文件系统没有办法做到这一点? 在每个逻辑卷中,只有一个虚拟机将在此时写入,并且只有在迁移时才会切换到另一台服务器。 我想保持尽可能简单,没有RHCS或任何其他类似的解决scheme。 谢谢, -约翰

Drobo赞成不会通过iSCSI安装

我有一个Xserve,我configuration了Drobo Pro。 通过火线和USB连接,它工作正常,但是当连接到一个单独的networking端口,它不会安装。 我已经将Drobo Proconfiguration为2.0.1.2/255.255.0.0,networking端口为2.0.0.1/255.255.0.0。 我可以ping Drobo Pro的IP就好了。 我已经安装了Drobo Dashboard 1.6.8。 干杯 聂