Articles of iscsi

iscsi读取速度慢

我们目前在拷贝一个大文件(35GB +)的时候速度非常慢,让我们感到惊讶的是,它以300MB / s的高传输率开始,然后在传输10-20秒之后下降到4MB / s。 该文件正在从iSCSI LUN传输到本机上的本地驱动器,也试图将该文件复制到/ dev / null的结果是一样的,有一个1Gbs链接进入目标,目标,交换机和启动器都是在私有VLan上,所有三个组件的MTU也都设置为9000。 任何人都可以帮助我们理解为什么传输突然下降到4MB / s? 感谢您的时间。 存储是NETAPP FAS2040,RHL 5.2,CISCO交换机。 问候,

RHEL 6 iSCSI LUN

我有一个RHEL系统作为iSCSI目标,通过/etc/tgt/targets.conf(我在/etc/tgt/targets.conf中注释掉的例子之后构build的)通过一个目标共享2个LUN ): <target iqn.2014-04.com.local.box:ESXi.target1> backing-store /dev/ESXi_VG/ESXi_LUN_01 #LUN01 backing-store /dev/ESXi_VG/TEST_LUN_01 #LUN02 </target> 这些旨在作为数据存储共享给一对ESXi主机。 我最初在数据存储的vg ESXi_VG上创build了一个4.00 TB的LVM逻辑卷; 但是我意识到我需要第二个LUN通过RDMtestingIops到ESXi主机上存储在本地存储上的虚拟机。 为此,我在同一个卷组上创build了另一个5.00 GB LVM逻辑卷,并在上面显示的目标configuration中为第二个LUN添加了LUN条目。 然后卸载ESXi主机上的4.00 Tb LUN,然后重新启动tgtd。 我现在看到一些奇怪的东西。 首先,这里是tgt-admin -s命令的输出,显示当前的LUN: [root@box ~]# tgt-admin -s Target 1: iqn.2014-04.com.local.box:ESXi.target1 System information: Driver: iscsi State: ready I_T nexus information: LUN information: LUN: 0 Type: controller SCSI ID: IET 00010000 SCSI SN: beaf10 Size: […]

故障切换iSCSI附加存储

我们有一个Windows 2012 R2 Hyper-V虚拟机,它有多个通过iSCSI直接连接到SAN的驱动器。 这些驱动器可以通过多个其他2012 R2虚拟机使用UNCpath来添加和获取文件(很less更新/删除)。 这些文件由内部进程创build,稍后由用户查看。 如果连接到iSCSI存储的虚拟机脱机,那么我们所有的文件处理都必须停止 – 我们无法生成并保存新文件,用户无法查看它们。 这是一个单一的失败点。 如果第一台虚拟机脱机(计划内或计划外),是否有一种技术可以将iSCSI驱动器连接到另一台虚拟机? 我们的SAN不具备将NAS作为NAS的能力(这会让我们的生活更轻松)。 是否可以使用Windows故障切换群集通过将iSCSI驱动器连接到主要位置来提供一些冗余? 我只能findiSCSI Target故障转移,但我不认为这是我所需要的。 有任何想法吗?

在Ubuntu上从2个不同的iSCSI目标服务器挂载iSCSI目标

我有两个iSCSI目标服务器。 iSCSI启动器是Ubuntu主机(Ubuntu 14.04)。 我正在使用Ubuntu的open-iscsi将iSCSI目标从两个iSCSI目标服务器安装到我的启动器。 问题是/ dev / disk / by-id中的符号链接被“覆盖”。 当我对第一个iSCSI目标服务器执行iscsiadm discovery和iscsiadm -m node -l命令时,挂载目标并在/ dev / disk / by-id下有符号链接。 例如,login到第一个iSCSI目标服务器后执行ls -l / dev / disk / by-id可能会显示以下信息: scsi-3600000e00010001 -> ../../sdc scsi-3600000e00010002 -> ../../sdd scsi-3600000e00010003 -> ../../sde wwn-0x60000e00010001 -> ../../sdc wwn-0x60000e00010002 -> ../../sdd wwn-0x60000e00010003 -> ../../sde 在发现并login到第二个iSCSI目标服务器(没有注销iSCSI目标服务器)之后,执行ls -l / dev / disk / by-id显示如下所示: scsi-3600000e00010001 […]

带有iSCSI的ZFS文件系统

首先,快速解释潜在的问题。 我作为系统pipe理员获得了一份新工作,并使用ZFSinheritance了一个文件服务器作为共享数据的基础。 该池包含许多文件系统,但没有卷。 最近在服务器上的Samba共享停止工作,这似乎是一个身份validation问题。 我们正在与提供ADauthentication集成的Centrify合作,找出原因。 当我们等待时,已经有一周了,所以用户变得非常不安,pipe理层已经开始盯着我们,我们一直在想办法以另一种方式分享数据。 我们发现Centrify Samba与Debian 8.4可以正常工作。 在这一点上,我们想build立另一台服务器来临时发出Samba共享。 这第二个服务器将需要连接到主文件服务器。 已经讨论过NFS和iSCSI,但都有问题。 从我的研究中,当NFS挂载通过Samba共享时,NFS具有性能,权限甚至数据validation问题。 它可以工作,但似乎不是最好的解决scheme。 iSCSI另一方面听起来好像很好,但似乎需要ZFS卷而不是文件系统。 所以问题如下。 ZFS文件系统可以用作iSCSI目标吗? ZFS文件系统可以转换为ZFS卷吗? 或者NFS解决scheme在这个临时案例中效果最好?

在连接到同一交换机的服务器中使用多个NIC是否有好处?

我正在考虑在家庭networking上设置基于软件的iSCSI SAN。 我正在看这个,因为我有两个虚拟机服务器在运行,想要一个通用的,易于pipe理的存储池,而不是单独pipe理每个虚拟机服务器。 我想知道的是,在构成iSCSI LAN的每个服务器中使用多个NIC是否有真正的好处。 我正考虑在iSCSI服务器中安装四个千兆位PCI *适配器,并在每台虚拟机服务器上安装两个。 (对于这个问题,我们假设磁盘访问不会成为限制瓶颈)。所有八个端口将连接到同一个只有iSCSIstream量的非托pipe千兆位(消费级)交换机。 (假设有一个单独的局域网的正常stream量。) 这样设置硬件有什么意义吗? 我真的会看到可用速度的合理增长吗? *我说PCI,因为存储服务器将只有PCI插槽可用。 (编辑 – 我不关心在这种情况下的冗余..只是从硬件获得最高的带宽)

为什么我的ESX主机看不到我的iSCSI存储?

我有4台ESX 4.0主机(a,b,c,d),3个SATA Lefthand iSCSI SANS,1个SAS Lefthand iSCSI SAN 主机a,b&c可以看到全部3个SAS sans和1个SATA san 主机a,b,c和d可以ping全部4个存储设备 主机a,b&c可以vmkping所有4个存储设备 为什么主机D可以ping SATA san,但是不能vmkping呢?

iSCSI SAN – networking适配器瓶颈

我的新数据库服务器(Windows Server 2008 R2)与我的Dell EqualLogic iSCSI SAN具有4 Gbps的连接。 我一直在testing它通过同时备份多个数据库。 networking适​​配器似乎有一个瓶颈。 它显示为4个1 Gbps连接,并且networking利用率从不超过2 Gbps。 任何build议在哪里看下? SAN:48个驱动器。 10K 600GB SAS。 袭击50。 更新: stream量控制设置为自动,但我认为它正在使用,因为MPIO安装。 有一个开关,我正在巨型框架上工作,但在研究MPIO时,我注意到可能会影响性能的东西。 在我正在执行的数据库备份testing中,涉及4个卷:一个用于数据,一个用于日志,另外两个用于备份文件(由RedGate SQL备份分割以提高性能)。 我试图确定在SAN上分离卷是否有任何性能优势。 在我的旧服务器上,我会在这种情况下使用4个不同的RAIDarrays。 我的每个1 Gbpsnetworking适配器都有一个在10.0.1.251-10.0.1.254范围内分配的IP。 每个卷在“iSCSI启动器属性”的“Dell EqualLogic MPIO”选项卡中都分配有2个IP地址。 用于日志和两个备份卷的251和252。 数据量使用252和253。 看来这可能是一个限制因素。 我要看看是否可以为他们分配不同的IP地址。 更新2: 使用MPIO远程设置向导,我将“每卷卷最大会话数”从默认值2更改为4,然后重新启动。 每个卷现在有4个path,每个NIC一个。 现在,这4个网卡之间的利用率相当均匀,但总数仍低于2 Gbps。 每个人最多约45%。 一旦我访问我的交换机,我将尝试让巨型帧工作,看看是否有帮助。 解: 巨型框架。 必须在数据库服务器NIC和交换机上设置它们。 SAN自动处理它。 这需要在数据库服务器上重新启动。

如果我拔下iSCSI设备的插头会发生什么情况?

如果我拔下iSCSI设备的networking连接器,会发生什么情况? 如果我再次插入,“客户端”会自动重新连接吗? 有没有超时? (在我的情况下,我正在谈论一个提供iSCSI磁盘的QNAP NAS和一个挂载它的Ubuntu服务器)

在COMSTAR中查看iSCSI目标映射 – > LU

我使用COMSTAR在OpenIndiana服务器上创build了多个iSCSI目标。 基本上: zfs创build-V 10g池/ comstar / vol sbdadm create -u / dev / zvol / rdsk / pool / comstar / vol stmfadm add-view 600144F077000000000048C62BF00001 itadm创build目标 这是最后一部分我很难理解,因为我不告诉它要使用什么LU。 我假设它会使用任何可用的LU,但是在我创build了其中一些之后,我怎么知道哪些目标映射到了哪些LU? 我找不到任何相关信息。 'stmfadm list-lu -v'列出LU GUID和数据文件(例如/ dev / zvol / rdsk / pool / comstar / vol /) 'itadm list-target -v'和'stmfadm list-target -v'给我的目标IQN,但没有关于他们映射到的物理卷/ LU的信息。 这似乎是你通常想知道的事情,但我似乎错过了一些东西。